Выступление представителя Российской Федерации В.В.Гончаровой с разъяснением позиции по проекту резолюции «Применение искусственного интеллекта в военной области и его последствия для международного мира и безопасности» L.43 в Первом комитете 79-й сессии ГА ООН
Г-жа Председатель,
Россия проголосовала против проекта резолюции «Применение искусственного интеллекта в военной области и его последствия для международного мира и безопасности» (L.43). Мы выступили также против пунктов РР2, РР8, РР9, ОР5, ОР6, ОР8 и воздержались по всем остальным пунктам, вынесенным на голосование.
Россия последовательно выступает против любых международных инициатив, способных привести к фрагментации работы или подрыву усилий по поиску международного консенсуса по такой важной и чувствительной проблематике, как применение искусственного интеллекта (ИИ) в военной сфере. Исходим из того, что ключевые и наиболее актуальные ее аспекты уже прорабатываются в рамках действующих многосторонних и инклюзивных форматов, прежде всего, на площадке Группы правительственных экспертов государств-участников Конвенции о «негуманном» оружии по смертоносным автономным системам вооружений (ГПЭ по САС), а также в Комиссии ООН по разоружению.
Выступаем против закрепления посредством данной резолюции только одного подхода к будущему возможному регулированию сферы военного применения ИИ – т.н. концепции «ответственного применения» технологий искусственного интеллекта (РР2, РР9, ОР5, ОР6). Считаем нецелесообразным пытаться предопределить итоги рассмотрения проблематики ИИ, которые в будущем могут включать в себя выработку профильных международных договоров и/или инструментов «мягкого» права, основывающихся на иных концепциях, чем пресловутое «ответственное поведение».
Вызывает озабоченность и то, что в рамках данной концепции уже сейчас формулируется некие спорные критерии, не известные международному гуманитарному праву (в частности, такое «ответственное применение» якобы должно быть «человекоцентричным, надежным и заслуживающим доверия»). Устанавливаются рамки будущей дискуссии, заранее подразумевающие наличие внутренних недостатков, в т.ч. «погрешности наборов данных или иных алгоритмических погрешностей». Это вызывает озабоченность, тем более что на международном уровне пока не выработаны ни общее понимание «искусственного интеллекта» как такового, ни основных его характеристик и параметров.
Считаем неправомерным приветствовать некие региональные неинклюзивные форматы, продвигающие взгляды узкой группы государств на проблематику военного применения технологий ИИ, которые предлагаются международному сообществу в виде неких «готовых решений». Речь идет, среди прочего, о саммите по ответственному использованию искусственного интеллекта в военной сфере (REAIM).
Наконец, категорически не согласны с тем, что в дискуссию по военному применению искусственного интеллекта благодаря проекту резолюции уже сейчас активно вовлекаются международные и региональные организации, гражданское общество, академические круги и коммерческий сектор (ОР8). Последовательно исходим из того, что ответственность за выполнение взятых на себя обязательств по международному праву несут государства, и, соответственно, именно они занимаются выработкой новых норм и принципов. Роль остальных акторов носит сугубо вспомогательный характер.
Благодарю за внимание.