Выступление представителя Российской Федерации Т.С.Баландиной на неформальной встрече членов СБ ООН по «формуле Арриа» по искусственному интеллекту
Уважаемые сопредседатели,
Дезинформация и распространение языка ненависти имеют свою проекцию на проблематику поддержания международной стабильности и безопасности. В руках тех, кто разжигает и подогревает конфликты, ИИ становится мощным инструментом. Однако преждевременно считать сам по себе ИИ угрозой миру и безопасности. О каком бы уровне сложности данной технологии мы ни говорили, речь идет все-таки об инструменте чьей-то деятельности, отражающем цели своих создателей, поэтому и говорить сегодня в первую очередь следует о роли разработчиков и операторов подобных систем. Считаем одним из основополагающих вопросов соблюдение этических принципов при программировании и использовании ИИ, а также обеспечение надлежащей защиты таких систем и задействуемых и производимых ими данных.
Пожалуй, наиболее обширное применение генерируемые при помощи ИИ данные находят в социальных сетях и на цифровых платформах. К сожалению, далеко не всегда они используются во благо. Вспомним вопиющий по своей человеконенавистнической природе шаг американской корпорации МЕТА, которая официально, во всеуслышание объявила, что «разрешает формы политического самовыражения, которые в обычной ситуации бы нарушали запрет на призывы к насилию». Таким образом, администрация платформы запустила алгоритмы, которые дали «зеленый свет» призывам к убийству россиян и разжиганию ненависти к русским в целом. Виноват в этой постыдной ситуации не ИИ как таковой, а те, кто его программирует. В итоге компания МЕТА понесла огромный репутационный ущерб и стала своего рода символом двойных стандартов в работе соцсетей.
Распространение языка ненависти, дезинформации, искажений фактов связано еще и с коммерциализацией цифровых продуктов и технологий. Как верно отмечается в одном из докладов Генсекретаря, традиционно разработкой и применением передовых технологий занимались компании частного сектора, правительства же отстают в их регулировании в общественных интересах. Эту тенденцию необходимо переломить, сделав ставку на особую роль государств в области управления развитием новейших технологий, включая технологии ИИ.
Уважаемые сопредседатели,
В России при поддержке государства крупнейшими ИТ-компаниями разработан национальный Кодекс этики в сфере искусственного интеллекта, задающий ориентиры разработчикам и пользователям для безопасного и этичного создания и применения систем с ИИ. Приглашаем заинтересованных коллег к взаимовыгодному обмену опытом на данном направлении.
Полагаем, что положения резолюции СБ ООН 2686 задают необходимые базовые ориентиры, в т.ч. применительно к использованию технологий ИИ в контексте дезинформации и борьбы с ней. Ключевой фактор – универсальность разрабатываемых в ООН подходов, находящих отражение в таких документах, как упомянутая резолюция.
Потребность в новых технологиях (включая ИИ) для обеспечения безопасности миротворцев и гражданских лиц отмечается в докладах Спецкомитета ГА ООН по миротворчеству (С34). Однако исходим из того, что их использование не должно отодвигать на второй план основные задачи миротворчества – содействие политическому урегулированию вооруженных конфликтов.
С учетом сказанного по-прежнему убеждены, что рассмотрение проблематики ИИ на площадке СБ ООН в качестве отдельной темы не имеет самостоятельной добавленной стоимости, по крайней мере на текущем этапе. Затрагиваемые здесь аспекты эффективно обсуждаются в уже зарекомендовавших себя форматах, дублировать деятельность которых Совбезу было бы контрпродуктивно.
Благодарю Вас.