Постоянное представительство Российской Федерации при ООН

Постоянное представительство Российской Федерации при ООН

Выступление представителя Российской Федерации Т.С.Баландиной на неформальной встрече членов СБ ООН по «формуле Арриа» по искусственному интеллекту

Уважаемые сопредседатели, 

Дезинформация и распространение языка ненависти имеют свою проекцию на проблематику поддержания международной стабильности и безопасности. В руках тех, кто разжигает и подогревает конфликты, ИИ становится мощным инструментом. Однако преждевременно считать сам по себе ИИ угрозой миру и безопасности. О каком бы уровне сложности данной технологии мы ни говорили, речь идет все-таки об инструменте чьей-то деятельности, отражающем цели своих создателей, поэтому и говорить сегодня в первую очередь следует о роли разработчиков и операторов подобных систем. Считаем одним из основополагающих вопросов соблюдение этических принципов при программировании и использовании ИИ, а также обеспечение надлежащей защиты таких систем и задействуемых и производимых ими данных.

Пожалуй, наиболее обширное применение генерируемые при помощи ИИ данные находят в социальных сетях и на цифровых платформах. К сожалению, далеко не всегда они используются во благо. Вспомним вопиющий по своей человеконенавистнической природе шаг американской корпорации МЕТА, которая официально, во всеуслышание объявила, что «разрешает формы политического самовыражения, которые в обычной ситуации бы нарушали запрет на призывы к насилию». Таким образом, администрация платформы запустила алгоритмы, которые дали «зеленый свет» призывам к убийству россиян и разжиганию ненависти к русским в целом. Виноват в этой постыдной ситуации не ИИ как таковой, а те, кто его программирует. В итоге компания МЕТА понесла огромный репутационный ущерб и стала своего рода символом двойных стандартов в работе соцсетей. 

Распространение языка ненависти, дезинформации, искажений фактов связано еще и с коммерциализацией цифровых продуктов и технологий. Как верно отмечается в одном из докладов Генсекретаря, традиционно разработкой и применением передовых технологий занимались компании частного сектора, правительства же отстают в их регулировании в общественных интересах. Эту тенденцию необходимо переломить, сделав ставку на особую роль государств в области управления развитием новейших технологий, включая технологии ИИ. 

Уважаемые сопредседатели, 

В России при поддержке государства крупнейшими ИТ-компаниями разработан национальный Кодекс этики в сфере искусственного интеллекта, задающий ориентиры разработчикам и пользователям для безопасного и этичного создания и применения систем с ИИ. Приглашаем заинтересованных коллег к взаимовыгодному обмену опытом на данном направлении.

Полагаем, что положения резолюции СБ ООН 2686 задают необходимые базовые ориентиры, в т.ч. применительно к использованию технологий ИИ в контексте дезинформации и борьбы с ней. Ключевой фактор – универсальность разрабатываемых в ООН подходов, находящих отражение в таких документах, как упомянутая резолюция. 

Потребность в новых технологиях (включая ИИ) для обеспечения безопасности миротворцев и гражданских лиц отмечается в докладах Спецкомитета ГА ООН по миротворчеству (С34). Однако исходим из того, что их использование не должно отодвигать на второй план основные задачи миротворчества – содействие политическому урегулированию вооруженных конфликтов.

С учетом сказанного по-прежнему убеждены, что рассмотрение проблематики ИИ на площадке СБ ООН в качестве отдельной темы не имеет самостоятельной добавленной стоимости, по крайней мере на текущем этапе. Затрагиваемые здесь аспекты эффективно обсуждаются в уже зарекомендовавших себя форматах, дублировать деятельность которых Совбезу было бы контрпродуктивно.

Благодарю Вас.

Видео выступления