Выступление Первого заместителя Постоянного представителя Д.А.Полянского на заседании СБ ООН по вопросам искусственного интеллекта и поддержанию международного мира и безопасности
Г-н Председатель,
Благодарим А.Гутерреша и докладчиков за вклад в нашу дискуссию.
Сегодня искусственный интеллект - это не только «модная тема», о которой кто только не рассуждает, но и прежде всего залог успешного технологического развития, экономического и общественного прогресса, а также важнейший элемент безопасности любого государства. Технологии искусственного интеллекта находят применение в политической, социальной, экономической и оборонной сферах. Однако при всем этом данная технология содержит и серьезнейшие риски и становится новым элементом, который может повлиять на устойчивость всей системы международных отношений. Наработки на основе ИИ способны воздействовать на общественное мнение, результаты выборов через распространение новостей, публикаций и фейков в социальных сетях, а также влиять на работу критически важной инфраструктуры других государств. При всем этом давайте честно признаем, что всех рисков, связанных с ИИ, никто в мире до конца не понимает, и этот момент нельзя игнорировать.
Начну с позитива. Искусственный интеллект, вне всякого сомнения, обладает значительным потенциалом для содействия экономическому развитию. Согласно ряду оценок, при сохранении текущих темпов роста индустрия ИИ способна внести до 15,7 триллиона долларов в мировую экономику к 2030 году. Кроме того, искусственный интеллект может оказывать влияние на достижение целей устойчивого развития: соответствующие приложения уже разрабатываются и внедряются для решения задач в сферах, связанных с изменением климата и здравоохранением.
Одна из ключевых особенностей ИИ - его способность влиять на занятость. По прогнозам Международного валютного фонда, ИИ способен «поглотить» почти 40% рабочих мест по всему миру, заменяя человеческие ресурсы и дополняя их. В результате страны с развитой экономикой получат большие возможности использовать его преимущества по сравнению со странами с формирующимся рынком и развивающимися странами, усугубляя цифровое неравенство и и без того высокий дисбаланс в мировом развитии, что может привести к социальной напряженности и новым конфликтам.
Поскольку плюсы от использования ИИ и бонусы от внедрения его самых передовых форм нам всем очевидны, так называемая «гонка ИИ», стремление опередить геополитических оппонентов путем быстрого расширения границ технологии, которая до конца неизвестна и неконтролируема (без соразмерных усилий по обеспечению безопасности ИИ для всех акторов), вполне может, как и «гонка вооружений», нести в себе экзистенциальный риск для дальнейшего существования человечества.
И это не единственная потенциальная угроза, связанная с развитием ИИ. Поэтому неудивительно, что число тех, кто видит в ИИ прежде всего новые возможности, сопоставимо с теми, кто усматривает в нем в первую очередь потенциальные угрозы. В любом случае, рискну предположить, что равнодушных к данной проблеме сегодня в мире практически нет, и она предсказуемо становится предметом обсуждения на различных политических и экспертных площадках.
СБ ООН здесь не исключение, однако мы убеждены в том, что у разговора на данную тему в рамках данного ключевого органа ООН, призванного заниматься вопросами международного мира и безопасности, есть очевидные ограничители. Во-первых, нам сложно понять, как генерическая тема искусственного интеллекта связана с четко прописанным в Уставе ООН мандатом СБ по поддержанию международного мира и безопасности. Во-вторых, что не менее важно, в СБ ООН заседают 15 государств, в нем есть очевидный и неестественный перекос в сторону представительства стран Запада. Соответственно, высок риск того, что эта группа государств, заинтересованная в сохранении и упрочении своего технологического лидерства в этой области, попытается навязать всему международному сообществу свой узкокорыстный подход в ущерб прерогативам инклюзивных специализированных форматов, которые занимаются практической работой на этом направлении.
Так, дискуссию по тематике компьютерных атак, совершаемых при помощи искусственного интеллекта, целесообразно проводить во Всемирном механизме (ВМ), учрежденном на смену профильной Рабочей группе открытого состава ООН по Международной информбезопасности (МИБ). Данная переговорная площадка уполномочена рассматривать ключевые вопросы безопасности в сфере ИКТ, включая ИИ. Новый орган в отличие от СБ ООН предоставит возможность всем странам на равноправной основе участвовать в выработке решений на сей счет.
Если речь о военных аспектах применения ИИ, для этого тоже существуютмногосторонние и инклюзивные профильные площадки – в первую очередь, Группа правительственных экспертов по смертоносным автономным системам вооружений, функционирующая в рамках Конвенции о «негуманном» оружии, а также КомиссияООН по разоружению (КОР). К слову, на данных площадках еще лишь предстоит выработать общее понимание по самым базовым вопросам - даже по терминологическому аппарату. Думаю, все мы понимаем, что на этом фоне перенос в другие форматы, тем более на площадку СБ, дискуссии по столь чувствительным вопросам, не говоря уже о рассмотрении влияния технологий ИИ на другие нераспространенческие и разоруженческие аспекты, по меньшей мере преждевременен.
Г-н Председатель,
Прошу не проецировать нашу позицию в отношении СБ и искусственного интеллекта на всю ООН. Мы считаем, что наша Всемирная организация может и должна сыграть координирующую роль в вопросах развития ИИ в противовес различным неинклюзивным и временным форматам с политизированной повесткой. При этом ключевым для нас является выход на универсальные договоренности при главенствующей роли государств и на основе равноправного диалога между ними, разумеется, при должном учете всех законных интересов участников переговорного процесса.
К сожалению, упомянутые мною государства не только пытаются, как я уже сказал, увеличить свой технологический отрыв от государств Глобального Юга в области ИИ, но и организуют неинклюзивные «саммиты по ответственному применению ИИ в военных целях», которые носят деструктивный характер. Я имею в виду, в частности, Сеульский «саммит» по ИИ 2024 г. – ограниченный, келейный формат, на который не пригласили большинство развивающихся стран. В этом же рядуконференции в Блетчли в 2023 г. и Париже в 2025 г. Данные мероприятия и принимаемые по их итогам документы не учитывают мнение всех заинтересованных сторон и не могут рассматриваться как основа для дальнейшей работы, которая бы отражала общее понимание данной тематики.
Благородная цель, якобы направленная на предупредительную разработку «ответственного» регулирования ИИ, является такой лишь на словах. На поверку оказывается, что навязываемая система регулирования опасна и вредна, поскольку прямо предусматривает разделение применения технологий ИИ на «хорошее» и «плохое». Тут-то и кроется главный вопрос: а кто будет определять, какое использование ответственное, а какое нет? Получается, что это та самая узкая группа стран без подключения подавляющего большинства государств-членов ООН.
Попытки «застолбить» на уровне СБ некие правила и установки отдельных государств, равно как и подменить ими международно-правовые инструменты, в т.ч. посредством продвижения неинклюзивных форматов и коалиций, едва ли приблизят нас к формированию общих подходов к тематике ИИ, включая его «военные» аспекты. В конечном итоге именно это может сыграть с международным сообществом злую шутку и иметь деструктивную проекцию на поддержание международного мира и безопасности. Хотим предостеречь коллег от таких необдуманных шагов.
Наша позиция остается неизменной. Мы поддерживаем координирующую роль ООН в вопросах ИИ. Приветствуем создание в рамках Всемирной организации механизмов по тематике ИИ – Глобального диалога и Международной независимой научной группы. Рассчитываем на плодотворные дискуссии в рамках этих форматов с опорой на принципы уважения суверенитета государств и соблюдения национальных законодательств производителями ИИ.
Хочется верить, что всех, сидящих в этом зале, объединяет убежденность в том, что допустить верховенства ИИ над человеком и человеческими ценностями нельзя. Со своей стороны готовы продолжать предметную, равноправную и взаимоуважительную работу по всем аспектам ИИ на любых профильных инклюзивных площадках с целью выхода на устраивающие всех решения данной задачи и максимального использования выгод от внедрения ИИ для всех государств планеты.
Благодарю за внимание.