Сообщество «Переводы» 13:19 10 августа 2024

ИИ в Америке поглощает сферу национальной безопасности

правовые и политические проблемы регулирования

1. Microsoft и Palantir объединяются для расширения возможностей ИИ для оборонных и разведывательных агентств США

Microsoft и Palantir расширяют свое текущее партнерство, чтобы предоставить своим клиентам из оборонных и разведывательных структур США больше возможностей облачного ИИ и анализа данных.

Партнерство, представляющее собой интегрированный набор систем Palantir и Microsoft, объединит крупные языковые модели, созданные Microsoft с помощью Azure OpenAI, в продуктах Palantir Foundry, Gotham, Apollo и AI Platform, доступных в правительственных и секретных облачных средах.

«Palantir и Microsoft имеют долгую историю работы в безопасных и аккредитованных условиях, предоставляя ведущие технологии для важнейших задач Министерства обороны и разведки США», — говорится в пресс-релизе, объявляющем о партнерстве.

Представленный 8 августа 2024 года Palantir также примет возможности Microsoft с технологией OpenAI в своих средах Secret и Top Secret. Ключевым преимуществом станет возможность для избранных федеральных клиентов использовать возможности ИИ и машинного обучения в своих операциях, включая логистику, контракты и планирование действий, а также другие рабочие процессы.

«Это расширенное партнерство между Microsoft и Palantir поможет ускорить безопасное, надежное и ответственное развертывание передовых возможностей ИИ для правительства США», — заявила в пресс-релизе Деб Капп, президент Microsoft Americas. «Palantir, лидер в предоставлении действенных идей правительству, теперь будет использовать возможности правительственных и секретных облаков Microsoft, а также надежные модели Azure OpenAI для дальнейшей разработки инноваций ИИ для задач национальной безопасности».

«Привлечение возможностей Palantir и Microsoft в аппарат национальной безопасности США — это шаг вперед в том, как мы можем поддерживать оборонные и разведывательные сообщества», — сказал в пресс-релизе Шьям Санкар, главный технический директор Palantir. «Palantir AIP стал пионером в подходе к операционализации ценности ИИ — за пределами чата — на предприятии. Наша миссия — предоставить это программное преимущество, и мы рады стать первым отраслевым партнером, который развернет службу Microsoft Azure OpenAI в секретных средах».

Расширенные предложения контрактов Microsoft и Palantir следуют за текущими усилиями агентства по внедрению надежных решений ИИ в федеральные операции. В конце июля 2024 года должностные лица Агентства национальной безопасности подтвердили, что более 7000 аналитиков АНБ используют генеративные инструменты ИИ в своей работе, отметив, что, хотя некоторые из них являются пилотными программами, агентство стремится сосредоточиться на нескольких избранных для дальнейшей разработки и развертывания.

2. Пентагон выбрал системы для второго этапа программы Replicator — инициативы по быстрому развертыванию тысяч беспилотников с ИИ

Директор подразделения оборонных инноваций (DIU) Даг Бек сообщил журналистам 8 августа 2024 года, что программа заключила контракты на некоторые, но не на все системы, которые будут закуплены на втором этапе программы.

Выступая на конференции Национальной оборонно-промышленной ассоциации по новым технологиям, Бек отметил, что с момента запуска программы Министерство обороны США заключило контракты на 30 различных проектов в области аппаратного и программного обеспечения с более чем 50 крупными субподрядами с «целым рядом различных компаний».

Заместитель министра обороны Кэтлин Хикс представила планы министерства относительно Replicator почти год назад. С тех пор Пентагон выбрал свой первый транш возможностей, разработал стратегии приобретения и концепции операций, обучил подразделения использованию начальных систем и обеспечил почти 1 миллиард долларов на эти усилия в 2024 и 2025 финансовых годах.

«Хотя нам предстоит еще много работы, мы на пути к достижению первоначальной цели Replicator — нескольких тысяч устройств в различных доменах за 18–24 месяца, то есть к концу августа 2025 года», — сказала она.

DIU играет ведущую роль в проверке оборудования, которое Пентагон будет закупать через Replicator, и тесно сотрудничает с Главным управлением по цифровым технологиям и ИИ (CDAO) для определения цифровой основы, которая позволит этим системам работать вместе.

CDAO создает центр ИИ для Replicator, а его набор возможностей Alpha-1, который управление развернуло в начале 2024 года и который используется ВМС и Корпусом морской пехоты, предоставит инструменты, которые помогут DIU подтвердить, что системы работают так, как ожидалось.

3. Как ИИ и программное обеспечение управляют двумя крупнейшими программами ВВС США

Достижения в области ИИ и разработки программного обеспечения будут иметь ключевое значение для двух ведущих программ ВВС США: DAF Battle Network , которая объединяет датчики и стрелков по всему миру, и Collaborative Combat Aircraft — автономных беспилотных летательных аппаратов, заявил 7 августа 2024 года Эндрю Хантер, руководитель отдела закупок услуг.

Выступая на конференции Национальной оборонно-промышленной ассоциации «Новые технологии для обороны», Хантер расхвалил обе программы как успешные примеры изменений в процессе закупок для вооруженных сил и областей, в которых Пентагон может воспользоваться широким интересом к этим технологиям.

«Вкладываются огромные инвестиции, которые мы можем извлечь из них выгоду и использовать», — сказал Хантер. «И поэтому мы делаем именно это, когда дело касается нашей DAF Battle Network для целей командования, контроля, связи и управления боем, а также для наших усилий по обеспечению автономии с нашей программой Collaborative Combat Aircraft. И мы продолжаем использовать это».

В ходе панельной дискуссии с заместителем министра обороны по закупкам и обеспечению Уильямом ЛаПлэнтом Хантеру был задан вопрос о том, как ВВС используют новые «пути» для разработки и внедрения программного обеспечения за пределами традиционного процесса закупок Пентагона.

Первым примером стала боевая сеть DAF — масштабная инициатива, охватывающая усовершенствованную систему управления боевыми действиями и многое другое, являющаяся частью инициативы Пентагона «Объединенное командование и управление всеми сферами» (CJADC2).

«Мы довольно много использовали программный путь для нашей DAF Battle Network, которая является своего рода общей картиной эволюции того, куда мы идем с программой ABMS, как корпоративной возможностью делиться информацией не только в рамках Департамента ВВС, но и с объединенными силами, с союзниками и партнерами», — сказал Хантер. «Так что многие из этих усилий были программами программного пути. И я думаю, что это было действительно полезно для нас, это было эффективно. Это позволило нам быть более гибкими».

Он добавил, что большая часть этого успеха была достигнута за счет создания крупных «пулов поставщиков с модульной архитектурой открытых систем». Это позволило ВВС заключать контракты на работу в сети по частям, что способствовало конкуренции.

Например, в июле 2022 года ВВС заключили с 27 компаниями контракт на неограниченную поставку, неограниченное количество, с несколькими контрактами на сумму до 950 миллионов долларов на возможности CJADC2. Несколько месяцев спустя они выбрали пять компаний для участия в своем «Консорциуме цифровой инфраструктуры ABMS».

Некоторые из этих компаний являются крупными подрядчиками, такими как L3Harris, Northrop Grumman и Raytheon. Другие, однако, намного меньше или не так традиционно вовлечены в оборону, и Хантер сказал, что все они играют свою роль.

Это может оказаться особенно важным, поскольку виды программного обеспечения, необходимые ВВС, меняются.

«Когда я говорю о DAF Battle Network, вы говорите о глобальном оперативном опыте — о многих, многих тысячах вещей, происходящих, по сути, одновременно», — сказал он. «Мы, безусловно, будем делать все больше и больше ИИ, чтобы успешно это реализовать, хотя этот ИИ по сути существует для поддержки людей, принимающих решения».

По словам Хантера, как и DAF Battle Network, Collaborative Combat Aircraft будет нуждаться в ИИ для автоматизации низкоуровневых задач и позволит летчикам сосредоточиться на «высокоуровневых вмешательствах».

4. «Самоуспокоенность ИИ ставит под угрозу оборону Запада»

Такой вывод делает Чарльз Фергюсон в статье с аналогичным названием на сайте Project Syndicate (05.08.2024). Автор полагает, что военные конфликты Запада с Россией и Китаем выявили серьезные системные слабости в вооруженных силах США и Европы и их оборонно-промышленных базах.

«Эти проблемы проистекают из фундаментальных технологических тенденций. На Украине дорогостоящие пилотируемые системы, такие как танки, боевые самолеты и военные корабли, оказались чрезвычайно уязвимыми для недорогих беспилотных летательных аппаратов, крылатых ракет и управляемых ракет.

Недорогие беспилотники массового производства Китая, России, Ирана, Турции, а теперь и Украины стали как важнейшим наступательным оружием, так и ценными инструментами для наблюдения, наведения и наведения. Часто основанные на широко доступных коммерческих продуктах, дроны производятся миллионами по цене всего от 1000 до 50 000 долларов за штуку».

«Хуже того, эта ситуация является лишь прелюдией к будущему беспилотного автономного оружия. Большинство современных дронов либо управляются дистанционно человеком, либо просто управляются с помощью GPS или цифровых карт. Но новые технологии ИИ, основанные в основном на общедоступных академических исследованиях и коммерческих продуктах, скоро изменят военное дело и, возможно, терроризм.

Дроны с поддержкой ИИ уже могут работать в высокоскоординированных роях, например, позволяя противнику окружить цель и предотвратить ее бегство. Само наведение становится чрезвычайно точным — вплоть до идентификации отдельного лица, предмета религиозной одежды или конкретного номерного знака транспортного средства — и рои дронов все чаще могут перемещаться по городам, лесам и зданиям.

Далее следуют коммерческие и военные гуманоидные роботы. Видео, опубликованные исследователями из Стэнфордского университета в январе 2024 года, основанные на их недавнем исследовании, показывают, как роботы, управляемые ИИ, выполняют домашние задачи, включая жарку морепродуктов на сковороде и уборку пролитого вина. В то время как приготовление креветок далеко не то же самое, что управление снайперской винтовкой или сборка компонентов ракет, существует общее мнение о том, что «момент ChatGPT» в гуманоидной робототехнике настал.

Продукты, управляемые ИИ, как военные, так и коммерческие, зависят от сложного многоуровневого технологического стека, в основе которого лежит полупроводниковое капитальное оборудование (высокоточные машины, производящие чипы), полупроводники (например, процессоры ИИ Nvidia), центры обработки данных, модели ИИ и их обучающие данные, облачные сервисы ИИ, проектирование аппаратных продуктов, производство, а также разработка приложений и систем. США, Западная Европа, Тайвань и Южная Корея в совокупности по-прежнему опережают Китай (и Россию) в большинстве этих областей, но их лидерство сокращается, и Китай уже доминирует на мировых рынках серийного производства техники двойного назначения, такой как беспилотники и роботы.

Реакция Запада на этот вызов до сих пор была удручающе неадекватной. Экспортный контроль за технологиями с поддержкой ИИ ограничен полупроводниковым капитальным оборудованием и процессорами, и даже им сопротивляются, ослабляют и обходят. В то время как экспорт высокопроизводительных процессоров ИИ в Китай был запрещен, доступ к облачным сервисам США, использующим те же процессоры, остается открытым, и Nvidia теперь поставляет Китаю процессоры ИИ, почти такие же мощные, но специально адаптированные к экспортному контролю США. Не существует никакого контроля за экспортом или лицензированием исследований, моделей или обучающих данных ИИ.

Хотя некоторые американские компании, такие как Google, сохранили свои модели ИИ проприетарными и ограничили доступ Китая к своим технологиям, другие поступили наоборот. В то время как OpenAI запрещает прямой доступ Китая к своим интерфейсам прикладного программирования, те же API остаются доступными через Microsoft. Между тем, Meta приняла стратегию полностью открытого исходного кода для своих усилий в области искусственного интеллекта, а венчурная компания Andreessen Horowitz лоббирует предотвращение экспортного контроля (или любых нормативных ограничений) для моделей ИИ с открытым исходным кодом».

«Таким образом, - пишут авторы, - технологический сектор США и Европы ведет себя как круговая расстрельная команда, в которой отдельные фирмы пытаются продать как можно больше в Китай.

Пытаясь опередить своих ближайших конкурентов, каждая фирма ослабляет долгосрочные позиции всех остальных, а в конечном счете даже свою собственную. Если так будет продолжаться и дальше, то в предсказуемом результате США и Западная Европа будут отставать от Китая, а также от России, Ирана или децентрализованных террористических группировок как в боевых действиях, управляемых ИИ, так и в коммерческих приложениях ИИ.

Многие технологи и менеджеры в Кремниевой долине и правительственных организациях знают об этом риске и очень обеспокоены им. Но, несмотря на некоторые значительные инициативы (такие как Подразделение оборонных инноваций в Пентагоне), в поведении оборонной промышленности или государственной политике произошло относительно мало изменений.

Эта ситуация особенно абсурдна, учитывая очевидную возможность для чрезвычайно выгодной большой сделки: молчаливое согласие промышленности на навязываемый государством экспортный контроль в обмен на поддерживаемые государством коллективные переговоры с Китаем о лицензировании технологий, доступе к рынкам и других коммерческих выгодах. Несмотря на некоторые области подлинной напряженности, существует поразительно высокая степень согласованности между интересами национальной безопасности и долгосрочными коллективными интересами западного технологического сектора.

Логичная стратегия заключается в том, чтобы правительство США и Европейский Союз выступали в качестве агентов на переговорах от имени западной промышленности в отношениях с Китаем. Это означает, что необходимо действовать согласованно с отраслью, сохраняя при этом власть и независимость, необходимые для установления и обеспечения строгого контроля (что отрасль должна признать как отвечающее ее собственным долгосрочным интересам).

К сожалению, в настоящее время дело идет не к этому. Несмотря на то, что политики и технологи осознают угрозу, лежащие в ее основе технологии в настоящее время развиваются значительно быстрее, чем политические дебаты и законодательные процессы, не говоря уже о производственных циклах Пентагона и традиционных оборонных подрядчиков».

5. «Как сделать управление военным ИИ более надежным»

Так называется статья Брианны Розен в War On The Rocks (06.08.2024). Автор пишет:

«Война с поддержкой ИИ достигла своего «момента Оппенгеймера» (распространение ИИ в военном деле часто сравнивают с разработкой ядерного оружия в рамках проекта, которым в США руководил Дж. Роберт Оппенгеймер – Е.Л., В.О.). От подсобных помещений до поля боя, ИИ в настоящее время интегрируется во весь спектр военных операций, включая логистику, сбор разведданных, военные игры, принятие решений, идентификацию целей и системы вооружения, с повышением уровня автономности.

Украинские военные запускают беспилотники с поддержкой ИИ. Армия обороны Израиля полагается на ИИ для ускорения и расширения целеуказания в Газе, а Пентагон использует ИИ для определения целей для авиаударов.

Военная революция в области ИИ уже началась, и споры о том, как она будет управляться, разгораются.

Чтобы ответственно и быстро ориентироваться в этом моменте, политики спешат разработать структуры управления ИИ, даже когда инструменты ИИ развертываются на поле боя.

В Соединенных Штатах указ администрации Байдена об ИИ предписывает правительству США подготовить меморандум о военном и разведывательном использовании этой технологической области. Ожидается, что в скором времени он будет доработан.

Предвыборный штаб Трампа пообещал отменить этот приказ и, как сообщается, планирует запустить серию «Манхэттенских проектов», чтобы отменить «обременительные правила». На международной арене Соединенные Штаты работают со странами-единомышленниками над расширением первого в истории международного соглашения о военном использовании ИИ — не имеющей обязательной юридической силы декларации — в преддверии второго Саммита по ответственному искусственному интеллекту в военной сфере в сентябре 2024 года».

Розен считает, что «по мере того, как ИИ проникает в поле боя, пришло время внедрить политику и достичь консенсуса в отношении того, как он будет управляться. И хотя политические дебаты наконец-то вышли за рамки автономных систем оружия летального действия, системы управления по-прежнему страдают от узкого фокуса на военных операциях и международном гуманитарном праве, оставляя критические пробелы в защите гражданского населения. Опираясь на международное соглашение, у политиков есть быстро закрывающееся окно возможностей для решения этих проблем и обеспечения реальной безопасности военного ИИ — на поле боя и за его пределами».

Мифы и заблуждения

Прежде чем решать вопросы управления, необходимо развеять несколько мифов и заблуждений о военном ИИ.

Во-первых, существует тенденция воспринимать военный ИИ как монолитную категорию, сродни ядерному оружию или баллистическим ракетам. Но ИИ — это технология общего назначения, охватывающая широкий спектр вариантов использования и приложений. Законы, нормы или политики, которые подходят для одного приложения, могут быть неприменимыми или неподходящими для другого. Хотя термин «военный ИИ» может быть полезным сокращением, содержательные дискуссии об управлении ИИ должны учитывать конкретные сценарии использования или, по крайней мере, кластеры сценариев использования, которые имеют схожие характеристики.

Во-вторых, военный ИИ не ограничивается военными организациями. Государства полагаются на военные, разведывательные и дипломатические службы для формирования боевого пространства и получения асимметричных преимуществ. Каждое из этих сообществ использует различные приложения ИИ для выполнения своих конкретных миссий. Разведывательные агентства, в частности, полагаются на ИИ для сбора, сортировки и анализа огромных объемов данных в поддержку военных операций. Таким образом, любой режим управления, который сосредоточен исключительно на оперативном военном применении, не сможет обеспечить необходимые гарантии в критических точках «цепи убийства» или других процессов принятия решений.

Наконец, концепция «ответственного ИИ» не должна быть единственным пробным камнем для управления и регулирования.

ИИ изменит стратегический баланс сил, что приведет к возникновению новых дилемм безопасности, где наиболее ответственным курсом действий может быть отказ от регулирования сверх того, что уже требуется законом.

Должны ли политики связывать себе руки по более строгим стандартам, когда ИИ предоставляет противникам решающее стратегическое преимущество в войне? Каков ответственный образ действий при таком раскладе?

В более широком смысле, когда речь заходит о национальной безопасности, двусмысленность формулировки «ответственный ИИ» оставляет большое пространство для интерпретации, подрывая усилия по достижению глобального консенсуса. Как мы видели в киберпространстве в последние десятилетия, такие понятия, как «ответственность», «безопасность» и «права», часто не пересекают геополитические барьеры.

Ответственный ИИ — это не то же самое, что управление ИИ. И по мере того, как мы стремимся к выработке общего понимания того, как должно выглядеть управление ИИ, важно помнить о том, что управление — это нечто большее, чем просто закон.

Государственное управление как международное право

Дискуссии об управлении военным ИИ, как правило, начинаются с юриспруденции. На протяжении более десяти лет государства обсуждают целесообразность заключения нового договора или введения запрета на автономные системы оружия летального действия в международных учреждениях и на форумах, включая Конвенцию Организации Объединенных Наций о конкретных видах обычного оружия. Тем не менее, был достигнут незначительный прогресс.

Государства неохотно запрещают приложения ИИ, которые могут иметь значительную стратегическую полезность, и не желают быть прозрачными в отношении чувствительных инструментов, используемых в военных и разведывательных операциях. Учитывая эти реалии и растущую геополитическую напряженность, перспективы заключения международного договора или прямого запрета представляются незначительными.

Вместо этого государства ухватились за существующее законодательство, в частности международное гуманитарное право, в качестве стандарта для регулирования военного ИИ. В Политической декларации об ответственном военном использовании искусственного интеллекта и автономии, которую поддержали более 50 стран, подчеркивается, что «использование ИИ в вооруженных конфликтах должно осуществляться в соответствии с обязательствами государств по международному гуманитарному праву, включая его основополагающие принципы». Соединенные Штаты, Великобритания и Россия, среди прочих государств, неоднократно подчеркивали, что международного гуманитарного права достаточно для регулирования автономных систем оружия летального действия.

Эта точка зрения в значительной степени верна. Ничто в ИИ формально или функционально не меняет обязательств, которые государства имеют в соответствии с внутренним или международным законодательством. ИИ, как и другие технологии, которые были до него, является инструментом войны, а не оружием сам по себе. ИИ — это инструмент. Воздействие этого инструмента и законы, регулирующие его, зависят от того, как он используется. До тех пор, пока ИИ используется в военных операциях, соответствующих международному праву, существующее законодательство теоретически должно обеспечивать достаточную защиту.

Однако было бы ошибкой обращаться к международному гуманитарному праву как к единственной системе регулирования приложений ИИ, связанных с обороной. Многие системы ИИ не имеют прямого отношения к убийству на войне, даже если они увеличивают его темпы, масштабы или масштабы. Как должны регулироваться эти инструменты? Например, в соответствии со статьей 36 Дополнительного протокола I к Женевским конвенциям государства обязаны обеспечить, чтобы все «оружие, средства или методы ведения войны» подвергались правовой проверке для обеспечения соблюдения международного гуманитарного права. Но невооруженные приложения ИИ, такие как системы поддержки принятия решений, не обязательно будут подчиняться тем же правилам. Точно так же международное гуманитарное право просто не является подходящим сводом законов, когда речь идет о разработке и развертывании приложений ИИ, используемых в разведывательной деятельности, которые просто способствуют военным операциям.

По мере того, как использование ИИ в военных целях становится все более распространенным, развертывание за пределами четко определенных вооруженных конфликтов становится все более важным для регулирования. В этих условиях требуется соблюдение более строгих стандартов защиты, в частности, международного права в области прав человека. В марте 2024 года Генеральная Ассамблея ООН приняла резолюцию, не имеющую обязательной силы, в которой признала, что государства должны «воздерживаться от использования систем искусственного интеллекта, которые невозможно использовать в соответствии с международным правом в области прав человека».

Но в этой резолюции прямо не говорится о применении ИИ в военных и разведывательных целях. Когда ИИ используется вне вооруженного конфликта, крайне важно, чтобы применялся более защитный правовой режим международного права в области прав человека. В противном случае, исключительные правила, которые применяются на войне, рискуют стать режимом по умолчанию во всем спектре случаев использования военного ИИ.

Подобно тому, как существующее законодательство применяется к ИИ, неправильное использование инструментов ИИ также может способствовать серьезным нарушениям международного права, потенциально в больших масштабах и более быстрыми темпами, чем без использования таких инструментов.

Это особенно верно в условиях динамического таргетинга и быстро меняющихся конфликтов, когда когнитивная перегрузка и предвзятость автоматизации препятствуют тщательному анализу результатов ИИ.

Например, неправильное использование систем поддержки принятия решений ИИ или беспрекословное доверие к ним может привести к тому, что операторы будут ошибочно идентифицировать гражданских лиц как комбатантов и нацеливаться на первых, нарушая принцип различения. Если неправильная идентификация происходит в достаточно больших масштабах, операторы могут нанести удары, которые непропорционально убьют мирных жителей по сравнению с полученным конкретным прямым военным преимуществом.

Даже если вышеупомянутые проблемы будут решены, закон все равно не будет обеспечивать надежное управление ИИ из-за острых проблем с проверкой и правоприменением. В отличие от ударов беспилотников, практически невозможно проверить, использовались ли инструменты ИИ в войне, и если да, то когда, потому что они не обязательно изменяют физическую сигнатуру систем вооружения, которые часто переключаются между режимами ИИ и без него.

Эта техническая особенность означает, что внешним наблюдателям может быть трудно определить, способствовал ли ИИ, в отличие от военной системы без ИИ в качестве вспомогательного средства, нарушению международного права, и если да, то когда.

Это также подчеркивает проблемы, связанные с обеспечением адекватных механизмов принуждения, поскольку легкость дезертирства гораздо выше, чем при использовании режимов контроля над обычными вооружениями.

В конечном счете, самый пагубный миф о военном ИИ заключается в том, что существует четкое согласие о том, как международное право регулирует его использование, и что существующего законодательства достаточно для обеспечения ответственного использования всего спектра приложений ИИ.

Подобно глобальным дебатам о защите международного права в киберпространстве, государства должны выработать четкую позицию в отношении того, когда и как соответствующие правовые режимы применяются в сложных случаях. Срочно необходимы дополнительные руководящие указания для обеспечения правильного толкования и применения международного гуманитарного права, а также для усиления гарантий в отношении приложений ИИ, которые выходят за рамки международного гуманитарного права.

Вне закона

Как и в случае с другими новыми технологиями, решение проблем управления ИИ может лежать скорее на уровне политики, чем закона. Директивные указания, политические декларации, правила применения вооруженной силы и кодексы поведения играют решающую роль в тех областях, где законодательство трудно интерпретировать или применять. Не имеющие обязательной юридической силы политики также помогают достичь консенсуса по международным нормам, связанным с разработкой и развертыванием военного ИИ.

Политическая декларация представляет собой важный шаг на пути к достижению этой цели. Однако принципы, содержащиеся в этом соглашении, должны быть укреплены, чтобы в полной мере реализовать его потенциал. В то время как политики готовятся к саммиту «Ответственный ИИ в военной сфере» 2024 года, необходимо предпринять конкретные шаги для развенчания мифов и заблуждений, связанных с военным ИИ, которые препятствуют эффективному управлению.

В качестве отправной точки государства должны расширить сферу охвата и амбиции Политической декларации. В настоящее время эти принципы распространяются в первую очередь на западные страны и входящие в них военные организации. Ключевые державы, в частности Китай, Россия и Израиль, не поддержали его. Это проблематично, учитывая, что Украина и Газа сейчас являются испытательными полигонами для военного ИИ.

Для тех стран, которые одобрили Политическую декларацию, сфера применения ИИ должна быть расширена, чтобы включить в нее все связанные с обороной приложения ИИ, как внутри, так и за пределами военной цепи командования. В настоящее время декларация требует, чтобы государства «обеспечивали, чтобы их военные организации приняли и реализовали эти принципы для ответственной разработки, развертывания и использования возможностей ИИ».

Это означает, что разведывательные агентства, не входящие в состав военных организаций, такие как ЦРУ, не обязаны придерживаться принципов, содержащихся в декларации, даже если они используют ИИ для определения целей для военных действий.

В связи с этим государства должны принять меры для разъяснения того, как закон применяется ко всему спектру случаев использования ИИ. Это имеет решающее значение для обеспечения более широкого соблюдения международного гуманитарного права, международного права в области прав человека и всех других применимых правовых режимов.

По мере того, как государства работают над реализацией Политической декларации, крайне важно обмениваться передовым опытом по снижению рисков в конкретных случаях использования, в том числе посредством юридических обзоров, кодексов поведения и политических рекомендаций. НАТО, а также разведывательный альянс «Пять глаз» (Австралия, Канада, Новая Зеландия, Великобритания и Соединенные Штаты) были бы естественной площадкой для обмена передовым опытом, учитывая согласованность стратегических интересов и созданные механизмы обмена разведданными. Но взаимодействие не должно останавливаться на этом.

Крайне важно разработать меры по укреплению доверия с Китаем и Глобальным Югом для социализации и институционализации норм, связанных с военным ИИ. Это не должно начинаться с подхода, основанного на ценностях, а скорее с общих интересов государств в обеспечении того, чтобы военный ИИ не нарушил глобальную безопасность, стабильность и процветание.

И последнее, но не менее важное: наращивание потенциала должно быть в центре внимания предстоящего саммита «Ответственный искусственный интеллект в военной сфере». Государства должны обмениваться не только передовым опытом, но и техническими инструментами и экспертными знаниями для обеспечения того, чтобы все стороны, поддерживающие Политическую декларацию, могли в полной мере выполнять ее стандарты. До сих пор наращивание потенциала было отсутствующей частью разговора о том, как сделать военный ИИ более безопасным. У политиков есть возможность изменить этот дискурс в ходе встреч перед саммитом, которые проходят сейчас.

Розен делает вывод:

«Будущее управления военным ИИ зависит от совместных политических усилий, а не от правового регулирования. Политическая декларация знаменует собой значительный шаг на пути к установлению международных норм, но для того, чтобы быть эффективной, она должна выходить за рамки распространенных мифов и заблуждений, связанных с военным ИИ.

По мере приближения следующего саммита «Ответственный ИИ в военной сфере» директивным органам следует сосредоточиться на уточнении того, как закон применяется к конкретным приложениям ИИ, определении политических инструментов для заполнения правовых пробелов в защите и наращивании потенциала для внедрения стандартов управления внутри и за пределами традиционных структур альянса.

В нынешних геополитических условиях это наиболее жизнеспособный путь для снижения рисков, связанных с военным ИИ, использования его возможностей и поддержания глобальной безопасности».

6. «Все споры о безопасности ИИ ошибочны»

Так считает один из крупнейших специалистов в области ИИ профессор Массачусетского технологического института Дарон Ашемоглу в статье с таким названием на сайте Project Syndicate (05.08.2024). Автор пишет:

«В последние годы возникла огромная индустрия, поскольку Китай, США, Великобритания и Европейский союз сделали безопасность ИИ главным приоритетом. Очевидно, что любая технология – от автомобилей и фармацевтических препаратов до станков и газонокосилок – должна быть разработана максимально безопасной (хотелось бы, чтобы на ранних этапах социальные сети подвергались более пристальному вниманию).

Но просто поднять вопросы безопасности недостаточно. В случае с ИИ дебаты слишком сосредоточены на «безопасности от катастрофических рисков из-за AGI (искусственного общего интеллекта), то есть сверхинтеллекта, который может превзойти всех людей в большинстве когнитивных задач.

Под вопросом находится вопрос «согласованности»: дают ли модели ИИ результаты, соответствующие целям и ценностям их пользователей и разработчиков — тема, которая приводит к различным научно-фантастическим сценариям, в которых появляется сверхразумный ИИ и уничтожает человечество. Бестселлер Брайана Кристиана «Проблема согласованности» в основном сосредоточен на AGI, и те же опасения привели к тому, что Anthropic, одна из ведущих компаний в этой области, создала модели со своими собственными «конституциями», закрепляющими этические ценности и принципы.

Но есть как минимум две причины, по которым эти подходы могут быть ошибочными.

Во-первых, нынешние дебаты о безопасности не только (бесполезно) антропоморфизируют ИИ. Они также заставляют нас фокусироваться на неправильных целях. Поскольку любая технология может быть использована во благо или во зло, в конечном итоге важно то, кто ее контролирует, каковы их цели и каким правилам они подчиняются.

Никакие исследования безопасности не смогли бы предотвратить использование автомобиля в качестве оружия на митинге сторонников превосходства белой расы в Шарлоттсвилле, штат Вирджиния, в 2017 году. Если мы примем предположение, что системы ИИ имеют собственную индивидуальность, мы можем прийти к выводу, что наш единственный вариант — гарантировать, что они имеют правильные ценности и конституции в абстрактном смысле. Но это предположение ложно, и предлагаемое решение будет далеко не верным.

Конечно, контраргумент заключается в том, что если бы AGI когда-либо был достигнут, действительно имело бы значение, была ли система «согласована» с человеческими целями, потому что не осталось бы никаких ограждений, чтобы сдержать хитрость сверхразума. Но это утверждение подводит нас ко второй проблеме с большей частью обсуждения безопасности ИИ. Даже если мы находимся на пути к AGI (что кажется крайне маловероятным ), самой непосредственной опасностью все равно будет неправильное использование не сверхразумного ИИ людьми.

Предположим, что в будущем наступит время (T) (скажем, 2040 год), когда будет изобретен ИИ с высоким интеллектом, и что до тех пор, пока это время не наступит, системы ИИ, не имеющие ИИ с высоким интеллектом, будут по-прежнему неавтономными. (Если бы они стали самодействующими до ИИ с высоким интеллектом, пусть этот день будет T.) Теперь рассмотрим ситуацию за год до T. К этому моменту системы ИИ станут весьма способными (благодаря тому, что окажутся на пороге сверхразума), и вопрос, который мы хотели бы задать, звучит так: кто сейчас контролирует ситуацию?

Ответом, конечно, будут человеческие агенты, индивидуально или коллективно в форме правительства, консорциума или корпорации. Чтобы упростить обсуждение, позвольте мне называть человеческих агентов, отвечающих за ИИ на данном этапе, Корпорацией X. Эта компания (это может быть и больше, чем одна компания, что может быть еще хуже, как мы увидим) сможет использовать свои возможности ИИ для любых целей, которые она захочет. Если бы она хотела уничтожить демократию и поработить людей, она могла бы это сделать. Угроза, которую так много комментаторов приписывают ИИ, уже возникла бы до ИИ.

На самом деле ситуация, вероятно, была бы хуже, чем это описание, потому что Корпорация X могла бы добиться аналогичного результата, даже если бы ее намерением не было уничтожение демократии. Если ее собственные цели не были бы полностью согласованы с демократией (что неизбежно), демократия могла бы пострадать как непреднамеренное последствие (как это было в случае с социальными сетями).

Например, неравенство, превышающее некоторый порог, может поставить под угрозу надлежащее функционирование демократии. Но этот факт не остановит Корпорацию X от того, чтобы делать все возможное для обогащения себя или своих акционеров. Любые ограждения, встроенные в ее модели ИИ для предотвращения злонамеренного использования, не будут иметь значения, поскольку Корпорация X по-прежнему может использовать свою технологию так, как захочет.

Аналогично, если бы существовали две компании, Корпорация X и Корпорация Y, которые контролировали бы высокоэффективные модели ИИ, то одна из них или обе все равно могли бы преследовать цели, наносящие ущерб социальной сплоченности, демократии и свободе человека. (И нет, аргумент о том, что они будут ограничивать друг друга, не убедителен. Наоборот, их конкуренция могла бы сделать их еще более безжалостными.)

Таким образом, даже если мы получим то, чего хотят большинство исследователей безопасности ИИ – надлежащее согласование и ограничения на AGI – мы не будем в безопасности. Последствия этого вывода должны быть очевидны: нам нужны гораздо более сильные институты для сдерживания технологических компаний и гораздо более сильные формы демократических и гражданских действий, чтобы заставить правительства, контролирующие ИИ, нести ответственность. Эта задача совершенно отдельная и отличается от решения проблем предвзятости в моделях ИИ или их согласования с человеческими целями.

Почему же тогда мы так зациклены на потенциальном поведении антропоморфизированного ИИ? Отчасти это шумиха, которая помогает технологической индустрии привлекать больше талантов и инвестиций. Чем больше все говорят о том, как может действовать сверхразумный ИИ, тем больше общественность начинает думать, что ИИ неизбежен. Розничные и институциональные инвесторы вложатся в следующее большое дело, а руководители технологических компаний, выросшие на научно-фантастических изображениях сверхразумного ИИ, получат еще один бесплатный пропуск. Мы должны начать уделять больше внимания более непосредственным рискам.

***

Ашемоглу пишет о довольно абстрактной мирной ситуации.

Но его коллеги в вышеприведенных публикациях дают реальную картину геополитической ситуации, далекой от мира.

В происходящих военных конфликтах ИИ играет уже чуть ли не определяющее значение.

И это пока далеко не AGI.

Но верен главный вывод Ашемоглу об ошибочности создания безопасного ИИ любого типа.

1.0x