Сообщество «Переводы» 00:05 Сегодня

ИИ и глобальная безопасность

о международном контроле за разработкой и применением химического, биологического, радиологического и ядерного оружия

Обзор рисков, связанных с ИИ и химическим, биологическим, радиологическим и ядерным оружием (ХБРЯ)

«Передовые модели ИИ, работающие на экспертном уровне, снижают технические, финансовые и логистические барьеры, которые исторически ограничивали круг и возможности злоумышленников в разработке ХБРЯ. Потенциально сокращая необходимые для планирования или поддержки незаконной деятельности в области ХБРЯ знания, время, материалы и координацию, передовые модели ИИ могут расширить круг потенциальных угроз, сократить сроки реагирования и повысить неопределенность в отношении адаптивности давно существующих технических и логистических барьеров. Хотя химическое, биологическое и ядерное оружие существовало до или на заре компьютерной эры, передовые системы ИИ могут расширить его доступность, наличие и смертоносность, а также снизить ответственность и возможность обнаружения», - пишет Синди Вестергард (руководитель проекта по глобальной безопасности в Центре Стимсона, США) в статье в The National Interest «Использование ИИ для перехода от снижения угроз к уменьшению угроз» (15.01.2026).

Например, большие языковые модели (LLM) могут обеспечить доступ к специализированным наборам данных в больших масштабах, что также может открыть новые пути для разработки и приобретения оружия. В одном эксперименте исследователи с благими намерениями перепрофилировали MegaSyn, инструмент генеративного ИИ для фармацевтических исследований и разработок, и система идентифицировала 40 000 токсичных молекул, включая нервно-паралитические вещества, менее чем за шесть часов. Эти модели также сокращают время и координацию, необходимые для планирования атак. «LLM», как отмечается в недавнем неопубликованном отчете Европола об угрозах ИИ и ХБРЯ, «повысили способность неспециалистов к мозговому штурму, уточнению и оптимизации сценариев атак».

LLM также находятся в центре быстро расширяющейся экосистемы синтетических медиа, способной к обману и манипуляциям, создавая весьма убедительные поддельные текстовые, аудио-, видео- и биометрические данные, которые могут быть использованы для фальсификации данных о гарантиях ядерной безопасности, подделки цепочек поставок, данных испытаний или сертификационных документов. Сложность и непрозрачность систем ИИ также затрудняют отслеживание их влияния и обнаружение манипуляций, создавая возможности для злоумышленников нарушать цепочки поставок или инфраструктуру ХБРЯ посредством кибератак с использованием ИИ, таких как отравление данных, внедрение несанкционированного программного обеспечения или изменение обучающих наборов данных для искажения результатов.

Генеративный ИИ также порождает индустрию «мошенничества как услуги», которая демократизирует изощренные методы обмана, предлагая платформы с инструкциями и готовыми инструментами, которые значительно увеличивают риски фальсификации, отравления данных и манипуляций. Этот переход от организованных групп к любителям резко увеличивает как масштабы, так и изощренность мошеннических атак, представляя растущую угрозу для секторов, связанных с ХБРЯ, которые полагаются на цифровую проверку личности и соблюдение требований «Знай своего клиента» (KYC).

Приведенные выше примеры показывают, как те же самые системы ИИ, которые стимулируют научные инновации, при неправильном использовании или недостаточном регулировании могут снижать барьеры для доступа к материалам и ноу-хау в области ХБРЯ с беспрецедентной скоростью и в беспрецедентных масштабах. Поскольку менее трех процентов исследований в области ИИ направлены на обеспечение безопасности ИИ, недостаток финансирования остается самой большой проблемой в смягчении угроз ХБРЯ, связанных с ИИ, оставляя как правительства, так и разработчиков без достаточных механизмов для прогнозирования или предотвращения неправомерного использования.

Индустрия ИИ и передовые методы смягчения последствий

Крупные технологические компании недавно начали разрабатывать системы для предотвращения неправомерного использования своих наиболее эффективных систем, так называемых «передовых» моделей, способных к сложному логическому мышлению и решению проблем. Эти системы, такие как система готовности OpenAI, система управления передовыми моделями Microsoft и политика ответственного масштабирования Anthropic, используются для оценки и определения пороговых значений риска и запуска внутренних механизмов до выпуска моделей, при этом неправомерное использование, связанное с ХБРЯ, занимает одно из первых мест в списке проблем. Многие компании также проводят учения по тестированию на уязвимости и хакатоны, посвященные сценариям риска ХБРЯ, подвергая свои модели стресс-тестированию для выявления уязвимостей и усиления мер по их смягчению. Эти системы передовых моделей представляют собой первую серьезную попытку частного сектора согласовать разработку ИИ с глобальными целями по снижению угроз ХБРЯ.

Признавая, что передовые технологии в области ИИ и безопасности в сфере ХБРЯ представляют собой общую проблему, компании Anthropic, Microsoft и OpenAI, а также Amazon, Google и Meta*, в июле 2023 года запустили Форум передовых моделей (Frontier Model Forum, FMF). Созданный как некоммерческая организация, FMF координирует исследования для формирования коллективного понимания моделей угроз ИИ и стратегий смягчения последствий злоупотреблений, связанных с ХБРЯ, и сложных киберугроз. В будущем планируется расширение членства, и влияние FMF может еще больше возрасти за счет включения разработчиков ИИ за пределами США, а также широкого круга академических экспертов и партнеров из государственного сектора.

В то же время параллельно проводится ограниченное, но растущее количество исследований, изучающих надежность существующих моделей LLM для смягчения угроз, связанных с ХБРЯ. Учения Европола по отработке действий в чрезвычайных ситуациях в июле 2025 года выявили существенные недостатки, отметив легкость, с которой неспециалисты обходили ограничения LLM с помощью простых методов оперативного проектирования, одновременно повышая свою способность генерировать убедительные идеи для планирования атак. Аналогично, недавнее сравнительное исследование 10 ведущих коммерческих моделей LLM выявило разрыв в производительности в 87 процентных пунктов между наиболее защищенной (Claude-Opus-4) и наименее защищенной (Mistral-Small-Latest) моделями, что указывает на то, что, хотя эффективные меры по смягчению угроз уже технически достижимы, их реализация сильно различается в индустрии ИИ. Некоторые компании с тех пор выпустили обновленные модели, но это раннее исследование подчеркивает необходимость сотрудничества крупных технологических компаний и разработчиков ИИ с более широким сообществом по снижению угроз, особенно в использовании ИИ в качестве инструмента для усиления усилий по снижению угроз ХБРЯ.

Использование ИИ как инструмента для снижения угроз

Способность ИИ анализировать сложные потоки данных в режиме реального времени может улучшить системы обнаружения и раннего предупреждения. BioTracker от Интерпола использует машинное обучение в сочетании с экспертной оценкой для отслеживания глобальных угроз инфекционных заболеваний, улучшая возможности расследования и реагирования на вспышки заболеваний. Аналогичные инструменты наблюдения на основе ИИ могли бы помочь другим организациям, таким как Всемирная организация здравоохранения животных (ВОЗ), Продовольственная и сельскохозяйственная организация (ФАО), Всемирная организация здравоохранения (ВОЗ) и национальные органы здравоохранения, выявлять и реагировать на нарушения в данных о людях, животных и сельском хозяйстве до того, как они перерастут в кризисы. Обнаружение с помощью ИИ также может помочь в борьбе с незаконным оборотом материалов, связанных с ХБРЯ, путем выявления нарушений в торговых, транспортных и таможенных данных.

Международное агентство по атомной энергии (МАГАТЭ) использует ИИ для выполнения своих задач по проверке, в частности, модели ИИ, помогающие систематизировать информацию из открытых источников, выявлять изменения на спутниковых снимках и анализировать видеозаписи наблюдения для отслеживания перемещений отработанного ядерного топлива. Эти инструменты позволяют инспекторам сосредоточиться на интерпретации и разрешении неоднозначностей, что позволяет Агентству быстрее расследовать и реагировать на сигналы о несоблюдении требований. Успешные примеры использования подобных инструментов также могут способствовать модернизации Конвенции о биологическом и токсинном оружии (КБО), которая, в отличие от ядерной и химической конвенций, до сих пор не имеет формального режима проверки. С созданием в 2022 году новой рабочей группы по КБО для изучения вариантов соблюдения требований впервые за два десятилетия, инструменты мониторинга, анализа и обмена данными на основе ИИ могут стать основой мер проверки и укрепления доверия следующего поколения.

В химической сфере система обнаружения аэрозольных паров и химических агентов (AVCAD) армии США использует ИИ для автономной идентификации химических агентов с помощью масс-спектрометрии, тем самым повышая готовность и защиту от воздействия в полевых условиях. Модели ИИ, обученные на данных спектроскопии, также могут поддерживать химическую криминалистику, помогая определять происхождение или модификации химических веществ. Эти инструменты, усовершенствованные с помощью ИИ, приносят пользу как национальным властям, так и международным инспекторам, направляемым для расследования заявлений о химических или биологических атаках.

Программы обучения на уровне лингвистики могут предложить практические преимущества для экономии средств в многосторонних институтах, от более быстрого и дешевого перевода до большей языковой доступности, что может помочь снизить значительные затраты на перевод. Такие организации, как Корпорация по присвоению имен и номеров в Интернете (ICANN), которая использует инструменты перевода на основе ИИ для расширения своей деятельности за пределы шести официальных языков, могут помочь другим организациям в использовании программ обучения на уровне лингвистики для перевода, а также в разработке технологий, которые могут улучшить этот процесс (например, очки переводчика).

ИИ также может быть использован для повышения готовности к чрезвычайным ситуациям в организациях, работающих в условиях высокой нестабильности, путем преобразования статичных планов реагирования на стихийные бедствия в динамические инструменты поддержки принятия решений в режиме реального времени. Тренировочные симуляции могут превратиться в интерактивные панели мониторинга во время реальных инцидентов. Модели маршрутизации также могут оптимизировать планы эвакуации и адаптироваться к изменяющимся условиям снабжения, а прогностические модели могут направлять действия служб экстренного реагирования по развертыванию защитного снаряжения или средств дезактивации. В сочетании с межотраслевым сотрудничеством ИИ имеет потенциал стать мощным инструментом современной борьбы с угрозами ХБРЯ.

Расширяющаяся экосистема снижения угроз

В эпоху передовых систем искусственного интеллекта снижение угроз, связанных с ХБРЯ, требует сотрудничества между секторами, которые часто используют разные технические и политические языки. В сфере ядерного нераспространения, например, термин «гарантии» относится к техническим мерам МАГАТЭ по проверке того, что ядерная деятельность страны осуществляется исключительно в мирных целях. В мире ИИ «гарантии» относятся к программным средствам защиты, предназначенным для предотвращения вредоносных результатов моделирования, а в таких организациях по стандартизации, как Национальный институт стандартов и технологий США (NIST), этот термин более тесно связан с мерами безопасности и контрмерами. Даже такие базовые термины, как «угроза» и «риск», имеют разные значения для ученых, политиков, международных инспекторов и инженеров. Соответственно, создание общей терминологии имеет основополагающее значение для эффективного использования ИИ в целях снижения угроз, связанных с ХБРЯ.

Поворотный момент в снижении угроз химического, биологического, радиологического и ядерного оружия

ИИ меняет как ландшафт угроз ХБРЯ, так и сообщество, способное им противостоять, выводя технологический сектор в пространство, долгое время находившееся под контролем правительств и многосторонних организаций. Когда компании, занимающиеся ИИ, академические круги, правительства и международные организации работают вместе, обмениваясь исследованиями в области передовых мер по смягчению последствий, согласовывая инновации с глобальными потребностями безопасности и интегрируя разработчиков технологий в единые контрольные механизмы, они могут лучше прогнозировать и снижать риски, связанные с ИИ. При правильном подходе это сотрудничество может использовать ИИ для усиления каждого уровня снижения угроз ХБРЯ, от обнаружения и установления источника до проверки, киберзащиты и реагирования на местах. При поддержке постоянных инвестиций и партнерских отношений ИИ не ускорит угрозы ХБРЯ, а поможет их остановить.

***

Для России в ближайшей перспективе международное сотрудничество в разработке проблем снижения угроз влияния ИИ на ХБРЯ наиболее перспективно в рамках совместных действий стран БРИКС.

*компания, признанная экстремистской и запрещённая в РФ

1.0x