Авторский блог Владимир Овчинский 06:32 4 сентября 2025

ШОС 2025, борьба с коррупцией и ИИ

китайский и иной международный опыт

Лидеры стран - участниц Шанхайской организации сотрудничества (ШОС) выразили готовность работать над дальнейшим углублением взаимодействия в правовой и судебной областях, в том числе в рамках борьбы с коррупцией и реализации антимонопольного регулирования. Об этом говорится в тексте итоговой декларации саммита ШОС в Тяньцзине.

Страны - участницы организации «продолжат координацию усилий в области борьбы с коррупцией и призывают международное сообщество отказаться от предоставления убежища лицам, совершившим коррупционные преступления». Согласно тексту декларации, государства - члены ШОС также признают важность взаимодействия в области антимонопольной политики и «намерены наращивать практическое сотрудничество по линии профильных ведомств».

Широкие возможности борьбы с коррупцией раскрывает использование искусственного интеллекта.

На саммите ШОС в Китае проблемам развития этой главной технологии новой промышленной революции было посвящено несколько принятых документов.

В этой связи интерес представляет анализ этих процессов в самом Китае и в других странах.

Борьба с коррупцией с помощью искусственного интеллекта в Китае

Китай одним из первых в мире начал использовать ИИ для контроля за банковскими транзакциями. Одна из таких систем — Zero Trust. Она анализировала огромные объёмы финансовых данных, подозрительные переводы, резкие изменения в доходах и необычную активность на счетах. Одновременно система изучала поведение людей в социальных сетях — например, неожиданные покупки, связь с известными коррупционерами или признаки роскошного образа жизни, которые не соответствуют официальным доходам. При обнаружении подозрительных схем Zero Trust автоматически отправляла сигнал правоохранительным органам.

В настоящее время вся антикоррупционная кампания в Китае основана на искусственном интеллекте и возглавляется такими инструментами, как DeepSeek.

Так, в марте 2025 года Комиссия по проверке дисциплины и надзору муниципалитета Суйхуа провинции Хэйлунцзян сделала поразительное открытие. Используя модель большого языка (LLM) DeepSeek для анализа данных о пособиях по старости, следователи выявили сеть мошеннических заявлений, связанных с «зомби-аккаунтами» — тремя умершими людьми, которые продолжали получать государственные субсидии. За этими фальсифицированными заявлениями скрывалась целая сеть коррупции, раскрывающая сговор как внутри, так и за пределами государственной службы.

Этот реальный случай знаменует начало новой эры борьбы с коррупцией с помощью ИИ в Китае.

Китай сталкивается с новыми вызовами государственного управления, поскольку традиционные системы надзора не успевают за изощрёнными злоупотреблениями. Среди основных новых форм коррупции – отмывание денег через виртуальные валюты, использование сложной структуры капитала для сокрытия незаконной деятельности и совмещение должностных обязанностей с незаконной деятельностью. Однако инструменты на базе искусственного интеллекта, такие как DeepSeek, теперь демонстрируют способность раскрывать эти схемы гораздо быстрее, чем ручные расследования. Примером может служить случай, когда DeepSeek всего за 72 часа выявил сеть взяточничества, проходившую через 20 подставных компаний. Вручную раскрытие такой коррупции заняло бы три месяца.

Традиционные надзорные органы сталкиваются с такими проблемами, как информационная перегрузка, когнитивные слепые зоны и медленное время реагирования. Появление решений на основе искусственного интеллекта, таких как DeepSeek, помогает решать эти проблемы благодаря передовым инструментам, таким как картирование взаимосвязей, мультимодальный когнитивный анализ и динамическое моделирование рисков, — все они меняют систему управления и надзора в Китае в таких областях, как социальное обеспечение, политический надзор и расследования.

Борьба с коррупцией в Китае с помощью искусственного интеллекта произвела революцию в методах борьбы правительства с противоправными действиями. Более быстрое и эффективное выявление фактов коррупции потенциально сократит время расследования с месяцев до нескольких дней. ИИ также усиливает контроль в таких областях, как социальное обеспечение, политический надзор и сбор доказательств.

Эта трансформация представляет собой сдвиг в системе государственного управления в Китае. Сочетание ИИ с политическими и правовыми нормами позволяет китайскому правительству создать более эффективную и сложную систему борьбы с коррупцией. Однако, хотя ИИ и усиливает правоприменение, баланс между технологическим прогрессом и политической подотчётностью остаётся критически важным, учитывая авторитарные нормы, лежащие в основе китайской модели государственного управления.

С 2012 года антикоррупционная кампания председателя Си Цзиньпина привела к расследованию и дисциплинарным мерам в отношении миллионов лиц, включая высокопоставленных деятелей. Кроме того, международные операции Пекина, такие как Fox Hunt , являющиеся частью его антикоррупционной кампании Skynet, привели к аресту и экстрадиции тысяч беглецов и возврату миллиардов незаконных средств. Национальная надзорная комиссия, созданная в 2018 году, усилила надзор за членами партии и государственными служащими. Высшие прокуроры Китая активизировали усилия по борьбе с коррупцией на низовом уровне, особенно в здравоохранении, образовании и занятости, поскольку эти сферы напрямую влияют на повседневную жизнь людей.

Несмотря на эти меры, коррупция остаётся глубоко укоренившейся. Многие аналитики утверждают, что системные реформы, помимо широкомасштабных репрессий, необходимы для долгосрочного прогресса. Китай занял 76-е место из 180 в Индексе восприятия коррупции (ИВК) Transparency International* за 2024 год, набрав 43 балла. Коррупция особенно распространена в сфере недвижимости, строительства и сбора налогов.

По данным газеты South China Morning Post, антикоррупционная кампания в Китае активизировалась с 2024 года: под следствие попали 56 высокопоставленных чиновников, что на 25% больше, чем в прошлом году. В целом, Центральная комиссия по проверке дисциплины расширила сферу своей деятельности, сосредоточившись на центральных ведомствах, государственных предприятиях (ГП) и армии, стремясь искоренить коррупцию на высших уровнях власти.

В государственных предприятиях резко возросло число случаев коррупции: в 2024 году расследование проводилось в отношении шести руководителей. Особенно пострадали авиационная и оборонная отрасли: под следствием находятся десятки руководителей высшего звена, включая Тань Жуйсуна, бывшего председателя Китайской корпорации авиационной промышленности. Репрессии распространились и на нефинансовые государственные предприятия, поскольку власти стремятся усилить контроль над стратегическими отраслями.

Народно-освободительная армия Китая (НОАК) также находится под всё более пристальным вниманием, причём особое внимание уделяется Ракетным войскам НОАК, которые контролируют ядерный арсенал Китая. В опубликованном в марте 2025 года ежегодном отчёте о работе правительства Китая обсуждались укоренившиеся проблемы с коррупцией в армии и содержался призыв к «углублению политической санации» в оборонном секторе. Политический упадок нескольких высокопоставленных чиновников, включая бывших министров обороны Ли Шанфу и Вэй Фэнхэ, и отстранение от должности члена Центрального военного совета Мяо Хуа подчёркивают, насколько важна борьба с коррупцией для восстановления политического контроля Си Цзиньпина, поскольку речь идёт о дисциплине.

Рост числа случаев коррупции в высших органах и министерствах Коммунистической партии за последние два года подкрепляет директиву Си Цзиньпина по искоренению взяточничества в секторах с высокой концентрацией власти и ресурсов. Бывший министр юстиции Тан Ицзюнь, министр сельского хозяйства Тан Жэньцзянь и руководитель национального спорта Гоу Чжунвэнь — вот лишь некоторые из видных деятелей, столкнувшихся с обвинениями в политической нелояльности, а также в коррупции.

Интеграция ИИ в систему государственного управления в Китае, особенно в рамках борьбы с коррупцией, вновь поднимает вопросы о прозрачности, этичном надзоре и конфиденциальности данных. Баланс между государственным контролем и прозрачностью ИИ представляет собой серьезную проблему, как и обеспечение беспристрастности алгоритмов. Опора на ИИ в принятии решений вызывает опасения по поводу чрезмерной зависимости от технологий и роли человеческого суждения. Кроме того, важнейшей проблемой является защита конфиденциальности граждан при использовании огромных объемов данных.

Возможности и проблемы использования ИИ в борьбе с коррупцией: мировой опыт

Су Джин Со в статье на Глобальном антикоррупционном блоге (09.01.2025) пишет:

«Инструменты искусственного интеллекта (ИИ), способные эффективно обрабатывать и анализировать огромные объёмы данных, обладают огромным потенциалом для усиления мер по борьбе с коррупцией. Традиционные методы расследования, часто требующие обширного ручного анализа финансовых документов, контрактов и переписки, могут быть трудоёмкими и подвержены человеческим ошибкам».

Системы на базе ИИ, особенно основанные на машинном обучении, способны анализировать большие наборы данных для выявления закономерностей и отклонений, выявляя потенциально коррупционные действия быстрее и точнее, чем следователи-люди. Некоторые из наиболее перспективных применений технологий ИИ в борьбе с коррупцией включают:

Обнаружение аномалий в финансовых транзакциях: используя сложные алгоритмы, системы ИИ могут распознавать закономерности подозрительных расходов, обнаруживать внезапные изменения в финансовом поведении и отмечать несоответствия, которые могут указывать на взяточничество, мошенничество или отмывание денег, а также значительно сокращать количество ложных срабатываний. Например, после скандала с Global Laundromat банк HSBC внедрил системы ИИ, которые выявляли сложные схемы коррупции и мошенничества, анализируя огромные объемы данных, включая геолокацию, IP-адреса и шаблоны использования. Инструменты ИИ также могут оценивать взаимосвязи между счетами, клиентами и предприятиями, раскрывая скрытые связи, которые могут указывать на коррупционную деятельность. В банковском деле и финансах это помогает учреждениям выявлять риски, связанные с ведением бизнеса с определенными сторонами. Кроме того, ИИ может анализировать неструктурированные данные, такие как новостные статьи или сообщения в социальных сетях, чтобы помочь финансовым учреждениям и регулирующим органам раскрыть негативную информацию, которая может остаться незамеченной с помощью традиционных методов мониторинга.

Мониторинг государственного сектора: инструменты ИИ могут преобразовать методы контроля со стороны правительств по контрактам, процессам закупок и государственным расходам. Автоматизируя надзор, ИИ помогает выявлять конфликты интересов, фаворитизм и завышенные цены в государственных контрактах. Например, в Бразилии была внедрена Система оценки рисков в сфере управления (GRAS) Всемирного банка для выявления потенциальных коррупционных рисков в государственных закупках. GRAS анализирует обширные общедоступные наборы данных из списков избирателей, социальных программ, платежных ведомостей и компаний, занесенных в черные списки, для выявления доказательств сговора, неправомерного политического влияния и других тревожных сигналов. Подход GRAS, основанный на данных, позволил бразильским властям обнаружить коррупцию на миллионы долларов как на уровне штатов, так и на муниципальном уровне. Его прогностические возможности выходят за рамки государственных контрактов, помогая властям выявлять сети сговора и нетипичные схемы расходования средств в секторах с высоким уровнем риска.

Предиктивная аналитика в правоохранительной деятельности: ИИ также играет важную роль в предиктивной аналитике, помогая правоохранительным органам прогнозировать области, наиболее подверженные коррупции. Анализируя исторические данные о коррупционных делах, модели ИИ могут выявлять факторы риска, которые аналитики-люди могут упустить. Это позволяет правоохранительным органам сосредоточить ресурсы там, где вероятность коррупции наиболее высока. Например, инициатива Комиссии по ценным бумагам и биржам США «Прибыль на акцию» (EPS) использует ИИ для выявления нарушений в бухгалтерском учете и раскрытии информации, которые могут указывать на манипулирование доходами. Эта инициатива привела к многочисленным мерам принудительного характера.

Аналогичным образом, Министерство юстиции США успешно использовало аналитику ИИ в громких делах о коррупции за рубежом, таких как осуждение Артуро Мурильо, бывшего министра Боливии, замешанного в многомиллионной схеме взяточничества. Анализ финансовых отчетов с помощью ИИ помог обнаружить финансовые аномалии и связи, которые в противном случае могли бы остаться незамеченными, что в конечном итоге позволило Министерству юстиции найти доказательства того, что Мурильо получил более 500 000 долларов США в виде взяток, чтобы помочь флоридской компании заключить контракт на сумму 5,6 миллиона долларов США с Министерством обороны Боливии.

Хотя ИИ открывает значительные возможности для борьбы с коррупцией, его эффективное внедрение сталкивается с рядом проблем, которые грозят подорвать его потенциал. Эти препятствия требуют тщательного анализа. Среди важнейших проблем, с которыми сталкивается ИИ в борьбе с коррупцией, можно назвать следующие:

Проблемы с данными: способность ИИ обнаруживать коррупцию зависит от качества, полноты и надежности данных — как данных, используемых для обучения системы, так и данных, которые система анализирует. Если данные неполные, предвзятые или устаревшие, то результаты, сгенерированные ИИ, будут отражать эти искажения и могут привести к неточным результатам, подрывая целостность антикоррупционных усилий. Например, проект MARA в Бразилии, который рассчитывает баллы коррупции с использованием данных о судимостях, страдает от политических предубеждений, которые формируют его обучающие наборы данных. Аналогичным образом, исследование систем ИИ, используемых для обнаружения отмывания денег, показало, что низкое качество данных приводит к значительному снижению точности.

Проблемы с конфиденциальностью: обширный сбор данных, необходимый для эффективного функционирования систем ИИ, вызывает серьёзные проблемы с конфиденциальностью и этикой. Рассмотрим, например, индийскую Систему управления государственными финансами (PFMS), которая использует ИИ для отслеживания государственных расходов и выявления коррупционных рисков. Эта система собирает подробные персональные и организационные данные, и это вызвало споры о том, нарушает ли она гражданские свободы. Аналогичным образом, голландский суд признал недействительной Systeem Risico Indicatie (SyRI), систему обнаружения мошенничества в сфере социального обеспечения, которая агрегировала персональные данные из различных источников, сославшись на несоблюдение ею права на неприкосновенность частной жизни, предусмотренного Европейской конвенцией о правах человека.

Отсутствие прозрачности и объяснимости: Многие системы ИИ работают как «черные ящики», где процессы принятия решений непрозрачны, что затрудняет интерпретацию и проверку их результатов. Например, проект Zero Trust в Китае был направлен на выявление коррупции среди более чем 60 миллионов государственных служащих путем перекрестных ссылок на 150 баз данных, включая банковские выписки, данные о передаче имущества и частные покупки. Несмотря на эффективность в выявлении нарушений, которые могут указывать на коррупцию, внутренние исследователи признали неспособность системы объяснить, как она пришла к конкретным выводам. Непрозрачность систем ИИ может ослабить общественное доверие к этим системам. Государственным учреждениям может быть сложно предоставлять содержательные объяснения решений, принятых с помощью ИИ, что может подорвать принципы прозрачности и подотчетности в процессе принятия государственных решений. Такое отсутствие объяснимости подрывает доверие к выводам, принятым с помощью ИИ, в юридических контекстах, где доказательства должны соответствовать высоким стандартам доказывания и прозрачности.

Эти проблемы указывают на трудности в эффективном использовании ИИ для борьбы с коррупцией.

Необходимо быть бдительными к возможности того, что сами коррупционеры будут использовать системы ИИ для достижения своих незаконных целей и подрывать усилия по борьбе с коррупцией. Например, способность систем ИИ создавать и усиливать дезинформацию может представлять особенно серьезную угрозу для усилий по борьбе с коррупцией. В Бангладеш видео с глубоким фейком, ложно изображающее политика в сложной ситуации, стало вирусным, нанеся ущерб ее репутации и подорвав доверие к демократическим процессам. Аналогичным образом. Эти инциденты подчеркивают масштаб угроз дезинформации, где ИИ используется для создания ложного, но убедительного контента с целью манипулирования общественным мнением, создания негативной репутации или отвлечения внимания от кампаний по борьбе с коррупцией.

Международный антикоррупционный исследовательский центр U4 в феврале 2025 года выпустил аналитический доклад под названием «Искусственный интеллект в борьбе с коррупцией – актуальные новости о технологиях ИИ».

Эксперты U4 сосредоточили публикацию на трех ключевых темах: (1) применение ИИ для борьбы с коррупцией в «классических» областях, где технология уже показала определенные достижения, (2) области, где ИИ был внедрен, но не дал положительных результатов, и (3) некоторые перспективные области применения ИИ.

1. К «классическим» областям, где ИИ помогает эффективнее противодействовать коррупции, относятся мониторинг государственных закупок, борьба с мошенничеством и отмыванием денег, а также анализ больших данных. Успешное применение ИИ в этих областях обусловлено прежде всего его способностью масштабно обрабатывать и связывать неструктурированную информацию, а также гибким подходом к неконтролируемому обучению.

Например, в сфере государственных закупок ИИ позволяет:

Выявить новые (хотя бы теоретически) и скорректировать существующие индикаторы коррупции («красные флажки»);

Рассмотреть возможность использования гораздо более широкого набора входных данных при анализе и мониторинге закупок для выявления более сложных схем сговора и конфликтов интересов;

Что касается выявления мошенничества и борьбы с отмыванием денег, ИИ помогает превратить эпизодические выборочные проверки в более эффективные, комплексные и оперативные инструменты мониторинга. В отчёте приведён пример глобального конгломерата по производству напитков, который консолидировал более десятка внутренних систем управления ресурсами предприятия с несколькими внешними потоками данных. Результатом стала консолидированная функция проверки поставщиков, поддерживаемая ИИ, которая позволила сократить расходы более чем на 90%.

С точки зрения обработки больших данных, ИИ позволяет более эффективно выявлять и анализировать релевантную информацию. Например, в Перу следователи используют ИИ для проверки растущего объёма зарегистрированных подозрительных финансовых транзакций. Финансовый конгломерат HSBC удвоил показатель обнаружения подтверждённых незаконных транзакций и сократил время обработки транзакций с более чем месяца до нескольких дней.

2. В то же время попытки использовать ИИ для принятия государственных решений с целью ограничения их дискреционных полномочий, порождающих коррупцию, не увенчались успехом. Было установлено, что системы ИИ выдают множество неверных или спорных решений: авторы приводят такие наиболее громкие примеры, как необоснованный отказ в выплате пособий по безработице тысячам законных претендентов в Мичигане, неправомерное лишение социальных пособий в Сербии и детских пособий голландским родителям. Этот недостаток связан со спецификой функционирования ИИ (принцип принятия решений моделями машинного обучения, особенно сложными, для внешних пользователей называется «черным ящиком») и правом собственности на модели и данные ИИ. Невозможность полного объяснения решений ИИ нарушает один из основных принципов административной юстиции.

Другая проблема заключается в предвзятости обучающих данных и значительной склонности ИИ к «галлюцинациям» (выдумке и выдаче ложной информации за факт). Даже системы ИИ, специализирующиеся на юридических вопросах, «галлюцинируют» в 30% случаев, например, ссылаясь на несуществующие правовые положения.

Все эти проблемы говорят о том, что ИИ может оказывать поддержку в принятии решений, но при этом человек как лицо, принимающее окончательное решение, является необходимым условием для достижения справедливых и точных результатов, а также для установления четких рамок ответственности в случае возникновения проблем.

3. Авторы доклада называют дистанционное зондирование и инклюзивное участие новыми антикоррупционными возможностями для ИИ.

За последние десять лет системы искусственного интеллекта развили способность извлекать информацию из изображений и распознавать сложные закономерности. Это открывает новые возможности использования ИИ для борьбы с рядом незаконных видов деятельности, тесно связанных с коррупцией, например, с незаконной вырубкой леса.

Компания Forest Foresight разработала технологию на основе искусственного интеллекта, способную предсказывать незаконную вырубку лесов за несколько месяцев до её начала. В ходе экспериментального внедрения в Габоне она помогла инспекторам парка провести 34 мероприятия по обеспечению соблюдения правил и остановить незаконную добычу золота. Кроме того, дистанционное зондирование с использованием искусственного интеллекта использовалось для:

Повышение в три раза производительности труда рейнджеров по обнаружению ловушек в Камбодже;

Распределение ответственности за удаленные разливы нефти в Средиземном море;

Выявление недобросовестных поставщиков при закупках в Бразилии;

Нелегальные майнеры биткоинов в Иране;

Незаконная рыболовная деятельность по всему миру;

Предоставление неверных данных об экономической активности в Китае;

Выбросы метана в США и т.д.

Эксперты U4 считают столь же перспективным использование ИИ для защиты от «захвата политики» и содействия инклюзивному участию граждан в принятии государственных решений.

Рост числа систем удалённой обратной связи сделал их практически неуправляемыми вручную. Например, Бюро финансовой защиты потребителей США получает более миллиона комментариев ежегодно, а публичные консультации по новой чилийской конституции собрали более 280 000 индивидуальных комментариев. В этих случаях правительство сталкивается с двумя основными проблемами:

Способность ИИ классифицировать и обобщать очень большие объёмы текстов на естественном языке позволяет решить эти проблемы и сделать процессы осмысленными и эффективными. Например, внедрение ИИ в программную платформу Consul Democracy, используемую более чем 300 городами и организациями по всему миру для сбора гражданских инициатив, позволило значительно повысить эффективность её работы. Ранняя версия платформы, впервые запущенная в Мадриде, привлекла более 26 000 предложений. Ручное обобщение информации привело к тому, что только два предложения достигли порогового значения для рассмотрения городским советом; новая версия платформы, поддерживаемая ИИ, позволяет значительно улучшить поиск и объединение схожих результатов.

Помимо анализа сфер применения ИИ в целях противодействия коррупции, авторы публикации предлагают лицам, ответственным за разработку и реализацию соответствующих решений, учитывать ряд сопутствующих особенностей и проблем:

1) Необходимость решения проблем цифрового неравенства. Доступ к ИИ и исходные данные, используемые ИИ, неравномерно распределены по странам, гендерному, этническому и социально-экономическому признакам, например:

Только 22% специалистов в области ИИ — женщины;

Страны с высокой долей маргинализированных сообществ могут иметь низкую представленность в цифровой сфере;

Определенные группы лиц могут иметь непропорционально высокую заметность в отношении определенных неблагоприятных событий (например, более высокая распространенность в статистике преступлений из-за большего внимания полиции).

Это может привести к тому, что системы ИИ, вероятно, будут выдавать более ошибочные и/или предвзятые результаты: например, системы поддержки принятия решений на основе ИИ при найме персонала могут воспроизводить гендерное неравенство, полагаясь на устаревшие данные, которые смещены в сторону найма и продвижения кандидатов-мужчин. Важно учитывать эти особенности использования ИИ для анализа и/или принятия решений.

2) Возможность объединения разрозненных инициатив в области раскрытия информации, прозрачности и открытых данных с использованием ИИ. Например, в Чехии ИИ помогает выявлять длинные цепочки политических связей с данными о финансах и открытых правах собственности. Отдельные наборы данных ценны сами по себе, но в совокупности они позволяют выйти на новый уровень антикоррупционного анализа и мониторинга.

3) Важность инвестиций в целевые обучающие данные и модели открытого владения. Ограниченная доступность объективных данных является одним из основных препятствий для полного раскрытия потенциала ИИ, включая его применение в борьбе с коррупцией. Целенаправленная поддержка создания специальных общедоступных обучающих наборов данных в тесном сотрудничестве с профессиональным антикоррупционным сообществом может помочь раскрыть этот потенциал.

4) Разработать ресурсы и инфраструктуру для оспаривания несправедливых решений ИИ. Учитывая масштабы работы систем ИИ, даже в оптимальных условиях ИИ неизбежно будет выдавать большое количество ложноотрицательных результатов, то есть ошибочно обвинять людей в мошенничестве, лишать их социальных льгот и т. д. Поддержка пострадавших лиц, особенно из социально незащищенных групп, путем создания практических возможностей для пересмотра решений, подачи эффективных жалоб и, при необходимости, возбуждения судебных дел. Кроме того, может быть полезным инвестирование в аналитические инструменты и системы оценки, которые помогут определить, когда и как ИИ не справляется со своими задачами, выдавая предвзятые и ошибочные результаты.

5) Важность наращивания потенциала в области ИИ в более широком антикоррупционном сообществе, включая понимание его ограничений (предвзятости и «галлюцинации») и развитие навыков формулирования запросов к системам ИИ. Для создания целевых антикоррупционных продуктов необходимы эксперты, способные адаптировать существующие системы ИИ и обучить их работе с использованием соответствующих открытых данных. Поддержка со стороны государственных органов, гражданского общества и доноров также важна в этом смысле для консолидации ресурсов, поддержки технического потенциала и сохранения прагматичного подхода к оценке эффективности ИИ, а также выявления областей, где необходимы передовые технологии или достаточно простых решений.

Сферы борьбы с коррупцией, где можно применять искусственный интеллект

Амалия Лопес Асера (руководитель отдела агентства Валенсии по борьбе с мошенничеством, AVAF) в статье на сайте агентства (21.11.2023) указывает некоторые из возможных применений искусственного интеллекта в борьбе с коррупцией:

Государственные закупки:

Контроль публичных тендеров путем мониторинга тендеров с целью выявления аномальных закономерностей, таких как индивидуальные тендеры или тендеры, в которых всегда выигрывает одна и та же компания.

Проверка государственных контрактов на предмет наличия необычных положений или потенциально коррупционных условий.

Публичные аудиты:

Бюджетный аудит для анализа расходов муниципалитетов и других государственных администраций, выявления нерегулярных ассигнований или необоснованных расходов.

Контроль субсидий и государственной помощи с целью выявления дублирования или несоответствия получателей.

Обнаружение шаблонов:

Обнаружение аномальных закономерностей с помощью машинного обучения, поскольку большие объёмы данных могут быть проанализированы на предмет аномальных закономерностей, которые могут указывать на мошенническую деятельность. Например, в финансовых транзакциях, тендерах, контрактах или грантах.

Анализ текста при проверке документов и электронных писем на предмет подозрительных терминов или закономерностей, например, в случае ложных сообщений.

Человеческие ресурсы:

Управление человеческими ресурсами для выявления нарушений в процессах отбора, внутренних продвижениях, обменах и т. д.

Контроль конфликтов интересов путем выявления возможных взаимосвязей между сотрудниками органов государственного управления и частными компаниями.

Коммунальные услуги:

Выявление нарушений в управлении государственными услугами путем определения возможных перерасходов средств, недостатков или недобросовестной практики.

Проверка официальных документов, проверка подлинности и соответствия документов, представляемых в административных процедурах, предотвращение подделок.

Анализ данных:

Интеграция баз данных: благодаря подключению общедоступных баз данных (местных, национальных или международных) можно создавать перекрестные ссылки на информацию и эффективнее выявлять возможные случаи мошенничества.

Защита данных:

Защита конфиденциальных данных путем оповещения о несанкционированном доступе или манипулировании государственными базами данных.

Оптимизация расследований, поскольку при обнаружении возможного случая мошенничества ИИ может рекомендовать ряд шагов или действий на основе предыдущих случаев, тем самым оптимизируя ресурсы и время расследования.

Информационные системы:

Системы информирования о нарушениях: анонимные платформы информирования на базе искусственного интеллекта, обеспечивающие защиту осведомителей и достоверность полученной информации.

Прогностические системы: ИИ может помочь прогнозировать области или секторы с более высоким риском мошенничества в будущем на основе исторических данных и текущих тенденций.

Обучение этике и общественной добросовестности:

для сотрудников органов государственного управления и граждан, адаптируя содержание к реальным потребностям каждого человека, обнаруженного самим ИИ.

Законодательство и прозрачность:

Прозрачность в принятии решений: инструменты ИИ, которые объясняют, как принимаются определенные государственные или корпоративные решения, снижая вероятность неправомерного фаворитизма.

Обзор законодательства и нормативных актов: ИИ может анализировать и сравнивать законодательство разных регионов или стран, чтобы предлагать изменения, которые уменьшат юридические пробелы, способствующие коррупции.

Автор рассматривает примеры инструментов и приложений на основе ИИ, которые уже применяются в сфере противодействия мошенничеству и коррупции. Она сгруппировала их по преследуемым целям.

Инструменты для выявления коррупции в государственных закупках

VigIA, инструмент искусственного интеллекта, разработанный Tic Tank Университета Росарио (Аргентина) при поддержке CAF (Банка развития Латинской Америки и Карибского бассейна) для Окружного управления по надзору Боготы. Цель VigIA — выявлять контракты мэрии Боготы с высоким риском коррупции и неэффективности, используя данные, предоставляемые Электронной системой государственных закупок.

В сфере частной инициативы мы обнаружили инструмент Percephtor, разработанного мексиканской компанией для помощи гражданам в контроле за общественными работами, оценке эффективности работы политических должностей и борьбе с коррупцией. Этот инструмент распознаёт объекты по изображениям и видео. В 2022 году было установлено, что правительство Мексики тратило в среднем 2,7 миллиона песо в минуту на общественные работы. Этот факт был раскрыт организацией «Мексиканцы против коррупции и безнаказанности», которая ссылается на незадекларированные расходы на CompraNet, портале, предназначенном для демонстрации государственных контрактов.

Проект Европейского союза Digiwhist — это инструмент анализа больших данных, созданный для выявления мошенничества в государственных закупках на европейском уровне. Проект обрабатывает показатели и общедоступные данные и тесно сотрудничает с организациями, специализирующимися на раскрытии случаев коррупции.

Проект Digiwhist – это совместный проект шести европейских организаций под руководством Кембриджского университета. Для его реализации они изучили данные о государственных закупках из 35 юрисдикций, на основе которых была создана общедоступная база данных. На основе собранной информации Digiwhist разработал инструменты для повышения прозрачности и справедливости государственных закупок. Эти инструменты находятся в свободном доступе и представляют собой ценный ресурс для НКО, журналистов, государственных органов и бизнеса.

Европейские механизмы публичной подотчетности (EuroPAM), которые позволяют сравнивать правовые и нормативные стандарты в различных юрисдикциях.

Европейский мониторинг тендеров (MET): программное обеспечение для оценки рисков в процедурах государственных закупок.

Инструменты искусственного интеллекта, применяемые для расследования мошенничества и коррупции

Примером уже разработанного и доказавшего свою эффективность инструмента является Ravn — программное обеспечение с искусственным интеллектом, способное быстро и без ошибок фильтровать, индексировать и обобщать документы, превосходя по эффективности человека. Ravn получил известность благодаря своей роли в раскрытии дела о коррупции в Rolls-Royce в 2008 году, когда он помог британскому Управлению по борьбе с крупным мошенничеством (SFO) проанализировать 30 миллионов документов, обрабатывая 600 000 документов ежедневно.

Эти программы, известные как «Lawtech», используют интеллектуальные алгоритмы для обучения на собственном опыте, оптимизируя время и ресурсы. Они могут выполнять такие задачи, как индексация международных репозиториев или автоматическое извлечение номеров паспортов из изображений. Несмотря на свою эффективность, они рассматриваются не как угроза занятости в юридическом секторе, а как инструмент повышения эффективности.

Аналогичным образом, в Испании налоговая администрация и органы социального обеспечения используют цифровые платформы, которые упрощают и автоматизируют процессы и, сопоставляя информацию, позволяют выявлять случаи мошенничества. С 2015 года Главное управление инспекции труда и социального обеспечения использует программное обеспечение на основе искусственного интеллекта (анализ данных) для более гибкого выявления случаев мошенничества под названием «Инструмент борьбы с мошенничеством».

Налоговое агентство также располагает инструментом, с помощью которого автоматически проверяются представленные налогоплательщиками данные самооценки для выявления расхождений между данными, включенными в самооценку, и другими данными, имеющимися в распоряжении Казначейства.

Инструменты искусственного интеллекта для обнаружения ложных сообщений

Национальная полиция уже использует систему искусственного интеллекта VeriPol, которая используется для выявления ложных заявлений. Эта система была разработана совместно с Автономным университетом Мадрида в связи с ростом числа ложных заявлений о насильственных ограблениях. Система анализирует язык заявлений, используя методы обработки естественного языка и машинного обучения, и её эффективность составляет 91%.

Инструменты искусственного интеллекта для выявления случаев конфликта интересов

Искусственный интеллект может помочь в борьбе с коррупцией, выявляя нарушения и конфликты интересов посредством анализа больших объёмов данных. Для эффективности ИИ крайне важно наличие точных алгоритмов и качественных данных, таких как Arachne.

Arachne — это цифровая система, созданная Европейской комиссией для улучшения контроля над проектами, финансируемыми структурными фондами ЕС, такими как Европейский социальный фонд и Европейский фонд регионального развития. Храня данные по этим проектам и используя общедоступную информацию, Arachne выявляет потенциальные риски мошенничества, конфликта интересов и нарушений. Однако она не предназначена для индивидуальной оценки бенефициаров или их автоматического исключения.

Данные о проектах поступают от управляющих органов Европейского социального фонда (ESF) и Европейского регионального фонда (ERDF), которые государства-члены направляют в Европейскую комиссию. Arachne также использует данные из внешних источников, таких как Orbis и World Compliance, для улучшения анализа. Инструмент рассчитывает специфические индикаторы риска.

Arachne собирает данные о бенефициарах, партнерах по проектам, подрядчиках, поставщиках услуг и других лицах, включая имена и адреса. Arachne также использует информацию из внешних источников, например, данные о компаниях, акционерах и санкционных списках.

Arachne с ее методами анализа является важнейшим инструментом для управления органами власти в борьбе с мошенничеством и в совершенствовании управления проектами, финансируемыми ЕС.

Инструменты искусственного интеллекта для предотвращения коррупции

Red Flags, финансируемый Европейской комиссией и созданный различными организациями в Венгрии для мониторинга государственных закупок в этой стране. Этот инструмент анализирует процедуры закупок и с помощью алгоритма определяет те из них, которые представляют наибольший риск коррупции, на основе предустановленных предупреждений в зависимости от их серьёзности или вероятности обнаружения фактической коррупции. Кроме того, он предоставляет доступ к этой информации как гражданам, так и государственным служащим.

Служба социального обеспечения Испании использует алгоритм искусственного интеллекта для мониторинга сотрудников, находящихся на больничном, и выявления возможного мошенничества, включённый в проект LINCÉ. Этот инструмент прогнозирования, используемый уже 5 лет, оценивает состояние здоровья людей и прогнозирует вероятность их готовности вернуться к работе.

Алгоритм определяет, какие документы должны быть рассмотрены медицинскими инспекторами Национального института социального обеспечения (INSS) в первую очередь. Если восстановление не было выполнено, система отмечает документ как потенциальный случай мошенничества.

Профессора Итурриага и Санс из Университета Вальядолида разработали исследование, которое использует искусственный интеллект для прогнозирования того, в каких провинциях Испании уровень коррупции может возрасти в ближайшие годы.

В исследовании, проведенном с использованием нейронной сети, были обработаны экономические и политические данные за период с 2000 по 2012 год для выявления областей, подверженных коррупции, и условий, способствующих ей. Один из выводов заключается в том, что вероятность коррупции возрастает, если политическая партия находится у власти длительное время. Кроме того, такие факторы, как повышение налога на имущество, рост цен на жилье, открытие большого количества банковских отделений и создание новых компаний, могут указывать на наличие коррупции. Инновационность данного исследования заключается в использовании реальных данных, а не субъективных индексов восприятия, как это делалось ранее.

Какие проблемы может вызвать внедрение искусственного интеллекта?

Внедрение инструментов искусственного интеллекта в борьбу с мошенничеством и коррупцией может привести к возникновению следующих проблем:

Сопротивление изменениям и отсутствие обучения:

Одним из основных препятствий на пути внедрения искусственного интеллекта является сопротивление изменениям со стороны сотрудников органов государственного управления. Многие специалисты могут ощущать угрозу вторжения технологий, которые, по их мнению, могут заменить их должности или помешать их привычной работе из-за отсутствия специальной подготовки по использованию этих инструментов.

Чтобы преодолеть это препятствие, крайне важно продвигать программы обучения и повышения квалификации, которые позволят сотрудникам лучше понимать искусственный интеллект, принципы его работы и то, как он может стать дополнительным инструментом, облегчающим и улучшающим их работу, а не заменяющим её. Также крайне важно правильно управлять ожиданиями и чётко доносить до сотрудников цели и преимущества этих инициатив.

Вопросы конфиденциальности и защиты данных:

Искусственному интеллекту для его корректной работы необходим доступ к большим объёмам данных. Однако управление этими данными в публичной сфере вызывает серьёзные опасения относительно конфиденциальности и защиты персональных данных граждан. Неправомерное использование или непреднамеренное раскрытие этих данных может иметь серьёзные последствия, особенно в случае осведомителей.

Поэтому крайне важно разработать протоколы безопасности, которые обеспечат соответствие решений искусственного интеллекта действующим правилам защиты данных.

Отсутствие технологической инфраструктуры:

Внедрение систем на основе искусственного интеллекта требует развитой и современной технологической инфраструктуры.

Поэтому крайне важно создавать совместные сети, а также привлекать национальные и европейские органы, продвигающие этот тип технологий.

Предубеждения:

Хотя искусственный интеллект может быть мощным инструментом для выявления закономерностей и аномалий, он не лишен ошибок. Алгоритмы работают с данными, и если эти данные содержат предвзятость или нерепрезентативны, полученные выводы могут быть неверными или несправедливыми. Это особенно тревожно в публичной сфере, где решения, основанные на ошибочных данных, могут иметь серьезные последствия для граждан.

Для снижения этого риска крайне важно применять критический и непрерывный подход к проверке и валидации моделей ИИ. Кроме того, необходимо разработать протоколы, позволяющие быстро исправлять ошибки и гарантировать, что системы не будут способствовать сохранению или усилению существующих предубеждений в данных или в обществе, а также обеспечить защиту основных прав граждан и конфиденциальности при использовании больших данных и автоматизированных систем органами государственного управления.

Коррумпированный ИИ: когда манипуляции берут верх

Кристиан Рандиери (профессор Университета eCampus, Директор Kwaai EMEA, основатель Intellisystem Technologies), в статье в Forbes «Предвзятость и коррупция в сфере искусственного интеллекта: угроза справедливости» (14.03.2025) пишет:

«Предвзятость моделей ИИ и возможность преднамеренного манипулирования поднимают множество этических и стратегических вопросов перед компаниями и институтами, призванными анализировать корни этих проблем, их последствия и стратегии смягчения их последствий».

В стандартной литературе когнитивное искажение определяется как систематическое искажение, влияющее на процессы принятия решений и когнитивное понимание, часто являющееся результатом ограниченности наборов данных, неосознанных предубеждений и протоколов принятия решений, благоприятствующих определенным точкам зрения. Однако предубеждение – это человеческий фактор, обусловленный внутренней характеристикой обработки информации нашим мозгом, часто возникающей в результате когнитивных сокращений, которые помогают нам принимать решения в кратчайшие сроки. Оно возникает всякий раз, когда человек пытается оценить текущую ситуацию, основываясь на своем прошлом опыте, по возможности опуская различия, чтобы повторно использовать те же критерии, принятые в аналогичной ситуации. Однако игнорирование таких различий иногда может иметь решающее значение для аннулирования окончательной оценки, что может привести к систематическим искажениям в рассуждениях, влияющим на принимаемые решения. Системы искусственного интеллекта становятся предвзятыми, когда модель обучается на асимметричных данных или когда в дизайне присутствуют структурные дефекты, что приводит к несправедливым результатам.

Эта проблема выходит за рамки одних лишь технологий и становится серьёзным вопросом социальной справедливости и инклюзивности. Алгоритмическая предвзятость — серьёзная проблема, возникающая из-за решений, принимаемых при создании алгоритма, независимо от того, были ли они преднамеренными или нет. Она может иметь очень серьёзные последствия в таких областях, как выдача кредитов, найм персонала и система уголовного правосудия.

Коррупция в ИИ представляет собой преднамеренную угрозу, которая угрожает целостности моделей, в то время как смещение, как правило, возникает непреднамеренно. Наибольшую опасность среди методов манипуляции, обычно используемых в системах ИИ, представляет отравление данных, поскольку этот метод позволяет пользователям вставлять ложную информацию в обучающие наборы данных, что приводит к изменению поведения алгоритма и приоритетному решению некоторых проблем, таких как изменение искусственных кредитных рейтингов.

Уязвимости, основанные на моделях, известные как бэкдоры, позволяют злоумышленникам контролировать алгоритмические решения, что создает значительные риски в таких областях, как безопасность и правосудие. Системы сталкиваются с манипуляцией входными данными посредством состязательных атак, что приводит к генерации неверных результатов при попытке обойти средства обнаружения мошенничества.

Коррупция в модели достигает своего разрушительного эффекта, когда кто-то изменяет её основные параметры. Эти проблемы создают проблемы доверия к искусственному интеллекту и приводят к этическим и эксплуатационным проблемам, требующим инновационных решений. Выявление этих проблем крайне важно для обеспечения справедливости и надежности систем искусственного интеллекта.

Что может побудить кого-то вмешаться в систему ИИ? Это может быть вызвано разными причинами, такими как экономическая, политическая или даже неявная предвзятость, о которой люди могут не до конца осознавать. Например, в сфере финансовых услуг ИИ может использоваться для манипулирования рынком с помощью высокочастотных торговых алгоритмов или для того, чтобы дать другим инвесторам пищу для размышлений о ценах акций. В страховой отрасли, например, предвзятые алгоритмы ИИ могут отказать в страховании людям, считающимся подверженными высокому риску, что наносит ущерб так называемым «маргинализированным группам».

С политической точки зрения, злоупотребление ИИ может повлиять на любую платформу, предназначенную для управления информацией в интернете.

Рандиери считает, что для того, «чтобы искусственный интеллект продолжал оставаться инструментом справедливого и инклюзивного прогресса, необходимо принять стратегии смягчения последствий, включая повышение прозрачности процессов разработки, диверсификацию наборов данных, проведение независимых аудитов и внедрение специальных правил, эффективно предотвращающих злоупотребление этой технологией.

Только при глубокой коллективной приверженности компаний, правительств и гражданского общества станет возможным гарантировать, что такой мощный и распространенный инструмент, как ИИ, продолжит утверждать себя в качестве двигателя инноваций, не ставя под угрозу высшие человеческие ценности справедливости и равенства».

*НКО, признанное иностранным агентом в РФ

1.0x