Александр Карпов, Алёна Медведева "Зачем Пентагону программа по противодействию фейковым новостям"
Авторский блог Дмитрий Перетолчин 22:50 3 сентября 2019

Александр Карпов, Алёна Медведева "Зачем Пентагону программа по противодействию фейковым новостям"

Министерство обороны США разрабатывает новую систему для выявления фейковых новостей и видеозаписей, созданных с помощью технологии deep fake.
2
Предполагается, что алгоритмы смогут обнаруживать фейки в текстах и видеофайлах, распространяемых через СМИ и соцсети. Программа получила название «Семантическая криминалистика». Эксперты полагают, что Пентагон проявляет интерес к подобным исследованиям, чтобы занять доминирующее положение в информационной сфере и использовать эти инструменты для проведения атак.
Управление перспективных исследовательских проектов Минобороны США DARPA займётся борьбой с фейковыми новостями и информационными атаками. Ведомство ищет подрядчиков для разработки специального программного оборудования, которое сможет выявлять фейки среди текстовых новостей, а также распознавать видеоматериалы, отредактированные с помощью технологии deep fake. Об этом сообщает агентство Bloomberg.
Для борьбы с такими материалами DARPA разработает систему алгоритмов, которая сможет распознавать фейки в СМИ и соцсетях до того, как они приобретут вирусную популярность, сообщает Bloomberg. Алгоритмы составят основу технологии SemaFor (Semantic Forensics) — программы «Семантическая криминалистика», а также MediFor — «Медиакриминалистика».
«Технологии, разработанные в рамках программы «Семантическая криминалистика», помогут выявлять, сдерживать и анализировать вражеские кампании по дезинформации», — говорится в концепции программы, опубликованной на сайте DARPA.
Bloomberg сообщает, что один из руководителей проекта Мэтт Турек 29 августа провёл встречу с потенциальными разработчиками в городе Арлингтон, где расположен Пентагон. Бюджет программы «Семантическая криминалистика» пока неизвестен.
Deep fake — это, как правило, видео- или аудиозапись, которая была отредактирована с помощью нейросетей или машинного обучения. Всеобщее внимание они привлекли к себе после появления в интернете нескольких видеороликов с кадрами из популярных голливудских фильмов, где вместо исполнителей главных ролей с помощью нейросетей были вмонтированы другие актёры.
При этом общее качество роликов остаётся достаточно высоким, и порой неподготовленному пользователю бывает трудно отличить подделку от оригинала.
Всё больше экспертов по безопасности в США и странах Западной Европы отмечают, что распространение этих технологий приведёт к новому всплеску информационной войны, которая будет вестись с помощью отредактированных компрометирующих видеозаписей, главными действующими лицами которых будут политики или другие общественные деятели.
«Хотя многие из этих материалов производятся с развлекательной или художественной целью, другие могут быть использованы с враждебными целями, например для пропаганды или кампаний по дезинформации», — говорится на сайте DARPA.
Как отметил в разговоре с RT военный политолог, заведующий кафедрой политологии и социологии РЭУ им. Плеханова Андрей Кошкин, приобретение дорогостоящих программ и создание инфраструктуры говорит о том, что у Минобороны США существует интерес в сфере информационного воздействия.

«Пентагон, располагая внушительным бюджетом, видит необходимость в том, чтобы надёжно обуздать информационное пространство и именно в этой сфере развивать своё военное доминирование. Скорее всего, это будет атакующая система, а не оборонительная», — считает Кошкин.

По словам политолога, оборонный сектор США рассчитывает применять такие технологии в будущих гибридных войнах. «Думаю, США хотят в первую очередь серьёзно повлиять на информационно-психологическую устойчивость жителей государств, с которыми они вынуждены будут воевать или на которые они планируют воздействовать, и, естественно, разложить войска противника», — отметил эксперт.
Не успеют к выборам
Согласно концепции программы «Семантическая криминалистика», алгоритмы будут настраивать с помощью специального теста, в ходе которого нужно будет обнаружить 5 тыс. фейков среди 250 тыс. текстовых новостных материалов и 250 тыс. публикаций в соцсетях.
Реализация программы рассчитана на четыре года. Изначально объектом исследования будут новости и соцсети, далее последует анализ «технической пропаганды», сообщает DARPA.
«Внедрение комплекса алгоритмов обнаружения семантических расхождений заметно усложнит положение распространителей фейковых материалов. Они будут вынуждены следить за каждой мелочью, в то время как другой стороне достаточно будет найти одну-две неточности», — говорится в концепции программы «Семантическая криминалистика».
Однако срок в четыре года не устраивает американских экспертов, которые считают, что использоваться такие технологии должны на предстоящих выборах президента США в ноябре 2020 года.
«График реализации чересчур медленный, всё это немного похоже на пиар. Нужно проводить работу с гражданами по повышению информационной грамотности, а также принимать необходимое законодательство. Но у политиков нет мотивации, чтобы менять такое положение дел, и есть конфликт интересов, так как эти же платформы для распространения фейков помогают им выигрывать выборы», — приводит Bloomberg слова Дженнифер Грайджил, занимающейся в Сиракузском университете (штат Нью-Йорк) вопросами коммуникации.
Напомним, что в США продолжает пользоваться популярностью конспирологическая версия о том, что выборы 2016 года Дональду Трампу якобы помогли выиграть спецслужбы России, вмешавшись в избирательный процесс.
Несмотря на отсутствие каких-либо доказательств подобного вмешательства, в мейнстримных СМИ эту тему обсуждают до сих пор. В том числе, утверждают многие американские издания, политики и эксперты, Россия якобы использовала фейковые новости, чтобы добиться этой цели.
 
Информационные возможности
 
Аналитики обращают внимание на то, что у американских экспертов, выразивших сожаление по поводу того, что эта технология не будет готова к выборам, не возникло вопросов, почему распознаванием фейковых новостей будет заниматься военное агентство DARPA, а не Федеральная комиссия по связи США, регулирующая деятельность СМИ.
Незадолго до появления информации о программе SemaFor Пентагон уже делал заявления, что армия США готовится к борьбе за доминирование в информационном пространстве.
В частности, с таким заявлением выступил генерал Пол Фанк, глава командования Сухопутных сил США по подготовке личного состава и разработке доктрин (TRADOC).
Эту же позицию озвучил и генерал-лейтенант Стивен Фогарти, глава киберкомандования Сухопутных войск США. Выступая на конференции Ассоциации специалистов по связи и электронике ВС TechNet Augusta 2019, он заявил, что его ведомство сменит название и будет переориентировано на ведение информационных войн, в которых используются и фейковые новости.
«Мне нужны возможности автономного характера — как наступательные, так и оборонительные. Я должен быть способен, по сути, впитывать то, что распространяется в интернете в режиме реального времени, вылавливать из этого потока то, что относится к попыткам введения в заблуждение и оказания влияния, а также быстро обращать всё это в нашу пользу для выполнения этих же задач», — заявил американский военачальник.
Генералы Фанк и Фогарти, выступая на конференции, отметили, что одним из противников, которому американские военные должны противодействовать на информационном направлении, является Россия.
 
С прицелом на противника
 
Министерство обороны США под лозунгами о защите безопасности рассчитывает развернуть новый виток информационных войн по всему миру, считает Андрей Кошкин.
«В данном случае можно провести аналогию с системой ПРО, которую американцы установили в Румынии и Польше и которая якобы направлена против иранских ракет. Только сейчас всем стало понятно, что это передовые и атакующие элементы и направлены они конкретно против России», — отметил эксперт.
Система SemaFor заявлена как инструмент для защиты от фейков, однако это наступательное информационное оружие, которое сможет автоматически создавать атаки на информационные инфраструктуры потенциального противника, считает политолог Александр Асафов.
 

«Кроме того, такие автоматизированные системы позволят создавать информационные атаки, которые не требуют вовлечения большого количества людей: это перспективно, поскольку очевидно, что информационные атаки позволяют эффективнее влиять на внутренние дела других стран. Думаю, что эти системы уже во многом создаются, проектируются и используются, например против Венесуэлы», — заключил эксперт.

Источник: https://russian.rt.com/world/article/664229-pentagon-feiki-informatsiya

Загрузка...

Комментарии Написать свой комментарий
4 сентября 2019 в 05:39

Как по мне, если это не очередной пентагоновский распил, теоретически невозможно обнаружить «поддельные» новости до тех пор, пока кто-нибудь не ленивый, пошаря по закромам, эти самые fake news опровергнет и размажет по асфальту реальными фактами. Похоже, что этот алгоритм нужен Штатам для начала очередной охоты на ведьм. В какую сторону этот алгоритм укажет, туда, не секунды не сумлевавшись ( ведь такие бабки втюхали, программа врать не будет ) янки нанесут удар «справедливого возмездия». Каково «справедливое возмездие» по-американски, мы прекрасно информированы... Точечные удары ракетами AGM-114 «Hellfire» с беспилотников MQ-9 «Reaper» с ювелирной точностью уничтожают 2 экскаватора противника и свадебную процессию из 40 человек...

4 сентября 2019 в 22:34

на самом деле для объявления того или иного факта фейком им конечно никакие программы не нужны, они нужны чтобы объявленные "фейком" новости вычищать из лент пользователей