В эпоху технологического развития, искусственный интеллект приобретает важнейшее значение. Цифровой аспект обусловлен кардинальной трансформацией экономического и технологического укладов, общественных отношений и политической жизни. Однако существует много примеров, которые показывают, что «цифра» не только помогает человеку, но и может быть использована против него.
По заявлению Европола, языковые модели на базе ИИ, такие как - ChatGPT (это языковая модель, предназначенная для ответа на текстовые запросы и создания ответов на естественном языке) и GPT-4 (большая мультимодальная модель ИИ, которая может обрабатывать как текстовые, так и графические данные и выдавать текстовые ответы), могут быть использованы злоумышленниками. С помощью таких нейросетей могут производиться фишинг, дезинформация и распространяться пропаганда. В связи с этим полицейская служба ЕС рекомендует компаниям и госучреждениям обеспечить высокий уровень кибербезопасности и следить за возможными преступными действиями. Напомним, что бесплатный и доступный всем пользователям чат-бот ChatGPT был представлен осенью 2022 года американской компанией OpenAI (одним из основателей которой был предприниматель, основатель Tesla и SpaceХ Илон Маск). Бот способен вести диалог и спорить, искать ошибки в коде, писать стихи и сценарии.
Российский эксперт по ИТ-безопасности Игорь Ашманов уже указал, что через нейросети ChatGPT и GPT-4 искусственный интеллект будет способен создать фото и видеоматериалы, а также фейковые документы.
Интервью Игоря Ашманова газете "Взгляд":
«ВЗГЛЯД: Игорь Станиславович, в чем заключается особенность нейросетей нового поколения?
Игорь Ашманов: Умная нейросеть – это бредогенератор нового поколения, но очень гладкий и изощренный. С одной стороны, это гигантский прорыв в технологиях генерации текстов и картинок. С другой – искусственный интеллект имеет свойство ухудшать все, до чего он дотрагивается. Он воспитывает в людях так называемую невзыскательность – привычку к низкому качеству. Например, машинный перевод, а также боты для общения с клиентами банков или мобильных операторов давно упростили работу многим организациям, поскольку им теперь не нужно нанимать огромное количество сотрудников для проделывания такой работы.
Однако тексты, переведенные компьютером, оказываются весьма топорными, а общение с ботом становится проблемой для клиентов. Бот по своей сути занимается лишь тем, что отгоняет клиента и экономит деньги контакт-центра, для чего старается не пропускать человека к живому оператору для решения его проблемы.
ВЗГЛЯД: Параллельно с этим высказываются опасения о том, что боты ChatGPT и GPT-4 могут создавать фейки. Так ли это?
И. А.: Такие нейросети, как ChatGPT и GPT-4, обучаются на гигантских объемах данных и уже выдают читабельные тексты, хорошие картинки, будто их создал реальный человек. В связи с этим вскоре мы столкнемся с ситуацией, когда через ChatGPT, GPT-4 будут создаваться различные фейки, фальсифицированные документы, видео и фото, которые будет очень непросто отличить от оригинала.
ВЗГЛЯД: Какие вы видите угрозы с распространением умных нейросетей?
И. А.: Я думаю, государства начнут использовать генеративные сети для пропаганды. Скорее всего, их могут начать применять и при ведении боевых действий, например, для голосового управления дронами. Кроме того, они могут использоваться мошенниками для вымогания денежных средств у обычных людей. Технологии развились настолько, что мошенники смогут автоматически генерировать готовые тексты для вымогательства личной информации у потенциальной жертвы.
ВЗГЛЯД: А какого рода информацию они могут генерировать?
И. А.: Они смогут подделать видео, на котором будет показан сгенерированный персонаж, изображающий родственника жертвы в сложной ситуации, говорящий «своим», неотличимым голосом. Дипфейки также можно использовать для репутационных атак, шантажа. Сама по себе цифровая сфера дает возможность мошенникам работать с десятками, а то и сотнями людей в день. А с помощью генерирующих нейросетей будут производиться дозвоны тысячам потенциальных жертв одновременно, с автоматическим ведением диалога «разводки» и определением того, «ведется» ли жертва. Количество жертв таких преступлений существенно возрастет.
Еще одна опасность нейросетей заключается в том, что злоумышленники могут использовать эти же технологии для подначивания граждан на саботаж или на какие-либо преступные действия во время военных действий. Например, убеждать их поджечь военкомат «коктейлем Молотова», поджечь электрошкаф на железной дороге и так далее.
ВЗГЛЯД: Как противодействовать таким угрозам?
И. А.: Меры, которые помогут частично защитить граждан от потенциальных злоумышленников, использующих нейросети, должны применяться на государственном уровне. В интернете необходимо обеспечить базовую безопасность, которой на данный момент практически нет. Можно это делать и на бытовом уровне, руками самих пользователей. Например, доверчивым пожилым родственникам необходимо ограничивать доступ в Сеть, разрешить вход только на проверенные сайты, запретить брать звонки с незнакомых номеров, тем более – иностранных.
Также необходимо ввести законодательную работу с сотовыми операторами, которые не хотят запрещать подмену телефонных номеров при звонках и блокировать номера мошенников. Для этого нужны изменения на законодательном уровне – в том числе введение уголовной ответственности за незаконный оборот персональных данных. Это, кстати, планирует сделать Госдума уже в апреле».