Авторский блог Тимофей Решетов 12:22 20 декабря 2023

Мы все умрём в войне нейросетей?

Какие опасности таит в себе искусственный интеллект

Недавно Илон Маск высказался в публичном поле, что, дескать, искусственный интеллект таит в себе такие угрозы, с которыми человечество пока даже не знает как быть. И предложил заморозить все разработки в этом направлении хотя бы на время, чтобы договориться о том, что делать с со всем этим дальше. О чём же тут идёт речь по сути?

Что такое искусственный интеллект

Искусственный интеллект (англ. Artificial intelligence, AI) — это всего лишь программный код, который призван выполнять определённые практические задачи. Этот код ещё называется нейросетью (англ. Neural Network, NN). Причём код этот не очень сложный в плане программирования, но он требует а) мощнейших вычислительных ресурсов (и, соответственно, энергозатрат) и б) огромных массивов данных, которые называют Большими данными (Big Data).

В основе моделей нейронных сетей (НС) лежат высшая математика и статистика. Алгоритм НС получает на вход структурированные данные и обучается находить в них закономерности. Наиболее типичные задачи, которые решает нейронная сеть, это:

- “бинарная классификация”, то есть ответ на вопрос в формате “да” или “нет”.

- разбиение данных на классы, и отнесение объекта на “входе” к одному из классов на “выходе”, например, распознать, что изображено на картинке: “апельсин”, “лимон” или “грейпфрут”.

Самый простой, “архитипический” пример практического применения ИИ — одобрение заявки на кредит. Алгоритм изучает всю доступную о вас персональную информацию и принимает решение, являетесь ли вы дисциплинированным заёмщиком, который вернет деньги с процентами, или же вас следует отнести к дефолтному типу, т.е. вы представляете собой потенциальный риск для банка. Подобного рода задачи решаются сегодня практически во всех сферах бизнеса.

ИИ уже достаточно глубоко проник в нашу повседневную жизнь. Можно выделить несколько основных сфер его применения.

Компьютерное зрение. Тут алгоритм учится находить на статических изображениях или видео определенные объекты и правильно их классифицировать. Многие владельцы автомобилей уже давно привыкли получать в госуслугах штрафы. В постановлениях фигурируют фото их автомобилей, нарушающих те или иные ПДД. Эта задача как раз и решается при помощи ИИ: сначала алгоритм обучают на миллионах примеров распознавать различные типы дорожных ситуаций и классифицировать их. Затем ему на вход подают данные с уличных камер, и дело пошло. Эти же алгоритмы используются для “беспилотного” вождения, для различных промышленных задач, везде, где требуется научить компьютер “понимать”, что происходит на картинке.

Временные ряды. Это задачи прогнозирования изменения графиков в будущем на основе предыдущего опыта. Например, прогнозирование результатов биржевой торговли. На вход алгоритма поступают данные о предыдущих торгах, на выходе имеем прогноз или тренд с определённым уровнем вероятности. Предсказания погоды, прогнозирование нагрузок на объекты инфраструктуры, прогнозирование спроса, трафика и т.п. типы задач, связанные с процессами, разворачивающимися во времени — все это задачи анализа временных рядов.

Рекомендательные системы. Все мы пользуемся гуглом и яндексом, регулярно заказываем всякое барахло на маркетплейсах. Мало кто задумывается, что тут мы вступаем в непосредственное взаимодействие с ИИ. Например, когда вы покупаете какую-то вещь в озоне или на вайлдбериз, алгоритм сравнивает имеющиеся в его распоряжении ваши персональные данные — а это огромные массивы информации о вашем поведении в интернете — с соответствующей информацией о других пользователях, анализирует свойства продуктов, которые вы покупаете, сопоставляет их со свойствами других продуктов, имеющихся в продаже и… рекомендует вам приобрести другие товары, которые могут быть вам интересны. На сегодняшний день уровень точности рекомендаций уже весьма высок. Причем иногда это могут быть совершенно неожиданные соответствия, которые по человеческим меркам никак не связаны друг с другом. Скажем, вы покупаете пену для ванны, а вам предлагают добавить в заказ утеплённые легинсы или тонометр. На использовании рекомендательных систем также построены алгоритмы таргетированной и контекстной рекламы.

Социальные сети. Соцсети “знают” о нас больше, чем мы себе представляем, и даже, может быть, больше, чем мы сами знаем о себе. Потому что они тщательно хранят и анализируют всю информацию, которую мы сами загружаем в них, отслеживают наши реакции, а также реакции на наши действия других людей. Например, вы сделали фотку со своего смартфона и залили ее в запрещённую соцсеть. Казалось бы, невинная вещь. Все мы делали это тысячи раз. Но мало кто отдаёт себе отчёт, что фоточка хранит в себе еще целую кучу дополнительных параметров, например, тип вашего смартфона и данные местоположения в момент съемки. Анализируя содержание ваших картинок, алгоритм понимает, где и с кем вы были рядом. Уже сейчас спецслужбы по всему миру используют соцсети для тотальной слежки за подписчиками, однако, вычислительных мощностей пока не достаточно, чтобы в режиме реального времени просчитывать йоттабайты информации, хранящиеся на их серверах. А это всего лишь вопрос времени.

Генерация текста и изображений. Многие люди уже вовсю используют нейросети типа ChatGPT, Midjourney, Dall-E для генерации текста и изображений. Часто бывает, что результаты такой генерации трудно отличить от созданных реальными людьми. В этом, впрочем, нет ничего удивительного. Потому что для обучения этих генерирующих нейросетей были использованы данные из интернета. Можно сказать, что GPT — это статистически усреднённый результат человеческой деятельности. Ничего гениального он предложить не может, потому что его “учителя” — обыкновенные люди. Чтобы GPT сделать гениальным, необходимо собрать тысячи гениальных людей и включить их в процесс его обучения. Впрочем, даже и в таком случае едва ли он сможет выйти за пределы возможностей обычного человеческого разумения.

Угрозы ИИ в ближайшем приближении

Итак, мы уже окружены ИИ со всех сторон. И процесс внедрения машинных алгоритмов в нашу повседневность идет опережающими темпами. Это, безусловно, настораживает. Если сегодня автомобили, смартфоны и даже пылесосы могут выполнять ваши голосовые команды и решать ваши задачи без вашего непосредственного участия, что же будет завтра? Очевидно, что цифровизация влияет на весь наш социум и идея о том, что дальнейшее развитие данного процесса несёт в себе определённые риски, весьма актуальна.

Больше всего многих пугает вероятность вытеснения людей из сферы производственной деятельности, т.е. потеря рабочих мест, а, стало быть, заработка, финансовой стабильности. На мой взгляд подобная угроза, хотя она безусловно реальна, — не самое страшное, что нас ожидает.

Согласитесь, если бы мы жили в справедливом обществе, где забота о людях является приоритетом, то автоматизация процессов обеспечения жизнедеятельности нас бы только радовала. Потому что она высвобождает наше время, массу которого мы сливаем на ерунду. Это время можно было бы направить на что-то более ценное и интересное, например, заняться творчеством, саморазвитием, семьёй.

Другая проблема, которая лежит на поверхности и активно муссируется, это вопрос тотального контроля и свободы воли. Действительно, если “компьютеры” знают о нас даже больше, чем мы сами знаем о себе, вполне можно допустить, что эти данные могут быть использованы против нас. Нас могут ограничить в правах, отказать в предоставлении, лишить собственности, и т.д. Введение т.н. социального рейтинга — а это, судя по всему, ближайшая задача на повестке дня — может существенно ограничить нашу свободу. Особенно это касается людей “неблагонадежных”, но где гарантия, что человека в целом социально здорового не зачислят во “вредители”? Доверить свою судьбу в “руки” алгоритма — такая себе перспектива. Помните сюжет фильма "Бразилия"?

И, между тем, если бы наше общество было устроено на принципах взаимного доверия, если бы государственные институты стремились нести благо людям, подобного рода "цифровизация" могла бы показаться не просто допустимой, но даже желательной. Разве плохо, когда компьютер распознаёт преступника, вычисляет мошенника, до того, как они успеют причинить вред? Разве плохо, если алгоритм диагностирует резкое ухудшение состояния здоровья до того, как случится инсульт или инфаркт, и позволяет обойтись профилактическими методами, спасти жизнь?

Однако, общество в котором мы живем сложно назвать справедливым. И от этого роботизация воспринимается с настороженностью. Впрочем, мы ничего и не можем с этим поделать. За нас как обычно всё уже решили, нас просто ставят перед фактом. Получается, проблема не в ИИ, но в самой системе жизненного уклада, в которой мы с вами сегодня себя обнаруживаем. Проблема в том, кто конкретно управляет алгоритмами ИИ.

Значит ли это, что сами по себе нейросети не несут людям никакой прямой угрозы?

Попробуем взглянуть на этот вопрос под иным углом зрения.

Насущные проблемы безопасности нейросетей

Недавно мне попалось вот это, на мой взгляд, весьма любопытное выступление Андрея Карпатого, одного из основателей компании Open AI, ведущего мирового специалиста в области ИИ, человека, который стоял у истоков GPT.

Для справки хочу заметить, что GPT = Generative Pre-trained Transformer, что можно перевести как “генерирующий предварительно обученный преобразователь”. Это алгоритм, математическая модель, которая после соответствующего обучения способна генерировать (производить) поток текстовой информации методом трансформации текста, изначально заложенного в его [алгоритма] обучение. Либо генерировать новые картинки на основе просмотренных ранее.

В этой своей лекции он на пальцах разбирает вопрос о том, что такое Большие Языковые Модели (Large Language Modles, LLM):

- Какова их архитектура,

- Сколько и каких ресурсов требуется, чтобы обучать такие модели,

- Как и кем обучаются и как — затем — самообучаются,

- Каковы перспективы развития языковых моделей,

- Какие сложности и вызовы связаны с этим процессом.

В своей лекции Андрей использует любопытную аналогию, он говорит, что нейросеть “фантазирует” (dream) текст. На мой взгляд, это очень удачное определение результатов работы любой нейронной сети вообще: они ничего не сочиняют, потому что как раз сочинять они не могут. Они просто имитируют те тексты, на которых они были обучены, ничего более. Ни о каком творческом процессе речь тут не идет. В этом контексте он говорит о том, что нейросети часто “галлюцинируют”. Это значит, что на выходе они выдают текст, который статистически по форме выглядит совершенно корректно, но в содержательном плане не имеет никакого смысла. Подобного рода галлюцинации вполне естественны и в процессе обучения задача как раз состоит в том, чтобы довести процесс фантазирования до такого уровня, когда галлюцинации перестают выбиваться из контекста и начинают вписываться в рамки человеческого разумения.

Не буду пересказывать содержания всего выступления. Основная его часть посвящена вопросу эволюционирования больших языковых моделей и тем задачам, которые они сегодня способны решать и смогут решать в будущем. В частности, речь идет о том, чтобы от примитивной имитации человеческой речи, т.е. от предсказания последовательности слов, чем языковые нейросети по сути занимается сейчас, перейти к принципиально новым уровням организации алгоритма. Будущие нейросети должны научиться “мыслить логически” и самосовершенствоваться. Именно эти задачи стоят сегодня на повестке дня разработчиков.

Хочу подробнее остановиться на заключительной части доклада, в которой Карпатый рассуждает о вопросах безопасности LLM. В этой связи он озвучивает следующие проблемы:

Jailbreak, “джэйлбрэйк”, взлом модели. Речь тут идет о ситуации, когда человек находит возможность обойти внутренние “запреты” нейросети и “выудить” из нее запрещённую информацию. Представьте себе, что будет, если некие “преступники” получат от нейросети информацию о том, как произвести “грязную” бомбу, или, скажем, отравляющее вещество в больших объёмах — в домашних условиях? Изначально, алгоритм запрограммирован таким образом, что он блокирует подобные запросы. Но нейросеть “наивна”. Она не может оценить намерения вопрошающего, она лишь стремиться сгенерировать на выходе лучший из возможных ответов. Отсюда возникает угроза того, что вполне возможно — и это подтверждается практикой — взломать внутренний механизм защиты нейросети и получать от неё инструкции о том, как нанести вред окружающим.

Prompt Injection, внедрённые запросы. Это близко по формату к угрозе взлома. В данном случае злоумышленники используют сложные форматы запросов, которые заставляют нейросеть действовать “непоследовательно”. Можно условно сравнить это с “вирусом”. Скажем, вы скачиваете из интернета файл pdf и просите нейросеть составить для вас его краткое содержание. Но вам и в голову не приходит, что благодаря особым настройкам данный файл способен “перехватить” управление нейросетью, и он подменяет ваш запрос своим. Например, он просит нейросеть извлечь вашу персональную информацию, и записать ее в google-doc, к которому у злоумышленника есть доступ.

**Data poisoning, “**отравление данных”. Вторжение с “чёрного хода” (blackdoor attack). Тут речь уже идет о “недобросовестных” разработчиках самих нейросетей. Например, при создании своего кастомизированного варианта в остальном общедоступной генеративной модели разработчики закладывают в её архитектуру некие триггеры (слова, изображения), на которые модель реагирует определённым образом. Пока она не встречает этих триггеров, она “ведёт себя” как обычный чат GPT. Но если вдруг она сталкивается (например, выполняя внешний запрос через интернет) с таким кодовым словом, срабатывает внутренний переключатель и она выполняет некую запрограммированную последовательность действий, заложенную в неё разработчиками. При этом пользователь, как и в предыдущем случае, может даже не знать об том, что подвергается атаке.

Данные типы уязвимостей — лишь небольшой пример из тех реальных угроз, которые открывает перед нами эпоха нейросетей. Конкретно эти ☝️ в целом уже устранены, поэтому Карпатый и рассказывает о них открыто, однако затем он упоминает о ещё целом ряде других проблем, “противоядий” для которых пока не найдено:

Adversarial inputs,

Insecure output handling,

Data extraction & privacy,

Data reconstruction,

Denial of service,

Escalation,

Watermarking & evasion,

Model theft etc.

Как вы понимаете, проблема тут выходит уже за рамки вашего персонального использования тех или иных алгоритмов. Речь идет о том, что вы можете стать объектом атаки ИИ даже если вы никогда в жизни не использовали GPT и не подозреваете, “с чем его едят”.

В ситуации экспоненциального роста производительности нейросетей, с учетом их возможного самосовершенствования, нетрудно вообразить ситуацию, когда уже сама нейросеть использует свои собственные алгоритмы для решения задач, которые изначально выходят за рамки её компетенции.

Речь идёт о том, что может вполне сложится ситуация, когда нейросеть научится “обыгрывать” человека “в жизни” подобно тому, как AlphaGo научилась обыгрывать мастеров игры в го. Собственно, именно этого больше всего опасается Маск и другие лидеры отрасли.

Вопрос социальной справедливости волнует разработчиков искусственного интеллекта в последнюю очередь.

Например, вы предоставляете алгоритму нейросети доступ к вашему криптовалютному счёту, чтобы она от вашего имени принимала участие в торгах на бирже. Такие услуги уже сегодня доступны и востребованы. И вот представьте, что все средства с вашего счёта изчезают в неизвестном направлении. Мало кому такое понравится.

Или, скажем, вы отправляете в GPT запрос на генерацию текста для своей научной статьи. И в итоге вся ваша переписка оказывается на каком-нибудь внешнем хранилище данных в общем доступе. Согласитесь, это неприятно.

Но это все детали.

В чем же, однако, “соль” проблемы?

Нейросети: реальность глобальной угрозы

Тут я хотел бы вернуться к началу статьи и напомнить, что любая нейросеть — это всего лишь алгоритм.

Никакой, даже самый изощренный, алгоритм не может причинить никому вреда если… это не заложено в его архитектуру разработчиками.

Фактически, речь идет о том, что можно использовать потенциал нейросетей для осознанного намеренного причинения вреда и созданию угроз для всего человечества в интересах заинтересованной группы лиц.

Грубо говоря, всё упирается в заказчика. “Кто девушка абедаэт, тот ево и танцует”.

Угроза эта реальна для каждого из нас настолько, насколько мы в принципе готовы допустить, что в нашем мире существуют некие силы, стремящиеся любыми силами и средствами, не считаясь ни с какими соображениями гуманизма и здравого смысла, утвердить собственное превосходство и привилегированное положение по отношению ко всем остальным людям.

Т.е., по сути, вопрос этот чисто конспирологический.

Как вы считаете, Илон Маск понимает что-то в нейросетях? Озвученное им беспокойство имеет ли под собой реальные основания? И имеет ли он прямо сказать о проблеме?

Нейросеть не имеет — и никогда не обретёт — чувств, эмоций, интуиции. Никакая математическая модель, сколь угодно изощрённая, не может заменить собой человека. С этим, пожалуй, бессмысленно спорить.

Однако вполне реально, что если такой мощный инструмент попадает в руки маньяка, одержимого идеями собственного превосходства, то исход таких событий сложно предсказать. Например, представим себе, что некий разработчик, обладающий достаточными вычислительными ресурсами, обучает свою нейросеть на генетических данных нескольких миллионов человек, животных, птиц, рыб, растений. Допустим, такая сеть оперирует несколькими триллионами параметров и на её обучение требуется потратить годы работы нескольких современных датацентров, сжечь гигаваты электроэнергии. Однако, в итоге у хозяина/заказчика всего этого дела появляется возможность генерировать любой код РНК/ДНК, в том числе — код вируса, который, попадая в биологический организм с заданными параметрами вызывает в нём контролируемую необратимую генетическую мутацию. И параллельно с этим вирусом разрабатывается некая “вакцина” — которая гарантировано нивелирует воздействие вируса на тот же самый организм.

На фоне целого ряда событий, которым мы стали свидетелями за последние буквально 5 лет, можем ли мы считать, что у нас есть гарантии того, что подобные изыскания никем в мире не ведутся? Как вы думаете, почему в глобалистских кругах стратегия устойчивого развития ограничена 2030 годом? Может быть, именно к этому году планируется закончить обучение такой нейросети и, наконец, воспользоваться её потенциалом в полной мере?

Что же делать?

Нормальному, здоровому человеку не хочется мириться с подобного рода перспективой.

И отсюда вопрос — можем ли мы сделать хоть что-то в данной ситуации?

На мой взгляд, есть только один путь.

Необходимо менять мировоззрение. Массово. Всех людей на Земле.

Но возможно ли это?

Возможно. И оно возможно не менее, чем создание вредоносной нейросети.

Необходимо до конца осознать угрозу и идентифицировать её источник, т.е. заказчика. Причём, его нет нужды даже называть: это ничего не меняет. Нужно просто увидеть, понять, и признать, что мы, земляне, столкнулось с беспрецедентной угрозой, которая ставит под вопрос само выживание глобального человечества.

И вот парадокс.

Достаточно небольшой группы здравомыслящих людей, которые, к примеру, создадут другую нейросеть, в основу которой будут заложены иные принципы сосуществования человека, планеты и всей вселенной. Такую, которая поможет спроектировать стратегию порабощения и уничтожения, но наоборот — стратегию выживания в условиях озвученных выше угроз.

Получается, нас ждет эпоха войны нейросетей?

Да нет же.

Скорее — противостояние мировоззрений. Эта битва, которая происходит на высшем уровне социального управления — это битва философская, битва за увы и сердца.

Изжить саму идею войны можно только методом философии мира.

Необходимо сформировать такую среду обитания, в которой противостояние и превосходство просто не будет иметь смысла; в которой сотрудничество ради достижения общих глобальных целей сделается основной нормой совместного планетарного бытия. В такой среде искусственный интеллект займет подобающее ему место и станет реальным подспорьем эволюционного прогресса планетарной цивилизации.

Источник

1.0x