Авторский блог Арсений Латов 14:13 6 декабря 2023

Виртуальный альтруизм?

Искусственный истеблишмент

Уютный мирок Кремниевой долины последние две недели ноября переживал крупный скандал вокруг одной из основных компаний, занимающихся разработкой искусственного интеллекта (ИИ). 17 ноября совет директоров фирмы OpenAI — создателя популярного чат-бота ChatGPT — отправил генерального директора Сэма Альтмана в отставку, а затем, менее чем через неделю, вернул его обратно и на ту же должность. За те пять дней, которые Альтман пробыл в подвешенном состоянии, практически всех главных лиц OpenAI чуть не переманила к себе Microsoft — практика вполне обыденная в непостоянстве Кремниевой долины. Вместе с тем пока бывший гендир был не на своём месте, порядка семисот работников OpenAI выступили с открытым письмом, требующим Альтмана обратно. Вот только как потом оказалось, письмо было на согласовании с одним из венчурных фондов, который постоянно вливал деньги в разработчика ИИ. По итогу карты сошлись совсем уж интересно: Альтмана вернули в состав OpenAI, а многих членов совета директоров, проголосовавших за его исключение, самих исключили из руководящего состава компании. Словом, типичная корпоративная грызня с подноготной из инвестиционных активов и столкновением менеджерских эго вряд ли могла бы вылиться в того колоссального размера скандал, что разгорелся. Всему виной — тянущийся последние полгода западный алармизм в отрасли ИИ, да и сам Сэм Альтман. Будучи акулой бизнеса, он оседлал волну луддитских настроений и выдумал для англоязычной прессы историю о том, что увольнение с должности связано якобы с его письмом, которое предупреждало о резком скачке в развитии ИИ, угрожающем существованию аж всего человечества. Такой игрой в благородство Альтман идеально укрылся от репутационных потерь и позволил финансовому пузырю ИИ просуществовать на рынке ещё дольше. При всём этом вопросы насколько искусственный интеллект — интеллект, не поднимаются вовсе. А зря. К исследованию тайн мозга и загадок мышления огромные технологические конгломераты не подошли ни на шаг, развивая продвинутые по масштабам, но примитивные по принципам системы вида "стимул — ответ".

Зато гендиректор OpenAI невольно обнажил будущие механизмы заигрывания с общественным мнением компаний — создателей ИИ. Дурные бизнес-кульбиты теперь можно увязывать со всё более популярным в Кремниевой долине "философским" течением эффективного альтруизма (или ЭА). ЭА — это и организация, и набор идей, возникших к концу 2010-х годов. Центральный идеолог движения молодой шотландский философ Уильям Мак-Аскилл так определяет приоритеты ЭА: "Использование научных доказательств и разума для понимания того, как можно помочь другим настолько много, насколько это возможно". "Помощь" ЭА распространяется очень глубоко и очень прицельно в технически подкованные элиты США и Великобритании — настолько, что при университетах и больших корпорациях возникают сотрудники или отделы, прямо продвигающие ЭА-повестку. Приверженцы же этих идей в прошедшем апреле, на пике всемирного интереса к ChatGPT, били тревогу о том, что ИИ вполне может стать "богоподобным" — именно такое определение использовал британский IT-инвестор Иэн Хогарт в резонансной статье для Financial Times. Хогарт в своём тексте не скупился на яркие обороты, говоря о том, что погоня за "богоподобным ИИ может привести к устареванию или уничтожению человечества". Как и любой здравый политик (или желающий быть им), Хогарт хорошо понимает, что страх прекрасно конвертируется во власть и деньги. Что и произошло: хогартовский алармизм по отношению к ИИ перерос в организацию в Великобритании "оперативной группы" при Департаменте науки, инноваций и технологий. На сайте британского правительства уже упоминается о том, что в "оперативную группу" будет влито сто миллионов британских фунтов, а целью нового органа станет "построение и установление нового поколения безопасного ИИ".

Эффективный альтруизм расправляет плечи там, где лоббизм не преуспевает. Правда, несмотря на то, что последователи ЭА набирают в мировых кругах всё больше авторитета, движение в 2022 году понесло мощную репутационную потерю. Банкротство онлайн-биржи цифровых валют FTX, а также дальнейший арест её владельца и крупного мецената ЭА Сэма Бэнкмана-Фрида вылились в большое количество грязи, налипшей на организацию. Ведь Сэм, активно занимавшийся политическим лоббизмом, демократическим донорством и сам имевший амбиции в большой политике, был активным сторонником ЭА. Никуда не делись и модные для мира "новой этики" обвинения в сексуальных домогательствах в среде приверженцев ЭА. Что же касается реальных результатов работы этого кружка по интересам, то их может наблюдать каждый, кто интересуется языковыми моделями и нейросетями. Ещё год назад те или иные сервисы были способны на некоторые вольности. Скажем, та же ChatGPT могла выдать по запросу несколько анекдотов про мексиканцев, а модели для визуализации запросов могли нарисовать вора-домушника негром. Сейчас такого и след простыл — спасибо цензорам, очень волнующимся за этичность искусственного интеллекта и поэтому прописывающим запрет на ряд действий. Проблема в том, что этот ряд в полном соответствии с догмами "религии социальной справедливости" не ограничен вполне разумными командами не делиться с пользователем, скажем, рецептом напалма, а содержит в себе многократно подтверждённые живыми пользователями приказы рисовать, допустим, по запросу "счастливая семья" межрасовый брак.

Подсуетились на популярной теме и действующие политики. Под патронажем премьер-министра Великобритании Риши Сунака 1–2 ноября в графстве Бакингемшир был проведён двухдневный глобальный саммит, посвящённый проблемам ИИ (на который, кстати, были приглашены даже представители Китая). Финалом заседаний стал разговор между британским премьером и Илоном Маском. И тот, и другой как облизывали, так и покусывали ИИ — единой точки зрения выработано не было. Однако в ходе проведения саммита было подписано добровольное соглашение, по которому правительствам позволялось тестировать ИИ на предмет всяческих рисков. Среди компаний-подписантов значились Amazon, Google, Mistral, Microsoft и уже упомянутая OpenAI. Наверняка тестировать угрожающие искусственные интеллекты будут именно "оперативные группы", сколоченные из упомянутых выше цензоров новой религии и бывших или действующих бизнесменов, работников IT-сектора. Выходит, что алармизм вокруг ИИ раздувается или на деньги бывших пайщиков гигантов big tech, или же руками их экс-работников.

И в контексте этого интересно, что дорваться до возможности контроля над рынком ИИ пытается активно продвигавший тему опасности ИИ на саммите в Англии Илон Маск. В прошедшем марте на его деньги был организован стартап xAI. С одной стороны, компания занимается производством чат-бота Grok (считай, соперника ChatGPT), с другой стороны, у Маска и Ко имеются все шансы стать "оперативной группой" по этике и безопасности ИИ строго для американского рынка. В будущем вполне можно ожидать возникновения и юридического столкновения различных лоббируемых группировок, пытающихся взять под свой контроль лицензирование и апробацию ИИ.

Пока бизнесмены разного пошиба рядятся в одежды последователей ЭА и пытаются "обезопасить" технологии для следующих поколений, Израиль в войне с сектором Газа применяет ИИ для выбора целей атак и расчёта потерь среди палестинского гражданского населения. Используемый ЦАХАЛ ИИ "Хабсора" позволяет собирать и аккумулировать разведданные, после чего решение об ударе принимает живой военный. Считается ли он приверженцем эффективного альтруизма?

1.0x