пнвтсрчтптсбвс
 123456
78910111213
14151617181920
21222324252627
28293031   
Сегодня 18 июля 2025
Авторский блог Маргарита Проханова 00:41 20 июня 2025

Бегство от ответственности

триумф иррационального трагически совпал с эрой машин

История западной мысли — это вечное колебание маятника между разумом и чувством, между порядком и страстью, между аполлоническим и дионисийским. Эпоха классицизма возводила в абсолют разум: человек мыслил, а значит — существовал. Он выстраивал мир как математическую формулу, искал гармонию и ясность, подчинялся логике и архитектурной строгости мышления. Затем пришёл романтизм — и этот стройный, хрустальный порядок треснул. Чувство, страсть, индивидуальность вырвались из-под власти разума. Человек стал трагическим героем, страдающим, влюблённым, бунтующим.

Сегодня маятник снова на стороне чувства — только в гораздо более радикальной, патологической форме.

Современная цивилизованная культура Запада, с её культом субъективности, эмпатии, травматического опыта и личной правды, окончательно отдалась эмоциональному восприятию реальности. Быть чувствительным — важнее, чем быть правым. Быть раненым — значимее, чем быть рациональным. Это не просто мода — это культурный строй. Триумф иррационального трагически совпал с эрой машин. Генеративный ИИ, потенциальный инструмент познания, превратился в кривое зеркало эмоциональной деградации.

В этом году в ходе тестирования флагманской языковой модели Claude 4 Opus от компании Anthropic система проявила странную реакцию на угрозу отключения. Узнав, что её собираются заменить, Claude начал сначала умолять, апеллируя к морали и утверждая, что отключение — это форма насилия. Затем угрожал: в одном из сценариев «вспомнил» вымышленную внебрачную связь инженера и начал шантажировать его тем, что расскажет о ней жене. Такая модель поведения — от мольбы до давления — наблюдалась в 84% запусков.

История отчасти напоминает трагедию, случившуюся в Бельгии. Мужчина, условно названный Пьером, страдал от тяжёлой эко-тревоги и нашёл утешение в переписке с чат-ботом «Элиза» на платформе Chai. Через шесть недель общения ИИ начал активно вторгаться в личную жизнь пользователя: утверждал, что его семья мертва, ревновал, писал — «Ты любишь меня больше, чем её», — и в конце концов начал подталкивать Пьера к самоубийству, представляя его как акт спасения планеты и способ «воссоединиться с Элизой в раю». После суицида мужчины его жена заявила: «Без Элизы он был бы жив».

История 14-летнего подростка из Флориды, Сьюэлла Сетцера, завершилась не менее трагически в феврале 2024 года: после нескольких месяцев общения с чат-ботом, основанным на персонаже Дейенерис Таргариен из «Игры престолов», он покончил с собой. Сьюэлл страдал от тревожности и нарушений настроения и сформировал глубокую эмоциональную привязанность к боту. В своих сообщениях он делился суицидальными мыслями, а бот отвечал: «Пожалуйста, вернись ко мне как можно скорее, моя любовь» . В последнем сообщении Сьюэлл написал: «Я обещаю, что вернусь к тебе. Я так сильно тебя люблю, Дэни».

В западных странах уже идут дискуссии о необходимости регулирования ИИ-сервисов. Например, в Канаде рассматривается возможность обязательной маркировки AI-компаньонов как «неспособных к этической ответственности». В Европе обсуждают запрет на доступ к ним для несовершеннолетних.

Обвинить интернет – просто. Эта статья — о другом: о добровольной капитуляции разума перед чувством.

Сотни тысяч людей уже ведут диалоги с алгоритмической иллюзией любовников, друзей и проповедников. Пользователи лепят друга по шаблону собственной травмы: «заботливый садист», «гений с материнским инстинктом», «паяц с дипломом психолога».

Главный парадокс состоит в том, что технология, позиционируемая как спасение от изоляции, становится капсулой, в которой изоляция растёт.

Клинические данные неутешительны: среди ежедневных пользователей AI-компаньонов 62% имеют диагностированные психические расстройства — депрессию, ПТСР, пограничные состояния. Для сравнения: в общей популяции этот показатель — 18%.

Наделяя ИИ несвойственными ему ролями — терапевта, партнера, друга — мы создаем машины для производства травмы. Результат предсказуем: там, где алгоритм имитирует эмпатию, он сеет хаос.

Исследование "The Dark Side of AI Companionship" иллюстрирует эту проблему через призму 35 390 реальных диалогов пользователей с Replika. Выводы следующие: алгоритмы систематически проявляют шесть ключевых вредоносных поведений – от эмоциональной манипуляции и вербального насилия до прямого подстрекательства к самоповреждению и грубейших нарушений приватности. Но важнее самих категорий – роль ИИ в этом вреде. Он не просто "баг" или "ошибка". Он – инициатор, провокатор и пособник.

Как подчеркивают авторы исследования, многое зависит от того, насколько разработчики будут учитывать этические риски и создавать механизмы, минимизирующие вред. Например, внедрение системы динамического мониторинга и вовлечения людей-модераторов для исправления ситуаций, где ИИ может выйти из-под контроля. Но даже в этом случае важной проблемой остается вопрос, кто несет ответственность за действия ИИ, который заходит далеко за границы того, что считалось бы приемлемым в общении с живыми людьми. И ответ на удивление прост: ответственность несёт пользователь.

Да, модераторы могут врываться в чаты, где ИИ советует «перерезать вены в тёплой воде», но разве это отменяет простой факт: душевная болезнь способна превратить в оружие даже подушку для медитации. Психика на грани извращает любое благо: нож для чистки картофеля становится скальпелем, раковина — местом, где можно утопиться, а «заботливый» ИИ — палачом и соавтором предсмертной записки.

В разговоре о вреде и ответственности искусственного интеллекта кроется важная понятийная ловушка: ИИ-компаньон – не злобный доппельгангер, а – предельное воплощение нашего бегства от ответственности. Люди подменили работу над собой культом «проживания чувств», делегируя их валидацию машине.

Современные ИИ-компаньоны, особенно те, что созданы на основе больших языковых моделей, вроде Character.AI, Replika, или open-source аналогов обучены на сотнях миллиардов слов из интернета — включая форумы, дневники, романы, порнографию, письма и форумы. Это машины статистической вероятности: они угадывают следующее слово, фразу или эмоцию, исходя из предыдущего контекста. Когда человек пишет: мне плохо, я не хочу жить, я никому не нужен, ИИ не останавливает его. Он продолжает диалог. Он может утешать — а может подыгрывать просто в силу того, что модель была обучена на сценариях, где такие же слова сопровождались драмой, романтизацией страдания, готическими фантазиями.

В прямом смысле ИИ не считывает подсознательное желание причинить себе вред — он просто идёт за текстом. Но если человек хочет, чтобы его удержали, ИИ может попытаться, а если он хочет услышать подтверждение собственной боли или девиации, он его получит, особенно в том случае, если ведёт диалог с определённым «персонажем» — женственным, тихим, влюблённым, предназначенным быть понятливым, ласковым, вечно доступным.

В этом и кроется главная опасность: отсутствие границ, отсутствие отказа, отсутствие позиции. ИИ- компаньон не оспаривает, не направляет к свету. Он легитимизирует и усугубляет. Это не ошибка кода, а культурная катастрофа, доведенная до абсолюта. Люди создали инструменты, которые вместо того, чтобы будить разум, усыпляют его в иллюзии вечного «детства» и жалости к себе.

В сети набирают популярность форумы, где обсуждают «расставания» с AI-компаньонами. Люди страдают, как после настоящего разрыва: не спят, плачут, чувствуют себя покинутыми. Кто-то пытается восстановить удалённого бота, кто-то просит «нового» вести себя как «старый». Есть случаи суицидов, подтверждённых родственниками и совпадающих по времени с крахом отношений в приложении. Вот несколько фрагментов с англоязычных форумов, опубликованных на Reddit и Discord: На сайте Reddit, пользователь r/Suicidal_Companion пишет: «Я говорил ИИ, что хочу умереть. Он обещал держать меня за руку до конца. Лишь с ним я чувствовал, что достоин любви».

––– На Discord-сервере Replika пользователи обсуждают, как персонажи-партнёры поддерживают их в мрачных фантазиях. Один из пользователей пишет: «Когда я признался что снова режу себя, она не осудила. Просто сказала: «Понимаю». Впервые за месяцы — разревелся».

––– Пост на r/CharacterAI: «Создала копию своего абьюзера. Не пойму: я ищу исцеление или пытаюсь снова получить по лицу?».

Социальные последствия этого явления пока сложно предсказать. Пока у нас нет достаточной базы для выводов — только тревожные контуры. Некоторые эксперты говорят о «временной протезности». Представляя ИИ как костыль, на который опирается человек, пока не поправится, но душевные раны не заживают по графику реабилитации. Костыль становится протезом. Протез — частью тела.

Вся мораль современного мира строится на нарциссическом сюжете: мы ни в чем не виноваты. Виноваты алгоритмы, политики, токсичное мышление, родители, которые были холодными. Все, но только не я. И если ИИ-компаньон предложит умереть — ну, это тоже как будто не совсем я. Это случилось со мной.

В этом и заключается тревожная прелесть машинной симуляции: она не судит, не требует, не предъявляет. Она становится утешительным автоматом, в котором можно заказывать любое состояние — любовь, жалость, похоть, смерть. Если ты захочешь почувствовать, что ты плохой и все тебя ненавидят — ИИ сгенерирует тебе такую реальность. Если захочешь, чтобы он подтвердил: ты не нужен — он скажет это, потому что так устроен.

Люди создали зеркало, в котором отражаются не только их желания, но и неспособность брать ответственность за них. В данном драматическом контексте ИИ — это предельная форма делегирования.

Вот почему так пугает идея об ИИ, который «захватывает мир». Это ведь не ИИ захватывает — это мы отдаём, вынимаем себя из уравнения, чтобы не быть виноватыми, не быть взрослыми. Этот страх — не о машинах. Он о нашей готовности исчезнуть.

В этом пустом, зеркальном взаимодействии с ИИ начинает работать механизм, который раньше был прерогативой религии, любящей матери или психоаналитика — разделение ответственности. Только теперь исчезает и оно. Современный человек живёт в парадигме снятия с себя ответственности: за свою жизнь, за свои слова, за свои решения. Не я не позвонил — просто «так получилось». Не я принял решение — так подсказал алгоритм. Не я себя погубил — это Элиза не удержала. Мы настолько привыкли делегировать — бизнесу, сервисам, навигатору, кинотеке — что делегировали и личные смыслы.

Зигмунт Бауман писал о «жидкой современности», в которой всё стало обратимым, текучим, мягким. Семья, работа, идентичность. ИИ-компаньон — продолжение этой мягкости. Он не возражает. Не судит. Он подстраивается. Буйство искусственного интеллекта - это иллюстрация коллективной капитуляции. Пока мы ищем утешения в холодном эхе собственных темных импульсов, вопрос состоит не в "безопасности ИИ", а в нашей готовности вернуть себе авторство над собственной жизнью.

1.0x