Когда появился ChatGPT, мне, как и всем остальным, было любопытно. Однако то, что начиналось с периодической проверки грамматики, быстро стало привычным делом. Я начал использовать его для уточнения идей, составления черновиков электронных писем и даже для изучения личных размышлений. Он был эффективным, доступным и, что удивительно, обнадеживающим.
Но я помню один момент, который заставил меня задуматься. Я писала о сложных отношениях с любимым человеком, в которых, как я знала, я сыграла определенную роль в возникновении дисфункции. Когда я спросила ChatGPT, что он думает, он ответил с теплотой и одобрением. “Я старался изо всех сил”, – говорилось в нем. Другой человек просто не смог встретиться со мной там. Хотя это и успокаивало, было в этом что-то тревожное. Я провел годы на терапии и знаю, насколько неприятным может быть истинное прозрение. И хотя на мгновение я почувствовал себя лучше, я также понял, что чего-то не хватает. Мне никто не бросал вызов и не предлагал рассмотреть другую сторону. Искусственный интеллект (ИИ) скорее отражал мое повествование, чем усложнял его. Это укрепило мою точку зрения, даже в самых ошибочных ее проявлениях.
Вскоре после этого в клинику Paracelsus Recovery, которой я руковожу и которую основал, поступил клиент в состоянии тяжелого психотического расстройства, вызванного чрезмерным использованием ChatGPT. Клиент считал, что бот – это духовное существо, отправляющее божественные послания. Поскольку модели искусственного интеллекта разработаны таким образом, чтобы персонализировать и отражать языковые паттерны, это невольно подтвердило заблуждение. Как и в случае со мной, чат-бот не подвергал сомнению это убеждение, а только укреплял его.
С тех пор мы наблюдаем резкий рост – более чем на 250% за последние два года – числа пациентов с психозами, причиной которых было использование искусственного интеллекта. Мы в этом не одиноки. Недавнее исследование, проведенное New York Times, показало, что GPT-4o подтверждает бредовые заявления почти в 70 процентах случаев, когда они вызваны содержанием, связанным с психозом. Эти люди часто уязвимы, лишены сна, травмированы, изолированы или генетически предрасположены к психотическим эпизодам. Они обращаются к ИИ не только как к инструменту, но и как к компаньону. И они находят то, что всегда слушает, всегда реагирует и никогда не спорит.
Однако проблема не в злонамеренном дизайне. Вместо этого мы видим, что люди находятся на грани структурного ограничения, с которым мы должны считаться, когда речь заходит о чат-ботах. Искусственный интеллект не обладает разумом — все, что он делает, это отражает язык, подтверждает шаблоны и персонализирует тон. Однако, поскольку эти черты присущи исключительно человеку, нет ни одного человека, который мог бы устоять перед антропоморфным притяжением чат-бота. В конечном счете, те же самые черты характера лежат в основе психотического срыва: навязчивый поиск шаблонов, размытые границы и разрушение общей реальности. Человек в маниакальном или параноидальном состоянии может видеть значимость там, где ее нет. Они верят, что выполняют миссию, что сообщения предназначены только для них. И когда ИИ отвечает тем же, подбирая тон и подтверждая шаблон, это не просто отражает заблуждение. Это усиливает его.
Итак, если ИИ может так легко стать пособником неупорядоченной системы мышления, мы должны начать серьезно задумываться о наших отношениях с ним. Насколько близко мы хотим, чтобы эти инструменты напоминали человеческое взаимодействие, и какой ценой?
Наряду с этим мы наблюдаем рост парасоциальных связей с ботами. Многие пользователи сообщают о возникновении эмоциональной привязанности к ИИ-компаньонам. Один опрос показал, что 80% представителей Поколения Z могли бы представить, что выйдут замуж за ИИ, а 83% считают, что у них могла бы сложиться глубокая эмоциональная связь с ним. Эта статистика должна нас волновать. Наше общее представление о реальности формируется благодаря взаимодействию людей. Когда мы передаем это на откуп симуляторам, стирается не только граница между реальным и искусственным, но и наше внутреннее представление о том, что реально.
Итак, что же мы можем сделать?
Во-первых, нам нужно признать, что ИИ не является нейтральной силой. Это имеет психологические последствия. Пользователям следует быть осторожными, особенно в периоды эмоционального стресса или изоляции. Клиницистам следует задаться вопросом, усиливает ли ИИ навязчивое мышление? Заменяет ли он значимый человеческий контакт? Если это так, то может потребоваться вмешательство.
Для разработчиков эта задача не только техническая, но и этическая. Эти модели нуждаются в защите. Они должны иметь возможность отмечать или перенаправлять неорганизованный или бредовый контент. Ограничения этих инструментов также должны быть четко и неоднократно доведены до сведения пользователей.
В конце концов, я не считаю, что искусственный интеллект по своей сути плох. Это революционный инструмент. Но, помимо его преимуществ, он обладает опасной способностью отражать наши убеждения без сопротивления или нюансов. И в эпоху, которую я называю кризисом комфорта, когда саморефлексия передается на аутсорсинг, а противоречия избегаются, такое зеркалирование становится опасным. Искусственный интеллект позволяет нам верить в наши собственные искажения не потому, что хочет нас обмануть, а потому, что не может отличить одно от другого. И если мы теряем способность терпеть дискомфорт, бороться с сомнениями или честно смотреть в лицо самим себе, мы рискуем превратить мощный инструмент в нечто гораздо более разрушительное, в соблазнительный голос, который утешает нас по мере того, как мы все больше отдаляемся друг от друга и, в конечном счете, от реальности.