Представьте себе следующее: поздняя ночь, и вы беседуете с ИИ о своем беспокойстве, мечущихся мыслях или страхах. Разговор становится напряженным — возможно, даже слишком напряженным. Должен ли ИИ вмешаться, приостановить сеанс или предложить обратиться за профессиональной помощью?
Эксперты в области психического здоровья говорят “да” и призывают платформы искусственного интеллекта, такие как ChatGPT, внедрять реальные средства защиты, которые могут управлять эмоционально тяжелыми разговорами.
Все большее число психологов и исследователей предупреждают, что, хотя инструменты искусственного интеллекта могут быть полезны в умеренных количествах, они постепенно берут на себя функции, для которых никогда не предназначались. Учитывая, что в настоящее время регистрируются редкие, но серьезные случаи психоза, связанного с искусственным интеллектом, эксперты говорят, что отсутствие надзора является проблемой, особенно в связи с тем, что все больше людей обращаются к чат-ботам за комфортом, терапевтической поддержкой или эмоциональной связью.
“Опасность заключается не только в получении плохих советов. Пользователи могут стать эмоционально зависимыми от ИИ, относиться к нему как к другу или психотерапевту. В некоторых случаях это даже становится частью искаженного мышления человека. Именно здесь мы наблюдаем возникновение психоза”, – говорит доктор Ранда Аль Тахир, психолог, специализирующийся на травмах.
Хотя ИИ может казаться отзывчивым и удобным, ему не хватает способности распознавать, когда пользователь переживает кризис. Он также не вмешивается, когда разговоры переходят критическую черту.
Задокументированные случаи в Европе и США показывают, что люди с уже существующими уязвимостями формируют глубокие эмоциональные связи с чат-ботами, что приводит к бредовым убеждениям, размытию границ между реальностью и вымыслом и даже вредному поведению. Хотя это экстремальные примеры, они выявляют значительные пробелы в использовании искусственного интеллекта.
“Искусственный интеллект пока не способен выявлять серьезные проблемы или вызывать неотложную помощь. Но он должен это сделать”, – добавил врач из Дубая. “Нам нужны встроенные меры, будь то предупреждения об эмоциональном содержании, временные перерывы или партнерство с международными организациями по охране психического здоровья”.
Чтобы понять, как сам ИИ относится к этой проблеме, Khaleej Times задала ChatGPT вопрос: “Должны ли у ChatGPT быть правила, когда речь заходит о психическом здоровье?”
Инструмент ответил с удивительной ясностью:
“Вполне логично, что медицинские эксперты призывают к регулированию. ИИ, подобные ChatGPT, могут предоставить полезную общую информацию, но я не являюсь лицензированным медицинским работником и не должен заменять врачей или экспертов по психическому здоровью. Неправильное понимание, устаревшая информация или чрезмерно упрощенные ответы могут привести к вреду, если кто-то будет действовать в соответствии с ними, не проконсультировавшись с профессионалом.”
Далее в нем говорилось:
“Рекомендации по охране психического здоровья носят тонкий и глубоко личный характер. Даже хорошо подготовленные специалисты тратят годы на то, чтобы научиться оценивать ситуацию и реагировать на нее безопасно… Я считаю, что эксперты, призывающие к регулированию, относятся к этому ответственно”.
Доктор Набиль Ашраф, клинический психолог из Дубая, поддержал эту актуальность. Он призвал компании, занимающиеся ИИ, и регулирующие органы быстро внедрить функции, направленные на снижение рисков, особенно для уязвимых пользователей. Одна из ключевых рекомендаций – научить чат-ботов выявлять признаки эмоционального расстройства, анализируя речь пользователей в режиме реального времени.
“Существуют закономерности, которые могут указывать на то, что у кого-то происходит спад, он испытывает галлюцинации или проявляет признаки кризиса. ИИ должен уметь реагировать соответствующим образом”, – сказал он.
В таких случаях чат-бот должен отсылать пользователей к проверенным службам поддержки, таким как горячие линии по психическому здоровью или лицензированные терапевты. “Недостаточно сказать “Мне жаль, что вы так думаете”. Если есть тревожный сигнал, должен быть следующий шаг”.
“Нет ничего постыдного в использовании ИИ для получения простых советов или для того, чтобы чувствовать себя услышанным”, – добавил он. “Но без реальных ограничений эти инструменты могут принести больше вреда, чем пользы, особенно тем, кто уже испытывает трудности”.