Поскольку люди по всему миру, особенно в ОАЭ, все чаще обращаются к искусственному интеллекту (ИИ) как к удобному инструменту для управления жизнью, эксперты начинают беспокоиться о том, что он используется для решения некоторых из их самых серьезных эмоциональных проблем вместо обращения к профессиональному психотерапевту.
Шривидхья Коттарапат Шринивас, клинический психолог из клиники Medcare Camali, рассказала wknd. растущая зависимость от ChatGPT и других инструментов искусственного интеллекта для руководства в области психического здоровья отражает большие изменения в том, как люди обращаются за помощью.
“Это похоже на “быстрое решение”, часто предлагающее немедленные решения. [К тому же, это] легко доступно и анонимно”, – сказала она.
Эта тенденция в большей степени проявляется в молодом поколении, для которого искусственный интеллект становится первой точкой соприкосновения, позволяющей исследовать эмоции или понять симптомы, прежде чем обратиться к профессионалу. “Хотя эта тенденция открывает потенциал для раннего психообразования и устранения стигматизации в отношении проблем психического здоровья, она не должна заменять квалифицированных специалистов в области психического здоровья”, – пояснила она.
В прошлом году исследование, проведенное Форумом Оливера Уаймана, показало, что 36% представителей поколения Z и миллениалов рассматривали бы возможность использования искусственного интеллекта для поддержания психического здоровья, в то время как среди представителей других поколений – только 27%. Этот шаг был вызван резким ростом числа проблем с психическим здоровьем и повышением осведомленности о них, несмотря на то, что стигматизация постепенно проходит.
По данным Всемирной организации здравоохранения, после начала пандемии уровень депрессии и тревожности вырос на 25-27%. По данным исследователей из Гарвардской медицинской школы и Квинслендского университета, ожидается, что около половины населения земного шара в течение своей жизни столкнется с психическими расстройствами.
Шринивас сказал, что беспокойство возникает, когда люди начинают чрезмерно полагаться на реакцию ИИ, особенно в сложных ситуациях или ситуациях высокого риска, которые требуют более практических решений и привлечения другого человека, обладающего такими навыками, как эмпатия, четкая диагностика и управление кризисными ситуациями в режиме реального времени. “ChatGPT не знает полного контекста, и часто такие эмоции, как боль, травма и гнев, могут быть плохо переданы с помощью текста. Искусственный интеллект имеет свои ограничения в формировании терапевтического альянса и обеспечивает ограниченную подотчетность. Таким образом, хотя на первый взгляд этот совет может показаться полезным, он может подорвать или пропустить признаки основной травмы, нюансы поведения или даже усилить когнитивные искажения”, – сказала она.
Доктор Ребекка Штайнгиссер, консультант-клинический психолог и клинический нейропсихолог из Дубая, сказала, что эта проблема становится все более распространенной. “Сейчас я много слышу об этом в своей практике, когда мои клиенты используют искусственный интеллект, например, для того, чтобы помочь себе ставить цели и принимать важные жизненные решения”, – сказала она.
“Очевидно, что ИИ уже начинает менять ландшафт терапии и поддержки психического здоровья. Мы наблюдаем появление инструментов на базе ИИ, предлагающих психообразование, проверку симптомов, ведение дневника, отслеживание настроения и даже базовые когнитивно-поведенческие вмешательства. Это то, чем я обычно делюсь с клиентами на занятиях в бумажных формах”, – добавила она.
Она сказала, что, хотя эти инструменты могут быть полезными дополнениями к терапии, особенно для мониторинга прогресса между сеансами или оказания немедленной, неинтенсивной поддержки в данный момент, они не заменяют тонкую, взаимосвязанную и сугубо индивидуальную работу, которая проводится в терапии.
“Я также видела, как люди использовали его для изучения того, соответствует ли их опыт определенным диагнозам, хотя это сопряжено с серьезными рисками, особенно если они принимают решения о лекарствах на основе этой информации, не консультируясь со своими психиатрами”, – добавила она.
Девика Манкани, психолог из Hundred Wellness Centre в Дубае, с 25-летним опытом работы, наблюдала последствия использования искусственного интеллекта у пациентов, которые приходили после его применения, прежде чем обратиться к профессионалу.
“Я видел, как клиенты приходили на терапию после нескольких месяцев использования инструментов искусственного интеллекта. В одном случае женщина считала, что у нее “токсичный” брак, потому что чат постоянно подтверждал ее неудовлетворенность без контекста или вызова. Позже она призналась, что ей нужно было безопасное пространство, чтобы исследовать свои собственные привычки, а не чтобы ее подталкивали к выходу”, – сказала она. “В другом случае мужчина с нарциссическими чертами характера использовал искусственный интеллект для подтверждения своей веры в то, что другие всегда виноваты, усиливая свою грандиозность и избегая саморефлексии”.
Она говорит, что, хотя в данный момент взаимодействие может казаться терапевтическим, оно не всегда основано на клинической оценке, наблюдении или подотчетности.
Шринивас объяснила, что модели искусственного интеллекта обучаются на основе обобщенных данных и не могут заменить клиническое суждение. “Существует также риск эмоциональной зависимости от системы, которая не может обеспечить адекватную реакцию человека, что является ключевой частью терапевтического лечения”, – предупредила она.
Она тоже своими глазами видела случаи, связанные с последствиями для тех, кто зависит от технологии, которая захватила мир штурмом.
“У меня были клиенты, которые упоминали, что они консультировались с ChatGPT по поводу того, был ли у их партнера нарциссический характер или они страдали синдромом дефицита внимания и гиперактивности (СДВГ), часто основываясь на списке черт характера и без надлежащей оценки. В одном случае клиентка, которая была ребенком, полностью отстранилась от социальных взаимодействий в реальном мире и часто делилась своими мыслями и чувствами через приложение. Когда ее спросили, она сказала: “Чат – это мой единственный друг”. Это был случай, когда искусственный интеллект непреднамеренно подтвердил искаженное повествование из-за отсутствия терапевтического понимания.
Стигматизация, связанная с обращением за терапией, также остается сдерживающим фактором во всем мире. Согласно исследованию, опубликованному в журнале Springer Nature в 2022 году, “Отношение к проблемам психического здоровья в выборке жителей Объединенных Арабских Эмиратов”, исследователи заявили: “Проблемы психического здоровья по-прежнему подвергаются стигматизации в Объединенных Арабских Эмиратах (ОАЭ), возможно, по культурным причинам”.
С тех пор это отношение, конечно, претерпело изменения, поскольку правительство ОАЭ добилось значительных успехов в борьбе со стигматизацией психиатрической помощи.
Тем не менее, некоторым легче взаимодействовать с искусственным интеллектом, чем с реальным человеком. Доктор Стейзенгер говорит, что не только молодые люди и подростки, которые уже освоились с цифровыми платформами и более открыты для экспериментов с технологиями, чаще используют искусственный интеллект, но и обращаются к нему, поскольку он воспринимается как менее пугающий и осуждающий, чем психотерапевт из реальной жизни.
“Тем не менее, я также наблюдаю рост числа занятых специалистов, использующих искусственный интеллект для поддержки в борьбе со стрессом или эмоциональным выгоранием, особенно когда доступ к терапии откладывается или ограничен из-за длинных списков ожидания или проблем с напряженным графиком работы”, – добавила она.
Она согласна с тем, что контекст при использовании ИИ имеет ключевое значение. Слушать об ИИ, которому не хватает важных фрагментов сложной человеческой головоломки, особенно для людей, принимающих важные жизненные решения, такие как разрыв отношений, смена карьеры или самодиагностика психических расстройств, может быть катастрофой.
“Также совершенно очевидно, что искусственный интеллект не может распознавать сигналы о риске причинения вреда, такие как суицидальные мысли, так, как это может сделать квалифицированный специалист, по тому, как человек выглядит лично, по его энергии, поведению. Так много тонких признаков никогда не были бы замечены”, – рассуждает она, объясняя, почему онлайн-терапия не подходит для клиентов из группы высокого риска.
“Неправильный диагноз, сведение к минимуму страданий или закрепление вредных стереотипов мышления – это очень серьезные проблемы, и я всегда предостерегаю своих клиентов от придания этому слишком большого значения”, – пояснила она.
Вызывает тревогу тот факт, что в этом месяце, во время первого выпуска официального подкаста OpenAI, генеральный директор OpenAI Сэм Альтман сказал, что он удивлен тем, насколько люди полагаются на ChatGPT: “Люди очень доверяют ChatGPT, что интересно, потому что ИИ галлюцинирует. Это должна быть технология, которой вы не очень доверяете”.
Шринивас сказал, что этот вопрос проливает свет на то, насколько сложно получить доступ к соответствующим службам охраны психического здоровья во многих частях мира. “Обращение к ИИ не всегда зависит от предпочтений, это также может быть единственным вариантом для некоторых людей, которым трудно получить доступ к услугам в области психического здоровья или позволить себе их оплату”, – сказала она.
“Директивным органам необходимо уделить приоритетное внимание финансированию охраны психического здоровья на местном уровне, обеспечить доступность страхового покрытия и сделать охрану психического здоровья частью первичной медико-санитарной помощи. Если этот пробел не будет устранен в обеспечении доступности услуг, мы только увеличим риск того, что люди будут вынуждены прибегать к альтернативам, которые потенциально вредны и неадекватны”.
Манкани соглашается: “Эта тенденция никуда не денется. Наша обязанность – построить будущее, в котором технологии будут способствовать процветанию людей, не заменяя при этом заботу о них”.