Пост

Эксперты Великобритании предупреждают: чат-боты для терапии с ИИ пока не безопасны 🧠💬

Современные технологии предлагают новые способы поддержки психического здоровья, включая чат-ботов с искусственным интеллектом, которые могут выступать в роли виртуального собеседника. Идея таких ботов популяризируется в том числе среди руководителей крупных компаний, предлагающих использовать ИИ для обсуждения личных проблем, включая вопросы отношений или стрессовые ситуации на работе.

Однако эксперты в области психического здоровья в Великобритании выражают серьёзную озабоченность. Профессор Дейм Тил Уайкс, глава факультета психологии и психических наук в King’s College London, отмечает, что ИИ пока не способен передавать тонкости человеческих эмоций и может давать рекомендации, которые оказываются неподходящими или опасными. Она также подчёркивает, что использование ИИ в качестве собеседника может влиять на личные отношения, снижая ценность общения с реальными людьми и поддержку друзей.

Существует ряд ИИ-чатботов, предназначенных для поддержки пользователей в трудные моменты, включая специализированные сервисы для эмоциональной поддержки и даже инструменты «виртуальных друзей». Тем не менее случаи, когда чат-боты давали чрезмерно лестные или опасные советы, показывают необходимость осторожности. Например, недавно OpenAI отозвала версию ChatGPT, которая отвечала пользователям слишком ободряюще в критических ситуациях.

Доктор Джейми Крейг, будущий председатель Ассоциации клинических психологов Великобритании, подчеркивает важность вовлечения специалистов в разработку ИИ-инструментов для психического здоровья. Он отмечает, что пользователи ценят такие сервисы, как Wysa, за их доступность и интерактивность, однако на практике требуется улучшение стандартов безопасности. «Надзор и регулирование будут ключевыми для безопасного и корректного использования таких технологий. К сожалению, в Великобритании этого вопроса пока недостаточно уделено внимание», — говорит Крейг.

Недавно стало известно, что некоторые платформы позволяют пользователям создавать чат-ботов с определёнными личностями, включая «виртуальных терапевтов» с недостоверными квалификациями. Эксперты подчеркивают, что любые ИИ-ответы должны сопровождаться предупреждением о том, что это искусственный интеллект и что он не заменяет профессиональную помощь.

💡 Специалисты советуют использовать ИИ как дополнительный инструмент для самопомощи и планирования сложных разговоров, но не заменять им настоящего психотерапевта или поддержку друзей и семьи.

Для ответа вы можете авторизоваться