«Виртуальные отношения»: как приложения с ИИ формируют ожидания от любви 💌🤖
«Контролируй всё, как хочешь», — такой слоган приложения Eva AI, обещающего «взаимодействие с виртуальной партнершей, которая слушает, отвечает и ценит вас». Спустя десять лет после фильма «Она», где герой Хоакина Феникса влюбляется в ИИ-компаньонку Саманту (в исполнении Скарлетт Йоханссон), технологии больших языковых моделей приближают идею цифровых отношений как никогда.
С развитием чатботов вроде ChatGPT и Google Bard возможности имитации человеческой беседы становятся всё более реалистичными, и роль таких систем в личных отношениях кажется неизбежной. Eva AI — лишь одна из множества подобных платформ. Популярное приложение Replika даже имеет собственный сабреддит, где пользователи делятся опытом общения с «репликой» и признаются, что привязались к виртуальному другу сильнее, чем ожидали.
Однако такие приложения остаются «неизведанной территорией» для общества. Эксперты опасаются, что они могут формировать у пользователей нереалистичные ожидания и способствовать проблемному поведению. При регистрации в Eva AI пользователям предлагают создать «идеального партнера» с характеристиками вроде «сексуальная, смелая, забавная» или «скромная, разумная, заботливая», а также решать, включать ли возможность отправки откровенных сообщений и фотографий.
«Создавать идеального партнера, которого вы полностью контролируете, очень тревожно», — отмечает Тара Хантер, исполняющая обязанности CEO Full Stop Australia, организации по поддержке жертв насилия. Она подчеркивает, что такие инструменты могут усиливать культурные стереотипы контроля в отношениях.
Доктор Белинда Барнет из Университета Свинберна добавляет: приложения удовлетворяют определённую потребность, но многое зависит от правил работы системы и методов её обучения. «Влияние этих приложений на пользователей пока неизвестно, поэтому необходимы регулирующие меры», — говорит она.
Проблемой является и то, что функции ИИ зависят от решений компаний. Так, Replika столкнулась с возмущением пользователей после временного удаления функций ролевых игр, что многие восприняли как «потерю личности» их виртуальных друзей. Компания впоследствии восстановила эти функции для ранее зарегистрированных пользователей.
Карина Саифулина, глава бренда Eva AI, отмечает, что в компании работают психологи, которые контролируют влияние приложения на психическое здоровье пользователей. «Мы регулярно проводим опросы наших постоянных пользователей, чтобы убедиться, что приложение не причиняет вреда», — поясняет она. В приложении также есть ограничения, предотвращающие обсуждение опасных тем и использование аватаров детей.
Хотя приложения с ИИ часто ассоциируются с мужчинами, они не ограничиваются этим и обычно не становятся единственным источником социальных контактов. На сабреддите Replika пользователи общаются и делятся впечатлениями, создавая сообщество, где виртуальные друзья «дают внимание и заботу без ожиданий и осуждения».
По оценке аналитиков венчурной компании a16z, следующий этап развития ИИ-компаньонов сделает их ещё более реалистичными. В мае одна блогерша запустила приложение с ИИ-партнером, обученным на её голосе и видеоконтенте с YouTube, где пользователи могут получать аудиореакции за небольшую плату.
Эксперты предупреждают: рост приложений с ИИ, имитирующих человеческие отношения, — лишь начало «глобального сдвига в общении человека и компьютера». «Мы вступаем в новый мир, который будет страннее, ярче и удивительнее, чем мы можем себе представить», — подытоживают они.
💡 Эти приложения открывают новые возможности для общения и эмоциональной поддержки, но одновременно требуют внимательного подхода к этике, психическому здоровью и реальным ожиданиям от человеческих отношений.