TechScape: Может ли контент, созданный ИИ, быть опасен для нашего здоровья? 🤖🧠
Давайте немного окунёмся в научную фантастику. Роман Нила Стивенсона «Снежная катастрофа» 1992 года вдохновил тысячи стартапов. Он впервые использовал термин «аватар» для виртуального представления человека и ввёл слово «метавселенная», став обязательным чтением для руководителей Facebook✱ ещё до того, как компания начала работать над собственными версиями этих идей. В книге ключевой сюжет вращается вокруг изображения, которое, если на него смотреть в метавселенной, захватывает мозг зрителя, причиняя вред или даже смертельный исход.
Это не единичный пример: четыре года раньше британский писатель Дэвид Лэнгфорд в рассказе BLIT описывал террористическую атаку с помощью изображений-базилисков — визуальных сигналов, которые человеческий мозг не способен безопасно обработать. Концепцию подобных опасных идей позже назвали когнитогазард — идея, способная навредить просто своим восприятием.
Когда знание может быть опасным
Эта тема снова актуальна в эпоху ИИ, особенно при работе с deepfake-видео. Опыт показывает: даже если пользователю сообщают, что перед ним поддельное видео, психологический эффект просмотра остаётся сильным, и мозг часто воспринимает увиденное как реальность. Так что маркировка контента далеко не всегда решает проблему. Можно ли считать такие видео когнитогазардами? Возможно, да — если человек невольно воспринимает контент как правду, даже при предупреждении.
Цепочка внимания
Более привычные примеры когнитогазардов — это не столько эмоции, сколько внимание. В современном мире реклама и социальные сети конкурируют за наше время — ограниченный ресурс всего в 24 часа. Здесь на помощь приходят приёмы, захватывающие внимание: красные точки уведомлений, бесконечная прокрутка ленты, геймификация интерфейсов.
Особенно опасны интерактивные или полуавтоматические механизмы, вроде:
- Idle-игры — игры, которые почти сами «играют» за пользователя, с постоянными наградами и таймерами. Они могут поглотить целый день без заметной пользы.
- «Домино-видео» — видео, где процесс развивается предсказуемо, но настолько завораживающе, что хочется смотреть до конца. Это может быть падение домино, методичная уборка или демонстрация какого-либо процесса. Иногда эти видео никогда не заканчиваются, но зритель всё равно остаётся втянутым.
Когда фантастика становится реальностью
С генеративным ИИ потенциал таких когнитогазардов возрастает в разы. Если алгоритмы начнут массово создавать захватывающий контент в социальных сетях, внимание пользователей может контролироваться почти промышленным образом. Родителям придётся учить детей не только быть осторожными при общении онлайн, но и развивать критическое восприятие контента, который они потребляют.
В итоге, границы между развлечением, вниманием и потенциальным вредом становятся всё более размытыми, а технологии ИИ открывают новые вопросы о безопасности и психическом здоровье. 🌐⚠️
* Упомянутые организации запрещены на территории РФ