Пост

Безопасный ИИ: может ли запрет «nudification»-инструментов защитить пользователей? 🤖🛡️

В Великобритании тема регулирования искусственного интеллекта (ИИ) постепенно выходит на политическую арену. Недавно центр-левый аналитический центр Labour Together предложил партии Лейбористов рассмотреть запрет на специальные инструменты «nudification», позволяющие создавать откровенные изображения реальных людей с помощью ИИ. Также предлагается обязать разработчиков универсальных ИИ-инструментов и хостинговых компаний предпринимать разумные меры, чтобы их сервисы не использовались для создания вредоносного контента или других «deepfake»-материалов.

Пока это лишь рекомендации thinktank, а не официальная политика партии, но они отражают ключевые вопросы, на которых могут строиться кампании в области технологий. Заместитель министра по технологиям Питер Кайл отметил, что предложения тщательно рассматриваются.

За последние десятилетия технологии в Великобритании были относительно аполитичными: партии в целом поддерживали развитие сектора как драйвера роста и влияния, но активных кампаний по регулированию практически не велось. Даже введение Закона об онлайн-безопасности при правительстве Терезы Мэй сопровождалось скорее технократическими, чем принципиальными дебатами.

Теперь ситуация может измениться. Запрет на «nudification»-инструменты позволит Лейбористам подчеркнуть различие подходов двух главных партий: Консерваторы концентрируются на долгосрочных рисках ИИ, а Лейбористы — на его немедленном потенциальном вреде для людей.

Авторы документа, Кирсти Иннес и Лорел Боксал, подчеркивают, что большинство компаний стремятся использовать свои технологии во благо. «MrDeepFakes не представляет технологический сектор», — отмечает Иннес. Сектора, создающего ИИ, интересует решение проблем, связанных с злоупотреблением, и многие компании готовы сотрудничать.

Кроме того, предложены более мягкие правила для широкой индустрии технологий: хостинг-провайдеры, поисковые системы и платёжные платформы должны следить, чтобы их клиенты не создавали «вредоносные deepfake»-материалы, с возможностью штрафов от регулятора Ofcom. Однако критики предупреждают о возможном «охлаждающем эффекте»: понятие «вредоносный контент» может быть субъективным, что позволит платформам запрещать весь deepfake-контент полностью.

Согласно опросу Control AI, 86% британцев поддерживают меры по ограничению deepfake, что ставит Великобританию на лидирующие позиции в мире по этому вопросу. Даже в Италии, где поддержка меньше, большинство выступает за запрет (74%).

В документе также предложено, чтобы все крупные партии обязались не использовать ИИ для создания вводящей в заблуждение информации в своих кампаниях. Однако эксперты сомневаются, что такое обязательство выдержит предвыборную борьбу и активность в соцсетях.

Тема deepfake и ИИ-провокаций на выборах становится всё более актуальной: новые технологии изменяют способы коммуникации, создавая новые вызовы для общественного пространства. В ближайшие годы особое внимание будет уделяться не только текстовым, но и визуальным инструментам манипуляции, что ставит перед обществом задачу регулирования и безопасного использования ИИ.

И, наконец, эксперты прогнозируют рост робототехники в 2024 году: ИИ-технологии из мира виртуальных моделей начинают переноситься в реальный физический мир, что открывает новые возможности, но и новые вызовы для регулирования и безопасности. 🌐🤖

Для ответа вы можете авторизоваться