В Великобритании обеспокоены планами автоматизации оценки рисков в соцсетях 🤖⚠️
Британские активисты по безопасности в интернете призвали местный регулятор ограничить использование искусственного интеллекта при проведении ключевых оценок рисков после сообщения о планах крупной соцсети автоматизировать этот процесс.
Согласно закону Online Safety Act, платформы обязаны оценивать потенциальные угрозы на своих сервисах и разрабатывать меры для их предотвращения, особенно в отношении защиты детей и блокировки незаконного контента. Процесс оценки рисков считается центральным элементом закона.
Обращение активистов 📩
В письме к главе регулятора Ofcom, Мелани Доус, организации, включая Molly Rose Foundation, NSPCC и Internet Watch Foundation, назвали перспективу полностью автоматизированных оценок рисков «откатом назад и крайне тревожным шагом».
Активисты подчеркнули:
«Мы призываем публично заявить, что оценки рисков, выполненные полностью или преимущественно автоматикой, не могут считаться „подходящими и достаточными“, как требует закон».
Они также призвали регулятора не допускать ослабления требований к процессу оценки рисков.
Позиция регулятора и компании ⚖️
Представитель Ofcom заявил, что ведомство требует, чтобы сервисы указывали, кто именно проводил, проверял и утверждал оценку рисков. «Мы рассматриваем поднятые в письме вопросы и дадим официальный ответ в ближайшее время», — отметили в Ofcom.
В свою очередь компания подчеркнула, что письмо неправильно отражает её подход к безопасности. «Мы не используем ИИ для принятия решений о рисках. Наши эксперты разработали инструмент, который помогает командам выявлять, где применяются юридические и политические требования к продуктам. Технологии используются под контролем человека для повышения эффективности управления потенциально опасным контентом», — сказали представители компании.
Контекст и возможные последствия ⚠️
Ранее сообщалось, что обновления алгоритмов и новые функции на платформах будут в основном проверяться ИИ, что позволяет ускорить выпуск обновлений, но создаёт повышенные риски для пользователей, поскольку потенциальные проблемы могут не выявляться до публикации продукта.
Активисты предупреждают, что автоматизация оценки рисков в таких чувствительных областях, как защита молодежи и контроль распространения ложной информации, требует особенно тщательного надзора.
Эта ситуация подчеркивает необходимость баланса между эффективностью технологий и безопасностью пользователей, особенно самых уязвимых. ✅