Пост

В Великобритании обеспокоены планами автоматизации оценки рисков в соцсетях 🤖⚠️

Британские активисты по безопасности в интернете призвали местный регулятор ограничить использование искусственного интеллекта при проведении ключевых оценок рисков после сообщения о планах крупной соцсети автоматизировать этот процесс.

Согласно закону Online Safety Act, платформы обязаны оценивать потенциальные угрозы на своих сервисах и разрабатывать меры для их предотвращения, особенно в отношении защиты детей и блокировки незаконного контента. Процесс оценки рисков считается центральным элементом закона.

Обращение активистов 📩

В письме к главе регулятора Ofcom, Мелани Доус, организации, включая Molly Rose Foundation, NSPCC и Internet Watch Foundation, назвали перспективу полностью автоматизированных оценок рисков «откатом назад и крайне тревожным шагом».

Активисты подчеркнули:

«Мы призываем публично заявить, что оценки рисков, выполненные полностью или преимущественно автоматикой, не могут считаться „подходящими и достаточными“, как требует закон».

Они также призвали регулятора не допускать ослабления требований к процессу оценки рисков.

Позиция регулятора и компании ⚖️

Представитель Ofcom заявил, что ведомство требует, чтобы сервисы указывали, кто именно проводил, проверял и утверждал оценку рисков. «Мы рассматриваем поднятые в письме вопросы и дадим официальный ответ в ближайшее время», — отметили в Ofcom.

В свою очередь компания подчеркнула, что письмо неправильно отражает её подход к безопасности. «Мы не используем ИИ для принятия решений о рисках. Наши эксперты разработали инструмент, который помогает командам выявлять, где применяются юридические и политические требования к продуктам. Технологии используются под контролем человека для повышения эффективности управления потенциально опасным контентом», — сказали представители компании.

Контекст и возможные последствия ⚠️

Ранее сообщалось, что обновления алгоритмов и новые функции на платформах будут в основном проверяться ИИ, что позволяет ускорить выпуск обновлений, но создаёт повышенные риски для пользователей, поскольку потенциальные проблемы могут не выявляться до публикации продукта.

Активисты предупреждают, что автоматизация оценки рисков в таких чувствительных областях, как защита молодежи и контроль распространения ложной информации, требует особенно тщательного надзора.

Эта ситуация подчеркивает необходимость баланса между эффективностью технологий и безопасностью пользователей, особенно самых уязвимых. ✅

Для ответа вы можете авторизоваться