Как закон о безопасности в интернете в Великобритании будет очищать онлайн-пространство 🌐🛡️
В Великобритании готовится к принятию закон о безопасности в интернете, который охватывает всё: от deepfake-видео до вирусных онлайн-челленджей и защиты права на свободу выражения. Цель нового закона — убедиться, что технологические компании имеют надёжные системы модерации для борьбы с вредным контентом.
«Компании не могут просто надеяться на удачу», — отмечает Бен Пакер, партнёр юридической фирмы Linklaters. «Они обязаны иметь системы и процессы, чтобы, например, минимизировать время, в течение которого незаконный контент доступен пользователям».
Даже если на платформе нет незаконного контента, компания всё равно может нарушить закон, если её системы модерации окажутся недостаточными.
Основные обязанности платформ
Закон опирается на три ключевых задачи:
- Защита детей;
- Защита общества от незаконного контента;
- Помощь взрослым пользователям избегать вредного, но не запрещённого контента.
Платформа подпадает под действие закона, если она распространяет контент пользователей или является поисковой системой. Это охватывает такие сервисы, как X, Facebook✱, Instagram✱, YouTube, TikTok и Google.
Компании должны проводить оценку рисков, чтобы определить, какой контент появляется на их сервисе. Контроль за соблюдением закона возлагается на Ofcom, который будет выпускать рекомендации и кодексы практики для компаний. Следование кодексу гарантирует, что платформа выполняет требования закона.
Защита детей
Особое внимание уделено защите детей. Существует два типа контента:
- «Основной приоритет»: материалы сексуального характера и пропаганда опасного поведения;
- «Приоритетный контент»: буллинг, опасные челленджи и трюки.
Для защиты детей платформы должны использовать возрастные проверки и фильтры контента.
Борьба с незаконным контентом
Компании должны предотвращать доступ к контенту, нарушающему закон:
- материалы сексуального насилия над детьми;
- террористический контент;
- месть-порно и угрозы убийством.
Новый закон также предусматривает уголовную ответственность за побуждение к самоповреждению через социальные сети и распространение deepfake-контента.
Защита взрослых пользователей
Платформы с большим охватом (категория 1), включая Facebook✱, Instagram✱, Google и TikTok, обязаны предоставить взрослым пользователям возможность избегать определённого контента, например:
- материалы о самоубийстве или самоповреждении;
- оскорбления по признакам защищённых законом характеристик (возраст, раса, пол).
Платформы должны внедрять функции фильтров, предупреждающие экраны или возможность блокировки определённых слов.
Порнография и возрастные проверки
Сайты с сексуальным контентом обязаны использовать возрастную верификацию или технологии оценки возраста для подтверждения, что пользователи старше 18 лет.
Шифрование и безопасность
Один из спорных пунктов закона касается борьбы с материалами сексуального насилия над детьми: Ofcom может требовать использование технологий для поиска и удаления таких материалов, что затрагивает end-to-end шифрование. Государство уточнило, что вмешательство возможно только при технической осуществимости и соблюдении стандартов конфиденциальности.
Ответственность руководителей
Руководители могут быть приговорены к двум годам тюрьмы, если будут систематически игнорировать предписания Ofcom по защите детей или препятствовать расследованию. Для компаний предусмотрены штрафы до £18 млн или 10% мирового оборота, а в крайних случаях — блокировка сайтов или приложений.
📌 Вывод: Закон о безопасности в интернете — масштабная и сложная инициатива, направленная на защиту детей и взрослых, предотвращение незаконного контента и внедрение стандартов модерации. Ofcom и технологические платформы получат немало работы, чтобы обеспечить соблюдение новых правил.
* Упомянутые организации запрещены на территории РФ