Как искусственный интеллект используется для создания опасного контента: вызовы для защиты детей 🛡️🤖
Эксперты по безопасности детей бьют тревогу: современные технологии искусственного интеллекта (ИИ) начали использоваться для создания опасного и запрещённого контента с участием несовершеннолетних. Новые возможности ИИ позволяют злоумышленникам манипулировать изображениями и материалами, создавая их цифровые версии, что создаёт дополнительные угрозы для жертв и вызывает тревогу у специалистов по защите детей.
Организации, следящие за безопасностью детей в интернете, отмечают рост обсуждений в закрытых онлайн-сообществах, где пользователи обсуждают создание новых материалов на основе старых запрещённых изображений. Некоторые злоумышленники концентрируются на так называемых «известных» жертвах, чьи изображения уже были распространены ранее.
«В этих сообществах формируется одержимость конкретными детьми, и они хотят получать новые материалы, — говорит Сара Гарднер, руководитель Heat Initiative, некоммерческой организации по защите детей в Лос-Анджелесе. — ИИ теперь даёт им возможность создавать эти изображения».
Жертвы таких злоупотреблений, даже став взрослыми, продолжают сталкиваться с психологическим давлением: возможность появления новых цифровых материалов с их изображениями вызывает стресс и тревогу. «Мои фотографии могут быть использованы без моего согласия, создавая новые опасные материалы», — делится одна из пострадавших, пожелавшая остаться анонимной.
Закрытые и зашифрованные мессенджеры, такие как Signal или Telegram, позволяют злоумышленникам оставаться анонимными и распространять материалы незамеченными. Специалисты отмечают, что открытые источники данных, использующиеся для обучения ИИ, могут содержать опасные изображения, что повышает риск создания нового контента.
Эксперты предупреждают, что использование ИИ для создания подобных материалов может усугублять проблему: «Просмотр таких изображений потенциально усиливает предрасположенность к насилию у злоумышленников», — отмечает Том Сквайр, глава Lucy Faithfull Foundation в Великобритании, организации, борющейся с сексуальными преступлениями против детей.
В законодательстве многих стран уже действуют нормы, запрещающие создание и распространение материалов с участием детей, независимо от того, были ли они созданы физически или с помощью технологий ИИ. Однако специалисты подчеркивают, что новые технологии усложняют контроль: ИИ позволяет создавать материалы офлайн, в приватной среде, что делает отслеживание и предотвращение таких действий крайне сложным.
«Любой человек может использовать ИИ для создания контента, и это ставит серьёзные вызовы перед системой безопасности», — говорит эксперт Майкл Танкс из Internet Watch Foundation.
Специалисты призывают к комплексным мерам: не только законодательным, но и культурным — повышению информированности общества о рисках и обучению детей безопасному поведению в цифровой среде. «Мы должны предотвращать злоупотребления не только с помощью законов, но и через воспитание культуры безопасности», — добавляют эксперты.
ИИ открывает множество возможностей для развития технологий, но вместе с тем создаёт новые вызовы для защиты детей и сохранения их безопасности в цифровом пространстве. ⚠️🖥️