Apple подверглась критике за слабый контроль контента на своих сервисах 📱🔍
Британская организация по защите детей NSPCC обвинила Apple в недостаточных мерах по контролю и отчётности за проблемный контент на своих платформах. По данным, собранным через запросы в полицию Англии и Уэльса, количество инцидентов, связанных с сервисами компании, значительно выше, чем та статистика, которую Apple официально предоставляет международным организациям.
📊 С апреля 2022 по март 2023 года Apple оказалась упомянута в 337 случаях, связанных с распространением запрещённых изображений в сети. При этом компания за весь тот же период подала лишь 267 отчётов во всём мире в специализированный центр NCMEC (Национальный центр по делам пропавших и эксплуатируемых детей, США). Для сравнения: Google за тот же срок направила свыше 1,4 млн отчётов, а Meta✱ — более 30 млн.
🔒 Отдельный акцент делается на том, что сервисы Apple (например, iMessage) имеют сквозное шифрование, из-за чего компания не имеет доступа к содержимому сообщений. Однако эксперты указывают, что другие мессенджеры с аналогичным шифрованием демонстрируют более высокий уровень отчётности.
📌 NSPCC утверждает: «Существует тревожный разрыв между количеством случаев, происходящих на сервисах Apple в Великобритании, и тем минимальным числом отчётов, которые компания подаёт в глобальные структуры».
В Apple от комментариев отказались, но ранее заявляли, что решили отказаться от запуска системы сканирования фото в iCloud, чтобы сохранить конфиденциальность пользователей. Эта технология должна была сравнивать изображения с базами запрещённого контента до загрузки их в облако. Однако её внедрение вызвало опасения со стороны правозащитных организаций, и проект был закрыт.
👩💻 Представители некоммерческих инициатив в сфере безопасности детей считают, что компания недооценивает проблему и не инвестирует достаточно ресурсов в команды, отвечающие за доверие и безопасность.
Вопрос вновь обострился на фоне того, что Apple анонсировала развитие собственной системы искусственного интеллекта — Apple Intelligence. Эксперты выражают опасения, что технологии ИИ могут быть использованы в небезопасных целях, если не будет должного контроля.
⚠️ По данным NCMEC, только в 2023 году поступило более 4,7 тыс. отчётов о создании вредоносных изображений с помощью ИИ. Ожидается, что эта цифра будет расти по мере развития технологий.
📝 Эксперты подчёркивают: Apple должна уделять больше внимания не только инновациям и защите приватности, но и вопросам безопасности, чтобы не допустить злоупотреблений и защитить пользователей — особенно детей.
* Упомянутые организации запрещены на территории РФ