Пост

«Время уходит»: можно ли избежать эпохи неотличимых deepfake? ⏳🤖🖼️

Фото пожилой женщины за тортом на её «122-й день рождения» собрало тысячи лайков, комментариев и репостов в соцсетях. Но изображение однозначно фальшивое: одна свеча будто парит в воздухе, а торт украшен странными бесформенными пятнами. И даже без этих деталей становится ясно: такая дата делает её старейшей человеком в мире — почти на пять лет старше рекорда.

К счастью, ставки для подобных вирусных «супердолгожительниц» невелики. Но с развитием генеративного ИИ дни, когда можно было вычислить фальшивку по мелким признакам, почти прошли. Возникает гонка со временем: можно ли придумать новые способы распознавать фейки, прежде чем они станут неотличимыми от реальности?

Проблема распознавания 🕵️‍♂️

«Время на ручное выявление фейков уходит», — говорит Майк Спирс из консалтинговой компании Faculty, занимающейся борьбой с дезинформацией. Раньше эксперты могли смотреть на пальцы, глаза, текст, кожу, но сейчас это требует слишком много времени и не подходит для массового анализа.

С 2021 года генераторы изображений, такие как Dall-E, Midjourney, Stable Diffusion и Google Gemini, становятся всё мощнее и проще в использовании. Теперь даже встроенные в ChatGPT и Bing инструменты могут создавать изображения за секунды.

Попытки регулирования и маркировки ⚠️

Технологические компании начали реагировать. OpenAI внедрила водяные знаки и заметные метки для своих изображений, Meta✱ тоже маркирует контент, созданный ИИ. Но проблема в том, что не все платформы и открытые проекты будут это делать, и водяные знаки не гарантируют, что люди воспримут изображение критически.

«Если показать пользователю, что это deepfake, он всё равно может воспринимать его как факт», — добавляет Генри Паркер из организации Logically. Решение — автоматическое выявление и удаление ИИ-контента, но это крайне сложная задача.

Гонка технологий 🏁

Даже изображения без злого умысла стремятся «обмануть» детекторы, потому что цель генераторов — создать картинку максимально правдоподобную. Методы, по словам экспертов, включают мониторинг поведения пользователей в интернете, анализ подозрительных аккаунтов и отслеживание шаблонов.

Некоторые компании, вроде Reality Defender, уверены, что выявлять фейки возможно, хотя иногда это будет лишь пометка «возможно, поддельное». Для видео это может быть «слишком гладкая кожа» или неправильное отображение мелких движений лица.

Людям тоже нужна осторожность 👀

Технологии — лишь часть решения. Даже без ультрасовременных ИИ-генераторов люди могут поверить в странные фото и видео, если контент эмоционально впечатляет. Но развитие систем распознавания и образовательная работа с аудиторией дают шанс уменьшить риск распространения вредной дезинформации.

Вопрос остаётся открытым: как долго человечество сможет опережать ИИ в распознавании фейков, прежде чем они станут полностью неотличимыми? 🕰️🔍

        * Упомянутые организации запрещены на территории РФ
Для ответа вы можете авторизоваться