«Инцептионизм» и папа в Balenciaga: краткая история дипфейков 🤖🎨
Вокруг выборов всегда растёт обеспокоенность фейковыми или манипулятивными медиа, но 2024 год будет особенным по двум причинам: это искусственный интеллект (ИИ), создающий дипфейки, и огромное количество предстоящих голосований по всему миру. Термин «дипфейк» обозначает поддельный контент, чаще всего видеоролики с людьми, созданные с помощью ИИ, иногда сопровождаемые поддельным голосом. С учётом того, что почти половина населения Земли участвует в важных выборах — в Индии, США, ЕС и, вероятно, Великобритании — технология имеет потенциал быть крайне влиятельной.
Первые эксперименты: DeepDream и «банан» (2015) 🍌
В 2015 году Google представила проект DeepDream, или «инцептионизм», где нейросети, изначально созданные для распознавания изображений, начали генерировать собственные картины. Результаты были сюрреалистичными и странными, но показали потенциал ИИ создавать новые визуальные образы.
Смена лиц знаменитостей (2017) 🎭
Создавать изображения с нуля сложно, но изменять существующие фото и видео стало чуть проще. В 2017 году технология позволяла заменять лица знаменитостей в видео, что, к сожалению, использовалось для неприемлемого контента. Сегодня такие инструменты доступны быстрее и проще, и часто бесплатно.
Джордан Пил и Обама (2018) 🎬
В 2018 году инструменты для смены лиц стали использоваться творчески. Один из примеров — видео, где актёр Джордан Пил заменил лицо на лицо бывшего президента США Барака Обамы, создавая комичный эффект и обращение «stay woke».
Dall-E и новые изображения (2021) 🥑🛋️
С запуском Dall-E от OpenAI стало возможным создавать полностью новые изображения по текстовому описанию. Первые результаты не были фотореалистичными, но продемонстрировали потенциал для создания уникальных визуальных объектов, например, абстрактных предметов вроде авокадо-кресла.
Украинский президент и дипфейки (2022–2023) 🇺🇦
В первые месяцы конфликта в Восточной Европе появился низкокачественный дипфейк украинского президента, призывающий солдат сдаваться. Через год технология улучшилась, и новые ролики выглядели гораздо убедительнее, показывая, как быстро развивается качество дипфейков.
Папа в Balenciaga (2023) 👔
Изображение Папы Франциска в куртке Balenciaga, созданное Midjourney, стало вирусным. Оно продемонстрировало творческий потенциал генеративного ИИ и скорость распространения подобных изображений в интернете.
Политические дипфейки 2024 года 🗳️
В этом году появились поддельные изображения и аудиозаписи известных политиков. Например, фото бывшего президента США Дональда Трампа с группой сторонников пыталось создать впечатление поддержки со стороны определённых социальных групп. Голосовые дипфейки также использовались для манипуляции информацией среди избирателей, подчеркивая риски технологии в политике.
Заключение
Дипфейки развиваются стремительно, от сюрреалистичных картинок до убедительных подделок лиц и голосов. Сегодня они становятся частью культурного и медийного пространства, вызывая как творческий интерес, так и озабоченность по поводу достоверности информации и её возможного использования в манипуляциях. ⚠️🎨🤖