Пост

«Инцептионизм» и папа в Balenciaga: краткая история дипфейков 🤖🎨

Вокруг выборов всегда растёт обеспокоенность фейковыми или манипулятивными медиа, но 2024 год будет особенным по двум причинам: это искусственный интеллект (ИИ), создающий дипфейки, и огромное количество предстоящих голосований по всему миру. Термин «дипфейк» обозначает поддельный контент, чаще всего видеоролики с людьми, созданные с помощью ИИ, иногда сопровождаемые поддельным голосом. С учётом того, что почти половина населения Земли участвует в важных выборах — в Индии, США, ЕС и, вероятно, Великобритании — технология имеет потенциал быть крайне влиятельной.

Первые эксперименты: DeepDream и «банан» (2015) 🍌

В 2015 году Google представила проект DeepDream, или «инцептионизм», где нейросети, изначально созданные для распознавания изображений, начали генерировать собственные картины. Результаты были сюрреалистичными и странными, но показали потенциал ИИ создавать новые визуальные образы.

Смена лиц знаменитостей (2017) 🎭

Создавать изображения с нуля сложно, но изменять существующие фото и видео стало чуть проще. В 2017 году технология позволяла заменять лица знаменитостей в видео, что, к сожалению, использовалось для неприемлемого контента. Сегодня такие инструменты доступны быстрее и проще, и часто бесплатно.

Джордан Пил и Обама (2018) 🎬

В 2018 году инструменты для смены лиц стали использоваться творчески. Один из примеров — видео, где актёр Джордан Пил заменил лицо на лицо бывшего президента США Барака Обамы, создавая комичный эффект и обращение «stay woke».

Dall-E и новые изображения (2021) 🥑🛋️

С запуском Dall-E от OpenAI стало возможным создавать полностью новые изображения по текстовому описанию. Первые результаты не были фотореалистичными, но продемонстрировали потенциал для создания уникальных визуальных объектов, например, абстрактных предметов вроде авокадо-кресла.

Украинский президент и дипфейки (2022–2023) 🇺🇦

В первые месяцы конфликта в Восточной Европе появился низкокачественный дипфейк украинского президента, призывающий солдат сдаваться. Через год технология улучшилась, и новые ролики выглядели гораздо убедительнее, показывая, как быстро развивается качество дипфейков.

Папа в Balenciaga (2023) 👔

Изображение Папы Франциска в куртке Balenciaga, созданное Midjourney, стало вирусным. Оно продемонстрировало творческий потенциал генеративного ИИ и скорость распространения подобных изображений в интернете.

Политические дипфейки 2024 года 🗳️

В этом году появились поддельные изображения и аудиозаписи известных политиков. Например, фото бывшего президента США Дональда Трампа с группой сторонников пыталось создать впечатление поддержки со стороны определённых социальных групп. Голосовые дипфейки также использовались для манипуляции информацией среди избирателей, подчеркивая риски технологии в политике.

Заключение

Дипфейки развиваются стремительно, от сюрреалистичных картинок до убедительных подделок лиц и голосов. Сегодня они становятся частью культурного и медийного пространства, вызывая как творческий интерес, так и озабоченность по поводу достоверности информации и её возможного использования в манипуляциях. ⚠️🎨🤖

Для ответа вы можете авторизоваться