Фейковые изображения в политике: как AI создает иллюзии 📸🤖
Скандал вокруг обработанной фотографии Риши Сунака с «неидеально налитым пинтом» — лишь последний пример того, как поддельные изображения или deepfake могут влиять на общественное мнение. Использование фальшивых данных или визуальных материалов для манипуляции давно известно, но технологии искусственного интеллекта делают эти подделки всё более реалистичными и опасными.
Вот несколько недавних случаев, когда изображения использовались для дезинформации:
Фейковые видео лидеров
- В одном случае появилось видео, где якобы демонстрировалось выступление известного политика с просьбой к своим сторонникам отказаться от определённых действий. Видео было явно поддельным и быстро удалено с крупных платформ.
Манипуляции перед выборами
- Незадолго до выборов в одной стране был смонтирован ролик, объединяющий два разных видео, чтобы создать ложное впечатление о поддержке одного кандидата группой, которая в стране считается спорной. Независимые проверяющие отметили, что видео активно распространялось онлайн.
Образы известных личностей
- В США появились убедительные изображения, на которых известные политики якобы совершали действия, которых на самом деле не происходило. В некоторых случаях это было использовано в предвыборной кампании, вызывая споры и критику.
Голосовые deepfake
- Кроме изображений, для создания ложных впечатлений начали использовать искусственно сгенерированные голоса. Видеоролики с поддельными голосами известных политических фигур позволяли создавать впечатление, что они делали или говорили то, чего на самом деле не было.
Эти примеры показывают, что с развитием AI фейковые изображения становятся всё более реалистичными и могут легко вводить в заблуждение. Общество, медиа и пользователи социальных сетей сталкиваются с вызовом: научиться распознавать подделки и сохранять критическое мышление при потреблении информации. 🔍💡