Вирусное AI-изображение взрыва оказалось фейком 🌫️🤖
На прошлой неделе в социальных сетях распространилось изображение, якобы показывающее взрыв возле крупного здания, которое привлекло внимание пользователей по всему миру. На фото виднелся высокий тёмно-серый столб дыма, и оно быстро разошлось по платформам, включая публикации подтверждённых аккаунтов. Источник изображения пока неизвестен.
Представители соответствующих служб подтвердили, что инцидента на самом деле не было — картинка была сгенерирована искусственным интеллектом. Тем не менее, вирусное распространение изображения вызвало кратковременное падение на фондовом рынке. Местные пожарные службы уточнили, что угрозы для населения не существует.
Один из аккаунтов, делящихся новостями о международных событиях и имеющий более 336 тысяч подписчиков, перепостил изображение и позже извинился за распространение дезинформации. Владелец страницы отметил, что инцидент наглядно демонстрирует, насколько легко такие изображения могут использоваться для манипуляции информационным пространством и насколько это может быть опасно в будущем.
Это не единственный случай, когда AI-генерированные изображения стали вирусными. Недавно появлялись фото, где известные личности изображены в необычных образах, а также изображения, созданные для фотоконкурсов. В одном из случаев немецкий художник отклонил награду за фотореалистичное изображение, созданное AI, отметив, что конкурс не был готов к участию подобных работ.
Ситуация также подчёркивает проблемы с проверкой информации в социальных сетях. После изменения системы подписки на платформе, пользователи теперь могут приобрести «синий значок» за плату, что повысило риск появления аккаунтов, выдающих себя за публичных личностей, организации или СМИ.
Эти события напоминают о необходимости внимательности и критического подхода к информации в сети, особенно к изображениям и видео, созданным искусственным интеллектом. 🖼️⚠️