Пост

Генеральный директор крупнейшей рекламной компании стал жертвой мошенничества с deepfake 🎭💻

Генеральный директор WPP, крупнейшей в мире рекламной группы, Марка Рида, попытались обмануть с помощью высокотехнологичного мошенничества, включающего клон голоса с использованием искусственного интеллекта.

В письме руководству компании Рид предупредил коллег о необходимости быть внимательными к звонкам и видеовстречам, где мошенники могут выдавать себя за топ-менеджеров. Злоумышленники создали WhatsApp✱-аккаунт с публичной фотографией Рида и организовали видеовстречу в Microsoft Teams, используя клон голоса и видеоматериалы с YouTube, чтобы имитировать присутствие руководителя компании.

Мошенники пытались убедить одного из лидеров агентства открыть новый бизнес для получения денег и личной информации, однако попытка оказалась неудачной. «К счастью, злоумышленники не добились своего успеха», — написал Рид, подчеркнув, что важно осторожно относиться к новым методам мошенничества, выходящим за рамки электронной почты, включая виртуальные встречи и deepfake.

Представитель WPP подтвердил, что попытка фишинга не принесла ущерба, и компания принимает меры для защиты сотрудников.

Рост угроз с использованием AI 🤖

Изначально технологии deepfake использовались в сфере онлайн-угроз, порно и политической дезинформации, однако в корпоративной среде количество атак с deepfake резко возросло. Клоны голоса обманывали банки, финансовые фирмы и подвергали нацеленным отделам кибербезопасности высокому риску.

Так, один из руководителей стартапа Ozy признался в мошенничестве после того, как использовал технологию подделки голоса, чтобы обмануть инвесторов и получить \$40 млн. Попытка мошенничества против WPP также использовала генеративный AI для имитации голоса, а также более простые методы — фото из открытых источников в качестве аватара.

Рид выделил несколько ключевых признаков мошенничества, на которые стоит обращать внимание: запросы паспортов, денежных переводов и упоминания «секретных сделок или платежей». «Просто потому что на аккаунте моя фотография, не значит, что это я», — отметил он.

Борьба с мошенничеством и использование AI в рекламе 🌐

WPP также сталкивается с поддельными сайтами, использующими бренд компании, и сотрудничает с властями для предотвращения мошенничества.

Одновременно компания осваивает возможности генеративного AI в рекламе, сотрудничая с Nvidia для создания рекламного контента с использованием новых технологий. Рид отмечает: «Генеративный AI стремительно меняет мир маркетинга и трансформирует способ создания контента для брендов».

В последние годы доступные технологии audio deepfake стали более реалистичными: несколько минут записи голоса публичной личности достаточно, чтобы создать убедительное поддельное аудио. Такие методы используют не только против известных личностей, но и для других целей, включая образовательные и корпоративные сферы.

В результате, AI-технологии становятся одновременно мощным инструментом и потенциальной угрозой, требующей повышенной кибергигиены и осмотрительности. 🔒🎧

        * Упомянутые организации запрещены на территории РФ
Для ответа вы можете авторизоваться