Генеральный директор крупнейшей рекламной компании стал жертвой мошенничества с deepfake 🎭💻
Генеральный директор WPP, крупнейшей в мире рекламной группы, Марка Рида, попытались обмануть с помощью высокотехнологичного мошенничества, включающего клон голоса с использованием искусственного интеллекта.
В письме руководству компании Рид предупредил коллег о необходимости быть внимательными к звонкам и видеовстречам, где мошенники могут выдавать себя за топ-менеджеров. Злоумышленники создали WhatsApp✱-аккаунт с публичной фотографией Рида и организовали видеовстречу в Microsoft Teams, используя клон голоса и видеоматериалы с YouTube, чтобы имитировать присутствие руководителя компании.
Мошенники пытались убедить одного из лидеров агентства открыть новый бизнес для получения денег и личной информации, однако попытка оказалась неудачной. «К счастью, злоумышленники не добились своего успеха», — написал Рид, подчеркнув, что важно осторожно относиться к новым методам мошенничества, выходящим за рамки электронной почты, включая виртуальные встречи и deepfake.
Представитель WPP подтвердил, что попытка фишинга не принесла ущерба, и компания принимает меры для защиты сотрудников.
Рост угроз с использованием AI 🤖
Изначально технологии deepfake использовались в сфере онлайн-угроз, порно и политической дезинформации, однако в корпоративной среде количество атак с deepfake резко возросло. Клоны голоса обманывали банки, финансовые фирмы и подвергали нацеленным отделам кибербезопасности высокому риску.
Так, один из руководителей стартапа Ozy признался в мошенничестве после того, как использовал технологию подделки голоса, чтобы обмануть инвесторов и получить \$40 млн. Попытка мошенничества против WPP также использовала генеративный AI для имитации голоса, а также более простые методы — фото из открытых источников в качестве аватара.
Рид выделил несколько ключевых признаков мошенничества, на которые стоит обращать внимание: запросы паспортов, денежных переводов и упоминания «секретных сделок или платежей». «Просто потому что на аккаунте моя фотография, не значит, что это я», — отметил он.
Борьба с мошенничеством и использование AI в рекламе 🌐
WPP также сталкивается с поддельными сайтами, использующими бренд компании, и сотрудничает с властями для предотвращения мошенничества.
Одновременно компания осваивает возможности генеративного AI в рекламе, сотрудничая с Nvidia для создания рекламного контента с использованием новых технологий. Рид отмечает: «Генеративный AI стремительно меняет мир маркетинга и трансформирует способ создания контента для брендов».
В последние годы доступные технологии audio deepfake стали более реалистичными: несколько минут записи голоса публичной личности достаточно, чтобы создать убедительное поддельное аудио. Такие методы используют не только против известных личностей, но и для других целей, включая образовательные и корпоративные сферы.
В результате, AI-технологии становятся одновременно мощным инструментом и потенциальной угрозой, требующей повышенной кибергигиены и осмотрительности. 🔒🎧
* Упомянутые организации запрещены на территории РФ