Пост

Эксперты предупреждают: чат-боты усложняют распознавание фишинговых писем 📧🤖

Современные чат-боты и системы искусственного интеллекта (ИИ) начинают размывать одну из ключевых линий защиты от фишинговых писем: исправление явных ошибок в орфографии и грамматике. Ранее такие ошибки позволяли пользователям и спам-фильтрам легко выявлять мошеннические письма, но теперь ИИ исправляет их, делая сообщения более правдоподобными.

Организация Europol недавно выпустила международное предупреждение о потенциальном использовании моделей вроде ChatGPT для преступной деятельности. Фишинговые письма остаются одним из самых распространённых инструментов киберпреступников: они заставляют получателя перейти по ссылке, скачивающей вредоносное ПО, или раскрыть личные данные, такие как пароли и PIN-коды.

По данным Office for National Statistics, в прошлом году половина взрослых в Англии и Уэльсе получила фишинговое письмо. Компании в Великобритании также отмечают, что фишинг остаётся самой распространённой киберугрозой.

«Теперь любой злоумышленник может использовать ИИ для исправления всех ошибок и неточностей», — говорит Кори Томас, глава американской компании Rapid7. «Больше нельзя полагаться на плохую грамматику как способ выявить фишинг. Раньше письма выглядели подозрительно из-за ошибок — сейчас это перестало работать».

Аналитики отмечают, что модели вроде ChatGPT и других больших языковых моделей (LLM) всё чаще используются для создания сложных и убедительных писем. По данным компании Darktrace, объём традиционных мошеннических писем уменьшился, но появился рост более сложных сообщений, которые труднее отфильтровать. «ИИ позволяет быстро создавать убедительные целевые письма, даже если злоумышленник не является экспертом в языке», — говорит Макс Хайнемейер, главный директор по продукту Darktrace.

Такие «целевые» фишинговые письма, нацеленные на конкретного человека, раньше было трудно убедительно составить. Теперь ИИ способен анализировать открытые источники информации, включая социальные сети, и генерировать сообщения, которые практически невозможно отличить от писем, написанных человеком.

В своём отчёте Europol также подчеркнула, что чат-боты могут использоваться для обучения потенциальных злоумышленников пошаговым инструкциям для совершения киберпреступлений.

Недавний эксперимент компании Check Point показал, что ChatGPT может создавать правдоподобные фишинговые письма при обходе встроенных ограничений, а Google представил аналогичный инструмент Bard, который при определённых запросах также готов генерировать такие письма.

Компании разработчики ИИ, включая Google и OpenAI, подчёркивают, что их продукты запрещено использовать для мошеннической или обманной деятельности. Тем не менее эксперты предупреждают: рост возможностей ИИ делает фишинг и другие виды социальной инженерии более масштабными и сложными для распознавания.

⚠️ Главный вывод: технологии ИИ дают удобство и эффективность, но одновременно требуют повышенной бдительности при работе с электронной почтой и интернет-контентом.

Для ответа вы можете авторизоваться