Искусственный интеллект в кибербезопасности: Microsoft о новых угрозах 🤖🛡️
Microsoft заявила, что некоторые страны уже начали использовать генеративный искусственный интеллект (ИИ) для организации кибератак и других вредоносных операций. Компания отметила, что ей удалось обнаружить и нейтрализовать ряд угроз с использованием ИИ совместно с партнёром OpenAI.
В блоге Microsoft подчёркивается, что эти методы пока находятся на начальной стадии, и хотя они не особенно новы или уникальны, важно публично информировать о рисках. Использование больших языковых моделей расширяет возможности злоумышленников в обход сетевой защиты и проведении атак с социальной инженерией.
Примеры выявленных случаев:
- Северная Корея (группа Kimsuky): использовала ИИ для изучения иностранных исследований и создания материалов для фишинговых кампаний.
- Иран (Революционная гвардия): применяла ИИ для социальной инженерии, устранения ошибок в ПО и подготовки фишинговых писем.
- Россия (подразделение Fancy Bear): использовала модели для изучения технологий спутников и радиолокации.
- Китай (группы Aquatic Panda и Maverick Panda): применяли ИИ для поддержки технических операций и анализа открытых источников информации о различных секторах.
OpenAI в отдельном блоге отметила, что текущая версия GPT-4 имеет ограниченные возможности для проведения кибератак, однако эксперты ожидают, что это со временем может измениться.
Американские специалисты по кибербезопасности предупреждают: несмотря на то, что сегодня угроза не выглядит критической, ИИ и большие языковые модели в будущем могут стать мощным инструментом для атак в разных сферах.
Эксперты также критикуют компании за быстрый выпуск ИИ-систем без достаточного акцента на безопасность и предупреждают, что необходимо разрабатывать более защищённые модели, а не только инструменты для устранения последствий потенциальных угроз.
Microsoft подчёркивает: сотрудничество с исследователями и прозрачное информирование о рисках — ключевые меры для минимизации угроз и повышения безопасности пользователей. 🌐💻