Пост

Искусственный интеллект всё чаще используется преступниками, предупреждают британские правоохранители ⚠️🤖

Преступники разных типов начинают использовать искусственный интеллект (ИИ) для новых форм мошенничества и преступной деятельности, предупреждает старший полицейский Великобритании. Алекс Мюррей, руководитель национальной полиции по вопросам ИИ, отметил, что технологии становятся всё более доступными, а полиция должна действовать быстро, чтобы справляться с возникающими угрозами.

«Преступники всегда находили, как использовать новые возможности для своих целей. Сейчас они активно применяют ИИ для преступлений», — сказал Мюррей. «Это может быть масштабное международное мошенничество или что-то, происходящее в домашних условиях. Любой тип преступления можно рассмотреть через призму ИИ и задать вопрос: „Какая здесь возможность для злоумышленника?“»

Мошенничество с имитацией руководителей 💼

На конференции Национального совета начальников полиции в Лондоне Мюррей рассказал о случаях, когда мошенники использовали технологии deepfake для подделки внешности и голоса руководителей компаний, чтобы обманом заставить сотрудников переводить крупные суммы денег. Так, в этом году сотрудник финансовой компании перевёл мошенникам около 20 млн фунтов стерлингов после видеозвонка, где преступники убедительно выдавали себя за главного финансового директора.

Подобные случаи фиксировались в нескольких странах, а первый известный инцидент такого рода в Великобритании датируется 2019 годом. Мюррей назвал это «дорогостоящим, но редким преступлением», отметив, что в стране известно несколько десятков подобных случаев.

Основная угроза — использование ИИ в преступлениях против детей и мошенничестве 🛡️

По словам Мюррея, наибольший объём преступного применения ИИ связан с созданием запрещённого контента с детьми, а также с мошенничеством. «Речь идёт о тысячах изображений, созданных с помощью генеративного ИИ», — подчеркнул он. «Любые такие изображения незаконны, но преступники используют ИИ для их создания».

ИИ также используется для новых схем онлайн-шантажа: преступники могут манипулировать фотографиями и вымогать деньги у жертв, угрожая распространением изменённых изображений.

Кроме того, ИИ помогает злоумышленникам искать уязвимости в программном обеспечении и определять точки для кибератак. «Большинство преступлений с ИИ связано с мошенничеством и незаконным контентом, но потенциальных угроз много», — отметил Мюррей.

Потенциальные риски чат-ботов и радикализации ⚠️

Существуют опасения, что, несмотря на кажущуюся безобидность, чат-боты могут побуждать людей к незаконным действиям. Джонатан Холл, независимый эксперт правительства по вопросам законодательства о безопасности, изучал использование ИИ террористическими группами и отметил угрозу «радикализации через чат-боты», а также генерацию пропаганды и помощь в планировании атак. Он подчеркнул, что создание подобных ботов с популярными платформами оказалось «очень простым».

Холл предупредил: «Даже если мы точно не знаем, как генеративный ИИ будет использоваться злоумышленниками, нам нужно общее понимание этой технологии и готовность действовать, а не отмахиваться: „Слишком сложно“».

Будущее и вызовы для правоохранителей 🚓

Мюррей отметил, что с развитием ИИ и появлением новых программ для генерации текста и изображений его использование преступниками будет расти. «Сейчас можно определить, где изображение сгенерировано ИИ, но со временем это станет почти невозможно», — предупредил он.

Он добавил, что в ближайшие годы ожидается увеличение числа преступлений с применением ИИ, и задача полиции — предотвратить их рост. «Лёгкость использования, реалистичность и доступность технологий — три фактора, которые, вероятно, приведут к увеличению угроз. Нам нужно быстро действовать, чтобы держать ситуацию под контролем», — подчеркнул Мюррей.

ИИ открывает большие возможности для общества, но одновременно требует внимания и ответственности, чтобы технологии не использовались во вред людям. ⚖️

Для ответа вы можете авторизоваться