Пост

Искусственный интеллект как вызов национальной безопасности: чего стоит опасаться 🤖⚠️

Эксперты по вопросам безопасности предупреждают, что искусственный интеллект (ИИ) может представлять серьёзные риски для общества, если его развитие не будет контролироваться с учётом возможного злоупотребления технологией.

Джонатан Холл, независимый эксперт по оценке законодательства в области безопасности, отметил, что создатели ИИ слишком часто сосредоточены на положительных сторонах технологии и игнорируют, как она может быть использована недобросовестными людьми. «Нужно заранее учитывать, как могут действовать злоумышленники и закладывать защиту от этих сценариев», — подчеркнул он.

Особое внимание вызывают чат-боты и алгоритмы генерации текста, которые могут взаимодействовать с уязвимыми пользователями. Холл отмечает, что ИИ способен быстро влиять на людей, особенно подростков или людей с повышенной внушаемостью, создавая риск неправильного использования технологии.

В Великобритании в ответ на эти вызовы активно развивается сотрудничество между MI5 и Алан Тьюринг Институтом, ведущей организацией по данным и искусственному интеллекту. Исследователи изучают, как новые технологии могут использоваться в неблаговидных целях, и разрабатывают меры по минимизации угроз.

Александр Бланшар, специалист по цифровой этике, подчеркнул, что правительство серьёзно относится к вопросам безопасности и стремится понимать риски и потенциальные угрозы при использовании ИИ. Основная задача — сохранить контроль человека над искусственным интеллектом и встроить защитные механизмы прямо в технологию.

Недавние примеры показывают, насколько быстро люди могут подвергаться радикальному влиянию через цифровые платформы. Эксперты указывают на необходимость прозрачности со стороны компаний-разработчиков ИИ, включая данные о количестве сотрудников, модераторов и мерах контроля за безопасностью пользователей.

Также обсуждаются вопросы создания новых законов для регулирования автономных систем и роботизированных устройств с ИИ, способных принимать решения самостоятельно. Холл отмечает: «Важно понимать, что законы о преступлениях и безопасности пока ориентированы на действия человека, а не машины».

В заключение, специалисты подчёркивают, что ИИ приносит огромные возможности, но одновременно требует внимательного контроля и продуманной стратегии, чтобы технология не использовалась во вред людям. 🚀🛡️

Для ответа вы можете авторизоваться