Пост

Великобритании нужен реестр инцидентов с ИИ для повышения безопасности 🤖📊

Британским властям рекомендовано создать систему учёта случаев неправильного использования и сбоев искусственного интеллекта (ИИ), чтобы не оставаться в неведении о потенциально серьёзных инцидентах. Об этом говорится в отчёте аналитического центра Centre for Long-Term Resilience (CLTR).

CLTR предлагает ввести механизм регистрации инцидентов с ИИ в государственных службах и рассмотреть возможность создания центрального хаба, который собирал бы информацию о таких событиях по всей стране. По мнению экспертов, опыт авиации и медицины показывает, что система учёта инцидентов помогает быстро выявлять и минимизировать риски в критически важных областях.

Отчёт отмечает, что с 2014 года СМИ зафиксировали около 10 000 случаев «опасного использования» ИИ, включая физический, экономический, репутационный и психологический вред. Среди примеров — ошибки в чат-ботах, некорректное отображение исторических данных в моделях ИИ, сбои автономных автомобилей и другие ситуации, где ИИ мог причинить неудобства или ущерб.

Томми Шаффер Шейн, менеджер по политике CLTR и автор отчёта, подчеркнул: «Регистрация инцидентов сыграла ключевую роль в управлении рисками в авиации и медицине. Сейчас подобной системы в сфере ИИ практически нет, и это ограничивает способность правительства реагировать на возникающие проблемы».

Аналитики предлагают три конкретных шага:

  1. Создать государственную систему для регистрации инцидентов ИИ в публичных службах.
  2. Поручить британским регуляторам выявить пробелы в учёте инцидентов.
  3. Рассмотреть пилотный проект базы данных инцидентов ИИ, объединяющей информацию от существующих организаций, таких как авиационный контроль, информационный уполномоченный и регулятор медицинских препаратов.

Отчёт подчёркивает, что такая система поможет отслеживать сбои ИИ, координировать быстрые реакции на серьёзные инциденты и выявлять ранние признаки потенциального ущерба в будущем. Кроме того, механизм учёта будет поддерживать работу Центральной функции оценки рисков ИИ (CAIRF) в Министерстве науки, инноваций и технологий Великобритании.

Создание прозрачной и эффективной системы учёта инцидентов с ИИ позволит правительству своевременно получать достоверные данные и повышать безопасность при внедрении новых технологий в общественные службы.

Для ответа вы можете авторизоваться