Британский институт по безопасности ИИ должен задавать стандарты, а не проверять всё самостоятельно 🤖📊
Британский институт по безопасности искусственного интеллекта (AI Safety Institute, AISI) должен сосредоточиться на разработке глобальных стандартов тестирования ИИ, а не пытаться проверять все модели самостоятельно. Такое мнение высказал Марк Уорнер, генеральный директор компании Faculty AI, которая сотрудничает с институтом.
По словам Уорнера, институт может оказаться «под давлением», если будет пытаться проверять множество ИИ-моделей, включая технологии, лежащие в основе чат-ботов вроде ChatGPT. Правительство Великобритании создало институт в преддверии глобального саммита по безопасности ИИ, где крупнейшие технологические компании согласились сотрудничать с ЕС и десятью странами, включая Великобританию, США, Францию и Японию, в тестировании продвинутых моделей ИИ до и после их запуска.
Уорнер отметил, что институт должен стать мировым лидером именно в разработке стандартов тестирования. «Важно задавать стандарты для всего мира, а не пытаться делать всё самому», — сказал он.
Он добавил, что технология развивается очень быстро, и институту стоит внедрять стандарты, которые смогут использовать другие правительства и компании. Например, метод «red teaming», когда специалисты моделируют неправильное использование ИИ-модели, позволяет выявлять потенциальные риски без необходимости тестировать каждую модель самостоятельно.
«Если пытаться проверять всё самому, может образоваться очередь, и у института просто не хватит ресурсов на все модели», — подчеркнул Уорнер. По его словам, создание общих стандартов позволит другим компаниям и правительствам проводить тесты в соответствии с этими нормами, что является более масштабируемым и долгосрочным подходом к безопасности ИИ.
Институт уже сделал «отличный старт» и будет фокусироваться на самых передовых системах ИИ, признавая, что проверка всех существующих моделей невозможна.
Подписанты добровольного соглашения о тестировании включают Google, OpenAI, Microsoft и другие крупные компании. В США также создаётся институт по безопасности ИИ, который будет участвовать в тестировании моделей, а Белый дом объявил о консорциуме для разработки стандартов, включая водяные знаки для контента, созданного ИИ.
Представитель британского департамента науки, инноваций и технологий отметил: «Правительства по всему миру должны играть ключевую роль в тестировании ИИ. Великобритания ведёт этот процесс через первый в мире Институт безопасности ИИ, который проводит исследования, тестирования и делится знаниями, повышая общий уровень понимания безопасности ИИ». 🌍✅