Sunak объявил о создании британского института безопасности ИИ, но отказался поддержать мораторий 🤖🏛️
Премьер-министр Великобритании Риши Сунак объявил о создании института по безопасности искусственного интеллекта, который станет первым в мире и будет тестировать новые типы ИИ на предмет различных рисков — от распространения дезинформации до потенциальных угроз на глобальном уровне. При этом он отказался поддержать предложение о временном моратории на разработку передовых моделей ИИ.
Сунак заявил, что институт «позволит продвинуть мировые знания о безопасности ИИ» и тщательно изучит, оценит и протестирует новые модели, чтобы понять, на что каждая из них способна. Институт будет исследовать все возможные риски: от социальных проблем, таких как предвзятость и дезинформация, до потенциально экстремальных угроз.
Прототип института уже существует в виде британской рабочей группы по передовым моделям ИИ, созданной в этом году для проверки безопасности самых современных разработок. Сунак подчеркнул, что приостановка разработки мощных моделей в данный момент невозможна. На вопрос о поддержке моратория на создание так называемого искусственного общего интеллекта (AGI) он ответил: «Это непрактично и невозможно обеспечить соблюдение. Великобритания всегда поддерживала инновации, и я считаю, что это правильный подход».
Мировой интерес к безопасности ИИ возрос после открытого письма, подписанного тысячами специалистов, в том числе Илоном Маском, с призывом приостановить разработку крупных моделей на шесть месяцев. Сунак отметил, что пока неизвестно, примет ли участие Китай, хотя Пекину направили приглашение вместе с технологическими компаниями, экспертами и другими мировыми лидерами.
В мероприятии подтвердило участие вице-президента США Камалы Харрис, которая выступит с речью о подходе США к ИИ 1 ноября, а 2 ноября присоединится к двухдневному саммиту в Великобритании. Сунак проведет встречи с небольшой группой международных партнёров, компаний и экспертов для обсуждения конкретных шагов по снижению рисков, связанных с ИИ.
В опубликованном недавно правительственном документе о рисках ИИ говорится, что существующие угрозы включают возможность создания биологического оружия, массового производства дезинформации и серьёзного влияния на рынок труда. Сунак отметил, что сценарий возникновения «суперинтеллектуальной» системы, которая выйдет из-под контроля человека, вызывает разногласия среди экспертов и может никогда не реализоваться, однако крупные разработчики ИИ уже выражали обеспокоенность такими рисками.
Премьер подчеркнул, что даже маловероятные угрозы необходимо учитывать серьёзно: «Когда многие ведущие разработчики этой технологии предупреждают о рисках, лидеры обязаны действовать».
Кроме того, Сунак предложил создать международную экспертную группу по ИИ, аналогичную Межправительственной панели по изменению климата, чтобы публиковать отчёты о состоянии науки и безопасности в области искусственного интеллекта. 🌍📊