Пост

Саммит в Сеуле показывает прогресс Великобритании в обеспечении безопасности передовых ИИ-моделей 🤖🌐

Великобритания возглавляет международные усилия по тестированию самых современных моделей искусственного интеллекта (ИИ) на предмет рисков для безопасности до их выхода в общественный доступ. Регуляторы спешат создать эффективный режим безопасности к саммиту в Париже, который состоится через шесть месяцев.

Британский Институт безопасности ИИ (AI Safety Institute) стал первым в мире государственным органом, специализирующимся на безопасности передовых ИИ-технологий ради общественного блага. Теперь ему появились аналогичные организации по всему миру: в Южной Корее, США, Сингапуре, Японии и Франции.

На саммите в Сеуле регуляторы надеются, что институты смогут сотрудничать и создать глобальную систему, подобную Монреальскому протоколу, который регулировал использование веществ, разрушающих озоновый слой. Прежде чем это произойдёт, институты должны согласовать совместные подходы и превратить международный «пачкотный» набор правил в единое усилие по контролю за исследованиями ИИ.

Министр технологий Великобритании Мишель Донелан заявила в Сеуле: «На Bletchley мы объявили о создании Британского института безопасности ИИ — первой в мире государственной организации, посвящённой безопасному использованию передового ИИ для общественного блага. Эффект Bletchley вдохновил создание глобальной сети аналогичных институтов».

Эти организации будут обмениваться информацией о моделях, их ограничениях, возможностях и рисках, а также отслеживать инциденты, связанные с ИИ, и совместно использовать ресурсы для развития глобального понимания науки о безопасности ИИ. Донелан подчеркнула, что создание сети — лишь первый шаг: «Мы не можем почивать на лаврах. Темп развития ИИ ускоряется, и мы должны соответствовать ему, чтобы контролировать риски и использовать неограниченные возможности для общества».

Сеть институтов безопасности имеет жёсткий срок: этой осенью лидеры снова встретятся в Париже на первом полном саммите по ИИ после Bletchley. Там, чтобы перейти от тестирования ИИ-моделей к их регулированию, институты должны продемонстрировать освоение «начинающейся науки тестирования и оценки передового ИИ», как выразилась Донелан.

Джек Кларк, сооснователь и глава отдела политики лаборатории ИИ Anthropic, отметил, что создание функционального института безопасности ставит Великобританию «на сотни миль вперёд» по сравнению с ситуацией два года назад. Он добавил, что необходимо продолжать инвестировать средства и привлекать специалистов, чтобы институты могли создавать собственные данные и доказательства.

В рамках этих усилий Донелан объявила о выделении £8,5 млн на «новаторские исследования» в области тестирования безопасности ИИ. Франсин Беннетт, временный директор Института Ады Лавлейс, назвала это хорошим началом, подчеркнув, что программа должна быть расширена для изучения социальных и системных рисков: «Радостно видеть, что институт безопасности и правительство смотрят шире на вопрос безопасности — не ограничиваясь лабораторными тестами».

Однако саммит подвергся критике за отсутствие ключевых голосов. Южнокорейские общественные организации не участвовали, страна была представлена только через академию, государство и промышленность, а приглашены были лишь крупнейшие компании в сфере ИИ.

Роеланд Декорт, президент Ассоциации основателей ИИ, предупредил, что обсуждения рискуют сосредоточиться лишь на крупных моделях, доступных немногим крупным игрокам: «Вопрос в том, хотим ли мы регулировать и создавать основу для будущей зрелой экономики ИИ, которая обеспечит устойчивую работу большинства компаний в этой сфере».

Для ответа вы можете авторизоваться