Первые компании подписались на стандарты безопасности ИИ перед саммитом в Сеуле 🤖🌐
За день до саммита в Сеуле, премьер-министр Великобритании Риши Сунак сообщил, что первые 16 компаний подписались на добровольные стандарты безопасности искусственного интеллекта, представленные на саммите в Блетчли-Парке. Эти стандарты направлены на повышение прозрачности, обмен информацией, инвестиции в кибербезопасность и приоритетные исследования социальных рисков, связанных с ИИ.
«Эти обязательства гарантируют, что ведущие компании в области ИИ будут предоставлять прозрачную информацию о своих планах по разработке безопасного ИИ. Это создаёт прецедент для глобальных стандартов безопасности ИИ, что позволит раскрыть потенциал этой технологии», — отметил Сунак.
Среди первых подписантов — китайская Zhipu.ai и Technology Innovation Institute из ОАЭ. Британское правительство отмечает, что участие компаний из стран, менее готовых к строгому регулированию, является преимуществом «мягкого подхода».
Министр технологий Великобритании Мишель Донелан подчеркнула, что саммит в Сеуле расширяет дискуссию о безопасности ИИ на глобальном уровне:
«Мы собрали представителей со всего мира, что демонстрирует: процесс действительно мобилизует компании, не только в отдельных странах, но и во всех регионах планеты, чтобы серьёзно решать этот вопрос».
Однако эксперты предупреждают: добровольный характер стандартов несёт риск игнорирования их компаниями. Фран Беннетт, временный директор Института Ады Лавлейс, отметила:
«Размышления о безопасности — это хорошо, но компании сами решают, что безопасно, а что нет, и добровольно выбирают, что делать. Сейчас нужны реальные механизмы контроля: регулирование и институты, способные оценивать ситуацию с позиции людей, а не только компаний».
Критика также коснулась отсутствия прозрачности данных для обучения моделей ИИ. Даже при соблюдении стандартов компании могут скрывать данные, на которых обучают свои алгоритмы, несмотря на известные риски предвзятости или неполноты источников. Донелан считает, что национальные институты безопасности ИИ имеют достаточный доступ для проверки моделей, и поэтому раскрытие данных не является обязательным.
OpenAI, также подписавшая стандарты, заявила, что это важный шаг к более широкому внедрению безопасных практик для передовых систем ИИ. Анна Маканджу, вице-президент компании по глобальным вопросам, подчеркнула:
«Сфера безопасности ИИ быстро развивается, и мы рады поддержать акцент стандартов на совершенствовании подходов вместе с научным прогрессом».
Присутствие подписантов из Китая и ОАЭ рассматривается как подтверждение лидерства Великобритании в вопросах безопасности ИИ, поскольку инициатива США вряд ли выглядела бы нейтральной и привлекла бы столь широкую поддержку.
Во вторник вечером Сунак совместно с президентом Южной Кореи Юн Сук Ёль провёл закрытую виртуальную встречу с мировыми лидерами и представителями бизнеса. В обсуждении участвовали, в том числе, Камала Харрис, Эммануэль Макрон, Ник Клегг и Илон Маск. Обсуждались дальнейшие шаги по развитию науки безопасности ИИ.
Полный список компаний, подписавших стандарты безопасности ИИ:
- Amazon
- Anthropic
- Cohere
- Google / Google DeepMind
- G42
- IBM
- Inflection AI
- Meta✱
- Microsoft
- Mistral AI
- Naver
- OpenAI
- Samsung Electronics
- Technology Innovation Institute
- xAI
- Zhipu.ai
📊 Стандарты пока добровольные, но задают ориентир для глобальной координации в области безопасного развития ИИ.
* Упомянутые организации запрещены на территории РФ