Попытки регулировать ИИ: Сеульский саммит выявил сложные вопросы ⚙️🤖
После исторического саммита по искусственному интеллекту в Блетчли-Парке в 2023 году, который впервые серьёзно привлёк внимание к регулированию ИИ, в Сеуле на этой неделе прошёл его продолжение. Главный вопрос: могут ли страны, такие как Великобритания и Южная Корея, перейти от разговоров о регулировании ИИ к конкретным действиям?
Одним из ключевых достижений саммита стало создание глобальной сети институтов по безопасности ИИ. Эти институты будут обмениваться информацией о моделях ИИ, их ограничениях, рисках и случаях потенциального вреда. Как отметила британский министр по технологиям Мишель Донелан, институты позволят государствам наблюдать за разработками ИИ и выявлять потенциальные угрозы.
Эксперты отмечают, что новые институты ограничены в своих возможностях — они в основном наблюдают и сообщают о нарушениях, не имея полномочий напрямую регулировать отрасль. Но уже сам факт публичного тестирования моделей может заставить компании действовать более ответственно. Как сказал Джек Кларк из AI-лаборатории Anthropic: «Даже простое наблюдение может менять поведение компаний. Никто не хочет быть в конце списка».
Одной из проблем, поднятых на саммите, стало определение того, какие системы ИИ подлежат регулированию. В США и ЕС вводятся «пороги вычислительных мощностей» для моделей, которые требуют наблюдения, что создаёт чёткую границу между компаниями. Однако эксперты считают, что в будущем внимание будет смещено не только на размер модели, но и на количество пользователей, с которыми она взаимодействует.
Саммит также выявил фундаментальный разрыв во мнениях: нужно ли регулировать сами технологии ИИ или только их использование? Некоторые специалисты, включая бывшего руководителя Google Brain Эндрю Нга, считают, что регулирование ИИ как технологии сложно, и правильнее сосредоточиться на безопасных сферах применения, например, в здравоохранении или авиации.
Тем не менее, другие эксперты предупреждают о глобальных рисках мощных ИИ-систем, сравнивая их с историей создания ядерного реактора. Профессор Массачусетского технологического института Макс Тегмарк подчеркнул, что потенциальная опасность «сверхинтеллектуального» ИИ должна оставаться в центре внимания.
Министр Донелан пояснила, что одним из ключевых направлений регулирования является включение всех потенциальных рисков, чтобы создать более безопасную и ответственную экосистему ИИ. Однако эксперты, такие как Кларк, отмечают, что при попытке охватить слишком многое эффективность действий снижается, и важно находить баланс между амбициями и реалистичными результатами.
Саммит в Сеуле показал, что регулирование ИИ — сложная задача, требующая международного сотрудничества, прозрачности и балансировки между инновациями и безопасностью. 🌐⚡