Илoн Маск поддержал призыв к паузе в создании «гигантских» ИИ 🧠🤖
Более 1 000 экспертов и исследователей в области искусственного интеллекта (ИИ) подписали открытое письмо с призывом приостановить разработку «гигантских» ИИ на срок не менее шести месяцев. Цель — изучить возможности и потенциальные риски систем вроде GPT-4 и разработать меры для их безопасного применения. Среди подписантов — Илoн Маск, один из сооснователей OpenAI, Emad Mostaque из Stability AI и Стив Возняк, сооснователь Apple.
В письме говорится: «В последние месяцы лаборатории ИИ участвуют в неконтролируемой гонке по созданию всё более мощных цифровых умов, которые никто — даже их создатели — полностью не понимает, не может предсказать и надёжно контролировать. Мощные ИИ должны разрабатываться только тогда, когда мы уверены в положительном влиянии и управляемости рисков».
Авторы письма, при поддержке исследовательского центра Future of Life Institute, ссылаются на самого сооснователя OpenAI Сэма Альтмана, который ранее писал о важности независимого анализа и ограничения ресурсов, используемых для обучения новых моделей ИИ. «Мы согласны. Этот момент настал», — отмечается в письме.
Эксперты подчеркивают, что речь не о полной остановке развития ИИ, а о том, чтобы временно приостановить создание огромных моделей с непредсказуемыми возможностями. Если исследователи не сделают этого добровольно, в письме предлагается, чтобы правительства вмешались.
С выпуском GPT-4 OpenAI добавила системе новые возможности с помощью «плагинов»: поиск информации в интернете, планирование поездок и даже оформление заказов на продукты. Однако существует проблема «непредсказуемой мощности»: модели могут оказаться мощнее, чем предполагается на момент выпуска. Новые методы взаимодействия с ИИ, например запросы «в стиле эксперта», позволяют системе точнее решать сложные задачи.
Призыв к строгому регулированию резко контрастирует с недавним белым докладом правительства Великобритании по регулированию ИИ, который не вводит новых полномочий, ограничиваясь рекомендациями существующим регуляторам и пятью принципами для оценки ИИ.
Представители исследовательского института Ada Lovelace и оппозиционная партия Labour критиковали подход правительства, указывая на значительные пробелы и риск того, что новые технологии будут интегрированы в повседневную жизнь быстрее, чем будет налажено их безопасное регулирование.
⚠️ Главная идея: эксперты призывают замедлить гонку по созданию мощных ИИ, чтобы изучить их влияние и минимизировать риски, пока технологии активно интегрируются в повседневную жизнь.