Пост

Илoн Маск поддержал призыв к паузе в создании «гигантских» ИИ 🧠🤖

Более 1 000 экспертов и исследователей в области искусственного интеллекта (ИИ) подписали открытое письмо с призывом приостановить разработку «гигантских» ИИ на срок не менее шести месяцев. Цель — изучить возможности и потенциальные риски систем вроде GPT-4 и разработать меры для их безопасного применения. Среди подписантов — Илoн Маск, один из сооснователей OpenAI, Emad Mostaque из Stability AI и Стив Возняк, сооснователь Apple.

В письме говорится: «В последние месяцы лаборатории ИИ участвуют в неконтролируемой гонке по созданию всё более мощных цифровых умов, которые никто — даже их создатели — полностью не понимает, не может предсказать и надёжно контролировать. Мощные ИИ должны разрабатываться только тогда, когда мы уверены в положительном влиянии и управляемости рисков».

Авторы письма, при поддержке исследовательского центра Future of Life Institute, ссылаются на самого сооснователя OpenAI Сэма Альтмана, который ранее писал о важности независимого анализа и ограничения ресурсов, используемых для обучения новых моделей ИИ. «Мы согласны. Этот момент настал», — отмечается в письме.

Эксперты подчеркивают, что речь не о полной остановке развития ИИ, а о том, чтобы временно приостановить создание огромных моделей с непредсказуемыми возможностями. Если исследователи не сделают этого добровольно, в письме предлагается, чтобы правительства вмешались.

С выпуском GPT-4 OpenAI добавила системе новые возможности с помощью «плагинов»: поиск информации в интернете, планирование поездок и даже оформление заказов на продукты. Однако существует проблема «непредсказуемой мощности»: модели могут оказаться мощнее, чем предполагается на момент выпуска. Новые методы взаимодействия с ИИ, например запросы «в стиле эксперта», позволяют системе точнее решать сложные задачи.

Призыв к строгому регулированию резко контрастирует с недавним белым докладом правительства Великобритании по регулированию ИИ, который не вводит новых полномочий, ограничиваясь рекомендациями существующим регуляторам и пятью принципами для оценки ИИ.

Представители исследовательского института Ada Lovelace и оппозиционная партия Labour критиковали подход правительства, указывая на значительные пробелы и риск того, что новые технологии будут интегрированы в повседневную жизнь быстрее, чем будет налажено их безопасное регулирование.

⚠️ Главная идея: эксперты призывают замедлить гонку по созданию мощных ИИ, чтобы изучить их влияние и минимизировать риски, пока технологии активно интегрируются в повседневную жизнь.

Для ответа вы можете авторизоваться