Илону Маску и экспертам по ИИ предлагают приостановить разработку «гигантских» цифровых мозгов 🤖⏸️
Более 1 000 специалистов, исследователей и инвесторов в области искусственного интеллекта подписали открытое письмо с призывом к немедленной приостановке разработки «гигантских» ИИ-систем как минимум на шесть месяцев. Цель — изучить возможности и потенциальные риски моделей, подобных GPT-4, и принять меры для их безопасного использования.
Среди подписавших письмо — Илон Маск, соучредитель OpenAI, разработчика ChatGPT и GPT-4; Эмад Мостаки, основатель лондонской Stability AI; Стив Возняк, соучредитель Apple; инженеры Amazon, DeepMind, Google, Microsoft и Meta✱; а также учёные, включая когнитивного исследователя Гэри Маркуса.
«В последние месяцы лаборатории ИИ ведут неконтролируемую гонку по созданию и внедрению всё более мощных цифровых разумов, которые никто — даже их создатели — не в состоянии полностью понять или надёжно контролировать», — говорится в письме. «Мощные ИИ-системы должны разрабатываться только тогда, когда мы уверены, что их влияние будет положительным, а риски — управляемыми».
Авторы письма, скоординированные исследовательским центром Future of Life Institute, ссылаются на соучредителя OpenAI Сэма Альтмана, который ранее рекомендовал независимый аудит перед запуском новых систем и контроль над масштабированием вычислительных ресурсов для обучения моделей.
Если разработчики не приостановят работу над ИИ, более мощным, чем GPT-4, «правительствам следует вмешаться», добавляют авторы. При этом речь идёт не о полном запрете ИИ, а о паузе в гонке по созданию «чёрных ящиков» с непредсказуемыми возможностями.
С момента выхода GPT-4 OpenAI добавляет новые функции через «плагины», позволяющие системе искать данные в интернете, планировать поездки и даже оформлять покупки. Но компания сталкивается с проблемой «непредсказуемого потенциала»: возможности модели могут быть шире, чем известно на момент релиза.
Эксперты подчеркивают, что строгая регуляция ИИ необходима, в отличие от подхода правительства Великобритании, которое недавно представило «белую книгу» по регулированию ИИ, не вводя новых полномочий. Вместо этого планируется координация существующих органов, таких как Управление по конкуренции и безопасности, с пятью принципами использования ИИ.
Критики, включая Институт Ады Лавлейс, заявляют, что подход правительства недостаточен для решения масштабных проблем: «Сроки реализации составляют год и более, что оставляет риски без внимания, пока ИИ активно внедряется в повседневную жизнь», — отмечает Майкл Бёртвисл, руководитель направления права и политики ИИ в институте.
Лейбористы также выразили критику: теневой министр по культуре Люси Пауэлл заявила, что такие меры будут вводиться слишком медленно, в то время как системы вроде ChatGPT и Google Bard уже становятся частью нашей повседневной жизни.
Призыв экспертов к паузе — попытка обеспечить безопасное развитие ИИ и предотвратить возможные негативные последствия новых мощных технологий. ⚠️🤖
* Упомянутые организации запрещены на территории РФ