Письмо с просьбой приостановить разработку ИИ вызвало споры 🤖✉️
Письмо, подписанное Илоном Маском и более чем 1,800 участниками, с призывом приостановить исследования в области искусственного интеллекта (ИИ) на шесть месяцев, вызвало бурную дискуссию. Некоторые исследователи, чьи работы были упомянуты в письме, осудили использование их данных, часть подписантов оказалась фиктивной, а другие отказались от поддержки.
Документ, опубликованный 22 марта, призывал приостановить создание систем ИИ «мощнее GPT-4». Среди подписантов были Маск, когнитивный учёный Гэри Маркус и сооснователь Apple Стив Возняк, а также инженеры из Amazon, DeepMind, Google, Microsoft. Письмо утверждало, что такие системы с «интеллектом, сравнимым с человеческим», могут представлять серьёзные риски для общества.
Авторы письма предлагали использовать паузу для совместной разработки и внедрения стандартов безопасности при создании ИИ, с независимой проверкой внешними экспертами. Инициатива была координирована исследовательским центром Future of Life Institute (FLI), который ссылается на 12 научных работ, включая исследования сотрудников OpenAI и DeepMind.
Однако ряд экспертов выразил обеспокоенность тем, что их работы использованы неправильно. Некоторые известные учёные, включая Яна Лекуна и Си Цзиньпина, оказались в числе «подписантов», хотя фактически не поддерживали письмо. Критики обвиняют FLI в акценте на гипотетических катастрофических сценариях вместо более насущных вопросов, таких как предвзятость ИИ.
Одной из обсуждаемых статей была «On the Dangers of Stochastic Parrots», соавтором которой является Маргарет Митчелл. Она и её коллеги, Тимнит Гебру и Эмили Бендер, критиковали письмо, указывая на неопределённость формулировки «мощнее GPT-4» и на то, что актуальные риски ИИ игнорируются.
Шири Дори-Хакохен из Университета Коннектикута также отметила, что современное использование ИИ уже несёт серьёзные риски, включая влияние на решения по вопросам экологии и безопасности, без необходимости достижения «человеческого уровня интеллекта».
Президент FLI Макс Тегмарк заявил, что и краткосрочные, и долгосрочные риски ИИ следует воспринимать всерьёз. Он уточнил, что упоминание исследователя в письме не означает, что тот поддерживает весь документ.
Письмо привлекло внимание к вопросам регулирования ИИ и необходимости осторожного подхода к разработке высокомощных систем, вызывая активное обсуждение в научном сообществе и СМИ 🌐.