Пост

Огромные амбиции и скорость: что стояло за увольнением и возвращением Сэма Альтмана в OpenAI 🤯💻

На этой неделе технологический мир был потрясён событиями вокруг OpenAI: резкое увольнение и столь же неожиданное возвращение генерального директора Сэма Альтмана. Эксперты по искусственному интеллекту отмечают, что эти события показывают, насколько молода отрасль, насколько сильно Silicon Valley стремится быть первой, и поднимают важные вопросы о безопасности технологий.

По словам Рэйида Гани, профессора машинного обучения в Carnegie Mellon University: «Современный искусственный интеллект ещё незрелый. Нет стандартов, профессиональных органов или сертификатов. Каждая компания устанавливает свои внутренние нормы, и несколько людей, создающих технологии, оказывают непропорциональное влияние на весь сектор».

Конфликт между Альтманом и советом директоров OpenAI начался с внезапного заявления о его увольнении за якобы недостаточную откровенность в общении с советом. Минимум внимания при этом уделялось даже крупнейшему инвестору компании — Microsoft, вложившей около \$13 млрд. Временным генеральным директором была назначена технический директор OpenAI Мира Муратти, а вскоре на пост вступил бывший CEO Twitch Эмметт Шир. Альтман вернулся в штаб-квартиру для переговоров, а Microsoft объявила, что он возглавит новую исследовательскую группу по ИИ.

Реакция сотрудников была мгновенной: более 95% работников OpenAI подписали открытое письмо, угрожая массовым уходом, если Альтмана не вернут. Среди подписавших были и Муратти, и Илья Сутскевер, которого многие считали инициатором увольнения. К середине недели Альтман снова стал CEO, а совет директоров компании был обновлён.

Эксперты указывают, что в отсутствие регулирования индивидуальные решения руководителей ИИ-компаний приобретают чрезмерное значение. Отсутствие прозрачности и публичного контроля над разработками, такими как ChatGPT и DALL·E, создаёт риск непредсказуемого влияния на пользователей. Рэйид Гани подчеркнул: «Нужно иметь инструменты для постоянного тестирования и оценки ИИ, чтобы снижать риски. В противном случае общество зависит от того, насколько компетентны создатели».

Пол Барретт из Нью-Йоркского университета добавил, что борьба за контроль в OpenAI демонстрирует нестабильность отрасли и показывает, что важные решения о безопасности ИИ не должны зависеть от корпоративных споров: «Огромные деньги и амбиции играют роль. Решения о безопасности нельзя оставлять на усмотрение отдельных людей».

Идеологическое противостояние также проявилось в разделении сотрудников на «ускорителей» (акселерационистов), сторонников быстрого внедрения ИИ, и «замедлителей» (декелерационистов), которые выступают за осторожное развитие с усиленными предохранителями. Возвращение Альтмана укрепило позиции ускорителей, что, по мнению экспертов, может означать более активное продвижение исследований в OpenAI и, возможно, более рискованный подход к внедрению технологий.

Пока же события вокруг OpenAI ставят перед обществом и инвесторами вопрос: насколько можно доверять компаниям, создающим ИИ, если внутри них даже ключевые фигуры и процессы остаются непрозрачными?

💡 Итог: конфликт внутри OpenAI показал важность прозрачности, контроля и ответственности в стремительно развивающейся отрасли искусственного интеллекта. Скорость инноваций и масштаб амбиций должны сочетаться с безопасностью и вниманием к пользователям.

Для ответа вы можете авторизоваться