Бывший исследователь OpenAI критикует компанию: «Яркие продукты важнее безопасности» 🤖⚠️
Бывший старший сотрудник OpenAI, занимающийся безопасностью искусственного интеллекта, заявил, что компания делает приоритет на «яркие продукты», а не на безопасность, и покинул организацию после конфликта по ключевым вопросам.
Ян Лайке, ранее один из руководителей направления суперсогласования (superalignment) в OpenAI, отвечал за то, чтобы мощные системы ИИ соответствовали человеческим ценностям и целям. Он ушёл вскоре после запуска нового ИИ-модуля GPT-4o, став второй высокопоставленной фигурой по безопасности, покинувшей компанию за неделю после отставки сооснователя OpenAI Ильи Сутскевера.
В публикации в X Лайке отметил, что «культура безопасности и соответствующие процессы отошли на второй план ради ярких продуктов». Он подчеркнул, что компания должна уделять больше ресурсов вопросам безопасности, социального воздействия, конфиденциальности и защиты данных в следующем поколении моделей ИИ.
«Создание машин, умнее человека, само по себе опасно. OpenAI несёт огромную ответственность перед всем человечеством», — написал Лайке, добавив, что OpenAI должна стать компанией, где безопасность стоит на первом месте.
Генеральный директор OpenAI Сэм Альтман ответил в X, поблагодарив Лайке за вклад в культуру безопасности компании и подтвердив, что работы в этой области ещё много. Сутскевер также выразил уверенность, что OpenAI создаст безопасный и полезный ИИ под текущим руководством.
В это время международная группа экспертов по ИИ опубликовала первый отчёт о безопасности ИИ, отметив разногласия относительно того, могут ли мощные системы ИИ выйти из-под контроля человека. Эксперты предупреждают, что регуляторы могут отставать от быстрых технологических изменений, что создаёт риск несоответствия между развитием технологий и скоростью регулирования.