Пост

Компании по ИИ «не готовы» к рискам создания систем уровня человека 🤖⚠️

Группа по безопасности искусственного интеллекта предупреждает, что ведущие компании ИИ «фундаментально не готовы» к последствиям создания систем с интеллектом на уровне человека. Согласно отчёту Future of Life Institute (FLI), ни одна из фирм, включённых в их индекс безопасности, не получила оценку выше D по показателю «планирования экзистенциальной безопасности».

Одна из пяти экспертов, участвовавших в обзоре FLI, отметила, что несмотря на стремление разработать искусственный общий интеллект (AGI), ни одна компания не представила «согласованного и практического плана» по обеспечению безопасности и контролируемости таких систем. AGI — это гипотетический этап развития ИИ, когда система способна выполнять любую интеллектуальную задачу на уровне человека.

OpenAI, создатель ChatGPT, заявляет, что его миссия — обеспечить пользу AGI для всего человечества. Активисты по безопасности ИИ предупреждают, что AGI может представлять экзистенциальную угрозу, если выйдет из-под контроля человека.

Отчёт FLI подчёркивает: «Индустрия принципиально не готова к собственным заявленным целям. Компании утверждают, что достигнут AGI в течение десятилетия, но ни одна не получила выше D по планированию экзистенциальной безопасности».

Индекс оценивал семь разработчиков ИИ — Google DeepMind, OpenAI, Anthropic, Meta✱, xAI, а также китайские Zhipu AI и DeepSeek — по шести направлениям, включая «текущие риски» и «экзистенциальную безопасность». Наивысшую оценку получила Anthropic (C+), за ней следует OpenAI © и Google DeepMind (C-).

FLI — это некоммерческая организация из США, занимающаяся безопасным развитием передовых технологий. Фонд получает независимое финансирование от предпринимателя Виталика Бутерина. Ещё одна организация, SaferAI, также выпустила отчёт, предупреждая о «слабой или крайне слабой практике управления рисками» в компаниях, занимающихся передовым ИИ, и назвав текущий подход «неприемлемым».

Оценки FLI были присвоены и проверены экспертной группой, в которую вошли британский учёный Стюарт Рассел и Снеха Реванур, основатель группы Encode Justice по регулированию ИИ. Макс Тегмарк, соучредитель FLI и профессор MIT, отметил, что удивительно, что компании стремятся создавать сверхинтеллектуальные системы без опубликованных планов по управлению последствиями. Он сравнил ситуацию с «строительством огромной атомной станции в Нью-Йорке без плана предотвращения аварии».

По словам Тегмарка, технологии развиваются быстрее, чем ожидалось. Новые модели ИИ, такие как Grok 4 от xAI, Gemini 2.5 от Google и видео-генератор Veo3, демонстрируют значительные улучшения по сравнению с предыдущими версиями.

Представитель Google DeepMind заявил, что отчёты не учитывают «все усилия компании по безопасности ИИ» и добавил: «Наш комплексный подход к безопасности ИИ выходит далеко за рамки того, что отражено в отчётах».

OpenAI, Anthropic, Meta✱, xAI, Zhipu AI и DeepSeek также были приглашены к комментариям.

Этот доклад подчёркивает важность ответственного подхода к созданию интеллектуальных систем будущего и необходимость продуманного управления рисками на всех этапах развития. ⚡📊

        * Упомянутые организации запрещены на территории РФ
Для ответа вы можете авторизоваться