Пост

Риски ИИ нужно воспринимать так же серьёзно, как климатический кризис 🌍🤖

Мир должен относиться к рискам, связанным с искусственным интеллектом, так же серьёзно, как к климатическим изменениям, и нельзя откладывать ответ на них, предупреждает один из ведущих специалистов в этой области. Демис Хассабис, глава Google DeepMind, считает, что надзор за ИИ можно начать с создания структуры, похожей на Межправительственную панель по изменению климата (IPCC).

«Мы должны воспринимать риски ИИ наравне с другими глобальными вызовами, такими как изменение климата», — говорит Хассабис. «Мировое сообщество слишком долго откладывало действия по климату, и мы ощущаем последствия этого. С ИИ нельзя допустить той же ошибки».

Потенциал и опасности

Хассабис отмечает, что ИИ может стать одной из самых важных и полезных технологий, когда-либо созданных, открывая новые возможности в медицине, науке и повседневной жизни. Его команда разработала такие прорывные проекты, как AlphaGo, обыгравшая лучших игроков в настольную игру Го, и AlphaFold, предсказывающий 3D-структуры белков, что помогает создавать новые лекарства и изучать болезни.

Однако, по его словам, ИИ несёт и потенциальные риски, включая:

  • помощь в создании биологических угроз;
  • угрозу от сверхинтеллектуальных систем, способных действовать автономно;
  • возможность использования ИИ для кибератак и дезинформации.

Международное сотрудничество и контроль

Хассабис предлагает начать с международной научной панели, которая бы проводила исследования и публиковала отчёты, подобно IPCC, а затем развивать институты, аналогичные CERN и МАГАТЭ, для глобального мониторинга безопасности ИИ. Он подчёркивает, что прямых аналогий с существующими структурами нет, но уроки из них полезны.

Ближайшие шаги

На саммите по безопасности ИИ 1–2 ноября в Блетчли-парке, где во время Второй мировой войны работали известные криптографы, включая Алана Тьюринга, обсуждаются:

  • угроза биологическим и кибер-атакам;
  • контроль над продвинутыми ИИ-системами;
  • создание международных стандартов и тестов для новых моделей.

Хассабис также планирует внедрить систему сертификации безопасности ИИ, аналогичную Kitemark, для проверки моделей на соответствие стандартам перед их выпуском. Британия уже создала taskforce Frontier AI, разрабатывающую рекомендации по тестированию передовых систем, которые могут стать международным ориентиром.

📌 Итог: ИИ обещает огромные возможности для науки и медицины, но одновременно требует тщательного контроля и международного сотрудничества, чтобы минимизировать риски и безопасно интегрировать технологии в общество.

Для ответа вы можете авторизоваться