Пост

Компании по разработке ИИ призваны оценивать риски сверхинтеллекта 🤖⚖️

Учёные призывают компании, создающие искусственный интеллект, рассчитывать потенциальные риски перед запуском сверхмощных систем. По мнению Макса Тегмарка, эксперта по безопасности ИИ, разработчики должны провести расчёты, аналогичные тем, что применялись при первом ядерном испытании «Тринити» в 1945 году, чтобы оценить вероятность того, что ИИ выйдет из-под контроля человека.

В совместной работе Тегмарка и трёх студентов Массачусетского технологического института (MIT) предлагается вычислить так называемую «константу Комптона» — вероятность того, что гипотетический ИИ с уровнем интеллекта, превосходящим человеческий во всех аспектах, сможет обойти контроль человека. По словам Тегмарка, одной уверенности разработчиков недостаточно: необходимо математически оценить процент вероятности.

Эксперт подчеркнул, что согласованные расчёты нескольких компаний помогут выработать «политическую волю» для создания глобальных правил безопасности в области ИИ. Тегмарка также отмечают как одного из соучредителей Future of Life Institute, организации, поддерживающей безопасное развитие ИИ. В 2023 году институт опубликовал открытое письмо с призывом приостановить создание мощных ИИ-систем. Под письмом подписались более 33 000 человек, включая известных предпринимателей и специалистов в области технологий.

Помимо этого, группа экспертов разработала Сингапурский консенсус по приоритетам исследований безопасности ИИ. Документ выделяет три основные области: оценка воздействия существующих и будущих ИИ-систем, разработка правил поведения ИИ и создание механизмов контроля за поведением систем.

По словам Тегмарка, после недавнего международного саммита по ИИ обсуждение вопросов безопасности снова стало центральным, а международное сотрудничество в области безопасного развития технологий возобновилось.

С учётом стремительного развития искусственного интеллекта подобные меры помогают обеспечивать его безопасное и ответственное внедрение в различные сферы жизни.

Для ответа вы можете авторизоваться