Руководители OpenAI призывают к регулированию ИИ, чтобы обезопасить человечество 🤖🌍
Лидеры OpenAI, компании-разработчика ChatGPT, выступили за создание международного регулирования «суперинтеллектуальных» систем ИИ, предупреждая о возможном риске, что такие технологии могут представлять угрозу для человечества. По их мнению, нужен орган, аналогичный Международному агентству по атомной энергии, который бы контролировал развитие ИИ и снижал потенциальный «экзистенциальный риск».
В заявлении на сайте компании сооснователи Грег Брокман и Илья Сутскевер, а также генеральный директор Сэм Альтман, предложили создать международного регулятора, который мог бы:
- проверять системы ИИ;
- требовать аудиты и тестирование на соответствие стандартам безопасности;
- ограничивать использование и уровень развертывания технологий.
«Возможно, уже в ближайшие 10 лет ИИ превзойдёт уровень экспертов в большинстве областей и будет выполнять работу, сопоставимую с деятельностью крупнейших современных корпораций», — пишут они.
Лидеры OpenAI подчёркивают, что суперинтеллект станет более мощным инструментом, чем любые технологии, с которыми человечество сталкивалось ранее. Он способен принести огромные выгоды, но также несёт серьёзные риски.
В краткосрочной перспективе они предлагают координацию между компаниями, работающими с передовым ИИ, чтобы развитие технологий интегрировалось в общество безопасным образом. Это может быть реализовано через государственные проекты или соглашения о контроле скорости роста возможностей ИИ.
Возможные риски
Американский Центр безопасности ИИ (CAIS) выделяет несколько типов угроз:
- Экзистенциальный риск — полное разрушение человечества, случайно или намеренно.
- «Ослабление» человека — чрезмерное делегирование труда ИИ может сделать людей полностью зависимыми от машин.
- «Централизация власти» — небольшой круг людей может контролировать мощные системы, создавая вечное разделение между управляющими и управляемыми.
OpenAI подчёркивает, что общество должно участвовать в демократическом определении границ и правил для ИИ, хотя пока не существует чётких механизмов для реализации такого контроля.
Перспективы и предостережения
Несмотря на риски, лидеры компании считают, что развитие ИИ стоит продолжать:
«Это приведёт к миру гораздо лучше, чем мы можем себе представить сегодня. Уже сейчас мы видим положительные примеры в образовании, творчестве и личной продуктивности».
Они предупреждают, что приостановка разработки может быть опасной: технологии развиваются быстро, количество компаний, создающих ИИ, растёт, а затраты на его создание ежегодно снижаются. Полная остановка потребовала бы глобального надзора, что не гарантирует успеха.
Таким образом, по мнению OpenAI, правильное управление развитием ИИ — ключ к безопасному и процветающему будущему человечества. 🌟