Компании, создающие ИИ, должны отвечать за возможный вред, предупреждают ведущие эксперты 🤖⚖️
Мощные системы искусственного интеллекта требуют серьёзного контроля, и компании-разработчики должны нести ответственность за возможный вред, который их продукты могут причинить, предупреждают ведущие мировые эксперты, в том числе два признанных «крёстных отцов» ИИ.
В преддверии глобального саммита по безопасности ИИ в Bletchley Park эксперты представили рекомендации по регулированию отрасли. Стюарт Расселл, профессор Калифорнийского университета в Беркли, отметил:
«Эти системы не игрушки. Увеличивать их возможности, не понимая, как обеспечить их безопасность, крайне рискованно».
Он добавил, что на ИИ действуют меньше правил, чем на обычные предприятия, например, на сэндвич-шопы.
Основные рекомендации экспертов
Документ содержит ряд предложений для правительств и компаний:
- Треть ресурсов на исследования и разработку ИИ выделять на безопасное и этичное использование систем;
- Обеспечить доступ независимых аудиторов к лабораториям ИИ;
- Ввести систему лицензирования для создания передовых моделей;
- Компании должны применять меры безопасности, если обнаружены опасные функции в их ИИ;
- Сделать разработчиков юридически ответственными за предсказуемый и предотвратимый вред от их ИИ.
Среди авторов документа — Джеффри Хинтон и Йошуа Бенжио, лауреаты премии ACM Turing, а также Юваль Ной Харари, Даниэль Канеман и другие ведущие учёные.
Возможные риски ИИ
Эксперты предупреждают, что неосторожно разработанные системы могут:
- Усилить социальную несправедливость;
- Подорвать эффективность профессий;
- Снизить социальную стабильность;
- Создать возможности для масштабных преступлений;
- Нарушить общее понимание реальности, на котором строится общество.
Современные системы ИИ уже показывают возможности автономного планирования и выполнения целей. Например, GPT-4 может проектировать и проводить химические эксперименты, использовать веб-ресурсы и управлять другими программами.
Эксперты призывают к мерам, включая:
- Обязательную отчётность о случаях тревожного поведения ИИ;
- Контроль за самовоспроизведением моделей;
- Право регуляторов приостанавливать разработку моделей с опасным поведением.
Разные точки зрения
Некоторые эксперты считают, что страхи об угрозе для человечества преувеличены. Ян ЛеКун, главный учёный по ИИ в одной из крупнейших технологических компаний, назвал идею уничтожения человечества ИИ «невероятной».
Тем не менее, авторы документа настаивают: если передовые автономные системы появятся сейчас, мир не будет готов гарантировать их безопасность или проводить надёжное тестирование. Большинство стран пока не имеют институтов для предотвращения неправильного использования ИИ и обеспечения безопасных практик.
📌 Вывод: Контроль за ИИ и ответственность разработчиков — ключевой шаг к безопасному развитию технологий, способных трансформировать нашу жизнь.