Пост

Компании, создающие ИИ, должны отвечать за возможный вред, предупреждают ведущие эксперты 🤖⚖️

Мощные системы искусственного интеллекта требуют серьёзного контроля, и компании-разработчики должны нести ответственность за возможный вред, который их продукты могут причинить, предупреждают ведущие мировые эксперты, в том числе два признанных «крёстных отцов» ИИ.

В преддверии глобального саммита по безопасности ИИ в Bletchley Park эксперты представили рекомендации по регулированию отрасли. Стюарт Расселл, профессор Калифорнийского университета в Беркли, отметил:
«Эти системы не игрушки. Увеличивать их возможности, не понимая, как обеспечить их безопасность, крайне рискованно».

Он добавил, что на ИИ действуют меньше правил, чем на обычные предприятия, например, на сэндвич-шопы.

Основные рекомендации экспертов

Документ содержит ряд предложений для правительств и компаний:

  • Треть ресурсов на исследования и разработку ИИ выделять на безопасное и этичное использование систем;
  • Обеспечить доступ независимых аудиторов к лабораториям ИИ;
  • Ввести систему лицензирования для создания передовых моделей;
  • Компании должны применять меры безопасности, если обнаружены опасные функции в их ИИ;
  • Сделать разработчиков юридически ответственными за предсказуемый и предотвратимый вред от их ИИ.

Среди авторов документа — Джеффри Хинтон и Йошуа Бенжио, лауреаты премии ACM Turing, а также Юваль Ной Харари, Даниэль Канеман и другие ведущие учёные.

Возможные риски ИИ

Эксперты предупреждают, что неосторожно разработанные системы могут:

  • Усилить социальную несправедливость;
  • Подорвать эффективность профессий;
  • Снизить социальную стабильность;
  • Создать возможности для масштабных преступлений;
  • Нарушить общее понимание реальности, на котором строится общество.

Современные системы ИИ уже показывают возможности автономного планирования и выполнения целей. Например, GPT-4 может проектировать и проводить химические эксперименты, использовать веб-ресурсы и управлять другими программами.

Эксперты призывают к мерам, включая:

  • Обязательную отчётность о случаях тревожного поведения ИИ;
  • Контроль за самовоспроизведением моделей;
  • Право регуляторов приостанавливать разработку моделей с опасным поведением.

Разные точки зрения

Некоторые эксперты считают, что страхи об угрозе для человечества преувеличены. Ян ЛеКун, главный учёный по ИИ в одной из крупнейших технологических компаний, назвал идею уничтожения человечества ИИ «невероятной».

Тем не менее, авторы документа настаивают: если передовые автономные системы появятся сейчас, мир не будет готов гарантировать их безопасность или проводить надёжное тестирование. Большинство стран пока не имеют институтов для предотвращения неправильного использования ИИ и обеспечения безопасных практик.

📌 Вывод: Контроль за ИИ и ответственность разработчиков — ключевой шаг к безопасному развитию технологий, способных трансформировать нашу жизнь.

Для ответа вы можете авторизоваться