Профессор из Великобритании: министры недостаточно контролируют развитие ИИ 🤖⚠️
Один из ведущих специалистов в области искусственного интеллекта (ИИ) выразил серьёзную обеспокоенность тем, что власти пока не предпринимают достаточных мер для контроля над будущими «сверхинтеллектуальными» системами. Профессор Стюарт Рассел, один из признанных экспертов и преподаватель Калифорнийского университета в Беркли, заявил, что правительство проявляет недостаточную активность в регулировании отрасли, несмотря на возможные риски.
Рассел отметил, что такие системы, как ChatGPT, могут стать частью машин с уровнем интеллекта, который будет сложно контролировать. «Как сохранить контроль над сущностями, более мощными, чем вы сами, на постоянной основе?» — спрашивает профессор. Он подчеркнул, что если нет ответа на этот вопрос, стоит приостановить исследования, так как ставки крайне высоки: контроль над собственным будущим цивилизации напрямую зависит от разумного регулирования.
После выпуска ChatGPT общественность и эксперты начали активно обсуждать долгосрочные риски технологий ИИ, включая возможные последствия для образования, работы и творчества. Ранее более 1 000 специалистов, включая Илона Маска и Стива Возняка, подписали письмо, в котором предупреждали о «бесконтрольной гонке» в лабораториях ИИ и призывали временно приостановить разработку масштабных систем, которые могут быть непредсказуемыми и неконтролируемыми даже для их создателей.
Отдельное внимание уделяется потенциальным военным и стратегическим приложениям ИИ. Профессор Рассел напомнил, что работал с ООН над мониторингом договоров о запрете ядерных испытаний и предупреждает: «Потеря контроля — это реалистичный и крайне серьёзный сценарий». По его словам, текущий подход правительства Великобритании к регулированию ИИ выглядит слишком мягким: отрасль встречают «как автомобильную индустрию», недооценивая уникальные риски.
Эксперт также отметил опасность создания систем, которые имитируют человеческое поведение и имеют собственные цели: «Вы фактически тренируете ИИ достигать целей, схожих с человеческими, и можно лишь представить, насколько катастрофичными могут быть последствия, если такие системы станут слишком мощными».
Рассел подчеркивает, что регулирование ИИ должно быть превентивным, а технологии должны создаваться исключительно для пользы человека, чтобы избежать нежелательных конкурирующих «разумов». 🌐🛡️