Мир не готов к прорывам в области ИИ, предупреждают эксперты 🤖🌍
Мир не готов к прорывным достижениям в области искусственного интеллекта, считают эксперты, включая двух «крестных отцов» ИИ, которые предупреждают, что правительства недостаточно продвинулись в регулировании этой технологии.
Группа из 25 ведущих специалистов, включая Джеффри Хинтона и Йошуа Бенжио — двух из трех «крестных отцов» ИИ, удостоившихся премии Тьюринга (аналог Нобелевской премии в области информатики), утверждает, что переход технологических компаний к автономным системам может «масштабно усилить» влияние ИИ. Они подчеркивают, что для этого нужны системы безопасности, которые активируют регуляторные меры, если продукция достигнет определенного уровня возможностей.
Эти рекомендации были опубликованы в академической статье под названием «Управление экстремальными рисками ИИ на фоне быстрого прогресса», выпущенной в журнале Science. В статье говорится, что правительственные структуры должны ввести более жесткие требования, если технологии будут развиваться слишком быстро, а также увеличить финансирование недавно созданных институтов по безопасности ИИ в Великобритании и США. Предлагается обязать технологические компании проводить более тщательные проверки рисков и ограничить использование автономных ИИ-систем в ключевых сферах общества.
«Ответ общества, несмотря на первые многообещающие шаги, не соответствует возможным последствиям быстрого и трансформирующего прогресса, который ожидается многими экспертами», — говорится в статье. «Исследования в области безопасности ИИ отстают. Современные инициативы по управлению недостаточно обеспечены механизмами и институтами для предотвращения злоупотреблений и небрежности, и едва касаются автономных систем».
Глобальный саммит по безопасности ИИ, который прошел в прошлом году в Блетчли-Парке в Великобритании, заключил добровольное соглашение о тестировании с технологическими компаниями, включая Google и Microsoft. В Европейском Союзе был принят акт об ИИ, а в США был подписан указ, который установил новые требования по безопасности ИИ.
Тем не менее, авторы статьи утверждают, что передовые ИИ-системы, способные выполнять задачи, обычно ассоциируемые с умными существами, могут как помочь в лечении болезней и повышении уровня жизни, так и создать угрозу для социальной стабильности и привести к автоматизированным войнам.
Особую тревогу вызывает стремление технологических компаний развивать автономные системы ИИ, которые могут действовать без вмешательства человека. «Компании переключились на разработку универсальных ИИ-систем, которые могут действовать самостоятельно и достигать целей. Увеличение возможностей и автономии таких систем может существенно усилить воздействие ИИ, включая риски социальных разрушений, злоупотреблений и утрату человеческого контроля над автономными ИИ-системами», — предупреждают эксперты.
Следующим этапом развития коммерческого ИИ являются так называемые «агентные» системы, которые могут самостоятельно выполнять задачи, например, бронировать отпуск. На прошлой неделе две технологические компании продемонстрировали примеры таких систем: OpenAI с GPT-4o, который может вести разговоры в реальном времени, и проект Astra от Google, способный распознавать местоположения с помощью камеры смартфона и создавать фразы с аллитерациями.
Среди других авторов статьи — известный автор Юваль Ной Харари, лауреат Нобелевской премии по экономике Даниэль Канеман, профессор университета Торонто Шейла Макилрат и профессор Калифорнийского университета в Беркли Дон Сонг.
Хотя многие обеспокоены возможностью того, что ИИ заменит людей в творческих профессиях, в сфере социального ухода в Великобритании работает около 1,6 миллиона человек, и 152 000 вакансий остаются незаполненными.