Великобритания и США усиливают контроль за развитием ИИ 🤖🌐
Великобритания и США предприняли шаги по регулированию быстро развивающейся индустрии искусственного интеллекта. Британский антимонопольный орган (CMA) начал обзор сектора, а Белый дом подчеркнул ответственность компаний за создание безопасных продуктов.
Регуляторы оказывают давление на технологические компании, поскольку появление генераторов текста на базе ИИ, таких как ChatGPT, вызывает опасения по поводу распространения недостоверной информации, мошенничества и влияния на рынок труда. Более 30 000 подписантов, включая Илона Маска, призвали приостановить реализацию крупных проектов.
CMA заявила, что изучит базовые системы — так называемые «фундаментальные модели» — лежащие в основе ИИ-инструментов. Первые результаты обзора будут опубликованы в сентябре. В тот же день США объявили о мерах по снижению рисков, связанных с ИИ, а вице-президент Камала Харрис встретилась с руководителями ведущих компаний отрасли. Белый дом подчеркнул, что разработчики несут «этическую, моральную и юридическую ответственность за безопасность своих продуктов».
Эксперты предупреждают, что ИИ способен сильно повлиять на устоявшиеся отрасли. Джофри Хинтон, один из «крестных отцов ИИ», ушёл из Google, чтобы свободнее обсуждать потенциальные угрозы технологии. Бывший научный советник правительства Великобритании сэр Патрик Валланс отметил, что влияние ИИ на занятость может быть сопоставимо с эффектом промышленной революции.
Глава CMA Сара Карделл отметила, что ИИ может «трансформировать» конкуренцию среди компаний, при этом необходимо защищать потребителей от недостоверной информации и мошенничества. ChatGPT и Bard иногда предоставляют некорректные данные, а технологии генерации голоса вызывают опасения по поводу голосовых мошенничеств.
CMA изучит, как будут развиваться рынки фундаментальных моделей, какие возможности и риски они несут для потребителей и конкуренции, и разработает «руководящие принципы» для защиты интересов пользователей.
Лидерами рынка остаются Microsoft, OpenAI и Alphabet (владелец DeepMind в Великобритании). Среди стартапов выделяются Anthropic и британская Stability AI, разработавшая Stable Diffusion. Юристы отмечают, что усиление регуляторного внимания сигнализирует о необходимости тщательной оценки при агрессивной разработке ИИ.
В США Харрис обсудила с руководителями OpenAI, Alphabet и Microsoft меры для обеспечения безопасности ИИ. Белый дом также анонсировал инвестиции в размере 140 млн долларов на создание семи национальных исследовательских институтов ИИ для развития «этичного, прозрачного и полезного для общества» искусственного интеллекта.
Большая часть разработок ИИ контролируется частными компаниями, и только ограниченные возможности предоставляются для использования моделей широкой публике. В то же время проекты с открытым исходным кодом позволяют любому использовать, улучшать и адаптировать модели. Как отметил Кристоф Шуман из Laion, «открытый ИИ более безопасен, доступен и демократичен».
Таким образом, усилия США и Великобритании направлены на создание безопасной среды для развития ИИ, защиту пользователей и стимулирование конкуренции, одновременно поддерживая инициативы с открытым исходным кодом. 🌍💡