Пост

США усиливают меры для безопасного развития ИИ 🤖🇺🇸

Белый дом объявил о шагах по снижению рисков, связанных с неконтролируемым развитием искусственного интеллекта, встречаясь с руководителями ведущих компаний отрасли. Президент Джо Байден и вице-президент Камала Харрис обсудили с топ-менеджерами Google, Microsoft и OpenAI необходимость безопасного использования ИИ.

В заявлении правительства США подчеркивается, что компании, разрабатывающие технологии, несут «фундаментальную ответственность за безопасность своих продуктов до их запуска или публичного использования». Возрастают опасения, что неконтролируемое развитие ИИ частными компаниями может угрожать рабочим местам, повышать риск мошенничества и нарушать конфиденциальность данных.

В рамках программы поддержки Белый дом планирует инвестировать \$140 млн в создание семи новых национальных исследовательских институтов ИИ, ориентированных на развитие «этичного, надежного и безопасного ИИ, который служит общественным интересам». Разработка ИИ в основном сосредоточена в частном секторе: в прошлом году было создано 32 значимые модели машинного обучения против трёх, разработанных академическим сообществом.

Лидеры отрасли также согласились на публичную оценку своих систем на конференции по кибербезопасности Defcon 31. В числе участников — OpenAI, Google, Microsoft и британская компания Stability AI, создавшая генератор изображений Stable Diffusion. Белый дом подчеркнул, что «это независимое исследование предоставит критически важную информацию для исследователей и общественности о влиянии этих моделей».

После встречи вице-президент Харрис отметила, что технологические достижения всегда несут как риски, так и возможности, и генеративный ИИ — продукты вроде ChatGPT и Stable Diffusion — не исключение. Она подчеркнула, что частный сектор имеет «этическую, моральную и юридическую ответственность за безопасность своих продуктов».

Кроме того, Офис управления и бюджета США опубликует проект рекомендаций по использованию ИИ в правительственных структурах. В октябре прошлого года Белый дом представил концепцию «Права на ИИ», призывающую к защите от небезопасных систем, регулярному мониторингу и предотвращению злоупотребления данными.

Роберт Вайссман, президент организации по защите прав потребителей Public Citizen, оценил инициативу как «полезный шаг», но отметил необходимость более решительных мер, включая временный мораторий на внедрение новых генеративных технологий. «Крупным технологическим компаниям нужно помочь избежать самоуничтожения. Они понимают риски, но участвуют в гонке и не могут замедлиться», — сказал он.

Аналогичные меры предпринимает и Великобритания: антимонопольный орган CMA начал обзор моделей, лежащих в основе продуктов вроде ChatGPT и конкурирующего чат-бота Bard. На прошлой неделе один из «крестных отцов ИИ», британский учёный Джеффри Хинтон, покинул Google, чтобы свободнее обсуждать потенциальные опасности технологий.

Таким образом, США и Великобритания стремятся создать безопасные условия для развития ИИ, обеспечивая контроль, этические стандарты и защиту пользователей. 🌐💡

Для ответа вы можете авторизоваться