Крупные IT-компании согласовали меры безопасности для ИИ на фоне быстрых изменений 🤖🛡️
Ведущие игроки в сфере искусственного интеллекта, включая Amazon, Google, Microsoft, OpenAI и другие, договорились о введении новых мер безопасности для быстро развивающихся технологий, сообщил Джо Байден в пятницу. Среди предложенных инициатив — водяные знаки на материалах, созданных ИИ, чтобы их легче было идентифицировать, и тестирование технологий сторонними организациями для выявления потенциально опасных уязвимостей.
На пресс-конференции в Белом доме Байден отметил, что обязательства компаний «реальны и конкретны» и помогут «развивать безопасные, надёжные и заслуживающие доверия технологии, полезные для общества». Президент подчеркнул, что ИИ открывает «невероятные возможности», но также несёт риски для экономики и общества.
Добровольные обязательства включают восемь пунктов:
- Применение водяных знаков к аудио- и видеоконтенту, созданному ИИ, для его идентификации.
- Проведение «красных командных» тестов — попыток выявить плохое поведение моделей независимыми экспертами.
- Обмен информацией о безопасности и доверии с правительством и другими компаниями.
- Инвестиции в меры кибербезопасности.
- Стимулирование сторонних организаций к поиску уязвимостей.
- Сообщение о социальных рисках, таких как неправильное использование и предвзятость моделей.
- Приоритетное исследование общественных рисков ИИ.
- Использование самых передовых систем ИИ для решения важнейших социальных проблем.
Эти меры добровольные и не имеют юридической силы, но призваны служить временной гарантией безопасности, пока разрабатываются более жёсткие законы. Критики, однако, считают, что этого недостаточно: такие инициативы больше похожи на саморегулирование и не обеспечивают реальной ответственности компаний за соблюдение стандартов.
«Необходимо более широкое общественное обсуждение, включающее темы, на которые компании, скорее всего, не согласятся добровольно, — это вопросы конкуренции и возможная дискриминация», — отмечает Амба Как из AI Now Institute. По словам Кейтрионы Фицджеральд из Epic, опыт с социальными сетями показывает, что подобное самоконтролирование часто превращается в формальность без реального эффекта.
В то же время некоторые лидеры индустрии поддержали инициативу Белого дома. Ассоциация BSA, включающая Microsoft, заявила, что приветствует усилия по регулированию высокорисковых систем ИИ и готова сотрудничать с правительством и Конгрессом для создания законов, которые обеспечат баланс между рисками и преимуществами технологий.
На международном уровне Европейский союз разрабатывает собственное законодательство по ИИ с жёсткими требованиями к защите прав потребителей и предотвращению предвзятости моделей. Генеральный секретарь ООН Антониу Гутерриш также выступил за создание глобальных стандартов и отметил, что к концу года будет представлен доклад с предложениями по международному управлению ИИ.
🤔 Эти шаги демонстрируют, что развитие ИИ требует сочетания инноваций и ответственности, а добровольные меры компаний — лишь первый шаг на пути к безопасной и этичной интеграции технологий в повседневную жизнь.