Пост

Крупные IT-компании согласовали меры безопасности для ИИ на фоне быстрых изменений 🤖🛡️

Ведущие игроки в сфере искусственного интеллекта, включая Amazon, Google, Microsoft, OpenAI и другие, договорились о введении новых мер безопасности для быстро развивающихся технологий, сообщил Джо Байден в пятницу. Среди предложенных инициатив — водяные знаки на материалах, созданных ИИ, чтобы их легче было идентифицировать, и тестирование технологий сторонними организациями для выявления потенциально опасных уязвимостей.

На пресс-конференции в Белом доме Байден отметил, что обязательства компаний «реальны и конкретны» и помогут «развивать безопасные, надёжные и заслуживающие доверия технологии, полезные для общества». Президент подчеркнул, что ИИ открывает «невероятные возможности», но также несёт риски для экономики и общества.

Добровольные обязательства включают восемь пунктов:

  • Применение водяных знаков к аудио- и видеоконтенту, созданному ИИ, для его идентификации.
  • Проведение «красных командных» тестов — попыток выявить плохое поведение моделей независимыми экспертами.
  • Обмен информацией о безопасности и доверии с правительством и другими компаниями.
  • Инвестиции в меры кибербезопасности.
  • Стимулирование сторонних организаций к поиску уязвимостей.
  • Сообщение о социальных рисках, таких как неправильное использование и предвзятость моделей.
  • Приоритетное исследование общественных рисков ИИ.
  • Использование самых передовых систем ИИ для решения важнейших социальных проблем.

Эти меры добровольные и не имеют юридической силы, но призваны служить временной гарантией безопасности, пока разрабатываются более жёсткие законы. Критики, однако, считают, что этого недостаточно: такие инициативы больше похожи на саморегулирование и не обеспечивают реальной ответственности компаний за соблюдение стандартов.

«Необходимо более широкое общественное обсуждение, включающее темы, на которые компании, скорее всего, не согласятся добровольно, — это вопросы конкуренции и возможная дискриминация», — отмечает Амба Как из AI Now Institute. По словам Кейтрионы Фицджеральд из Epic, опыт с социальными сетями показывает, что подобное самоконтролирование часто превращается в формальность без реального эффекта.

В то же время некоторые лидеры индустрии поддержали инициативу Белого дома. Ассоциация BSA, включающая Microsoft, заявила, что приветствует усилия по регулированию высокорисковых систем ИИ и готова сотрудничать с правительством и Конгрессом для создания законов, которые обеспечат баланс между рисками и преимуществами технологий.

На международном уровне Европейский союз разрабатывает собственное законодательство по ИИ с жёсткими требованиями к защите прав потребителей и предотвращению предвзятости моделей. Генеральный секретарь ООН Антониу Гутерриш также выступил за создание глобальных стандартов и отметил, что к концу года будет представлен доклад с предложениями по международному управлению ИИ.

🤔 Эти шаги демонстрируют, что развитие ИИ требует сочетания инноваций и ответственности, а добровольные меры компаний — лишь первый шаг на пути к безопасной и этичной интеграции технологий в повседневную жизнь.

Для ответа вы можете авторизоваться