Пост

Австралия готовит регулирование ИИ: возможности и риски 🤖⚖️

Австралийское правительство изучает вопросы регулирования искусственного интеллекта (ИИ), чтобы использование технологий было безопасным и ответственным. Министр промышленности и науки Эд Хьюзик на этой неделе представил проект консультационного документа с предложениями мер по контролю над ИИ. Он отметил, что с появлением генеративного ИИ, такого как ChatGPT, технологии развиваются ускоренными темпами, и обществу важно понимать, как это влияет на безопасность и повседневную жизнь.

Какие виды ИИ вызывают наибольшую обеспокоенность?

Главное внимание уделяется генеративному ИИ — системам, которые создают тексты, изображения, аудио и код на основе больших массивов данных. Сюда относятся:

  • Большие языковые модели (LLM), как ChatGPT, для генерации текста;
  • Мультимодальные модели (MfM), которые создают текст, звук и изображения;
  • Системы автоматизированного принятия решений, где ИИ участвует в выборе действий или решений.

Основные риски и опасения ⚠️

  • Фейковые материалы и дезинформация: генеративный ИИ может создавать поддельные изображения, видео и аудио, которые люди могут принять за реальные. Например, AI-сгенерированное фото Папы в дизайнерской куртке стало популярным мемом. Более опасные случаи — изображения событий, которые никогда не происходили, как, например, AI-генерированная картинка взрыва возле Пентагона, которая активно распространялась в соцсетях.
  • «Галлюцинации» ИИ: генеративные модели иногда цитируют несуществующие источники или выдуманную информацию. Некоторые компании пытаются снизить этот риск, добавляя ссылки на достоверные источники.
  • Алгоритмическая предвзятость: если данные для обучения неполные или не репрезентативные, решения ИИ могут быть несправедливыми. Например, при отборе сотрудников алгоритм может отдавать предпочтение мужчинам перед женщинами.

Как понять, что ИИ работает неправильно?

Прозрачность работы ИИ — ключевой способ контроля. Важно раскрывать, на каких данных обучалась модель, какие алгоритмы используются, чтобы оценить возможные ошибки и предвзятость.

Нужны ли новые законы? 📜

Правительство отмечает, что многие риски уже регулируются существующими законами — в области конфиденциальности, защиты прав потребителей, онлайн-безопасности, конкуренции, авторского права и недискриминации. Любые изменения будут направлены на устранение пробелов в текущих правилах. Например:

  • Комиссар по информации Австралии уже использовал закон о конфиденциальности против Clearview AI за использование фото людей без разрешения;
  • Австралийская комиссия по конкуренции и защите прав потребителей (ACCC) успешно подавала в суд на Trivago за недостоверные результаты поиска отелей, предоставленные алгоритмом.

Есть ли положительные стороны? 🌟

Помимо рисков, ИИ приносит и выгоду:

  • Поддержка роста производительности в экономике;
  • Использование в медицине для обработки больших массивов данных пациентов и анализа медицинских изображений;
  • Оптимизация инженерных проектов и снижение затрат на юридические услуги.

Австралия стремится создать современные законы для современных технологий, чтобы ИИ приносил пользу обществу, минимизируя риски и обеспечивая безопасность пользователей. ✅

Для ответа вы можете авторизоваться