Пост

Еврокомиссар: дискриминация в ИИ опаснее, чем гипотетическая «гибель человечества» 🤖⚠️

Искусственный интеллект чаще всего обсуждают в контексте футуристических рисков, однако настоящая опасность может быть куда ближе и прозаичнее. По словам еврокомиссара по конкуренции Маргрете Вестагер, главная проблема технологий ИИ — не воображаемая угроза существованию человечества, а риск дискриминации пользователей.

Почему это важно 💡

Вестагер подчеркнула, что вероятность глобальной катастрофы от ИИ невелика, зато несправедливое использование алгоритмов уже становится заметным. Особенно тревожно, когда такие системы применяются в критически важных сферах — например, при решении вопроса о выдаче ипотеки 🏦 или при обращении граждан за социальными услугами 🏥.

«Реальная опасность в том, что людей будут оценивать не по их реальным качествам, а по стереотипам, встроенным в алгоритмы», — отметила она.

Предвзятые алгоритмы 📊

В Великобритании регуляторы изучают, не проявляют ли системы искусственного интеллекта скрытую предвзятость при рассмотрении заявок на работу. Специалисты опасаются, что если данные, на которых обучаются алгоритмы, отражают искажённую картину, то и результаты решений будут несправедливыми.

Дискуссии вокруг рисков ⚖️

Некоторые эксперты считают, что разговоры о «глобальной угрозе» отвлекают внимание от более насущных проблем — дезинформации, предвзятых решений и непрозрачности алгоритмов.

Вестагер также подчеркнула, что идеи о заморозке развития ИИ, которые периодически звучат в экспертной среде, практически невозможно реализовать. По её словам, регулирование должно носить международный характер, однако достичь глобального консенсуса в стиле ООН будет крайне сложно.

Как регулируют ИИ в ЕС 🏛️

Европейский союз уже готовит законодательство, которое разделяет технологии на четыре уровня риска:

  • ❌ неприемлемый риск,
  • ⚠️ высокий риск,
  • ⚪ ограниченный риск,
  • ✅ минимальный риск.

Системы, которые отвечают за кредитные рейтинги или работу государственных служб, автоматически попадают в категорию «высокого риска» и должны будут соответствовать строгим требованиям.

Случай с чат-ботами 💬

Практика показывает, что вопросы регулирования уже встают на повестку. Так, Ирландская комиссия по защите данных приостановила запуск чат-бота Bard от Google в Европе, заявив о нехватке информации о том, как сервис будет соответствовать нормам по защите данных. Похожая ситуация возникала и раньше, когда один из чат-ботов был временно ограничен другим европейским регулятором по тем же причинам.

Что дальше? 🔮

По мнению Вестагер, ждать единой международной системы регулирования не стоит — действовать нужно уже сегодня. Создание чётких правил внутри ЕС должно стать примером для других регионов и помочь сделать ИИ безопасным, прозрачным и справедливым для всех пользователей 🌍✨.

Для ответа вы можете авторизоваться