Еврокомиссар: дискриминация в ИИ опаснее, чем гипотетическая «гибель человечества» 🤖⚠️
Искусственный интеллект чаще всего обсуждают в контексте футуристических рисков, однако настоящая опасность может быть куда ближе и прозаичнее. По словам еврокомиссара по конкуренции Маргрете Вестагер, главная проблема технологий ИИ — не воображаемая угроза существованию человечества, а риск дискриминации пользователей.
Почему это важно 💡
Вестагер подчеркнула, что вероятность глобальной катастрофы от ИИ невелика, зато несправедливое использование алгоритмов уже становится заметным. Особенно тревожно, когда такие системы применяются в критически важных сферах — например, при решении вопроса о выдаче ипотеки 🏦 или при обращении граждан за социальными услугами 🏥.
«Реальная опасность в том, что людей будут оценивать не по их реальным качествам, а по стереотипам, встроенным в алгоритмы», — отметила она.
Предвзятые алгоритмы 📊
В Великобритании регуляторы изучают, не проявляют ли системы искусственного интеллекта скрытую предвзятость при рассмотрении заявок на работу. Специалисты опасаются, что если данные, на которых обучаются алгоритмы, отражают искажённую картину, то и результаты решений будут несправедливыми.
Дискуссии вокруг рисков ⚖️
Некоторые эксперты считают, что разговоры о «глобальной угрозе» отвлекают внимание от более насущных проблем — дезинформации, предвзятых решений и непрозрачности алгоритмов.
Вестагер также подчеркнула, что идеи о заморозке развития ИИ, которые периодически звучат в экспертной среде, практически невозможно реализовать. По её словам, регулирование должно носить международный характер, однако достичь глобального консенсуса в стиле ООН будет крайне сложно.
Как регулируют ИИ в ЕС 🏛️
Европейский союз уже готовит законодательство, которое разделяет технологии на четыре уровня риска:
- ❌ неприемлемый риск,
- ⚠️ высокий риск,
- ⚪ ограниченный риск,
- ✅ минимальный риск.
Системы, которые отвечают за кредитные рейтинги или работу государственных служб, автоматически попадают в категорию «высокого риска» и должны будут соответствовать строгим требованиям.
Случай с чат-ботами 💬
Практика показывает, что вопросы регулирования уже встают на повестку. Так, Ирландская комиссия по защите данных приостановила запуск чат-бота Bard от Google в Европе, заявив о нехватке информации о том, как сервис будет соответствовать нормам по защите данных. Похожая ситуация возникала и раньше, когда один из чат-ботов был временно ограничен другим европейским регулятором по тем же причинам.
Что дальше? 🔮
По мнению Вестагер, ждать единой международной системы регулирования не стоит — действовать нужно уже сегодня. Создание чётких правил внутри ЕС должно стать примером для других регионов и помочь сделать ИИ безопасным, прозрачным и справедливым для всех пользователей 🌍✨.