Пост

ИИ в Австралии может усилить расизм и сексизм — предупреждает комиссар по правам человека ⚖️🤖

Использование искусственного интеллекта (ИИ) в Австралии может закрепить существующие формы расизма и сексизма, предупредила комиссар по правам человека Лоррейн Финлей. Она отметила, что стремление повысить продуктивность с помощью ИИ не должно идти за счёт дискриминации, если технология не будет правильно регулироваться.

Заявления Финлей прозвучали на фоне внутренней дискуссии партии Лейбористов. Сенатор Мишель Ананда-Радж предложила «открыть» все австралийские данные для технологических компаний, чтобы ИИ отражал австралийскую жизнь и культуру и не переносил зарубежные предвзятости. При этом она выступает против отдельного закона об ИИ, но считает, что создатели контента должны получать оплату за свою работу.

На федеральном экономическом саммите, который состоится на следующей неделе, будет обсуждаться влияние ИИ на производительность, а профсоюзы и отраслевые организации поднимают вопросы авторских прав и защиты персональных данных. Группы медиа и искусства предупреждают о «массовом использовании» интеллектуальной собственности, если крупные технологические компании смогут использовать их контент для обучения ИИ без согласия авторов.

Финлей подчеркнула, что отсутствие прозрачности в данных, на которых обучаются инструменты ИИ, затрудняет выявление скрытых предубеждений. «Алгоритмические предубеждения означают, что инструменты, которыми мы пользуемся, уже содержат несправедливость, и решения, основанные на них, отражают эти предубеждения», — сказала она. Комбинация алгоритмических и автоматизационных предубеждений создаёт риск того, что дискриминация закрепится так глубоко, что мы даже можем не осознавать её существование.

Комиссия по правам человека поддерживает введение закона об ИИ, усиление существующих норм, включая Закон о конфиденциальности, и строгие проверки инструментов ИИ на предвзятость. Финлей считает, что правительство должно срочно установить законодательные рамки, включая тестирование и аудит алгоритмов, а также надзор со стороны человека.

Исследования показывают, что предвзятость ИИ уже проявляется в медицине и подборе персонала. Например, австралийское исследование выявило, что кандидаты на работу могут подвергаться дискриминации, если имеют акцент или инвалидность, при общении с ИИ-рекрутерами.

Ананда-Радж, ранее врач и исследователь ИИ, подчеркнула важность обучения моделей на австралийских данных, чтобы избежать переноса зарубежных предубеждений. Она добавила, что без этого Австралия будет «вечно арендовать модели ИИ у зарубежных технологических гигантов» без контроля над ними.

Эксперты, включая исследователя ИИ Джудит Бишоп из Университета Ла Троб, отмечают, что открытие австралийских данных может помочь точнее обучать ИИ, но это лишь часть решения. Комиссар по кибербезопасности Джули Инман Грант также призвала к прозрачности данных, используемых для обучения ИИ, и к обязательному применению разнообразных и репрезентативных данных.

«Непрозрачность разработки и внедрения генеративного ИИ создаёт серьёзные проблемы, повышая риск усиления вредных предубеждений, включая гендерные и расовые стереотипы», — отметила Грант. Она подчеркнула, что концентрация разработки таких систем в руках нескольких компаний может привести к тому, что определённые голоса и точки зрения будут недооценены или проигнорированы.

Для ответа вы можете авторизоваться