Пост

🤖 Искусственный интеллект может обмануть систему голосовой идентификации в Австралии

Система голосовой идентификации, используемая австралийскими государственными службами, включая Centrelink и Австралийскую налоговую службу (ATO), оказалась уязвимой для технологий искусственного интеллекта, выяснило расследование Guardian Australia.

Как работает система

Граждане могут использовать «голосовой отпечаток» вместе с другими данными для подтверждения личности по телефону. Это позволяет получать доступ к личной информации и управлять учётными записями. На конец февраля 3,8 миллиона клиентов Centrelink и более 7,1 миллиона пользователей ATO прошли верификацию голосом. Система описывается как «цифровое представление звука, ритма, физических характеристик и паттернов голоса».

Проблема безопасности

Журналист Guardian Australia смог с помощью всего четырёх минут аудиозаписи сгенерировать клон своего голоса и, используя номер клиента, получить доступ к собственной учётной записи Centrelink. Хотя для доступа необходимо знать индивидуальный номер клиента, он не всегда защищён так же надёжно, как пароль, и может встречаться в корреспонденции от служб и организаций.

Реакция служб

Services Australia, курирующая Centrelink, заявляет, что система «надёжна и безопасна». «Если мы выявляем необычное использование системы, применяются дополнительные проверки для подтверждения личности», — отметил представитель службы.

АТO и некоторые банки, например Bank Australia, также используют голосовую идентификацию, но чаще в качестве опции при разговоре с сотрудниками, что снижает риск автоматизированного обхода системы.

Ограничения биометрии

Эксперты отмечают, что биометрические методы не являются абсолютной защитой. Тоби Уолш, ведущий научный сотрудник AI Institute Университета Нового Южного Уэльса, отметил: «Биометрия не спасёт нас от сложностей с паролями и двухфакторной аутентификацией. Услышать голос или увидеть лицо недостаточно».

Эд Сэнтоу, директор Human Technology Institute при Университете Технологий Сиднея, добавил, что государственные агентства должны использовать только проверенные системы и иметь законодательное основание для их применения.

Защита и меры против AI

Службы заявляют, что активно отслеживают угрозы, совершенствуют системы и используют независимый контроль. Nuance, поставщик технологии голосовых отпечатков, утверждает, что современные методы позволяют обнаруживать синтетические голоса с точностью от 86% до 99%.

Технология клонирования голоса, основанная на машинном обучении, доступна через приложения и сайты и позволяет создать модель человека даже по ограниченному количеству записей. Публичные записи в интернете или другие аудиозаписи могут стать источником для такого клонирования.

Итог

Хотя голосовые отпечатки остаются удобным методом идентификации, технологии искусственного интеллекта показывают их ограничения как средства защиты. Пользователи должны учитывать риски и использовать дополнительные меры безопасности для защиты своих данных. 🔒🎙️

Для ответа вы можете авторизоваться