Австралийская полиция использует ИИ для анализа изъятых устройств 📱🤖
Австралийская федеральная полиция (AFP) заявляет, что вынуждена активно использовать искусственный интеллект для обработки огромного объёма данных, получаемых в ходе расследований. По словам Бенджамина Ламонта, менеджера по стратегии технологий и работе с данными в AFP, средний объём информации, обрабатываемой агентством, составляет около 40 терабайт.
Это включает материалы из 58 000 ежегодных обращений в Центр по борьбе с эксплуатацией детей, а также киберинциденты, поступающие каждые шесть минут. «Человеческими силами это не осилить, поэтому мы вынуждены опираться на ИИ», — отметил Ламонт на конференции Microsoft по ИИ в Сиднее.
AFP использует инструменты Microsoft для разработки собственного ИИ, включая перевод шести миллионов писем на испанском и анализ 7 000 часов видеозаписей. «Сидеть и вручную просматривать 7 000 часов просто невозможно. Здесь ИИ играет ключевую роль», — подчеркнул Ламонт.
Одним из проектов является обработка данных объёмом 10 петабайт, при этом один изъятый телефон может содержать до 1 ТБ информации. Основная задача ИИ — структурирование файлов, чтобы сотрудникам было проще работать с ними. «Когда мы проводим обыск, часто находим ящики старых мобильных телефонов. Нужно понять, использовались ли они в преступных действиях», — объяснил Ламонт.
Кроме того, AFP разрабатывает ИИ для выявления deepfake-изображений, анализа и очистки данных в безопасной изолированной среде. Также исследуется возможность использования генеративного ИИ для создания текстовых описаний изображений и видео перед их просмотром сотрудниками, чтобы избежать неожиданного контакта с шокирующим контентом. Возможна конвертация изображений в чёрно-белый формат или удаление аудио.
Ламонт отметил, что AFP сталкивалась с критикой, например при использовании системы распознавания лиц Clearview AI. «Мы не всегда действовали идеально. Нам пришлось укрепить внутренние процессы», — сказал он. В агентстве создан Комитет по ответственным технологиям, который оценивает новые разработки с точки зрения этики и безопасности.
«Важно обсуждать использование ИИ публично и всегда оставлять человека в принятии решений, основанных на работе технологий», — добавил Ламонт. 🌐💡