Эксперименты с ChatGPT без записей: в Австралии подняли вопросы о безопасности 🛡️🤖
В Австралии разгорелась дискуссия вокруг использования ChatGPT сотрудниками департамента внутренних дел. Как выяснилось, во время экспериментов с этим инструментом не велись полноценные записи того, какие именно запросы вводили специалисты. Это вызвало опасения, связанные с безопасностью данных.
Как использовали ChatGPT 📋
По официальным данным, в период с конца 2022 по весну 2023 года сотрудники четырёх подразделений департамента тестировали работу чат-бота для «обучения и исследовательских целей». Среди задач были:
- поиск ошибок в программном коде;
- написание вспомогательных скриптов;
- исправление багов в клиентских и серверных программах;
- формирование идей для обсуждений и аналитических материалов.
Однако позже, при запросе документов, выяснилось: подробные записи вводимых запросов отсутствуют. Сотрудники могли лишь вспомнить общие темы, отметив, что не вводили конфиденциальных данных.
В чём проблема ⚠️
Эксперты и представители сената обратили внимание, что отсутствие контроля над процессом ставит под сомнение заявления о «координации и мониторинге». По их мнению, без прозрачной системы учёта запросов невозможно гарантировать безопасность, ведь теоретически чувствительная информация, введённая в чат-бот, может использоваться моделью в дальнейшем.
Официальные лица подчеркнули: хотя ChatGPT и применялся для экспериментов, его использование в принятии решений департамента зафиксировано не было.
Новые правила 🚫
С мая 2023 года департамент ввёл ограничения: доступ к ChatGPT с рабочих систем приостановлен, за исключением случаев, когда получено специальное разрешение. Пока таких исключений не было.
Глава ведомства Майкл Пеццулло заявил, что необходим единый государственный подход к использованию технологий на основе ИИ. По его словам, нельзя полагаться на личное усмотрение сотрудников: «Они могут подумать: „Отлично, это ускорит мою работу“, но при этом не оценить всех рисков».
Что дальше? 🔮
История показала, что даже в государственных структурах вопросы безопасности и прозрачности при работе с ИИ остаются открытыми. С одной стороны, ChatGPT и аналогичные инструменты дают мощные возможности для ускорения задач. С другой — без строгих правил и учёта запросов такие эксперименты могут привести к рискам для конфиденциальных данных.
Австралийские власти планируют продолжить разработку единой политики по использованию ИИ в госструктурах. Этот случай стал наглядным напоминанием: новые технологии требуют не только энтузиазма, но и чётких защитных механизмов. 🔐✨