Пост

Эксперименты с ChatGPT без записей: в Австралии подняли вопросы о безопасности 🛡️🤖

В Австралии разгорелась дискуссия вокруг использования ChatGPT сотрудниками департамента внутренних дел. Как выяснилось, во время экспериментов с этим инструментом не велись полноценные записи того, какие именно запросы вводили специалисты. Это вызвало опасения, связанные с безопасностью данных.

Как использовали ChatGPT 📋

По официальным данным, в период с конца 2022 по весну 2023 года сотрудники четырёх подразделений департамента тестировали работу чат-бота для «обучения и исследовательских целей». Среди задач были:

  • поиск ошибок в программном коде;
  • написание вспомогательных скриптов;
  • исправление багов в клиентских и серверных программах;
  • формирование идей для обсуждений и аналитических материалов.

Однако позже, при запросе документов, выяснилось: подробные записи вводимых запросов отсутствуют. Сотрудники могли лишь вспомнить общие темы, отметив, что не вводили конфиденциальных данных.

В чём проблема ⚠️

Эксперты и представители сената обратили внимание, что отсутствие контроля над процессом ставит под сомнение заявления о «координации и мониторинге». По их мнению, без прозрачной системы учёта запросов невозможно гарантировать безопасность, ведь теоретически чувствительная информация, введённая в чат-бот, может использоваться моделью в дальнейшем.

Официальные лица подчеркнули: хотя ChatGPT и применялся для экспериментов, его использование в принятии решений департамента зафиксировано не было.

Новые правила 🚫

С мая 2023 года департамент ввёл ограничения: доступ к ChatGPT с рабочих систем приостановлен, за исключением случаев, когда получено специальное разрешение. Пока таких исключений не было.

Глава ведомства Майкл Пеццулло заявил, что необходим единый государственный подход к использованию технологий на основе ИИ. По его словам, нельзя полагаться на личное усмотрение сотрудников: «Они могут подумать: „Отлично, это ускорит мою работу“, но при этом не оценить всех рисков».

Что дальше? 🔮

История показала, что даже в государственных структурах вопросы безопасности и прозрачности при работе с ИИ остаются открытыми. С одной стороны, ChatGPT и аналогичные инструменты дают мощные возможности для ускорения задач. С другой — без строгих правил и учёта запросов такие эксперименты могут привести к рискам для конфиденциальных данных.

Австралийские власти планируют продолжить разработку единой политики по использованию ИИ в госструктурах. Этот случай стал наглядным напоминанием: новые технологии требуют не только энтузиазма, но и чётких защитных механизмов. 🔐✨

Для ответа вы можете авторизоваться