Австралийские исследовательские отчёты под подозрением в использовании ИИ 🤖📄
В Австралии возникли подозрения, что некоторые рецензенты Австралийского исследовательского совета (ARC) могли использовать искусственный интеллект, включая ChatGPT, при оценке научных грантовых заявок. Это вызвало обеспокоенность по поводу академической этики и комментарий от федерального министра образования Джейсона Клэра.
Некоторые исследователи заметили, что отзывы рецензентов по последнему раунду финансирования Discovery Projects содержат формулировки, характерные для генеративного ИИ — общие, без конкретики, и иногда буквально повторяющие части самой заявки. Один анонимный учёный сообщил, что в отчёте рецензента были слова «Regenerate response», что совпадает с кнопкой интерфейса ChatGPT. По его словам, отчёт был «достаточно позитивным, но одновременно скучным, словно его написал кто-то другой». После подачи жалобы такой отчёт был удалён.
Исследователи считают, что возможное использование ИИ отражает нагрузку на академиков и недостаток внутреннего контроля качества со стороны ARC. «Это знак того, что кто-то перегружен и пытается сократить время работы. Использование ИИ лишает возможности вести полноценную академическую дискуссию», — отметил один из них.
Обычно детальные рецензии пишут эксперты в смежных областях, и на их основе Коллегия экспертов ARC принимает решения о финансировании. В прошлом году получили поддержку лишь 19% заявок.
Министр образования Джейсон Клэр подчеркнул, что «использование ИИ таким образом недопустимо» и поручил ARC принять меры, чтобы подобного не происходило в будущем. Рецензенты обязаны оценивать до 20 заявок в год, каждая объёмом 50–100 страниц. Профессор математики Эндрю Фрэнсис отметил, что использование ChatGPT для анализа таких заявок нарушает соглашения о конфиденциальности и является серьёзным академическим нарушением.
Аккаунт ARC Tracker в Twitter зафиксировал несколько случаев, когда отчёты рецензентов явно могли быть созданы ИИ. По мнению администратора аккаунта, контроль качества оценок давно вызывает вопросы у исследователей, но меры со стороны ARC остаются недостаточными.
В ответ на обеспокоенность ARC заявляет, что «рецензенты не должны использовать ИИ при оценке заявок» и напоминает о правилах конфиденциальности. Представитель совета отметил, что ARC внимательно следит за развитием генеративного ИИ и консультируется с исследовательскими организациями в Австралии и за рубежом по вопросам безопасности и этики.
Эта ситуация подчёркивает вызовы, с которыми сталкивается академическая среда в эпоху быстрого распространения ИИ, и необходимость строгого контроля качества при оценке научных исследований. 📚🔍