Австралия отстаёт в регулировании ИИ — предупреждают эксперты 🤖⚠️
Австралия находится «в хвосте» по финансированию и регулированию искусственного интеллекта (ИИ), предупреждают эксперты, пока правительство рассматривает свои дальнейшие шаги после декларации Блетчли в Великобритании на прошлой неделе.
Австралия вошла в число 28 стран и ЕС, подписавших декларацию, в которой ИИ признаётся потенциальной угрозой человечеству и подчёркивается необходимость безопасного и ответственного его проектирования и развития. Это произошло всего через неделю после того, как администрация США выпустила указ, требующий от компаний вроде OpenAI и Google предоставлять результаты тестирования безопасности ИИ перед выпуском моделей.
В этом году правительство Альбанезе инициировало расследование, чтобы определить, какие правила могут потребоваться для безопасного развития ИИ, насколько актуальны существующие законы и какие новые нормы могут понадобиться. В рамках исследования было получено 510 заявок от компаний и организаций: Meta✱, Google, Amazon Web Services, OpenAI, Microsoft, а также от представителей юридических фирм, здравоохранения, бизнеса, банков, супермаркетов и индустрии развлечений.
Более месяца прошло с публикации заявок, однако правительство пока не объявило о своих решениях. Министр промышленности Эд Хьюсик на радио ABC на прошлой неделе не назвал сроки внесения законопроекта в парламент, отметив лишь, что «саммит позволяет учитывать новые подходы и работать совместно», включая локальное тестирование безопасности ИИ.
Главный научный сотрудник Института ИИ Университета Нового Южного Уэльса Тоби Уолш подчеркнул, что декларация вряд ли окажет значительное влияние, а указ Байдена может иметь гораздо больший эффект. «Австралия, к сожалению, отстаёт в ответе на возможности и риски, которые несёт ИИ», — заявил он. «Более 500 организаций и экспертов предоставили свои предложения, но действий со стороны правительства пока крайне мало, особенно в части финансирования».
Профессор Пол Салмон из Центра человеческих факторов и социотехнических систем Университета Саншайн-Кост отметил, что остаётся много работы: «Нет подробностей по ключевым аспектам, таким как регулирование, метрики и инструменты. Неясно, как обеспечить единообразие подходов разных стран к выявлению и управлению рисками».
Исследователь этики генеративного ИИ из Университета Сиднея Ребекка Джонсон подчеркнула, что Австралии нужно выбрать между американским комплексным подходом к ИИ и декларацией Блетчли, которая акцентирует внимание на экзистенциальных рисках.
Министр Хьюсик подчеркнул важность баланса: «В лучшем случае ИИ улучшает качество жизни и работу экономики. В худшем — может искажать информацию и разделять людей. Главное — правильно управлять рисками, чтобы выстроить доверие к технологиям».
Правительство пока не предоставило подробностей о следующих шагах в регулировании ИИ. ⚙️🌏
* Упомянутые организации запрещены на территории РФ