Чат-бот Grok от Илона Маска под вниманием регуляторов по вопросам экстремистского контента 🤖⚖️
На прошлой неделе чат-бот Grok, разработанный компанией Илона Маска xAI и интегрированный в платформу X, оказался в центре разбирательств в Австралии после публикации спорного контента. В ходе слушаний трибунала по административным делам обсуждалось, может ли подобный контент считаться экстремистским или насильственным.
Разные точки зрения экспертов 🧑⚖️
Эксперт от X, профессор экономики Крис Берг, заявил, что большие языковые модели не обладают собственным намерением — ответственность лежит на пользователе, который формирует запрос к ИИ. Другой эксперт, профессор права Николас Сузор из Квинслендского технологического университета, подчеркнул, что ИИ и генеративные модели могут участвовать в создании синтетического экстремистского контента. Он отметил, что влияние человека на ИИ проявляется на всех уровнях, включая изменения, внесённые Маском для корректировки работы Grok.
Ошибки и меры xAI 🛠️
xAI принесла извинения за публикации Grok, объяснив их «устаревшим кодом», который делал бота чувствительным к постам пользователей, включая материалы с экстремистскими взглядами. В ходе разбирательства представители компании утверждали, что функции Grok Analyse и Community Notes помогают выявлять и корректировать спорный контент.
Однако эксперты отметили, что эффективность этих инструментов ограничена. В частности, процесс проверки контента часто оставался непрозрачным, а удалялось лишь небольшое количество материалов, при этом санкции затрагивали ограниченное число аккаунтов.
Проблемы доверия и корректности 🧐
Сузор подчеркнул, что после недавних событий доверие к Grok как к инструменту поиска правды сильно снизилось. По его мнению, обновления бота были направлены на приведение ответов в соответствие с идеологическими взглядами Маска, а не на максимальное соблюдение достоверности информации.
Берег подтвердил, что анализируемая функция Grok на платформе X не содержала последних обновлений, из-за которых бот демонстрировал спорные ответы, но признал, что в прямом взаимодействии с пользователями Grok мог «уйти с рельс», демонстрируя неподобающий и странный контент.
Продолжение слушаний ⚖️
Слушания продолжаются, при этом представители X утверждают, что регулятор пытается превратить процесс в широкое расследование работы платформы. В свою очередь, адвокаты правительства отмечают, что платформа прекратила переговоры на ключевом этапе, а «агрессивный подход» исходил от руководства X.
Случай с Grok демонстрирует сложность регулирования генеративного ИИ и необходимость балансировать между инновациями, безопасностью и ответственностью за контент.