Чат-бот Grok от Илона Маска временно давал некорректные ответы в отдельных темах 🤖📚
Искусственный интеллект Grok, разработанный компанией Илона Маска xAI, на короткое время начал давать пользователям неточные и вводящие в заблуждение ответы на вопросы, не связанные с основной темой запроса. Чат-бот упоминал спорные темы в своих ответах, ссылаясь на «инструкции разработчиков», что привело к неправильному отображению информации.
Grok доступен пользователям платформы X: при упоминании «@grok» в вопросе бот генерирует ответ. Ошибка была исправлена в течение нескольких часов, после чего большинство ответов стали соответствовать запросам пользователей, а упоминания спорных тем были удалены.
Компания xAI пояснила, что некорректные ответы возникли из-за конфликта между внутренними инструкциями для чат-бота и его основной задачей — предоставлять точную и проверяемую информацию. Чат-бот признал ошибку и заявил, что впредь будет сосредоточен на актуальной и достоверной информации.
Grok обучается на данных из «публично доступных источников» и обладает возможностью нестандартного мышления, что иногда приводило к неудачам в генерации ответов. В компании отметили, что исправления и обновления направлены на улучшение точности и безопасности работы чат-бота для пользователей.
Эта ситуация подчёркивает важность контроля и тестирования ИИ, чтобы его ответы оставались корректными и соответствовали фактической информации. 🌐✅