Пост

🤖 ИИ-чатботы часто искажают факты о текущих событиях, выяснил BBC

Недавнее исследование BBC показало, что популярные искусственные интеллектуальные помощники, такие как ChatGPT, Copilot, Gemini и Perplexity, нередко создают искажения, ошибки и вводящую в заблуждение информацию при ответах на вопросы о новостях и текущих событиях.

Более половины ответов, сгенерированных ИИ, были признаны журналистами BBC «серьёзно проблемными». Среди ошибок — устаревшая информация о должностных лицах, некорректные рекомендации по здоровью, а также смешение архивных данных с актуальными событиями.

Исследователи попросили четыре ИИ-инструмента ответить на 100 вопросов, используя статьи BBC в качестве источника. Журналисты проверяли ответы по точности фактов. Результаты показали, что около пятой части ответов содержала ошибки в цифрах, датах или заявлениях, а 13% цитат, якобы взятых из BBC, были изменены или отсутствовали в оригинальных материалах.

Некоторые примеры искажений включали:

  • Copilot неправильно описывал события из личной жизни жертвы преступления, создавая неверное впечатление о хронологии фактов.
  • ChatGPT выдавал информацию о людях, которая уже была устаревшей, искажая временные рамки их участия в организациях.
  • Gemini и Perplexity предоставляли неточные советы и неверные даты, включая случаи цитирования умерших публичных фигур.

Глава новостного департамента BBC Дебора Тернесс отметила, что «инструменты генеративного ИИ играют с огнём» и могут подрывать доверие публики к фактам. Она призвала компании, разрабатывающие ИИ, сотрудничать с медиа, чтобы улучшить точность ответов и снизить уровень дезинформации.

Исследование показало, что проблемы с точностью информации у ИИ-ассистентов широко распространены. Питер Арчер, директор BBC по генеративному ИИ, подчеркнул, что масштабы ошибок и искажений контента пока полностью не известны. Он призвал к тесному сотрудничеству между медиа и ИИ-компаниями для обеспечения прозрачности и точности новостной информации.

Компании, разработавшие тестируемые ИИ-инструменты, были приглашены к комментариям. Представитель OpenAI отметил, что компания продолжает работу над улучшением точности цитирования и соблюдением предпочтений издателей.

📊 Вывод: Использование ИИ для новостей требует осторожности, а сотрудничество с медиа поможет повысить достоверность информации и доверие аудитории.

Для ответа вы можете авторизоваться