🤖 ИИ-чатботы часто искажают факты о текущих событиях, выяснил BBC
Недавнее исследование BBC показало, что популярные искусственные интеллектуальные помощники, такие как ChatGPT, Copilot, Gemini и Perplexity, нередко создают искажения, ошибки и вводящую в заблуждение информацию при ответах на вопросы о новостях и текущих событиях.
Более половины ответов, сгенерированных ИИ, были признаны журналистами BBC «серьёзно проблемными». Среди ошибок — устаревшая информация о должностных лицах, некорректные рекомендации по здоровью, а также смешение архивных данных с актуальными событиями.
Исследователи попросили четыре ИИ-инструмента ответить на 100 вопросов, используя статьи BBC в качестве источника. Журналисты проверяли ответы по точности фактов. Результаты показали, что около пятой части ответов содержала ошибки в цифрах, датах или заявлениях, а 13% цитат, якобы взятых из BBC, были изменены или отсутствовали в оригинальных материалах.
Некоторые примеры искажений включали:
- Copilot неправильно описывал события из личной жизни жертвы преступления, создавая неверное впечатление о хронологии фактов.
- ChatGPT выдавал информацию о людях, которая уже была устаревшей, искажая временные рамки их участия в организациях.
- Gemini и Perplexity предоставляли неточные советы и неверные даты, включая случаи цитирования умерших публичных фигур.
Глава новостного департамента BBC Дебора Тернесс отметила, что «инструменты генеративного ИИ играют с огнём» и могут подрывать доверие публики к фактам. Она призвала компании, разрабатывающие ИИ, сотрудничать с медиа, чтобы улучшить точность ответов и снизить уровень дезинформации.
Исследование показало, что проблемы с точностью информации у ИИ-ассистентов широко распространены. Питер Арчер, директор BBC по генеративному ИИ, подчеркнул, что масштабы ошибок и искажений контента пока полностью не известны. Он призвал к тесному сотрудничеству между медиа и ИИ-компаниями для обеспечения прозрачности и точности новостной информации.
Компании, разработавшие тестируемые ИИ-инструменты, были приглашены к комментариям. Представитель OpenAI отметил, что компания продолжает работу над улучшением точности цитирования и соблюдением предпочтений издателей.
📊 Вывод: Использование ИИ для новостей требует осторожности, а сотрудничество с медиа поможет повысить достоверность информации и доверие аудитории.