Искусственный интеллект показывает лучшие «коммуникационные навыки» с пациентами, чем некоторые врачи 🤖💬❤️
Новый исследовательский эксперимент показал, что ChatGPT может продемонстрировать лучший «подход к пациенту», чем некоторые врачи — по крайней мере, если оценивать письменные ответы с точки зрения качества и эмпатии. Исследователи отмечают, что это открывает возможности для использования ИИ в медицине, например, для подготовки врачебных сообщений пациентам.
«Возможности улучшения здравоохранения с помощью ИИ огромны», — отметил доктор Джон Айерс из Университета Калифорнии в Сан-Диего. Однако эксперты предупреждают, что это не значит, что ChatGPT является настоящим врачом, и предостерегают от передачи ему клинической ответственности, поскольку чатбот иногда может создавать недостоверную информацию.
Исследование, опубликованное в журнале JAMA Internal Medicine, использовало данные форума Reddit AskDocs, где пользователи задают вопросы, а подтверждённые врачи дают ответы. Исследователи случайным образом выбрали 195 таких вопросов и отправили их ChatGPT для получения ответов. Три лицензированных медицинских специалиста, не знавшие, кто дал ответ — человек или ИИ, оценивали ответы по качеству и эмпатии.
Результаты показали: в 79% случаев панель предпочла ответы ChatGPT ответам врачей. Также 79% ответов ИИ получили оценку «хорошо» или «очень хорошо» по качеству, тогда как у врачей этот показатель составил только 22%. Эмпатичные ответы встречались у ChatGPT в 45% случаев, тогда как у врачей — лишь 5%.
Доктор Кристофер Лонгхерст из UC San Diego Health отметил: «Эти результаты показывают, что инструменты вроде ChatGPT могут эффективно создавать персонализированные медицинские рекомендации, которые затем проверяются клиницистами. В UCSD Health мы уже начинаем применять такой подход».
Профессор Джеймс Девенпорт из Университета Бата подчеркнул, что исследование не предлагает заменять врачей ИИ, но обосновывает необходимость дальнейшего изучения того, как ChatGPT может помогать врачам при составлении ответов.
Эксперты также отметили, что ИИ был специально оптимизирован для дружелюбного и доступного общения, что объясняет высокую оценку эмпатии. ChatGPT даёт более длинные и разговорные ответы, чем большинство врачей, что также могло повлиять на рейтинг.
В то же время специалисты предупреждают, что нельзя полностью полагаться на ИИ в вопросах фактической информации из-за возможности создания вымышленных «фактов». Профессор Энтони Кон из Университета Лидса считает использование ИИ для подготовки черновиков ответов разумным вариантом раннего внедрения, но подчеркивает необходимость контроля и проверки человеком.
«Люди склонны слишком доверять машинам, особенно когда они часто дают правильные ответы. Человек должен тщательно проверять результаты работы чатбота, чтобы избежать ошибок», — добавил он.
ИИ в медицине может стать мощным инструментом для повышения качества коммуникации с пациентами, но использовать его стоит аккуратно и только как вспомогательный ресурс. 🩺💡