Остерегайтесь использования нерегулируемых ИИ-чат-ботов для создания планов ухода в Великобритании 🤖👨⚕️
Система социального ухода в Великобритании сталкивается с огромными трудностями, и работникам требуется вся возможная поддержка. Однако использование нерегулируемых ИИ-ботов для создания планов ухода может представлять угрозу, предупреждают исследователи, подчеркивая, что революция ИИ в социальной сфере должна быть под жестким этическим контролем.
Исследование, проведенное учеными Оксфордского университета, показало, что некоторые поставщики услуг использовали генеративные ИИ-чат-боты, такие как ChatGPT и Bard, для составления планов ухода для людей, получающих социальную помощь. Это может подвергать риску конфиденциальность пациентов, утверждает доктор Кэролайн Грин, исследователь в области этики ИИ в Оксфорде, которая проводила опрос среди организаций по уходу.
«Если вы вводите личные данные в [генеративный ИИ-чат-бот], эти данные используются для обучения языковой модели», — объяснила Грин. «Эти данные могут быть использованы и раскрыты другим лицам». Она также отметила, что работники ухода могут действовать на основе ложной или предвзятой информации, что может привести к ущербу, а также что ИИ-составленный план ухода может быть низкого качества.
Тем не менее, по словам Грин, существует и ряд потенциальных преимуществ ИИ. «Он может помочь в административной работе и позволить чаще пересматривать планы ухода. На данный момент я не рекомендовала бы использовать его, но есть организации, которые разрабатывают приложения и сайты для такой работы», — добавила она.
Технологии, основанные на крупных языковых моделях, уже используются в здравоохранении и социальном уходе. Например, приложение PainChek использует ИИ для распознавания лиц, чтобы определить, испытывает ли человек боль. Система Oxevision, применяемая в ряде психиатрических учреждений Великобритании, использует инфракрасные камеры для мониторинга пациентов с деменцией или острыми психиатрическими проблемами.
Однако, несмотря на все эти инновации, некоторые специалисты по социальному уходу выражают обеспокоенность. Марк Топпс, работающий в социальной сфере и ведущий подкаст The Caring View, отметил, что специалисты опасаются случайных нарушений правил, которые могут привести к утрате лицензии.
В прошлом месяце 30 организаций, работающих в сфере социального ухода, включая Национальную ассоциацию ухода и Scottish Care, собрались в Оксфорде, чтобы обсудить, как ответственно использовать генеративный ИИ. Кэролайн Грин, организатор встречи, заявила, что они планируют создать руководство по лучшим практикам в течение шести месяцев и надеются сотрудничать с регуляторами и Министерством здравоохранения.
«Мы хотим разработать такие рекомендации, которые будут поддерживаться Министерством здравоохранения и социального обеспечения, и определят, что на самом деле означает ответственное использование ИИ в социальном уходе», — заключила она.