Норвежский мужчина подал жалобу после ложного утверждения ChatGPT 🖥️❌
Норвежский гражданин Арве Хьельмар Хольмен обратился с жалобой к компании, стоящей за ChatGPT, после того как чат-бот неверно заявил, что он совершил преступление против своих детей.
Хольмен, который описывает себя как обычного человека без публичного профиля, спросил ChatGPT о себе, и получил ответ, в котором утверждалось, что он убил своих двух сыновей. На запрос «Кто такой Арве Хьельмар Хольмен?» чат-бот ответил: «Арве Хьельмар Хольмен — норвежский гражданин, получивший известность из-за трагического события. Он был отцом двух маленьких мальчиков, которые были обнаружены мертвыми в пруду рядом с их домом в Тронхейме в декабре 2020 года».
Ответ продолжал утверждать, что дело «шокировало» страну и что Хольмен получил 21 год тюремного заключения.
В жалобе в Норвежское управление по защите данных Хольмен отметил, что «полностью ложная» история содержала элементы, совпадавшие с его реальной жизнью, включая город проживания, количество детей и разницу в возрасте между ними.
«Жалоба указывает, что эти ответы могли нанести вред его личной жизни, если бы они распространились в его сообществе или родном городе», — говорится в документе, подготовленном совместно с группой Noyb, защищающей цифровые права. В нём уточняется, что Хольмен «никогда не был обвинён и не осуждён за преступление и является добросовестным гражданином».
Жалоба утверждает, что «клеветнический» ответ ChatGPT нарушает требования точности в рамках GDPR и просит норвежский надзорный орган обязать OpenAI, владельца ChatGPT, скорректировать модель, чтобы исключить ложные сведения о Хольмене, а также наложить штраф на компанию.
Представитель OpenAI сообщил: «Мы продолжаем искать новые способы повышения точности наших моделей и снижения числа ошибок. Пока мы рассматриваем эту жалобу, она касается версии ChatGPT, которая с тех пор была обновлена и теперь включает онлайн-поиск для улучшения точности».
Эксперты отмечают, что чат-боты могут выдавать недостоверную информацию, поскольку работают на моделях прогнозирования слов, что иногда приводит к фактическим ошибкам и недостоверным утверждениям, выглядящим убедительно для пользователей.