Почему ChatGPT не стоит полностью доверять: письма читателей 📝🤖
Читатели Guardian выразили свои сомнения по поводу использования ChatGPT и других ИИ-инструментов для обработки контента из СМИ.
Жанна Уоррен из Оксфордшира отмечает, что добавление материалов Guardian в обучающие наборы ChatGPT подобно смешиванию полезной пищи с ядом — это не делает продукт безопасным. Она предупреждает, что, учитывая невозможность полностью исключить «вредный» контент, ChatGPT может потерять статус серьёзного интеллектуального инструмента. При этом, по её словам, искусственный интеллект всё ещё может приносить пользу в других сферах.
Доктор Тео Стикли из Ноттингема провёл личный «эксперимент» с ChatGPT, проверяя точность данных о собственной жизни. Результаты оказались ошибочными: модель утверждала, что он родился и учился в Ноттингеме, получил степень по психологии и докторскую степень по сестринскому делу, а также, по странной ошибке, что он умер в 2019 году. По его мнению, такие ошибки показывают, что ИИ пока не может полностью заменять проверенные источники и человеческую экспертизу, например, при написании биографий или некрологов.
Оуэн Фрейзер из Абердина добавляет, что искусственный интеллект — это скорее временное увлечение, и в будущем мы будем смеяться над прогнозами о том, что ИИ станет «следующим большим событием». Он поддерживает решение Guardian заблокировать автоматические сборщики контента, подчеркивая, что пользователи социальных платформ осознают риск передачи контроля ИИ, который может оказаться ещё более токсичным, чем текущие системы.
📌 В целом, письма подчёркивают, что ChatGPT и аналогичные модели пока нельзя считать полностью надёжными, особенно для обработки и интерпретации достоверной информации. Несмотря на это, ИИ продолжает развиваться и находит применение в полезных и безопасных сферах.