Незнание — не благо для ChatGPT 🤖💬
Опыт Элиф Батуман с ChatGPT показывает, что искусственный интеллект обладает одной очень «человечной» чертой: нежеланием признать собственное незнание. Часто вместо того, чтобы просто ответить «не знаю», ИИ отвечает на похожий, но заметно иной вопрос — и делает это весьма подробно.
Как отмечает Джефф Реншоу из Лимингтона, подобное поведение похоже на бюрократическую строгость, когда объяснение превращается в сложную аргументацию, которая больше запутывает, чем помогает. Том Браун из Ньюбери добавляет, что в таких случаях проще отложить все и размышлять о вопросах в офлайн-режиме.
Так что, хотя ChatGPT и впечатляет своей способностью генерировать тексты, важно помнить: иногда ИИ может предпочесть изощрённое рассуждение честному «не знаю». Это не баг, а одна из особенностей современной модели искусственного интеллекта.