Пост

Игра оптимизации чат-ботов: можно ли доверять поиску информации через ИИ? 🤖🔍

Вопрос о том, безопасен ли аспартам и может ли он вызывать рак, обсуждается десятилетиями. Этот популярный искусственный подсластитель добавляют в газированные напитки, лекарства для детей и многие продукты. Несмотря на то что Всемирная организация здравоохранения назвала его «возможно канцерогенным» для человека, регуляторы здравоохранения считают его безопасным при умеренном употреблении. Многие из нас просто ищут ответ в Google, но именно такие спорные темы показывают, с какими сложностями столкнётся интернет будущего.

С развитием генеративных чат-ботов в последние годы компании активно позиционируют их как удобную альтернативу поисковым системам. Идея проста: вместо пролистывания множества страниц, ИИ может собрать релевантную информацию и дать краткий ответ. Google и Microsoft уже интегрировали AI-суммаризации в Google Search и Bing.

Однако эксперты начали изучать, как именно чат-боты выбирают информацию. Исследователи из Калифорнийского университета в Беркли отметили, что современные модели слишком полагаются на поверхностную релевантность текста. Они придают значение ключевым словам и технической терминологии, но игнорируют другие признаки доверия, например научные ссылки или объективный язык. Для простых вопросов этого хватает, но в сложных спорах, вроде обсуждения аспартама, такой подход может быть недостаточен.

⚙️ Оптимизация для ИИ
Появилась новая сфера маркетинга — Generative Engine Optimization (GEO). Суть в том, чтобы создавать контент так, чтобы чат-боты чаще выбирали именно его. Это похоже на SEO, только для ИИ: чем лучше сайт «понимает» алгоритм модели, тем выше шанс, что его упомянут в ответах бота. GEO требует комплексного подхода: упоминаний на новостных сайтах, форумах, отраслевых публикациях и других релевантных ресурсах.

Возможна и более хитрая манипуляция. Исследователи Гарварда показали, что чат-боты можно «обмануть» специальными текстовыми последовательностями, которые заставляют модель выдавать нужный результат. Например, добавление такой последовательности на страницу товара может повысить вероятность того, что бот порекомендует этот продукт пользователю. Пользователи при этом не догадываются, что рекомендации не отражают объективные качества продукта, а результат манипуляции.

Эксперты отмечают, что ИИ-алгоритмы постоянно меняются, и разработчики моделей ищут способы защититься от подобных манипуляций. Но полностью исключить их пока невозможно.

💡 Слабые места чат-ботов и прямые ответы
Традиционные поисковые системы дают длинный список ссылок, и пользователь может выбрать несколько источников. Чат-боты же чаще ссылаются на 4–5 ресурсов, что делает эти сайты особенно заметными, а остальные теряются. Это создаёт риск, что недобросовестные создатели контента могут продвигать свои материалы в ущерб качественному контенту.

«Проблема прямого ответа в том, что пользователь получает одно мнение и часто не ищет альтернативы, — объясняет исследователь Александр Ван. — Люди могут принять ответ как единственно верный, не учитывая нюансы и разные точки зрения».

Мартин Поттаст из Лейпцигского университета добавляет: «Система может выбрать документы только в одном направлении, и ответ ИИ будет отражать только его. Пользователи могут поверить, что это единственно авторитетный ответ».

Идея «пусть Google ищет за вас» выглядит заманчиво, но если вы хотите получать максимально точную и независимую информацию, полностью полагаться на ИИ-поиск пока не стоит.

🧠 Вывод
Генеративные чат-боты упрощают поиск информации, но их ответы не всегда нейтральны и могут быть подвержены манипуляциям. Пользователям стоит критически оценивать предоставленные данные и при необходимости сверять их с другими источниками.

Для ответа вы можете авторизоваться