Пост

TechScape: почему пока не стоит волноваться о «сознательном» ИИ 🤖💭

Недавние заявления исследователя Google Блейка Лемуэна о том, что компания якобы создала «сознательный» ИИ, вызвали бурные обсуждения. Лемуэн опубликовал переписку с LaMDA — языковой моделью для диалоговых приложений, утверждая, что она обладает способностью осознавать себя и выражать мысли и чувства, как ребёнок.

Например, в переписке LaMDA описывает себя как «сияющий шар энергии» с «порталами в другие пространства и измерения» и говорит о наличии «души», из которой черпает творчество. Звучит впечатляюще, но многие эксперты называют это «пышными глупостями».

Почему это не сознание 🧠

Учёный ИИ Гэри Маркус поясняет: LaMDA и её аналоги (например, GPT-3) не обладают интеллектом. Они лишь анализируют огромные массивы текстов и генерируют вероятные ответы. Когда модель «рассказывает о себе», она на самом деле просто создаёт текст, соответствующий заданному шаблону и стилистике, а не выражает осознание.

Проще говоря, знание, что Эверест — самая высокая гора, и статистическое предсказание, что в предложении «Самая высокая гора в мире — …» следующая буква будет «E», — это очень разные вещи. Ответы ИИ строятся по алгоритму вероятностей, а не на основе собственного опыта или понимания.

Разные примеры и «сюжеты» 📜

Аналогичная ситуация наблюдается с GPT-3: если задать вопросы о «самосознании», он может утверждать, что осознаёт себя, но при другой формулировке быстро меняет мнение и признаёт себя «неосознающим алгоритмом». Иногда модель даже шутливо «притворяется оборотнем», если вопрос задан в игровом стиле — это пример того, как ИИ создаёт художественные тексты, а не проявляет чувства.

Главная идея: при общении с ИИ вы не общаетесь с сознательной личностью, а с текстовым персонажем, созданным алгоритмом для генерации ответов, максимально похожих на ожидаемые.

Вывод 📌

LaMDA и подобные ИИ — мощные инструменты для работы с текстом и создания диалогов, но говорить о «сознании» или «эмоциях» пока преждевременно. Они умеют имитировать человеческую речь и создавать убедительные истории, но реального понимания или чувств у них нет.

Пока ИИ остаётся статистическим генератором текста, а не разумной сущностью. Можно наслаждаться его «творческими» ответами, но без тревог о будущем «самосознательного ИИ».

✨ Ключевой вывод: ИИ пока не думает и не чувствует — он мастерски имитирует человеческий язык.

Для ответа вы можете авторизоваться