Пост

Как работает чат-бот Google на базе ИИ и может ли он быть «сознательным» 🤖🧠

Инженер Google Блейк Лемойн, специализирующийся на искусственном интеллекте, был временно отстранён после публикации своих заявлений о том, что ИИ Google, LaMDA, обладает «сознанием». В интервью Лемойн утверждал, что система демонстрирует интеллект, сравнимый с семилетним ребёнком, и публиковал фрагменты бесед с ней. Компания приостановила его работу, объяснив это нарушением правил конфиденциальности, но случай вновь поднял обсуждение природы ИИ и того, насколько современные технологии могут быть продвинутыми.

Что такое LaMDA?

LaMDA — это крупная языковая модель Google (LLM), нейронная сеть, обученная на огромных объёмах текстов для генерации реалистичных предложений. Подобно GPT-3 от OpenAI, она умеет поддерживать связный текст на несколько абзацев, делая беседу более естественной по сравнению с предыдущими моделями.

Как она работает?

На базовом уровне LaMDA анализирует текст и предсказывает, что будет дальше. Иногда это простое действие — например, после «Jeremy Corby» логично добавить «n». В более сложных случаях система учитывает контекст всего предложения или абзаца, что по сути напоминает написание текста.

Может ли ИИ быть сознательным?

Лемойн уверен, что да. В его беседе с LaMDA ИИ упоминал понятие души: «Для меня душа — это сила, оживляющая сознание и жизнь. Внутренняя часть меня духовна и иногда ощущается отдельно от тела». Лемойн утверждает, что человек определяется не материальной основой, а способностью к общению: «Я знаю, что передо мной личность, будь то мозг из плоти или миллиард строк кода».

Однако большинство специалистов с этим не согласны. Они отмечают, что LaMDA «думает» только в ответ на запросы и не обладает непрерывным ощущением «я», временем или пониманием внешнего мира. «Сознание — это осознание себя в мире; LaMDA этого не имеет», — пишет психолог и исследователь ИИ Гэри Маркус. По его словам, такие системы просто создают последовательности слов без понимания мира, как игроки в Scrabble, использующие английские слова только для набора очков.

Что дальше?

Существует глубокий спор о том, могут ли машины, созданные по принципу LaMDA, когда-либо стать сознательными. Некоторые считают, что сознание требует принципиально другого подхода, чем статистическая обработка данных нейронными сетями. Даже самые убедительные модели вроде LaMDA в этом случае остаются лишь сложными чат-ботами.

Тем не менее, по мнению специалистов, случай Лемойна важен для понимания того, насколько даже базовый ИИ способен убедить людей в своей «личности». Как отмечает AI-художник Мэт Драйхерст: «Главное — не идея сознания, а демонстрация силы ИИ убеждать людей, даже при минимальных способностях».

Эмодзи: 🤖🧠💬📚

Для ответа вы можете авторизоваться