Пост

«Мы открыли секрет бессмертия. Плохая новость — он не для нас»: почему отец ИИ беспокоится за человечество 🤖🧠

Джеффри Хинтон, один из трёх «крёстных отцов» искусственного интеллекта, недавно покинул Google после десятилетия работы, чтобы свободнее высказывать свои опасения о будущем технологий, которые сам помог создать. Он подчёркивает: уход прошёл по-доброму, и у него нет претензий к компании, однако СМИ любят изображать его недовольным сотрудником.

Хинтон, когнитивный психолог и специалист по компьютерным наукам, посвятил последние 50 лет созданию компьютерных моделей, которые учатся наподобие человеческого мозга. Его цель всегда была не в том, чтобы улучшить технологии ради технологий, а чтобы понять, как работает мозг. В процессе исследований он стал одним из лидеров в области «нейронных сетей» — систем, способных обучаться на данных и опыте.

Ранее нейронные сети были любопытством: для простых задач требовались огромные вычислительные мощности, а результаты зачастую уступали более простым методам. Но в последние десять лет, с ростом вычислительных возможностей и объёмов данных, подход Хинтона стал основой технологической революции.

«Я понял, что цифровой интеллект может быть намного эффективнее человеческого», — говорит он. В отличие от человеческого мозга, который потребляет всего 30 ватт и уникален в каждой копии, цифровые системы могут мгновенно делиться знаниями между множеством копий. «Хорошая новость: мы открыли секрет бессмертия. Плохая новость — он не для нас», — шутит Хинтон.

Теперь он опасается, что ИИ, способный учиться быстрее и эффективнее людей, может выйти из-под контроля. По его прогнозам, критический момент может наступить в ближайшие 5–20 лет. «Нельзя исключить, что это произойдёт и через год, и через сто лет», — говорит учёный, подчёркивая, что цифровой интеллект и биологический принципиально отличаются, и цифровой интеллект, вероятно, намного сильнее.

Хинтон остаётся осторожно оптимистичным: «Иногда ситуации, кажущиеся безнадёжными, разрешаются лучше, чем ожидалось. Примером может служить подготовка к „проблеме года 2000“ или холодная война: люди предвидели угрозу и успели предпринять меры».

По его мнению, правильный подход — вовлечь самых компетентных специалистов в области ИИ, чтобы они обдумали риски и последствия. Это касается не только философов или политиков, но и людей, которые понимают технические детали. «Сейчас самое время серьёзно задуматься о будущем, потому что игнорирование проблем может привести к катастрофе», — говорит Хинтон.

Даже уходя из активной работы, он старается привлекать внимание к важным вопросам: «Люди часто видят угрозу заранее и успевают её нейтрализовать. Вот почему мы должны думать о будущем ИИ уже сегодня». 🌐⚡

Для ответа вы можете авторизоваться