Гонка за ИИ: от Тьюринга до ChatGPT 🤖💻
Зимой 1958 года 30-летний психолог Франк Розенблатт направлялся из Корнеллского университета в Управление военно-морских исследований в Вашингтоне и сделал остановку на кофе с журналистом. Он представил своё изобретение, которое произвело фурор в первые дни вычислительной техники. «Это первая машина, способная иметь собственную идею», — заявил Розенблатт.
Его «Персептрон» был вдохновлён нейронами человека и работал на современном для того времени пяти-тонном мейнфрейме IBM. Подав на вход персептрону пачку перфокарт, можно было научить его различать карты с отметкой слева и справа. По сути, машина могла учиться, что в те годы казалось революцией.
Персептрон стал первой нейронной сетью — примитивным прототипом современных глубоких нейросетей, лежащих в основе искусственного интеллекта (ИИ). Однако даже спустя почти 70 лет настоящего аналога человеческому мозгу пока нет. «Сегодня у нас есть искусственные попугаи», — отмечает профессор Марк Джиролами из Института Алана Тьюринга в Лондоне. «Это фантастический прогресс, дающий инструменты на благо человечества, но не стоит переоценивать их возможности».
Ранние отцы ИИ
История ИИ полна «отцов». Розенблатт иногда называют отцом глубокого обучения. Алан Тьюринг, знаменитый взломщик кодов времен Второй мировой войны и основатель компьютерных наук, считается одним из родоначальников ИИ. В 1948 году он предложил идеи о том, как машины могут имитировать разумное поведение: машины могли учиться, как дети, с помощью вознаграждений и наказаний, а также модифицировать себя, переписывая собственный код — фундаментальные концепции современного ИИ.
Тьюринг также предложил «Имитативную игру», известную как тест Тьюринга, для проверки, сможет ли человек отличить ответы машины от человека. Его работа по статистике Байеса для расшифровки сообщений во времена работы в Bletchley Park легла в основу методов генеративного ИИ, способного создавать тексты, изображения и музыку.
Появление термина и золотой век ИИ
Термин «искусственный интеллект» появился в 1955 году благодаря Джону Маккарти из Дартмутского колледжа. Оптимизм исследователей того времени был огромен: они верили, что значительный прогресс возможен, если группы учёных сосредоточатся на проекте.
1970-е годы принесли разочарование: ожидания превысили возможности технологий, и финансирование было сокращено. Однако уже в 1986 году Джеффри Хинтон и коллеги разработали алгоритм обратного распространения ошибки для обучения многослойных нейронных сетей, что стало прорывом.
Современный ИИ: нейросети и трансформеры
С развитием мощных процессоров и появлением больших данных в 2000-х годах нейросети получили новый импульс. В 2012 году Хинтон и команда представили AlexNet, восьмислойную сеть с 10 000 нейронов, которая победила на международном конкурсе ImageNet, показав мощь глубокого обучения.
Сегодня трансформеры — ключевой инструмент генеративного ИИ. Они могут одновременно обрабатывать все слова в предложении, учитывая контекст, и создавать тексты, изображения, музыку, видео и многое другое. OpenAI GPT (Generative Pre-trained Transformer) и аналогичные модели умеют генерировать большие объемы текста, обрабатывать разнообразные медиа и создавать оригинальный контент.
Возможности и вызовы
Генеративный ИИ открывает возможности от автоматизации рабочих процессов до творчества: от сочинения музыки до создания новых эпизодов любимых сериалов с голосами оригинальных актёров. Но обучение таких моделей требует огромных вычислительных ресурсов и сопровождается значительными углеродными выбросами.
«ИИ — это инструмент, который должен использоваться разумно, там, где он полезен, а не для переработки общества каждый день», — предупреждает эксперт Джонни Пен.
ИИ прошёл путь от Персептрона Розенблатта до трансформеров GPT, изменив наше понимание машинного обучения и открыв возможности для новых революций в науке, медицине и искусстве. 🌐✨