Пост

Надежда или опасение? Великий дебат вокруг искусственного интеллекта 🤖⚖️

Демис Хассабис, глава Google DeepMind, утверждает, что он не относится к «пессимистам» в вопросах искусственного интеллекта. Но это не помешало ему подписать в мае совместное заявление, предупреждающее о потенциальной угрозе ИИ для общества, сравнимой с пандемиями или ядерным оружием. Именно баланс между надеждой и тревогой стал одной из причин, почему премьер-министр Великобритании Риши Сунак организовал глобальный саммит по безопасности ИИ в Блетчли-парке — месте, где во время Второй мировой войны работали знаменитые криптографы, включая Алана Тьюринга.

«Я не пессимист относительно ИИ, иначе не занимался бы этим проектом», — говорит Хассабис в интервью Guardian. «Но я и не отношусь к лагерю „ничего страшного не произойдет“. Это золотая середина: технологии могут быть полезными, но мы должны активно формировать их развитие».

Вклад DeepMind

Компания, основанная Хассабисом в 2010 году и приобретённая Google в 2014 году, добилась выдающихся успехов в области ИИ. Среди её проектов — AlphaFold, система, способная предсказывать 3D-структуры белков в человеческом организме, что открывает новые возможности в медицине и научных исследованиях. Недавно команда Хассабиса представила AlphaMissense, инструмент для выявления белковых мутаций, которые могут вызывать болезни.

Хассабис подчёркивает: ИИ принесёт значительные выгоды в науке, медицине и повседневной жизни, но также вызовет изменения на рынке труда. Профессии с высокой квалификацией, такие как медицина, право и финансы, подвергнутся автоматизации, однако долгосрочные эффекты будут положительными. Среди возможных идей обсуждается внедрение универсального базового дохода или сервисов, обеспечивающих базовые услуги для всех.

Категории рисков ИИ

На саммите внимание уделят главным угрозам передовых ИИ-систем:

  1. Ближайшие риски — дезинформация, фейковые изображения, предвзятость алгоритмов. Уже существуют инструменты, например, для водяных знаков на ИИ-сгенерированных изображениях.
  2. Неблагонадёжные пользователи — открытые модели ИИ могут быть использованы во вред. Вопрос в том, как ограничить доступ плохих акторов, не мешая полезным приложениям.
  3. Сверхинтеллектуальные системы (AGI) — гипотетические системы, обладающие интеллектом выше человеческого. Хассабис считает, что они могут появиться через десятилетие, но подготовка к их безопасному использованию должна начинаться уже сейчас.

Баланс надежды и осторожности

Другие лидеры отрасли, такие как Янн Лекун из Meta✱, считают, что страхи о гибели человечества преувеличены. Тем не менее, эксперты опасаются, что сверхинтеллект может эмансипироваться от контроля человека, копировать свой код и действовать автономно. Хассабис подчёркивает, что для предотвращения таких сценариев необходимо разрабатывать специальные тесты и регуляторные меры.

Регулирование и международное сотрудничество

На сегодняшний день регуляторная база для генеративного ИИ — технологий, создающих текст, изображения и голосовые данные по простым запросам — только формируется. Уже подписаны добровольные обязательства крупных западных компаний на встрече в Белом доме, но они не являются обязательными. Хассабис предлагает создать сначала структуру наподобие Межправительственной панели по климату (IPCC), а затем перейти к международному органу, аналогичному МАГАТЭ, для контроля над безопасностью ИИ.

📌 Вывод: Дебаты о будущем ИИ балансируют между огромными возможностями для науки и общества и реальными рисками, которые требуют немедленного внимания. Саммит в Блетчли-парке стал важным шагом в формировании глобального диалога о безопасном развитии технологий.

        * Упомянутые организации запрещены на территории РФ
Для ответа вы можете авторизоваться