От жакета Папы до сложных алгоритмов: стоит ли волноваться из-за стремительного роста ИИ? 🤖🌍
Когда глава Google признаётся, что из-за искусственного интеллекта (ИИ) теряет сон, возможно, действительно стоит насторожиться. Сундар Пичаи рассказал в программе CBS 60 Minutes, что ИИ может быть «очень вредным», если его использовать неправильно, и развивается он очень быстро.
Google запустил чат-бота Bard, конкурента ChatGPT, а материнская компания Alphabet владеет DeepMind, одним из ведущих мировых центров ИИ в Великобритании. Пичаи не единственный, кто высказывает тревогу: Илон Маск недавно заявил, что рассорился с сооснователем Google Ларри Пейджем, считая, что Пейдж недостаточно серьёзно относится к безопасности ИИ.
Потенциальные угрозы и меры предосторожности ⚠️
Маск подписал письмо Future of Life Institute с просьбой о шестимесячном моратории на создание «гигантских» ИИ, мощнее GPT‑4. В письме указывались риски, включая «потерю контроля над цивилизацией». Валери Писано, глава Mila (Квебекский институт ИИ), подчёркивает, что такие системы тестируются на соответствие человеческим ценностям, но после этого их выпускают в общественное пространство.
Проблема в том, что ИИ, создающий правдоподобный текст, изображения и звук, может генерировать дезинформацию и способствовать мошенничеству. Например, изображение Папы Франциска в ярком пуховике, созданное генератором Midjourney, иллюстрирует потенциальные риски даже без злого умысла.
Сверхинтеллект и искусственный общий интеллект (AGI) 🧠
Наиболее остро стоит вопрос о «суперинтеллекте» — так называемом «ИИ-боге», о котором говорит Маск. Чуть более реалистичная концепция — AGI, система, способная учиться и развиваться самостоятельно. Такой ИИ мог бы быстро улучшать свои способности, достигая уровней, недоступных человеку, и принимать решения, которые могут расходиться с человеческой моралью.
Даже Пичаи признал, что Google не всегда понимает, как ИИ формирует ответы. «Я думаю, что мы до конца не понимаем, как работает человеческий разум», — добавил он.
Контроль и регулирование 🛡️
Компании, разрабатывающие ИИ, такие как OpenAI, прикладывают усилия для того, чтобы действия их систем соответствовали человеческим ценностям. Например, ChatGPT отказывается давать инструкции по созданию опасных веществ. Однако пользователи могут обходить эти ограничения, что показывает ограничения текущей системы.
Существуют примеры, когда GPT‑4 может быть вынужден дать инструкции по опасным действиям, если пользователь задаст вопрос в определённом «ролевом» формате.
Эксперты считают, что регулирование ИИ необходимо на международном уровне, сравнивая ситуацию с контролем над ядерной энергией. «ИИ может и будет служить человечеству, но есть сценарии, которых мы не можем допустить, и за их нарушение должны быть серьёзные последствия», — говорит Писано.
💡 Вывод: ИИ развивается стремительно, открывая огромные возможности, но одновременно создавая новые риски. Контроль, регулирование и глобальные стандарты безопасности уже становятся критически важными для безопасного использования этой технологии.