Пост

Юваль Ной Харари предупреждает о потенциально «катастрофическом» кризисе из-за ИИ 🤖💥

Известный историк и автор Юваль Ной Харари выразил обеспокоенность тем, что искусственный интеллект (ИИ) может привести к финансовому кризису с «катастрофическими» последствиями. По его словам, сложность современных ИИ-систем делает прогнозирование их опасностей крайне трудным.

Харари отметил, что в отличие от ядерного оружия, где существует одно очевидное опасное сценарий, ИИ создаёт множество потенциально рискованных ситуаций с малой вероятностью, но в совокупности представляющих серьёзную угрозу для экономики и общества.

Он позитивно оценил недавно подписанную декларацию на глобальном саммите по безопасности ИИ в Блетчли-Парке, в которой ведущие страны выразили готовность сотрудничать по тестированию продвинутых моделей ИИ до и после их внедрения. Харари подчеркнул важность глобального сотрудничества, считая, что без него будет крайне сложно сдерживать наиболее опасные возможности ИИ.

Особую тревогу у исследователя вызывает финансовая сфера, где ИИ может разрабатывать новые финансовые инструменты, понятные только самим алгоритмам. Харари напомнил о финансовом кризисе 2007–2008 годов, спровоцированном сложными долговыми инструментами, которые мало кто понимал и которые плохо регулировались. По его мнению, ИИ способен создавать инструменты, в понимании которых будут ограничены даже эксперты, что может привести к серьёзному экономическому кризису.

Харари уточнил, что такой кризис не уничтожит человечество напрямую, но может вызвать серьёзные экономические, социальные и политические последствия, а также косвенно спровоцировать конфликты.

Он считает, что основной задачей должно стать создание мощных регулирующих институтов, способных быстро реагировать на новые риски ИИ. Законодательство не должно опережать развитие технологий, так как к моменту принятия оно может устареть. Харари также предложил, чтобы институты безопасности ИИ нанимали специалистов, понимающих влияние технологий на финансовые системы.

Великобритания и США уже начали создавать такие центры для тестирования продвинутых моделей ИИ. По словам представителей британского департамента науки и технологий, финансовые регуляторы страны — Financial Conduct Authority и Prudential Regulation Authority — лучше всего подготовлены для оценки рисков и регулирования применения ИИ в экономике.

Эта инициатива призвана обеспечить безопасное использование ИИ и предотвратить возможные кризисы, связанные с неконтролируемым развитием технологий.

Для ответа вы можете авторизоваться