Крупные технологические компании отвлекают внимание от потенциальных рисков ИИ, предупреждает учёный 🤖⚠️
Ведущий учёный и эксперт по искусственному интеллекту Макс Тегмарк заявил, что крупные технологические компании отвлекают общественность от экзистенциального риска, который ИИ может представлять для человечества. Об этом он рассказал в интервью на Саммите по ИИ в Сеуле, Южная Корея.
По мнению Тегмарка, смещение внимания с глобальных угроз на более общие вопросы безопасности ИИ может замедлить принятие строгих правил регулирования для разработчиков самых мощных программ. Он сравнил современную ситуацию с ИИ с открытием первого ядерного реактора Энрико Ферми в 1942 году: когда учёные поняли, что путь к созданию атомной бомбы стал реальностью, это вызвало тревогу — но реакция была быстрой. Аналогично, модели ИИ, способные успешно проходить тест Тьюринга, являются сигналом тревоги о потенциальной потере контроля над такими системами.
Тегмарк, основавший некоммерческий Future of Life Institute, в прошлом году призвал к шестимесячной паузе в исследованиях передового ИИ. Запуск модели GPT-4 компанией OpenAI стал «сигналом тревоги», показывающим, что риски становятся слишком близкими к реальности. Несмотря на тысячи подписей экспертов, включая Геффри Хинтона и Йошуа Бенжио, пауза так и не была введена.
«Мы хотели, чтобы письмо легитимизировало разговор о рисках, и это сработало. Люди видели, что такие эксперты, как Бенжио, обеспокоены, и сами начали обращать внимание на проблему», — отметил Тегмарк. По его словам, теперь пора перейти от слов к действиям.
Однако с момента саммита в Блетчли-Парке фокус международного регулирования сместился от экзистенциального риска к более общему спектру угроз: от утечки личных данных до влияния на рынок труда и потенциально катастрофических последствий. Тегмарк предупреждает, что умалчивание о серьёзных рисках — это не случайность, а следствие влияния индустрии. Он сравнивает это с историей курения: первые исследования о вреде сигарет появились в 1955 году, но регулирование началось лишь в 1980-х из-за активного давления отрасли.
Учёный подчёркивает, что текущие проблемы ИИ, такие как предвзятость и негативное влияние на уязвимые группы, требуют внимания. Но игнорирование глобальных рисков ради краткосрочных проблем может быть опасным.
По мнению Тегмарка, технологические лидеры не спешат поддерживать строгие меры безопасности, потому что чувствуют себя в сложной ситуации, где они не могут действовать без государственных стандартов. «Единственный способ поставить безопасность на первое место — это введение правил для всех разработчиков ИИ на государственном уровне», — заключает он.
ИИ продолжает развиваться быстрыми темпами, и эксперты считают, что своевременное регулирование может сыграть ключевую роль в обеспечении безопасности технологий будущего. 🌐⚡