Пост

Компании, работающие с ИИ, участвуют в «гонке до дна», предупреждает профессор MIT 🤖⚠️

Профессор Массачусетского технологического института Макс Тегмарк, один из организаторов письма о приостановке разработки мощных систем искусственного интеллекта, заявил, что технологические компании продолжают работу над ИИ из-за жесткой конкуренции, оказавшись в так называемой «гонке до дна».

В марте Тегмарк вместе с коллегами из Future of Life Institute опубликовал открытое письмо, призывающее приостановить на шесть месяцев создание супер-ИИ. В письме участвовали более 30 тысяч подписантов, включая Илона Маска и сооснователя Apple Стива Возняка. Тем не менее, компании продолжили работу над системами, более мощными, чем GPT-4 — крупная языковая модель, лежащая в основе ChatGPT.

«Многие руководители компаний в приватных беседах признавали, что хотели бы паузы, но оказались в ситуации, когда никто не мог остановиться в одиночку», — объяснил Тегмарк. Письмо предупреждало о «неконтролируемой гонке» по созданию разума, который невозможно будет полностью понять, предсказать или контролировать, и призывало правительства вмешаться, если соглашение между крупнейшими компаниями, такими как Google, OpenAI и Microsoft, не будет достигнуто.

Тегмарк отметил, что письмо оказалось успешным, хотя и не остановило разработку ИИ. Оно привлекло внимание к проблеме на политическом уровне: в США состоялись слушания в Сенате с участием руководителей ИТ-компаний, а Великобритания планирует провести глобальный саммит по безопасности ИИ в ноябре. «Обсуждать риски ИИ стало социально приемлемо. Письмо легитимизировало разговор на эту тему», — сказал он.

Эксперты предупреждают, что ИИ может создавать реалистичные фейковые видео и тексты, способные распространять дезинформацию, а также представлять долгосрочные риски, если супер-интеллект окажется вне человеческого контроля. Тегмарк подчеркнул, что пауза в разработке необходима до тех пор, пока не будут приняты согласованные глобальные стандарты безопасности. «Создание более мощных моделей должно быть приостановлено, пока они не соответствуют этим стандартам», — заявил он.

Особое внимание он уделил открытым источникам ИИ: «Опасные технологии не должны быть общедоступными, будь то биотехнологии или программное обеспечение», — отметил Тегмарк, подчеркивая необходимость регулирования открытых моделей для защиты общества.

Саммит по безопасности ИИ в Великобритании должен стать шагом к выработке единого понимания рисков, глобального ответа и срочного вмешательства государственных органов для безопасного развития технологий. 🌐🛡️

Для ответа вы можете авторизоваться