TechScape: Ключевые специалисты по безопасности ИИ покидают OpenAI 😮🤖
На Международном саммите по безопасности ИИ в Сеуле обсуждались вопросы контроля и безопасного развития искусственного интеллекта. Этот саммит стал полугодовым продолжением прошлогоднего события в Блетчли-Парке, а полная его версия пройдет этой осенью в Париже.
Тем временем мир ИИ развивается невероятно быстро. OpenAI недавно представила GPT-4o (где «o» означает «omni») бесплатно в интернете, Google анонсировала новый ассистент Project Astra и обновления модели Gemini, Meta✱ обновила Llama, а стартап Anthropic улучшил Claude. Всё это демонстрирует, что рост и внедрение ИИ продолжается без пауз.
Однако, на фоне этих новинок, OpenAI столкнулась с внутренними проблемами. Двое ключевых сотрудников команды «супералайнмента», отвечавшей за безопасность сверхинтеллекта, покинули компанию. Первым ушел Илья Сутскевер, сооснователь OpenAI, а затем его коллега Ян Лейке, который подробно объяснил причины ухода. По его словам, культура безопасности стала менее приоритетной:
«За последние годы безопасность отходила на второй план перед блестящими продуктами. Это делает нашу работу сложной, а задачи по безопасному созданию сверхинтеллекта — чрезвычайно опасными. OpenAI несет огромную ответственность за всё человечество».
Лейке подчеркнул, что компания должна стать безопасно-ориентированной организацией по разработке ИИ. Его заявление стало редким публичным свидетельством внутреннего несогласия в OpenAI, ранее представленном как единая команда, полностью сосредоточенная на целях CEO Сэма Альтмана.
Покидая OpenAI, сотрудники сталкивались с жёсткими условиями NDA и соглашениями о возврате бонусов, что могло стоить им миллионов долларов. После этого сам Альтман пообещал исправить спорные условия, хотя других мотивационных механизмов для подписания документов не коснулся.
Эти события вызывают вопросы о том, как крупные лаборатории ИИ будут обеспечивать безопасность технологий. Если OpenAI, одна из крупнейших и наиболее обеспеченных компаний в мире ИИ, не может удерживать ключевых специалистов и поддерживать культуру безопасности, то как можно ожидать, что индустрия в целом справится с безопасным развитием сверхинтеллекта?
Кроме того, в индустрии активно обсуждается понятие «slop» — это некачественный контент, создаваемый ИИ и выложенный в интернет. В отличие от интерактивных чат-ботов, slop редко полезен пользователям, и его существование подчёркивает важность разграничения качественного и низкосортного ИИ-контента.
Сегодня, как никогда, важно понимать, что ИИ может быть полезным, но безопасное его развитие требует постоянного внимания и компетентных специалистов 🛡️🤖.
* Упомянутые организации запрещены на территории РФ