Крупные компании создают организацию для безопасного развития ИИ 🤖🌐
Четыре ведущие компании в области искусственного интеллекта объединились для создания отраслевой организации, которая будет следить за безопасной разработкой передовых моделей ИИ. В инициативу под названием Frontier Model Forum вошли OpenAI (разработчик ChatGPT), Anthropic, Microsoft и Google (владелец британской компании DeepMind).
Главная цель нового форума — продвижение «безопасного и ответственного» развития передовых моделей ИИ, то есть технологий, ещё более мощных, чем те, что доступны сегодня.
«Компании, создающие технологии ИИ, несут ответственность за то, чтобы они оставались безопасными, надёжными и находились под контролем человека», — отметил президент Microsoft Брэд Смит. «Эта инициатива объединяет сектор технологий для того, чтобы продвигать ИИ ответственно и решать возникающие вызовы на благо всего человечества».
Члены форума заявили, что будут сосредоточены на нескольких ключевых направлениях:
- Исследование и разработка стандартов безопасности ИИ.
- Продвижение ответственного использования передовых моделей.
- Обсуждение рисков доверия и безопасности с учёными и экспертами.
- Разработка положительных применений ИИ, например, для борьбы с изменением климата и раннего выявления заболеваний.
Форум открыт для организаций, занимающихся разработкой передовых моделей — крупных систем машинного обучения, превосходящих возможности современных передовых моделей и способных выполнять широкий спектр задач.
Создание форума совпало с активизацией усилий по регулированию ИИ. Недавно ведущие технологические компании договорились о дополнительных мерах безопасности после встречи с Белым домом, включая маркировку материалов, созданных ИИ, и независимое тестирование моделей экспертами.
Однако некоторые эксперты выражают скепсис: опыт показывает, что индустрия технологий не всегда соблюдает обещания по саморегулированию. При этом независимый контроль ИИ критически важен, так как технологии обладают огромным потенциалом как для пользы, так и для рисков.
По словам доктора Эндрю Рогоиски из Института ориентированного на человека ИИ при Университете Суррея, «надзор за искусственным интеллектом не должен превращаться в ситуацию, когда интересы компаний доминируют над процессом регулирования. ИИ — слишком мощная технология, чтобы её развитие контролировалось только частным сектором».
Таким образом, создание Frontier Model Forum — это шаг к объединению усилий компаний для безопасного и полезного применения ИИ, одновременно поднимающий вопросы о независимом контроле и будущем регулировании технологий. 🌍🤖