Пост

Крупные компании создают организацию для безопасного развития ИИ 🤖🌐

Четыре ведущие компании в области искусственного интеллекта объединились для создания отраслевой организации, которая будет следить за безопасной разработкой передовых моделей ИИ. В инициативу под названием Frontier Model Forum вошли OpenAI (разработчик ChatGPT), Anthropic, Microsoft и Google (владелец британской компании DeepMind).

Главная цель нового форума — продвижение «безопасного и ответственного» развития передовых моделей ИИ, то есть технологий, ещё более мощных, чем те, что доступны сегодня.

«Компании, создающие технологии ИИ, несут ответственность за то, чтобы они оставались безопасными, надёжными и находились под контролем человека», — отметил президент Microsoft Брэд Смит. «Эта инициатива объединяет сектор технологий для того, чтобы продвигать ИИ ответственно и решать возникающие вызовы на благо всего человечества».

Члены форума заявили, что будут сосредоточены на нескольких ключевых направлениях:

  • Исследование и разработка стандартов безопасности ИИ.
  • Продвижение ответственного использования передовых моделей.
  • Обсуждение рисков доверия и безопасности с учёными и экспертами.
  • Разработка положительных применений ИИ, например, для борьбы с изменением климата и раннего выявления заболеваний.

Форум открыт для организаций, занимающихся разработкой передовых моделей — крупных систем машинного обучения, превосходящих возможности современных передовых моделей и способных выполнять широкий спектр задач.

Создание форума совпало с активизацией усилий по регулированию ИИ. Недавно ведущие технологические компании договорились о дополнительных мерах безопасности после встречи с Белым домом, включая маркировку материалов, созданных ИИ, и независимое тестирование моделей экспертами.

Однако некоторые эксперты выражают скепсис: опыт показывает, что индустрия технологий не всегда соблюдает обещания по саморегулированию. При этом независимый контроль ИИ критически важен, так как технологии обладают огромным потенциалом как для пользы, так и для рисков.

По словам доктора Эндрю Рогоиски из Института ориентированного на человека ИИ при Университете Суррея, «надзор за искусственным интеллектом не должен превращаться в ситуацию, когда интересы компаний доминируют над процессом регулирования. ИИ — слишком мощная технология, чтобы её развитие контролировалось только частным сектором».

Таким образом, создание Frontier Model Forum — это шаг к объединению усилий компаний для безопасного и полезного применения ИИ, одновременно поднимающий вопросы о независимом контроле и будущем регулировании технологий. 🌍🤖

Для ответа вы можете авторизоваться