Пост

Meta✱ представила LLaMA: открытый ИИ-модель для исследователей и её возможные последствия 🦙🤖

На прошлой неделе компания Meta✱ анонсировала LLaMA, свою новую модель искусственного интеллекта, похожую на GPT. В условиях того, что ИИ становится ключевой технологией, крупные компании стремятся развивать собственные модели, чтобы не отставать от конкурентов. LLaMA присоединилась к таким системам, как GPT от OpenAI и LaMDA от Google, занимая место в числе передовых языковых моделей.

Meta✱ утверждает, что LLaMA — это «меньшая, но более производительная» модель, способная достигать высокой точности понимания и генерации текста при меньших вычислительных затратах, что также снижает экологический след. Более того, компания решила сделать её открытой для исследователей, подчеркивая разницу с OpenAI, которая хотя и носит имя «Open», на деле ограничивает доступ к своим моделям. 📚💻

В релизе Meta✱ объяснила, что высокая стоимость обучения больших языковых моделей ограничивает доступ академических исследователей к таким инструментам. Например, тренировка GPT-3 могла стоить от $10 до $12 миллионов за один запуск. Публикация LLaMA позволяет исследователям экономить средства и проводить фундаментальные исследования, тестировать новые подходы к снижению предвзятости, токсичности и других проблем в ИИ.

При этом Meta✱ предупредила, что доступ к модели будет предоставляться выборочно, чтобы снизить риски злоупотребления. Однако на выходных вся модель LLaMA была случайно утекла в сеть, что сделало её доступной для скачивания всем желающим. На данный момент использовать модель могут только те, кто обладает серьёзными техническими навыками и мощным оборудованием.

Случай с LLaMA напоминает историю с Stable Diffusion — открытым ИИ для генерации изображений, который с самого начала был доступен исследователям и разработчикам, что позволило быстро развивать новые сервисы на его основе. Это создает альтернативный путь развития ИИ: модели становятся доступными для всех, а не только для крупных компаний, которые выступают «вратарями» технологий.

Однако открытость моделей несет свои риски. В отличие от закрытых систем, нет встроенных фильтров, предотвращающих злоупотребления или распространение недостоверной информации. Опыт с генерацией изображений показывает, что отсутствие ограничений приводит к появлению контента, который был бы отфильтрован в контролируемой среде.

Таким образом, LLaMA может стать важным шагом для демократизации ИИ и ускорения научных исследований, но одновременно демонстрирует, что открытые технологии требуют новых подходов к безопасности и этике. ⚖️🌐

* Упомянутые организации запрещены на территории РФ
Для ответа вы можете авторизоваться