Пост

OpenAI: создать ИИ вроде ChatGPT без авторских материалов невозможно 🤖📚

Компания OpenAI заявила, что современные языковые модели, такие как ChatGPT, невозможно обучить без использования материалов, защищённых авторским правом. Эта тема становится всё более обсуждаемой на фоне растущего давления на разработчиков ИИ по поводу источников данных для обучения их продуктов.

Почему это важно 🧐

Большие языковые модели «учатся» на огромных массивах информации, собранной в интернете. Среди них — тексты, изображения, программный код, публикации на форумах и даже государственные документы. Большая часть подобных материалов формально подпадает под защиту авторских прав.

OpenAI в своём обращении к британскому парламентскому комитету по цифровым технологиям отметила:

«Авторское право сегодня распространяется практически на любую форму человеческого выражения. Исключить эти данные из обучения — значит сделать невозможным создание действительно полезных систем искусственного интеллекта».

Компания подчеркнула, что ограничение лишь произведениями, находящимися в общественном достоянии (например, книгами и иллюстрациями столетней давности), дало бы интересный, но совершенно непрактичный результат. Такие системы не смогли бы удовлетворить запросы современных пользователей.

Судебные иски и позиции компаний ⚖️

В последние месяцы вокруг ИИ-индустрии разгорелась целая волна юридических разбирательств. Крупные издательства, авторы и музыкальные компании обвиняют разработчиков нейросетей в нарушении прав.

OpenAI, комментируя недавние претензии, заявила, что поддерживает журналистику, сотрудничает со СМИ и считает иски против себя необоснованными. Компания подчёркивает, что уважает права создателей контента, но при этом уверена: действующее законодательство не запрещает обучение моделей на защищённых материалах.

Во многих случаях разработчики ИИ ссылаются на принцип «fair use» — правовую норму, допускающую ограничённое использование чужих работ без отдельного разрешения.

Безопасность ИИ 🛡️

Помимо вопроса авторских прав, OpenAI также заявила о поддержке независимого анализа безопасности своих моделей. Компания выступает за так называемое «red-teaming» — тестирование систем сторонними экспертами, имитирующими действия злоумышленников.

Кроме того, OpenAI входит в число компаний, согласившихся сотрудничать с правительствами разных стран для проверки наиболее мощных моделей до и после их запуска.

Что это значит 📌

История с авторскими правами показывает, что индустрия ИИ стоит на перепутье: с одной стороны, ей необходимы огромные объёмы данных для развития, с другой — растёт внимание к правам создателей. Вопрос в том, как найти баланс между инновациями и соблюдением интересов авторов, остаётся открытым.

Для ответа вы можете авторизоваться