Можно ли контролировать генераторы изображений ИИ, чтобы избежать создания опасного контента? 🤖🖼️
Современные генераторы изображений на базе искусственного интеллекта открывают невероятные возможности, но вместе с тем несут серьёзные риски. Одним из них является возможность создания опасного или недопустимого контента, включая материалы, нарушающие права и безопасность людей.
Исследователи отмечают, что даже самые популярные открытые наборы данных для обучения ИИ могут содержать запрещённые или опасные изображения. Так, в декабре 2023 года команда Стэнфордского университета обнаружила, что среди миллиардов картинок одного из крупнейших наборов данных для генераторов изображений были сотни сомнительных примеров. Набор данных Laion-5B, включающий около 5 миллиардов изображений, использовался для обучения моделей вроде Stable Diffusion. Некоторые изображения уже нельзя было проверить, так как ссылки на них устарели, но данные, использованные для обучения, уже оставили след в нейронных сетях.
Это создаёт проблему: генераторы изображений могут воспроизводить нежелательный или опасный контент, потому что «видели» его во время обучения. Аналогичные риски существуют и у других открытых моделей, если наборы данных не проходят строгую фильтрацию.
Компании вроде OpenAI используют другой подход. Их модели, такие как Dall-E 3, обучались на комбинации общедоступных и лицензированных данных с фильтрацией самого откровенного контента. Все запросы обрабатываются через сервер компании, что позволяет фильтровать нежелательные изображения до их отправки пользователю. Такая стратегия делает контроль над контентом более надёжным, чем полная зависимость от того, что модель «никогда не видела» опасного материала.
Эксперты по безопасности ИИ подчёркивают, что полностью «чистый» набор данных не всегда полезен. Модель, которая никогда не сталкивалась с проблемным контентом, может быть неспособна распознать его в реальной ситуации и правильно реагировать. Поэтому важно сохранять пространство для безопасного развития открытых моделей: именно на базе открытого ИИ могут появиться лучшие инструменты для предотвращения вреда в будущем.
В краткосрочной перспективе законы и инициативы сосредоточены на специальных инструментах, созданных для генерации недопустимого контента. В долгосрочной же борьба с опасными изображениями ИИ сталкивается с фундаментальной проблемой: как ограничить систему, работу которой мы полностью не понимаем.
🤖💡 Ключевой вывод: контроль и фильтрация — главный путь к безопасному использованию генераторов изображений ИИ, а открытые исследования могут стать важным инструментом для защиты пользователей.