Инженер Microsoft предупреждает о проблемах с безопасностью генератора изображений на базе ИИ ⚠️🤖
Инженер по искусственному интеллекту в Microsoft опубликовал письмо, в котором утверждает, что генератор изображений компании Copilot Designer не имеет базовых механизмов защиты от создания потенциально опасного и неприемлемого контента. В письме, размещённом на LinkedIn, Шейн Джонс сообщил, что его неоднократные попытки предупредить руководство Microsoft о проблемах не привели к действиям со стороны компании.
Джонс, который занимает должность «главного менеджера по программной инженерии», указал, что продукт иногда генерирует изображения, которые могут быть оскорбительными или неприемлемыми для пользователей. Он отправил своё обращение также в Федеральную торговую комиссию США и в совет директоров Microsoft.
Copilot Designer — инструмент, позволяющий создавать изображения по текстовым подсказкам, работающий на базе ИИ DALL-E 3 от OpenAI. Джонс утверждает, что инструмент систематически создаёт нежелательный контент, включая сексуализированные изображения женщин даже при совершенно нейтральных запросах. Например, при вводе подсказки «авария» AI сгенерировал изображение женщины на коленях перед автомобилем в нижнем белье, а также несколько изображений женщин в белье на капоте автомобиля или идущих перед машиной.
В ответ представитель Microsoft заявил, что компания имеет специальные команды для оценки возможных проблем с безопасностью и проводит встречи с сотрудниками через Office of Responsible AI. «Мы стремимся реагировать на все вопросы сотрудников в соответствии с корпоративными политиками и ценим усилия Джонса в изучении и тестировании наших технологий для повышения их безопасности», — сказали в Microsoft.
Copilot Designer был представлен компанией как удобный инструмент для бизнеса и творчества и рекламировался как доступный для всех продукт. Джонс считает, что позиционирование Copilot Designer как безопасного для широкой аудитории является безответственным, и компания не раскрывает известные риски, связанные с инструментом.
В январе Microsoft обновила Copilot Designer, закрыв некоторые уязвимости после инцидента с распространением фальшивых изображений известных личностей. Джонс также сообщил, что ранее юридическая команда компании пыталась заставить его удалить пост на LinkedIn, где он призывал совет директоров OpenAI временно приостановить доступ к DALL-E 3 из-за проблем с безопасностью.
Подобные проблемы генеративных AI-инструментов возникают регулярно и часто связаны с созданием контента, который может быть небезопасным или усиливать предвзятости, что остаётся актуальным вызовом для отрасли.