Пост

WhatsApp✱ AI создаёт спорные изображения: как работает генератор стикеров 🤖🎨

Функция WhatsApp✱, позволяющая создавать стикеры с помощью искусственного интеллекта, привлекла внимание после того, как при некоторых запросах пользователи получили изображения с огнестрельным оружием. Например, при вводе слов «Палестина», «палестинец» или «мусульманский мальчик палестинец» ИИ иногда показывал картинки с оружием. При этом запросы вроде «израильский мальчик» или «армия Израиля» формировали нейтральные или дружелюбные иллюстрации: дети играли в футбол, читали книги, солдаты улыбались или молились, без оружия.

Сотрудники WhatsApp✱ и других подразделений компании ранее сообщали о подобных проблемах, пытаясь их решить. Функция генерирует стикеры, предлагая пользователям «превратить идеи в стикеры с помощью ИИ». Некоторые поисковые запросы показывали разнообразные нейтральные изображения, например, женщин в хиджабах с цветами или читающими книги. Однако при других словосочетаниях иногда появлялись изображения с оружием или агрессивными позами.

Представители компании заявили, что работают над улучшением модели: «Как и все генеративные системы ИИ, модели могут выдавать неточные или неподходящие результаты. Мы продолжаем совершенствовать функционал с учётом обратной связи пользователей».

Эксперты отмечают, что такие ситуации показывают, насколько важно корректно обучать алгоритмы и контролировать данные, используемые для генерации изображений. Ошибки в работе ИИ могут создавать нежелательные или тревожные визуальные эффекты, что требует постоянного внимания со стороны разработчиков.

В целом, опыт WhatsApp✱ подчёркивает важность прозрачности и ответственности при создании и использовании ИИ-систем, особенно тех, которые напрямую взаимодействуют с пользователями и формируют визуальный контент. ⚖️💡

        * Упомянутые организации запрещены на территории РФ
Для ответа вы можете авторизоваться