Генеральный директор Google признал ошибки в работе AI Gemini: пользователи оскорблены «предвзятыми» результатами 🖼️🤖
Генеральный директор Google Сундар Пичаи признал, что некоторые результаты, выдаваемые их искусственным интеллектом Gemini, были «предвзятыми» и «совершенно неприемлемыми». Причиной стали изображения, где исторические фигуры — включая немецких солдат Второй мировой войны, пап, викингов и отцов-основателей США — отображались в разнообразных этнических и гендерных вариантах, что вызвало возмущение пользователей.
Пичаи направил сотрудникам компании меморандум, в котором написал:
«Я знаю, что некоторые ответы вызвали недовольство пользователей и проявили предвзятость — это абсолютно неприемлемо, и мы допустили ошибку. Наши команды работают круглосуточно, чтобы исправить эти проблемы. Мы уже видим существенное улучшение по широкому кругу запросов».
На прошлой неделе Google приостановил возможность Gemini создавать изображения людей. Проблемы с предвзятостью AI не уникальны: раньше Google сталкивался с тем, что при переводе гендерно-нейтральных турецких фраз «они врач» и «они медсестра» на английский язык система переводила их как «he is a doctor» и «she is a nurse». Ранние версии генератора изображений Dall-E от OpenAI также демонстрировали стереотипные результаты: при запросе «судья» система чаще изображала белых мужчин, а при запросе «стрелок» — темнокожих мужчин.
В ответ на критику Google объявил о серии изменений в Gemini: структурные корректировки, обновлённые продуктовые инструкции и улучшенные процессы запуска. Также усиливается «red-teaming» — проверка продуктов на возможное злоупотребление.
Пичаи подчеркнул:
«Наша миссия — организовать мировую информацию и сделать её доступной и полезной для всех. Мы всегда стремились предоставлять пользователям полезную, точную и объективную информацию, и этот подход должен применяться ко всем продуктам, включая новые AI-технологии».
Gemini — переработанный AI-чатбот Google Bard, который теперь доступен по подписке с расширенными возможностями рассуждения. Подразделение Google DeepMind, стоящее за проектом, ранее добилось успехов с программой AlphaFold, предсказывающей трёхмерную структуру белков.
Демис Хассабис, глава DeepMind, отметил, что функция создания разнообразия в изображениях людей была внедрена «слишком грубо», что и привело к неприятной реакции пользователей.
Google продолжает работу над улучшением модели, чтобы обеспечить точность, нейтральность и корректность изображений и текстов, минимизируя риск предвзятости. 🌐✨