«Мы определённо облажались»: почему инструмент Google AI создал некорректные исторические изображения 🤖🖼️
После запуска искусственного интеллекта Google под названием Gemini возникли неожиданные проблемы, которые привлекли внимание СМИ и специалистов. На мероприятии по разработке AI 2 марта сооснователь Google Сергей Брин признал: «Мы определённо облажались».
Суть скандала заключалась в том, что генератор изображений Gemini создавал картинки исторических личностей — от религиозных лидеров до известных фигур прошлого — в непредусмотренном виде, иногда меняя их этническую принадлежность. Эти ошибки вызвали волну критики в социальных сетях и комментарии экспертов, включая руководство Google, которое назвало часть результатов «совершенно неприемлемыми».
Как это произошло? Gemini сочетает текстовый генератор, обученный на больших языковых моделях, с системой генерации изображений. AI получает инструкции превращать текстовые запросы пользователей в подробные промты для генератора картинок. В попытке сделать систему более инклюзивной и разнообразной, разработчики дали модели рекомендации учитывать разные этнические группы и пол людей. Но, по словам Брина и других экспертов, в результате настройка оказалась чрезмерной и привела к странным и некорректным изображениям.
Руководитель поисковых продуктов Google Прабхакар Рагхаван объяснил в блоге: «Наши настройки, чтобы показать разнообразие людей, не учли ситуации, где это было неуместно. Со временем модель стала слишком осторожной и отказывалась отвечать на некоторые запросы, неправильно интерпретируя простые вопросы как чувствительные».
По мнению профессора компьютерных наук из Университета Саутгемптона Венди Холл, Google поспешил с запуском Gemini, пытаясь поспевать за успехом конкурентов. Недостаточное тестирование технологии привело к ошибкам, которые вызвали общественное недовольство.
Эксперты подчеркивают, что генеративный ИИ всё ещё находится на ранней стадии развития. Ожидать от таких моделей полной точности, креативности и соблюдения социальных норм одновременно невозможно. Но инцидент с Gemini имеет и положительный эффект: он помогает сосредоточиться на более насущных проблемах, таких как создание безопасного контента и борьба с фальшивыми изображениями, прежде чем думать о глобальных угрозах.
В целом, ситуация демонстрирует, насколько сложной задачей остаётся создание ответственных и безопасных AI-систем, и что общественность и компании только учатся работать с этой технологией на практике ⚡🤯.