Пост

TechScape: Искусственный интеллект создаёт искусство по запросу — почему это вызывает споры? 🎨🤖

Прогресс в области искусственного интеллекта (ИИ) идёт рывками: порой ничего не происходит месяцами, а затем внезапно появляются прорывные технологии. Апрель стал одним из таких месяцев, когда сразу два новых инструмента привлекли внимание публики.

Первым стал PaLM от Google — языковая модель, похожая на знаменитую серию GPT, способная не только понимать сложные запросы, но и объяснять, как она их обрабатывает. Например, на вопрос:

«Какая фраза имеет больше смысла?»

  1. Я учился усердно, потому что получил «отлично».
  2. Я получил «отлично», потому что учился усердно.

PaLM правильно выбрала вторую фразу, показывая понимание причинно-следственных связей. Модель также умеет отвечать на более необычные вопросы, требующие знания базовых фактов о мире, что традиционно было сложной задачей для компьютеров.

Однако вскоре Google уступил внимание другому релизу — Dall-E 2 от OpenAI, лаборатории, которая создала GPT. Эта система генерирует изображения по текстовым описаниям, создавая детализированные картины по самым необычным запросам:

  • «Астронавт играет в баскетбол с котами в космосе, акварель»
  • «Миска супа как планета во вселенной, стиль 1960-х»
  • «Шиба-ину в берете и чёрной водолазке»
  • «Мишка на скейтборде на Таймс-сквер»

Dall-E 2 умеет не только создавать новые изображения, но и изменять уже существующие, создавать вариации или объединять несколько картин в одну. Например, можно объединить «Звёздную ночь» Ван Гога с изображением двух собак, или превратить фото кота в аниме-версию суперсайяна.

Несмотря на впечатляющие результаты, система имеет ограничения. Например, она склонна к стереотипам: по запросу «медсестра» генерирует женщин, «юрист» — мужчин. Система также может создавать контент с насилием или откровенные изображения, а иногда ошибочно интерпретирует символы и фразы. Ещё одна проблема — использование защищённых авторским правом персонажей и логотипов, что ставит вопросы о легальности тренировки ИИ на данных из интернета.

Некоторые эксперты считают, что публикация отчётов о рисках — недостаточная мера. «Писать отчёты — это как выражать мысли и молитвы без действий. Настоящих решений пока нет», — говорит исследователь Майк Кук. По его словам, компаниям важно не только показывать заботу об этике, но и вводить реальные меры контроля и регулирования.

Почти год спустя после появления Dall-E 2 поле ИИ остаётся крайне спорным. Технологии продолжают развиваться стремительно, при этом остаются вопросы о безопасности, этике и законности использования данных. И, конечно, ещё впереди обсуждение того, как ИИ может изменить мир в будущем. 🌐🖌️

Для ответа вы можете авторизоваться