TechScape: Искусственный интеллект создаёт искусство по запросу — почему это вызывает споры? 🎨🤖
Прогресс в области искусственного интеллекта (ИИ) идёт рывками: порой ничего не происходит месяцами, а затем внезапно появляются прорывные технологии. Апрель стал одним из таких месяцев, когда сразу два новых инструмента привлекли внимание публики.
Первым стал PaLM от Google — языковая модель, похожая на знаменитую серию GPT, способная не только понимать сложные запросы, но и объяснять, как она их обрабатывает. Например, на вопрос:
«Какая фраза имеет больше смысла?»
- Я учился усердно, потому что получил «отлично».
- Я получил «отлично», потому что учился усердно.
PaLM правильно выбрала вторую фразу, показывая понимание причинно-следственных связей. Модель также умеет отвечать на более необычные вопросы, требующие знания базовых фактов о мире, что традиционно было сложной задачей для компьютеров.
Однако вскоре Google уступил внимание другому релизу — Dall-E 2 от OpenAI, лаборатории, которая создала GPT. Эта система генерирует изображения по текстовым описаниям, создавая детализированные картины по самым необычным запросам:
- «Астронавт играет в баскетбол с котами в космосе, акварель»
- «Миска супа как планета во вселенной, стиль 1960-х»
- «Шиба-ину в берете и чёрной водолазке»
- «Мишка на скейтборде на Таймс-сквер»
Dall-E 2 умеет не только создавать новые изображения, но и изменять уже существующие, создавать вариации или объединять несколько картин в одну. Например, можно объединить «Звёздную ночь» Ван Гога с изображением двух собак, или превратить фото кота в аниме-версию суперсайяна.
Несмотря на впечатляющие результаты, система имеет ограничения. Например, она склонна к стереотипам: по запросу «медсестра» генерирует женщин, «юрист» — мужчин. Система также может создавать контент с насилием или откровенные изображения, а иногда ошибочно интерпретирует символы и фразы. Ещё одна проблема — использование защищённых авторским правом персонажей и логотипов, что ставит вопросы о легальности тренировки ИИ на данных из интернета.
Некоторые эксперты считают, что публикация отчётов о рисках — недостаточная мера. «Писать отчёты — это как выражать мысли и молитвы без действий. Настоящих решений пока нет», — говорит исследователь Майк Кук. По его словам, компаниям важно не только показывать заботу об этике, но и вводить реальные меры контроля и регулирования.
Почти год спустя после появления Dall-E 2 поле ИИ остаётся крайне спорным. Технологии продолжают развиваться стремительно, при этом остаются вопросы о безопасности, этике и законности использования данных. И, конечно, ещё впереди обсуждение того, как ИИ может изменить мир в будущем. 🌐🖌️