Пост

«Это не я, это просто моё лицо»: модели, чьи изображения использовали в AI-видео без их согласия 🎭🤖

В последние годы технологии искусственного интеллекта умеют создавать невероятно реалистичные видеоролики с цифровыми аватарами, копирующими внешность людей. Однако не всегда использование таких технологий проходит без последствий для самих моделей. Так, несколько актеров и моделей узнали, что их лица использовали для создания видео, о которых они даже не подозревали.

Как это произошло 🎬

Летом 2022 года несколько моделей получили предложение от стартапа из Лондона Synthesia поучаствовать в съемках для создания AI-аватаров. Оплата за день съемки была привлекательной — около £4,000, с правом использования изображений в течение трех лет. Сначала участников водили в грим и на пробы, а затем снимали в студии, где они читали тексты с телесуфлера, меняли костюмы и выполняли различные эмоции и движения.

После съемок участники получили контракты и ссылки на свои цифровые аватары. Никто из них не ожидал, что их лица будут использованы вне рекламных роликов, в том числе для создания фейковых видео, которые распространялись в интернете.

Последствия для моделей 😔

Для Марка Торреса, одного из участников съемок, видео с его образом стало настоящим шоком. «Я был в шоке, у меня нет слов. За двадцать лет работы в креативной индустрии я никогда не чувствовал себя так нарушенным и уязвимым», — говорит он. Торрес подчеркнул, что его лицо использовали для видео, которые могли показать его в неподобающем свете, и это могло повлиять на его репутацию и карьеру.

Коннор Йейтс, другой актер, вспоминает: «Они сказали, что снимают меня для рекламных целей, а в итоге мой аватар оказался в роликах, которые я даже не видел». Оба они и другие модели не знали о таких видео до того момента, как журналисты обратились к ним.

Компания Synthesia и её технологии 🤖

Synthesia была основана в 2017 году и изначально разрабатывала инструменты для автоматического дубляжа видео на разные языки. Сегодня компания предлагает создать цифрового аватара для презентаций и маркетинга всего за £23 в месяц. Аватары могут говорить на 120 языках и имитировать разные эмоции и жесты. Среди клиентов компании — крупные международные компании, такие как Microsoft, Zoom и Xerox.

Тем не менее технология была использована не по назначению — для создания фейковых видеороликов, где лица моделей вставлялись в чужие сценарии. Synthesia заявляет, что запрещает использование аватаров для политического контента и дезинформации, усилила модерацию и наняла дополнительных сотрудников для контроля за контентом.

Влияние на психику и карьеру 🧠

Многие модели испытали сильный стресс и тревогу после того, как узнали, что их изображения использованы в неожиданных роликах. Дан Дьюхирст, другой актер, сказал: «Множество людей писали мне, и, возможно, я потерял клиентов. Но это не я, это просто моё лицо».

Эксперты предупреждают, что технологии AI для создания видео с цифровыми копиями людей — это «опасные американские горки», на которых люди могут пострадать, даже если сами не совершали никаких действий. Удалить такие аватары крайне сложно, а вред, причинённый репутации, исправить почти невозможно.

Заключение 🎭

История Марка Торреса и Коннора Йейтса показывает, что использование технологий AI требует предельной осторожности и строгих правил, особенно когда дело касается цифровых копий реальных людей. Synthesia продолжает работать над улучшением контроля и защита интересов моделей остаётся важной задачей для всей индустрии.

Использование AI в креативных сферах открывает новые возможности, но также ставит перед обществом вопросы этики, защиты личности и ответственности за цифровой контент. ⚠️📹

Для ответа вы можете авторизоваться