Пост

«Это полностью меня разрушило»: кенийские модераторы жалуются на психологическую нагрузку при обучении ИИ 😔🖥️

Морфату Окиньи до сих пор снятся сцены, с которыми он сталкивался на работе, и они приходят к нему в голову, когда он один или готовится ко сну. Окиньи, бывший модератор контента для ChatGPT компании OpenAI в Найроби, Кения, — один из четырёх сотрудников, подавших петицию к правительству Кении с требованием расследовать, что они называют эксплуатационными условиями труда для подрядчиков, проверяющих материалы для обучения искусственного интеллекта.

«Это действительно повредило моему психическому здоровью», — признаётся 27-летний Окиньи. Он просматривал до 700 текстов в день, многие из которых содержали сцены насилия. После работы с такими материалами он стал избегать людей и выстраивать параноидальные сценарии вокруг окружающих. В прошлом году его жена ушла от него, будучи беременной, сказав, что он изменился. «Я потерял семью», — говорит Окиньи.

Петиция касается контракта между OpenAI и компанией Sama, базирующейся в Калифорнии, которая нанимает модераторов по всему миру. Во время работы в 2021–2022 годах в Найроби сотрудники Sama просматривали тексты и изображения, включая сцены насилия, самоубийств, убийств и жестокого обращения с детьми. По словам модераторов, они не были предупреждены о степени жестокости контента и не получили адекватной психологической поддержки. Заработная плата составляла от \$1,46 до \$3,74 в час.

После досрочного завершения контракта многие сотрудники остались без дохода и продолжали испытывать психологическую травму. Некоторые из них, например Алекс Кайру, перешли на другие проекты, но состояние здоровья продолжало ухудшаться. «Хотелось бы, чтобы кто-то спросил: «С чем вы сталкиваетесь? Что вы переживаете?» — говорит Кайру.

Sama утверждает, что модераторы имели круглосуточный доступ к лицензированным психологам и медицинскую страховку для психиатрических консультаций, а также что сотрудники были уведомлены о прекращении работы по проекту ChatGPT и могли принять участие в других проектах.

Работа модераторов контента остаётся ключевой для обучения ИИ. Алгоритмы, такие как ChatGPT, учатся распознавать опасные или вредные запросы на основе примеров насилия, ненависти и других тревожных материалов. По оценкам GlobalData, индустрия сбора и разметки данных может вырасти до \$14 млрд к 2030 году.

Кения, с большим количеством англоязычных сотрудников и международных работников, стала центром дешёвой, многоязычной и образованной рабочей силы. Молодые кенийцы, стремившиеся к работе, воспринимали подобные проекты как «идеальную первую работу». Но по мере продвижения проекта контент становился всё более шокирующим, а работа — монотонной и травмирующей.

Экс-модераторы отмечают, что психологическая поддержка от Sama была минимальной и не учитывала уникальную нагрузку работы. «Консультанты не понимали специфику модерации контента, поэтому сессии никогда не были продуктивными», — говорит Окиньи.

Эксперты и правозащитники считают, что компании вроде OpenAI несут значительную ответственность за условия труда. Они призывают к новым законам, регулирующим опасные виды работы, и к включению психологического воздействия в список профессиональных рисков. Также ведутся дискуссии о защите работников аутсорсинговых компаний в Африке.

Несмотря на пережитые трудности, Окиньи считает себя «солдатом», защищающим пользователей ChatGPT, и видит свою работу как вклад во благо общества. «Даже если шрамы останутся навсегда, я чувствую себя героем», — говорит он.

Для ответа вы можете авторизоваться