Кенийские работники, помогавшие удалять вредоносный контент в ChatGPT, интеллектуальной поисковой системе OpenAI, генерирующей контент на основе подсказок пользователя, подали петицию в законодательные органы страны с призывом начать расследование в отношении аутсорсинга компанией Big Tech работ по модерации контента и искусственного интеллекта в Кении.
Заявители требуют расследования «характера работы, условий труда и деятельности» крупных технологических компаний, которые предоставляют услуги в Кении через такие компании, как Sama, которая находится в центре нескольких судебных разбирательств, связанных с предполагаемой эксплуатацией, уничтожением профсоюзов и незаконными массовыми увольнениями модераторов контента.
Петиция была составлена после публикации отчета Time, в котором подробно описывается скромное вознаграждение работников Sama, сделавших ChatGPT менее опасным, а также характер их работы, требующей чтения и маркировки графических текстов, включая описание сцен убийства, скотоложства и изнасилования. В отчете говорилось, что в конце 2021 года компания Sama получила контракт от OpenAI на «маркировку текстовых описаний сексуального насилия, языка ненависти и жестокости» в рамках работы по созданию инструмента (который был встроен в ChatGPT) для обнаружения токсичного контента.
Работники утверждают, что их эксплуатировали, не оказывали им психологической поддержки, но при этом они подвергались воздействию вредного контента, в результате чего у них развились «тяжелые психические заболевания». Работники хотят, чтобы законодатели «регулировали аутсорсинг вредных и опасных технологий» и защитили работников, которые этим занимаются.
Они также призывают принять закон, регулирующий «аутсорсинг работ с вредными и опасными технологиями и защищающий работников, которые привлекаются к таким работам».
Sama утверждает, что ее клиентами являются 25% компаний из списка Fortune 50, включая Google и Microsoft. Основным направлением деятельности компании, базирующейся в Сан-Франциско, является аннотирование, курирование и проверка данных компьютерного зрения. В ее центрах, в том числе и в Кении, работает более 3 000 человек. В начале этого года компания Sama отказалась от услуг по модерации контента, чтобы сосредоточиться на аннотировании данных компьютерного зрения, уволив 260 сотрудников.
В ответе OpenAI на обвинения в эксплуатации признается, что работа была сложной, и добавляется, что компания установила и распространила этические и санитарные нормы среди своих аннотаторов данных, чтобы работа выполнялась «гуманно и добровольно».
Они отметили, что для создания безопасного и полезного искусственного интеллекта общего назначения аннотирование данных людьми является одним из многочисленных направлений работы компании, позволяющим собирать обратную связь от людей и направлять модели на более безопасное поведение в реальном мире.
«Мы признаем, что это сложная работа для наших исследователей и специалистов по аннотированию в Кении и по всему миру — их усилия по обеспечению безопасности систем искусственного интеллекта были чрезвычайно ценными», — заявил представитель OpenAI.
Компания Sama сообщила TechCrunch, что она готова сотрудничать с правительством Кении «для обеспечения базовой защиты во всех организациях». Компания заявила, что приветствует проведение сторонних проверок условий труда, добавив, что у сотрудников есть множество каналов для выражения беспокойства, и что она «провела множество внешних и внутренних оценок и проверок, чтобы убедиться в том, что мы платим справедливую зарплату и обеспечиваем достойные условия труда».