Treinadores quenianos do ChatGPT conquistam garantias, após denúncias de trabalho insalubre

Com colaboração de projeto de Oxford, terceirizadora Sama garante pagamento digno e segurança durante expediente

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Denunciada em janeiro por terceirizar trabalho insalubre no Quênia, a empresa de "inteligência artificial ética" Sama se comprometeu a melhorar as condições laborais de seus contratados. O compromisso foi firmado com um laboratório com sede na Universidade de Oxford, na Inglaterra. A Sama prestou serviços na moderação do ChatGPT, assim como havia feito anteriormente para Facebook e Instagram.

Documentos obtidos pela revista Time mostraram que a empresa pagava entre US$ 1,32 (R$ 6,46) e US$ 2 (R$ 9,78) por hora dos trabalhadores, que apontavam conteúdo abusivo, com referências à pedofilia, violência explícita e pornografia.

Esse trabalho, fundamental para o desenvolvimento de inteligência artificial, é chamado de anotação de dados. Consiste em adicionar descrições a imagens, textos e áudios usados no desenvolvimento de sistemas de inteligência artificial.

A advogada de trabalhadores terceirizados pela Sama, Mercy Mutemi, em entrevista coletiva sobre protesto contra Meta, a holding dona do Facebook e do Instagram
A advogada de trabalhadores terceirizados pela Sama, Mercy Mutemi, em entrevista coletiva sobre protesto contra Meta, a holding dona do Facebook e do Instagram - Baz Ratner/Reuters

Os valores oferecidos pela Sama ficavam acima do salário mínimo queniano, mas muito abaixo do valor de remuneração californiano, de US$ 15,50 (R$ 75,80) por hora. Além disso, armazenar conteúdo de pedofilia, como foi necessário para treinar o ChatGPT, é crime em território americano.

Trabalhadores relataram, na reportagem publicada em janeiro, ter sintomas de estresse pós-traumático no veículo norte-americano.

Em 2022, a Sama já havia sofrido denúncias por exporem trabalhadores a trabalho insalubre durante prestação de serviço de moderação para a Meta, dona do Facebook e do Instagram. A desenvolvedora do ChatGPT, OpenAI, divulgou artigo em agosto no qual afirma que sua inteligência artificial GPT-4 já é capaz de filtrar absurdos no chamado "esgoto da internet."

Após a repercussão, a empresa de "inteligência artificial ética" covidou o coordenador do projeto Fairwork (trabalho decente, em inglês) ligado ao Oxford Internet Institute (OII), Mark Graham, a passar dois meses no leste da África. Lá, Graham visitou centrais de trabalho da Sama em Nairóbi, no Quênia, e Gulu, em Uganda.

Os quatro pesquisadores do Fairwork envolvidos no trabalho de campo encontraram um cenário de problemas com trabalho não-pago, contratos de curta duração, níveis perigosos de estresse pelo trabalho, vigilância excessiva, práticas gerenciais discriminatórias, perseguição a sindicalistas e uma cultura à base do medo.

Essas evidências foram coletadas a partir de pesquisa documental, entrevistas com gerentes da Sama e com 46 colaboradores. Os relatos foram cruzados com os documentos levantados pelos autores do relatório, ao qual a Folha teve acesso.

A Sama, então, foi avaliada de acordo com a metodologia do Fairwork, aplicada em plataformas de trabalho presencial ou à distância presentes em 38 países. Na primeira avaliação, a Sama, zerou, sem atender aos cinco critérios propostos pela pesquisa —cada um vale dois pontos.

Por padrão, os pesquisadores, no entanto, procuram as empresas após chegarem a primeira nota e dão 15 dias para os gestores encaminharem as adequações propostas. O Fairwork se considera uma pesquisa-ação e tem o objetivo de introduzir melhoras nas condições de trabalho.

A Sama, então, promoveu 24 "mudanças significativas" em seu ambiente de trabalho, de acordo com o relatório. Acabou com cinco pontos de dez possíveis.

A empresa ganhou pontos por pagar tanto o salário mínimo local, quanto o salário digno local, por garantir segurança no trabalho e outro por oferecer uma rede de proteção após o fim do contrato, além de contratos transparentes e justos com os colaboradores.

A Sama deixou de pontuar por não oferecer: estabilidade no trabalho, tratamento justo dos trabalhadores, sistemas de gestão claros e transparentes, liberdade de associação sindical e incentivo a governanças democráticas na empresa.

Os critérios da pesquisa são considerados eliminatórios, e um único caso de inadequação identificado retira a pontuação da empresa, que depois tem a chance de mostrar que o relato concedido era improcedente ou que se adequou.

Procurada pela reportagem, a Sama afirma que parte dos ajustes estavam em processo de implementação antes da abordagem dos pesquisadores do Oxford Internet Institute. "Já tínhamos, por exemplo, canais de denúncia anônima e notávamos uma maior disposição dos colaboradores a reportar insatisfações."

A empresa acrescenta que conseguiu provar a partir de documentação que já seguia parte das recomendações, divulgou e melhorou as iniciativas que estavam em curso, mas foram dadas como faltas no depoimento dos funcionários. "Por fim, houve pontos levantados pelo OII que estavam fora do nosso radar. Então, fomos capazes de resolvê-los."

O projeto Fairwork avalia 24 aplicativos no Quênia, dos quais apenas três, Sama inclusa, marcaram cinco ou mais pontos. A Sama diz que trabalha para atingir sete pontos em 2024, "o máximo que seu modelo de negócios atual permite."

Entre os aplicativos brasileiros avaliados pela metodologia Fairwork em 2023, por exemplo, a maior pontuação obtida foi dois. Das 11 plataformas atuantes no Brasil avaliadas, somente duas garantiram a todos os trabalhadores o pagamento de um salário mínimo, hoje na casa de R$ 6 por hora.

Parte das empresas procuradas pela Folha, à época, afirmaram que a avaliação qualitativa do OII não seguia metodologia científica e, por isso, não havia colaborado com a pesquisa.

A pesquisadora do Fairwork e London School of Economic, Funda Ustek-Spilda, ressalva à reportagem, entretanto, que as notas dos relatórios de diferentes países não podem ser diretamente comparadas, devido a peculiaridades das economias e legislações locais.

Para Ustek-Spilda, as mudanças e a atitude da Sama perante as recomendações de melhora mostram que há espaço para garantir dignidade aos trabalhadores plataformizados ou participantes da cadeia produtiva global de sistemas de inteligência artificial.

Trabalhadores brasileiros de plataforma de freelances online consideram a moderação de conteúdo como o pior bico disponível na web, segundo pesquisa do DiPLab (laboratório europeu que estuda trabalho na internet) divulgada em junho.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.