Descrição de chapéu mercado de trabalho

Pesquisador alerta sobre maquiagem ética em empresas de inteligência artificial

Conhecido por livro sobre entregadores, Callum Cant coordena projeto que oferece consultoria de trabalho decente a big techs

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Pedro Teixeira
São Paulo

Sociedade civil e governos precisam coibir empresas de inteligência artificial de ecoarem discursos éticos para maquiar abusos contra trabalhadores, segundo o pesquisador da Universidade de Oxford Callum Cant. Ele coordena o projeto Fair Work for AI, que presta consultorias para big techs e para OIT (Organização Internacional do Trabalho).

Em janeiro, a revista Time revelou que a criadora do ChatGPT, OpenAI, tercerizou trabalho com pagamentos de menos de US$ 2 por hora no Quênia para treinar o robô contra discurso de ódio. Os funcionários tinham de separar textos referentes a estupro, pedofilia e violência explícita. A intermediadora do contrato, chamada Sama, afirma ser uma empresa de inteligência artificial ética.

"Enfrentar essa maquiagem ética pode garantir às pessoas que estão rotulando dados postos seguros e bem pagos, dos quais eles podem depender no longo prazo. Pode significar respeitar importantes medidas contra o trabalho infantil e outros direitos", afirma Cant.

Callum Cant é um homem branco, cabelo curto. Veste camiseta preta e está à frente de uma parede de alvenaria
Callum Cant é pesquisador de pós-doutorado no Oxford Internet Institute e coordena o projeto Fair Work for AI - Arquivo pessoal

O sociólogo britânico é conhecido no Brasil pelo livro "Delivery Fight! A luta contra os patrões sem rosto" (Veneta. 2021). Na obra, Cant narra, em primeira pessoa, a experiência de trabalhar como entregador de aplicativo por oito meses. Entre corridas, ele ajudou a organizar greves e tentou fundar um sindicato.

O relato do pesquisador mostra, de um lado, o risco de acidentes, a gestão unilateral pelos algoritmos e a constante pressão das empresas para diminuir o valor da entrega. De outro, aborda vantagens de não ter patrão, as redes de comunicação e a articulação entre os entregadores.

Segundo o sociólogo, o seu novo objeto de pesquisa, inteligência artificial, continua sob o mesmo tema de interesse: o efeito da inovação tecnológica no trabalho.

De Oxford, na Inglaterra, Cant conversou com a reportagem da Folha via videoconferência.

Ele apresentou os dez princípios desenvolvidos por seu grupo de pesquisa para nortear o uso ético de inteligência artificial no dia a dia das empresas: respeito às normas da OIT, cadeias de produção auditáveis e justas, uso honesto dos dados, transparência e compreensão dos algoritmos, entre outros.

Quais os objetivos do projeto Fair Work for AI e como sua equipe trabalha para alcançá-los? Começamos a trabalhar em uma parceria global sobre inteligência artificial para definir uma série de princípios sobre o que seria o trabalho decente dentro desse mercado de IA. Com esse material, podemos oferecer consultorias globais e tripartites para a Organização Internacional do Trabalho, a Uber, a Microsoft etc.

Nosso objetivo é entender o que essas empresas e organizações consideram justo [dentro de uma relação de trabalho] e produzir um relatório, no qual listamos dez princípios.

Agora que temos esses princípios definidos, vamos medir o quanto disso foi posto em prática e investigar o que tem acontecido no mundo real.

A revista Time revelou que quenianos trabalharam, de forma precária, com moderação de conteúdo para o desenvolvimento do ChatGPT. Esse caso deixou claro que há trabalho humano sob diversas formas por trás de projetos de inteligência artificial. Todos os sistemas de IA desenvolvidos desde 2012 se apoiaram essencialmente no treinamento de máquinas com imensas quantidades de dados. Existem registros até de crianças atuando nessas plataformas. Assim, esse trabalho pode ser feito com custos baixos e em grande escala.

No atual cenário da IA, parece que todo o raciocínio encontrado em um ChatGPT da vida surge da máquina, em vez de creditar a capacidade de falar ou produzir textos desse mecanismo a duas fontes: os dados usados nos treinos, que é a história da linguagem humana e da escrita, e as pessoas que etiquetam esses dados.

E hoje é possível desenvolver inteligência artificial com responsabilidade social? Caso sim, quais são os elementos que fariam o desenvolvimento dessa tecnologia ser responsável? Organizações como a Sama [que terceirizou trabalho de moderação no Quênia para treinar o ChatGPT] se autodenominam companhias de IA ética. Para o sr., o que seria uma IA ética? Parece que aqueles trabalhadores quenianos não foram tratados de maneira justa. Isso levanta suspeitas sobre a possibilidade de fazerem uma maquiagem ética e o risco de que as diretrizes que são anunciadas publicamente não sejam levadas a cabo na operação real.

Precisamos ter muito cuidado com corporações que usam o discurso da ética e de responsabilidade social, enquanto não o colocam em prática.

Essa preocupação pode garantir às pessoas que estão rotulando dados postos seguros e bem pagos, dos quais eles podem depender no longo prazo, pode significar respeitar as importantes medidas contra o trabalho infantil e outros direitos.

É possível desenvolver inteligência artificial com responsabilidade social? Caso sim, quais são os elementos que fariam o desenvolvimento dessa tecnologia ser responsável? É possível. Demandaria atenção em muitos pontos da cadeia de produção. Os sistemas de IA têm de ser treinados para computar o que foi feito em cada passo do processo de aprendizado de máquina. De onde vêm os recursos gastos para fazer aquela operação também.

Placas de vídeo e computadores são grande parte desse trabalho. Globalmente, é necessário considerar a mineração responsável pela matéria-prima envolvida na produção dessas peças, observar para onde vão os rejeitos, como é o uso de energia, se há gasto de combustíveis fósseis e também é preciso considerar o processo de rotulagem de dados.

Essas pessoas que classificam informação podem ter trabalho decente. Mas isso requer padrões muito mais altos do que os praticados pelo mercado.

O sr. disse que está trabalhando com grandes multinacionais no projeto Fair Work for AI. Essas companhias mostram interesse em fazer essa tecnologia mais sustentável agora?

Parece haver interesse. Claro que é limitado por interesses comerciais. Em uma economia privada, corporações não tomam decisões porque elas parecem legais ou parecem ser boas. Eles agem para conseguir vantagem competitiva, eles fazem mudanças para aumentar lucros e posicionar seus produtos no mercado. Há um incentivo contraditório, em que as corporações querem lucrar o quanto for possível. Mas resta espaço para fazer ajustes que permitam aumentar a integridade gradualmente ao longo do tempo.

Alguns think tanks financiados pelo Google estuda, como isso pode ser feito, de uma maneira que as grandes corporações também estejam confortáveis para pôr em prática. Mas isso exigiria uma mudança significativa na maneira que a indústria opera neste momento.

Há alguma lei ou regulação sobre inteligência artificial, que pode servir como exemplo para o resto do mundo? O ato sobre inteligência artificial da União Europeia mostra potencial ao criar diretrizes sobre trabalho em plataforma, mas isso está sob contestação no Parlamento Europeu. Ainda assim, essa medida apresenta pontos interessantes no sentido de compreensão da tecnologia.

Neste momento, não existe uma legislação que sirva como paradigma para apontar. Nós estamos no processo de desenvolver algumas dessas leis. Mas parece que o processo de formulação será difícil, porque desde o início há muitos interesses em jogo, e lobistas já tentam influenciar o processo.

Eu não esperaria que governos fossem nessa direção sem estar sob pressão. Se queremos realmente que esse processo de desenvolvimento tecnológico se encaminhe de uma forma que respeite os trabalhadores, cabe aos sindicatos, associações da sociedade civil e movimentos sociais demandar padrões mais altos.

Seu trabalho ganhou notoriedade com a pesquisa sobre o Deliveroo [aplicativo de entregas britânicos similar ao IFood] em que o sr. trabalhou para a plataforma e reportou sobre isso em primeira pessoa. Há similaridades entre esse trabalho de agora e há sua atividade atual?

Já percebemos que a expansão dessas plataformas digitais reúnem milhões de colaboradores ao redor do mundo, o que nos permite dizer que esses aplicativos já transformaram o dia a dia do trabalho. Com a IA, estamos vendo a mesma coisa. Ambas são tecnologias que mudarão as experiências diárias das pessoas no trabalho. A menos que isso seja feito de uma maneira justa, vai mudar para pior.

Queremos entender quais serão os próximos passos e quais novas tendências surgirão com o desenvolvimento dessas tecnologias. Se não as entendermos enquanto esses recursos estão relativamente limitados e aplicados em pequenas escalas, estaremos despreparados para quando isso se espalhar por porções maiores do mercado de trabalho.


Callum Cant, 31

Coordena o projeto de pesquisa Fair Work for AI em parceria com a Global Partnership on Artificial Intelligence, que visa desenvolver inteligência artificial com responsabilidade social. É pesquisador de pós-doutorado no Oxford Internet Institute. Seu primeiro livro, "Delivery Fight! - A luta contra os Patrões sem Rosto" (Veneta, 2021), conta a experiência dos entregadores londrinos em primeira pessoa.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.