Big techs geram preocupação ao demitir equipes que cuidavam de ética em IA

Microsoft, Amazon e Google estão entre as que vão reduzir equipes de 'IA responsável' como parte de demissões mais amplas

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Cristina Criddle Madhumita Murgia
Londres | Financial Times

As grandes empresas de tecnologia têm cortado funcionários de equipes dedicadas a avaliar questões éticas ligadas à utilização de inteligência artificial, levantando preocupações sobre a segurança da nova tecnologia à medida que ela é amplamente adotada em produtos de consumo.

Microsoft, Meta, Google, Amazon e Twitter estão entre as empresas que cortaram membros de suas "equipes de IA responsável", que aconselham sobre a segurança de produtos de consumo que usam inteligência artificial.

O número de funcionários afetados permanece na casa das dezenas e representa uma pequena fração das dezenas de milhares de trabalhadores de tecnologia demitidos em resposta à desaceleração mais ampla da indústria.

Entenda o que é inteligência artificial Horizontal
A IA (inteligência artificial) é uma forma de imitar ou reproduzir a inteligência humana e nosso processo de aprendizagem, podendo até ser capaz de tomar decisões - Catarina Pignato

As empresas disseram que continuam dedicadas a lançar produtos seguros de IA. Mas especialistas disseram que os cortes são preocupantes, já que possíveis abusos da tecnologia estão sendo descobertos no momento em que milhões de pessoas começam a experimentar ferramentas de IA.

A preocupação deles aumentou após o sucesso do chatbot ChatGPT lançado pela OpenAI, apoiada pela Microsoft, o que levou outras empresas de tecnologia a lançar rivais como Bard, do Google, e Claude, da Anthropic.

"É chocante quantos membros da IA responsável estão sendo demitidos num momento em que, sem dúvida, você precisa dessas equipes mais que nunca", disse Andrew Strait, ex-pesquisador de ética e política da DeepMind, de propriedade da Alphabet, e diretor associado da organização de pesquisa Instituto Ada Lovelace.

A Microsoft desfez toda a sua equipe de ética e sociedade em janeiro, que conduziu o trabalho inicial da empresa na área. A gigante tecnológica disse que os cortes totalizaram menos de dez cargos e que a Microsoft ainda tem centenas de pessoas trabalhando em seu departamento de IA responsável.

"Aumentamos significativamente nossos esforços de IA responsável e nos esforçamos para institucionalizá-los em toda a empresa", disse Natasha Crampton, diretora de IA responsável da Microsoft.

O Twitter cortou mais da metade de seu quadro de funcionários sob seu novo proprietário, o bilionário Elon Musk, incluindo a pequena equipe de ética de IA. Seu trabalho anterior incluiu corrigir um viés no algoritmo do Twitter que parecia favorecer os rostos brancos ao escolher como cortar imagens na rede social. O Twitter não respondeu a um pedido de comentário.

Twitch, a plataforma de streaming de propriedade da Amazon, cortou sua equipe de IA ética na semana passada, tornando todas as equipes que trabalham em produtos de IA responsáveis por questões relacionadas a preconceito, segundo uma pessoa informada da mudança. A Twitch se recusou a comentar.

Em setembro, a Meta dissolveu sua equipe de inovação responsável de cerca de 20 engenheiros e especialistas em ética, encarregados de avaliar os direitos civis e a ética no Instagram e no Facebook. A Meta não respondeu a um pedido de comentário.

"As equipes de IA responsável estão entre os únicos bastiões internos que as Big Tech têm para garantir que as pessoas e comunidades afetadas por sistemas de IA sejam levadas em conta pelos engenheiros que os constroem", disse Josh Simons, ex-pesquisador de IA ética do Facebook e autor de "Algorithms for the People" [Algoritmos para o povo].

"A velocidade com que elas estão sendo abolidas deixa os algoritmos das Big Tech à mercê dos imperativos publicitários, prejudicando o bem-estar de crianças, pessoas vulneráveis e nossa democracia."

Outra preocupação é que os grandes modelos de linguagem, que sustentam chatbots como o ChatGPT, são conhecidos por "alucinar" –fazer declarações falsas como se fossem fatos– e podem ser usados para fins maléficos, como espalhar desinformação e trapacear em exames.

"O que estamos começando a ver é que não podemos prever todas as coisas que vão acontecer com essas novas tecnologias, e é crucial que prestemos alguma atenção a elas", disse Michael Luck, diretor do Instituto de Inteligência Artificial do King's College de Londres.

O papel das equipes internas de ética de IA está sob análise, pois há uma discussão sobre se qualquer intervenção humana nos algoritmos deve ser mais transparente, com contribuições do público e dos reguladores.

Em 2020, o aplicativo de fotos Instagram, de propriedade da Meta, montou uma equipe para abordar a "justiça algorítmica" em sua plataforma. A equipe "IG Equity" foi formada após o assassinato de George Floyd por policiais e com a intenção de fazer ajustes no algoritmo do Instagram para estimular discussões sobre raça e destacar perfis de pessoas marginalizadas.

"Eles são capazes de intervir e mudar esses sistemas e preconceitos [e] explorar intervenções tecnológicas que promoverão a equidade (...) mas engenheiros não deveriam decidir como a sociedade é moldada", disse Simons.

Alguns funcionários encarregados da supervisão de IA ética no Google também foram demitidos como parte de cortes mais amplos na Alphabet, de mais de 12 mil funcionários, segundo uma pessoa próxima à empresa.

O Google não especificou quantos cargos foram cortados, mas disse que a IA responsável continua sendo uma "prioridade máxima na empresa e continuamos investindo nessas equipes".

A tensão entre o desenvolvimento de tecnologias de IA nas empresas e seu impacto e segurança já havia surgido no Google. Duas líderes de pesquisa de ética em IA, Timnit Gebru e Margaret Mitchell, saíram em 2020 e 2021, respectivamente, após uma disputa muito noticiada com a empresa.

"É problemático quando as práticas de IA responsável são despriorizadas por concorrência ou para dar um impulso no mercado", disse Strait, do Instituto Ada Lovelace. "Infelizmente, vejo que agora é exatamente o que está acontecendo."

Colaborou Hannah Murphy, em San Francisco. Tradução de Luiz Roberto M. Gonçalves

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.