Empresas de tecnologia formam grupo para tentar conter a inteligência artificial

Anthropic, Google, Microsoft e OpenAI se unem para definir melhores práticas, mas críticos veem disputa contra regulação

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

George Hammond
San Francisco | Financial Times

Quatro das mais avançadas empresas de inteligência artificial do mundo formaram um grupo para pesquisar a tecnologia cada vez mais poderosa e definir as melhores práticas para mantê-la sob controle, enquanto cresce a ansiedade pública e o escrutínio regulatório sobre seu impacto.

A Anthropic, o Google, Microsoft e OpenAI lançaram nesta quarta-feira (26) o Frontier Model Forum (fórum de modelo pioneiro), com o objetivo de "assegurar o desenvolvimento seguro e responsável de modelos de IA pioneiros".

Nos últimos meses as empresas americanas vêm lançando ferramentas de IA cada vez mais poderosas que produzem conteúdos originais em formato de imagem, texto ou vídeo, baseados em bancos de dados já existentes.

Esses avanços vêm levantando preocupações com infração de direitos autorais, violações de privacidade e com a possibilidade de a IA acabar tomando o lugar de humanos em toda uma gama de empregos e funções.

Interface do ChatGPT, da OpenAI - Florence Lo/Reuters

"As empresas que criam tecnologia de IA têm a responsabilidade de assegurar que ela é segura e que permanece sob controle humano", disse Brad Smith, vice-chairman e presidente da Microsoft. "Esta iniciativa é um passo vital para unir o setor tech para fazer a IA avançar de modo responsável e enfrentar os desafios, de modo que ela beneficie a toda a humanidade."

A participação no fórum é restrita a um punhado de companhias que estão construindo "modelos de aprendizagem de máquina em grande escala que excedem as capacidades presentes atualmente nos modelos existentes mais avançados", segundo seus fundadores.

Isso sugere que o trabalho do fórum vai enfocar os riscos potenciais decorrentes de IA consideravelmente mais poderosa, em oposição a responder a perguntas sobre direitos autorais, proteção de dados e privacidade, que devem ser resolvidas por reguladores hoje.

A Comissão Federal de Comércio dos EUA abriu uma investigação sobre a OpenAI, apurando se a empresa usou práticas de privacidade e segurança de dados "injustas ou enganosas" ou se prejudicou pessoas ao criar informação falsa a seu respeito. O presidente Joe Biden já indicou que vai adotar ação executiva para promover a "inovação responsável".

Por sua parte, os líderes de IA têm adotado um tom tranquilizador, enfatizando que estão conscientes dos perigos e engajados em mitigá-los. Na semana passada, executivos das quatro empresas que estão lançando o novo fórum assumiram o compromisso na Casa Branca de buscar "o desenvolvimento seguro e transparente da tecnologia de IA".

Emily Bender, linguista computacional da Universidade de Washington que já pesquisou extensamente os grandes modelos de linguagem, disse que as garantias das empresas são "uma tentativa de evitar a regulamentação e de afirmar sua capacidade de se autorregular, algo que eu encaro com muito ceticismo".

Para ela, direcionar a atenção para o medo de que "as máquinas ganhem vida e assumam o controle" a desvia "dos problemas reais que temos, que têm a ver com furto de dados, vigilância e colocar todo o mundo na ‘gig economy’ [modelo econômico da era digital baseado no trabalho autônomo, temporário e sem vínculos empregatícios]."

"A regulação precisa vir de fora. Precisa ser imposta pelo governo, representando a população, para restringir o que essas corporações podem fazer", ela disse.

O Frontier Model Forum vai visar promover pesquisas sobre segurança e oferecer um canal de comunicação entre a indústria e os tomadores de decisões de política pública.

Grupos semelhantes já foram criados no passado. A Partnership on AI (Parceria sobre IA), do qual o Google e a Microsoft foram membros fundadores, foi formada em 2016 com membros vindos da sociedade civil, da academia e da indústria, com a missão de promover o uso responsável de IA.

Tradução de Clara Allain

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.