Descrição de chapéu Financial Times tecnologia União Europeia

Entenda a regulamentação da inteligência artificial na União Europeia

Bloco discute como fará o controle sobre o recurso após a explosão do ChatGPT

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Richard Waters
Financial Times

A União Europeia passa a adotar nesta sexta-feira (25) uma regulamentação para evitar os abusos de grandes empresas da internet, obrigando plataformas como Google, Facebook, X (ex-Twitter) ou TikTok, a melhorar suas ferramentas da luta contra os conteúdos ilícitos, sob pena de fortes sanções.

Ao mesmo tempo, o bloco também discute uma regulamentação sobre a inteligência artificial. A UE chegou a ter um texto que visitaria controlar, ou até mesmo proibir, a tecnologia que oferecesse "alto risco" à humanidade. Porém a discussão mudou com a explosão do ChatGPT e seus similares.

Criança observa robô em feira sobre inteligência artificial, em Xangai (China)
União Europeia discute regulamentação da inteligência artificial - Wang Zhao/AFP

Saiba como está este debate atualmente.

Por que é necessária a regulamentação da inteligência artificial?

Reguladores ao redor do mundo encontraram uma série de questões para se preocupar com o avanço da inteligência artificial.

  • Eles deveriam intervir em algoritmos que podem enviesar ou distorcer decisões que afetam a vida cotidiana de bilhões de pessoas?
  • E quanto ao risco de chatbots, como o ChatGPT, potencializarem a produção de desinformação online ou levarem ao uso indevido de grandes quantidades de dados pessoais?
  • E o que eles deveriam fazer em relação aos avisos de que os computadores poderiam em breve atingir um nível de inteligência que escapa ao controle de seus criadores — com potenciais consequências graves para a humanidade?

A tecnologia está avançando tão rapidamente - e os potenciais riscos são, em alguns casos, tão pouco compreendidos - que ainda há pouco consenso sobre uma agenda regulatória.

Quais questões de IA os reguladores estão analisando primeiro?

A União Europeia estava bem encaminhada para finalizar uma legislação pioneira que controlaria, ou até mesmo proibiria, sistemas de IA supostamente "de alto risco" - como aqueles usados para tomar decisões em aplicações de emprego ou empréstimos, ou tratamentos de saúde. Então, a mania do ChatGPT explodiu - o enorme interesse público no chatbot de IA generativa disponibilizado gratuitamente pela OpenAI.

Os legisladores rapidamente ajustaram seus planos para incluir os chamados modelos de base, como o grande modelo de linguagem que está por trás do ChatGPT.

As regras da UE obrigariam as empresas a divulgar em quais dados esses modelos foram treinados e poderiam responsabilizá-las pelo uso indevido da tecnologia, mesmo quando elas não controlam as aplicações finais.

No entanto, Patrick Van Eecke, co-presidente da prática global de cibersegurança, dados e privacidade do escritório de advocacia Cooley, acredita que Bruxelas agiu rápido demais ao tentar regular uma tecnologia que ainda é "um alvo em movimento".

"Gostamos de regular a realidade antes mesmo de ela se tornar realidade", diz ele, ecoando uma visão amplamente compartilhada no mundo da IA.

No entanto, muitos executivos de tecnologia dos EUA têm uma explicação diferente. Eles veem isso como uma medida protecionista deliberada por parte da UE, impondo limitações a um grupo de empresas, principalmente americanas, que dominam a indústria de IA.

A regulamentação de IA da UE se tornará um modelo para o resto do mundo?

Isso é o que aconteceu com a legislação de proteção de dados do bloco, e é um desenvolvimento potencial que preocupa as empresas de tecnologia dos EUA. Os defensores do Ato da UE afirmam que ele será aplicado de forma flexível para refletir os padrões em constante mudança e os avanços tecnológicos.

Mas os críticos afirmam que a experiência mostra que Bruxelas adota uma abordagem mais pragmática - e que as regras estabelecidas agora podem limitar a evolução da tecnologia.

Algumas empresas europeias concordam. Em uma carta à Comissão Europeia em junho, 150 grandes empresas europeias alertaram que a lei poderia prejudicar a economia do bloco ao impedir que as empresas lá utilizem livremente tecnologia de IA importante.

Uma versão final da lei precisa ser acertada em uma negociação trilateral entre o Parlamento, a Comissão e o Conselho dos Estados-Membros - o que significa que ainda há chance de mudanças.

As empresas de IA não estão pedindo por regulamentação?

A indústria de IA aprendeu com a reação contrária às redes sociais que não compensa evitar a regulamentação de tecnologias que podem ter um impacto social e político significativo.

Mas isso não significa que eles gostem do que está planejado pela UE. Sam Altman, chefe da OpenAI e um fervoroso defensor da regulamentação da IA, disse ao "Financial Times" que sua empresa pode ter que se retirar completamente da UE se as regras finais sobre IA forem muito rigorosas. A polêmica que suas palavras provocaram o levou rapidamente a recuar, mas, nos bastidores, as preocupações dos EUA permanecem inalteradas.

A disposição das grandes empresas de tecnologia em pedir por regulamentação também tem provocado suspeitas de que elas veem isso como uma forma de consolidar seu domínio no mercado de IA. Custos mais altos e burocracia podem dificultar a entrada de novos concorrentes.

Qual é a alternativa à abordagem da União Europeia?

Antes de decidir sobre novas leis, muitos países estão analisando de perto como suas regulamentações existentes se aplicam a aplicativos que são alimentados por IA.

Nos Estados Unidos, por exemplo, a Comissão Federal de Comércio abriu uma investigação sobre o ChatGPT, utilizando seus poderes existentes. Uma de suas preocupações é que o ChatGPT está coletando dados pessoais e, às vezes, os utilizando para reproduzir informações falsas e prejudiciais sobre pessoas comuns.

Ao contrário de seus colegas europeus, os legisladores dos EUA também embarcaram em uma ampla revisão da IA que explicitamente busca equilibrar os benefícios da tecnologia contra seus potenciais danos. O líder da maioria do Senado dos EUA, Chuck Schumer, pediu uma série de reuniões e fóruns com especialistas para as comissões mais importantes do Senado, a fim de ajudá-los a decidir quais aspectos da IA podem precisar de regulamentação.

Holly Fechner, co-presidente do grupo da indústria de tecnologia do escritório de advocacia Covington & Burling, disse: "A significativa bipartidariedade no Congresso em relação à competição dos EUA com a China" torna a abordagem de Schumer "uma mensagem vencedora - e sinaliza que os EUA estão seguindo uma direção diferente da Europa".

Se os governos não regularem agora, a corrida da IA não se tornará um perigoso vale-tudo?

Muitas empresas de tecnologia afirmam que o desenvolvimento da IA deve espelhar os primeiros dias da internet: os reguladores se abstiveram naquela época, permitindo que a inovação florescesse, e só intervieram mais tarde, quando necessário.

Já existem sinais de que novos padrões da indústria e acordos sobre as melhores práticas em IA estão começando a ser adotados, mesmo sem regulamentação explícita. Nos Estados Unidos, por exemplo, a indústria tem trabalhado com o Instituto Nacional de Padrões e Tecnologia na codificação das melhores formas de projetar, treinar e implementar sistemas de IA.

Também houve promessas de divulgar mais informações sobre como os modelos grandes funcionam e quais dados foram utilizados para treiná-los - embora não esteja claro o quão dispostas as empresas serão em fazer isso. Enquanto isso, não faltam propostas para novos sistemas de verificação para checar se o conteúdo online foi produzido por um sistema de IA generativa ou por uma pessoa.

A falta de progresso nessas e outras frentes aceleraria consideravelmente as demandas por regulamentação.

Algumas pessoas que desenvolvem IA dizem que ela poderia destruir a humanidade. Isso não é motivo para regulamentação imediata?

Ninguém na indústria de tecnologia acredita que os sistemas de IA atuais representem uma ameaça existencial para a humanidade e não há acordo sobre quando - se é que algum dia - a tecnologia poderia atingir esse ponto. No entanto, no início deste ano, uma carta aberta assinada por muitos tecnólogos pediu uma moratória de seis meses no trabalho nos sistemas mais avançados, para permitir tempo para desenvolver novos protocolos de segurança.

Embora os governos tenham começado a considerar essa questão, seriam necessários novos acordos internacionais para tentar controlar a disseminação da IA perigosa. Mesmo assim, tais esforços podem ser impraticáveis, dada a ampla disponibilidade de recursos computacionais e conjuntos de dados necessários para treinar sistemas de IA.

Por enquanto, as mesmas empresas que estão liderando a investida na IA afirmam também estar na vanguarda dos esforços para controlá-la. A OpenAI disse em julho que estava criando uma equipe interna para começar a pesquisar maneiras de controlar computadores "superinteligentes", que ela acredita que possam surgir nesta década. Sua solução proposta: um novo sistema de IA para controlar a IA.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.