Entenda em sete pontos como a Europa pretende regular a IA

Lei é a primeira a responsabilizar empresas pelos efeitos de sistemas de IA de grande porte e uso geral

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Richard Waters
Londres | Financial Times

A nova Lei da União Europeia sobre IA (inteligência artificial), adotada em maio e que começa a ser aplicável em 2025, é a primeira a responsabilizar as empresas pelos efeitos de sistemas de IA de grande porte e uso geral.

Críticos, no entanto, dizem que o bloco adota medidas precocemente, e que reguladores só devem intervir se necessário.

Entenda em sete pontos a regulação da tecnologia na Europa.

Lei da União Europeia sobre IA é a primeira a responsabilizar as empresas pelos efeitos de sistemas de IA de grande porte e uso geral - Dado Ruvic/Reuters

Por que a regulação da IA é necessária?

Reguladores em todo o mundo encontraram uma série de questões para se preocupar com o surgimento da inteligência artificial.

Eles devem intervir em algoritmos que podem enviesar ou distorcer decisões que afetam a vida cotidiana de bilhões de pessoas? E quanto ao risco de que chatbots, como o ChatGPT, possam potencializar a produção de desinformação ou levar ao uso indevido de grandes quantidades de dados pessoais? E o que eles devem fazer sobre os avisos de que os computadores poderiam em breve atingir um nível de inteligência tal que escapariam ao controle de seus criadores —com potenciais consequências graves para a humanidade?

A tecnologia está avançando tão rapidamente que ainda não houve um consenso sobre uma agenda regulatória, embora o foco em ambos os lados do Atlântico tenha se concentrado cada vez mais nos sistemas de IA mais poderosos e de uso geral.

Desenvolvidos por empresas como OpenAI, Google e Anthropic, e conhecidos como modelos fundamentais, esses sistemas estão por trás de uma ampla gama de aplicativos de diferentes empresas, impactando a sociedade e a economia.

Quais questões os reguladores estão analisando primeiro?

A União Europeia estava bem encaminhada para finalizar uma Lei sobre IA inovadora que controlaria, ou até mesmo proibiria, usos de IA tidos como "de alto risco" —como tomar decisões em candidaturas de emprego, pedidos de empréstimos ou tratamentos de saúde. Então, o ChatGPT, chatbot de IA generativa da OpenAI disponível gratuitamente, virou uma febre.

Os legisladores rapidamente ajustaram seus planos, estabelecendo novas regras que forçarão as empresas a divulgar em que dados os modelos fundamentais, como o usado no ChatGPT, foram treinados.

Os criadores dos modelos mais poderosos, sobre os quais Bruxelas afirma que poderiam representar riscos sistêmicos, enfrentarão requisitos adicionais, como a necessidade de avaliar e mitigar os riscos em seus modelos e relatar quaisquer incidentes graves.

A lei, adotada em maio e que começa a ser aplicável em 2025, também criou um AI Office poderoso encarregado de estabelecer os padrões que os sistemas de IA avançados devem atender.

No entanto, Patrick Van Eecke, codiretor da área de cibersegurança, dados e privacidade do escritório de advocacia Cooley, disse que Bruxelas agiu cedo demais ao tentar regular uma tecnologia que ainda é "um alvo em movimento", refletindo uma tendência a regulações precipitadas. "Gostamos de regular a realidade antes mesmo de ela se tornar realidade", disse, ecoando uma visão comum no meio de IA.

Muitos executivos de tecnologia dos EUA têm uma explicação diferente. Eles veem a pressa de Bruxelas em regular diretamente os sistemas de IA mais poderosos como uma medida protecionista deliberada da UE, impondo limitações a um grupo de empresas principalmente dos Estados Unidos que dominam o setor.

Regulação será um modelo para o resto do mundo?

Isso é o que aconteceu com a legislação de proteção de dados do bloco, e é uma possível consequência que preocupa as empresas de tecnologia dos EUA.

Os defensores da Lei da UE dizem que ela será aplicada de forma flexível para refletir padrões em evolução e avanços tecnológicos. Mas os críticos dizem que a experiência mostra que Bruxelas adota uma abordagem mais dogmática —e que regras estabelecidas agora poderiam limitar a evolução da tecnologia.

Algumas empresas europeias concordam. Em uma carta à Comissão Europeia em 2023, 150 grandes empresas europeias alertaram que a lei poderia prejudicar a economia do bloco ao impedir que as empresas locais usem livremente tecnologias importantes de IA.

Empresas de IA querem ser reguladas?

O setor de IA aprendeu com a reação contra as redes sociais que não vale a pena evitar a regulação de tecnologias que podem ter um impacto social e político significativo.

Mas isso não significa que eles gostem do que está planejado pela UE. Sam Altman, CEO da OpenAI e um grande defensor da regulação da IA, disse ao FT que sua empresa pode ter que se retirar completamente da UE se as regras finais sobre IA forem muito rigorosas.

A polêmica que suas palavras provocaram o levou rapidamente a recuar, mas, nos bastidores, as preocupações dos EUA permanecem.

A disposição das grandes empresas de tecnologia em pedir regulação também provocou suspeitas de que elas veem isso como uma maneira de consolidar sua posição no mercado de IA. Custos mais altos e burocracia poderiam dificultar a entrada de novos concorrentes.

Qual é a alternativa à abordagem da UE?

Antes de decidir sobre novas leis, muitos países estão analisando de perto como suas regulações existentes se aplicam a aplicativos alimentados por IA.

Nos EUA, por exemplo, o FTC (Federal Trade Commission) abriu uma investigação contra o ChatGPT a partir de competências já existentes.

Uma de suas preocupações é que o ChatGPT esteja coletando dados pessoais e às vezes os utilizando para gerar informações falsas e prejudiciais sobre pessoas comuns. Legisladores dos EUA também iniciaram um amplo escrutínio da IA para elecencar os prós e contras da tecnologia.

O líder da maioria no Senado dos EUA, Chuck Schumer, pediu uma série de relatórios e fóruns de especialistas para os comitês mais importantes para ajudar os senadores a decidir quais aspectos da IA podem precisar de regulação.

Holly Fechner, codiretor do grupo de tecnologia do escritório de advocacia Covington & Burling, disse que o consenso no Congresso dos EUA em relação à competição com a China torna a abordagem de Schumer "uma mensagem vencedora —e sinaliza que os EUA estão seguindo em uma direção diferente da Europa".

No entanto, assim como Bruxelas, Washington também começou a impor requisitos sobre os modelos mais poderosos.

Em uma ordem executiva adotada no final de 2023, a Casa Branca sob Biden exigiu que empresas que criam sistemas poderosos de uso duplo —ou seja, aqueles que também podem ter uso militar— divulgassem as capacidades de seus sistemas aos responsáveis, ao mesmo tempo em que promoviam formas de estabelecer padrões e diretrizes para como tais modelos são treinados, testados e monitorados.

Embora menos rigorosa que a nova lei da UE, a ordem executiva foi a primeira tentativa abrangente nos EUA de lidar com a IA.

A corrida pela IA será um perigoso campo de batalha sem regulação?

Muitas empresas de tecnologia dizem que o desenvolvimento da IA deve refletir os primeiros dias da internet: os reguladores se abstiveram naquela época, permitindo que a inovação florescesse, e só intervieram mais tarde, conforme necessário.

Já existem sinais de que novos padrões do setor e acordos sobre as melhores práticas em IA estão começando a se firmar, mesmo sem regulamentação explícita.

Nos EUA, por exemplo, a indústria tem trabalhado com o National Institute for Standards and Technology [Instituto Nacional de Padrões e Tecnologia] na codificação das melhores maneiras de projetar, treinar e implementar sistemas de IA.

A pedido da Casa Branca, um grupo de empresas líderes em IA assinou no ano passado um conjunto de compromissos voluntários.

No entanto, críticos alertam que um fluxo de capital na indústria de IA e avaliações em alta para startups levaram ao desenvolvimento desenfreado da tecnologia, independentemente dos riscos.

Em um dos sinais mais claros das tensões que isso criou dentro das empresas de tecnologia, Sam Altman, CEO da OpenAI, foi demitido pelo conselho da empresa em 2023 devido a preocupações com sua liderança, antes de um acordo entre os funcionários levá-lo a ser reintegrado cinco dias depois.

Outros que alertaram sobre os perigos de uma corrida desenfreada na IA —como Elon Musk— também parecem ter deixado de lado suas preocupações e se juntado a ela.

Chance de a IA destruir a humanidade não é motivo para regulá-la?

Ninguém na indústria de tecnologia acredita que os sistemas de IA atuais representem uma ameaça existencial para a humanidade, e não há acordo sobre quando —ou se— a tecnologia poderia atingir esse ponto.

Mas, no ano passado, uma carta aberta assinada por muitos especialistas pediu uma pausa de seis meses no desenvolvimento de sistemas mais avançados para permitir tempo para desenvolver novos protocolos de segurança.

Embora os governos tenham começado a considerar essa questão, seriam necessários novos acordos internacionais para tentar controlar a disseminação de uma IA perigosa.

Mesmo assim, tais esforços podem ser impraticáveis, dada a ampla disponibilidade dos recursos computacionais e conjuntos de dados necessários para treinar sistemas de IA.

Por enquanto, as mesmas empresas que estão liderando o desenvolvimento de IAs afirmam também estar na vanguarda de tentar contê-la.

A OpenAI disse em 2023 que estava criando uma equipe interna para começar a pesquisar maneiras de controlar computadores 'superinteligentes', que ela acredita que poderiam surgir nesta década.

Mas, menos de um ano depois, a equipe foi desfeita —e uma das pessoas que a liderou acusou a empresa de estar mais interessada em construir "produtos brilhantes" do que em criar uma cultura real em torno da segurança da IA.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.