Como os países estão perdendo a corrida para regulamentar a IA

Europa e EUA, alarmados com o poder da tecnologia, tentam encontrar uma resposta enquanto seu desenvolvimento acelera

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Adam Satariano Cecilia Kang
Bruxelas | The New York Times

Quando os líderes da União Europeia apresentaram um projeto de lei de 125 páginas para regulamentar a inteligência artificial em abril de 2021, eles trataram a proposta como um modelo mundial para lidar com a tecnologia.

Os legisladores da UE receberam contribuições de milhares de especialistas por três anos sobre IA, quando o assunto nem estava em discussão em outros países. O resultado foi um texto "notável" que era "à prova de futuro", declarou Margrethe Vestager, chefe de política digital do bloco de 27 nações.

E então veio o ChatGPT.

Ilustração - Hokyoung Kim/The New York Times

O chatbot estranhamente parecido com um humano viralizou no ano passado ao gerar suas próprias respostas aos pedidos solicitados e pegou os formuladores de políticas da UE de surpresa.

O tipo de IA que impulsionava o ChatGPT não foi mencionado no projeto de lei e não foi um foco importante das discussões sobre a política.

Legisladores e seus assessores trocaram ligações e mensagens de texto para resolver a lacuna, enquanto executivos de tecnologia alertavam que regulamentações excessivamente agressivas poderiam colocar a Europa em desvantagem econômica.

Mesmo agora, os legisladores da UE estão discutindo sobre o que fazer, colocando a lei em risco. "Sempre estaremos ficando para trás em relação à velocidade da tecnologia", disse Svenja Hahn, membro do Parlamento Europeu que participou da redação da lei de IA.

Legisladores e reguladores em Bruxelas, Washington e em outros lugares estão perdendo a batalha para regular a IA e estão correndo para acompanhar, à medida que crescem as preocupações de que a poderosa tecnologia automatize empregos, acelere a disseminação de desinformação e eventualmente desenvolva seu próprio tipo de inteligência.

As nações têm se movido rapidamente para lidar com os perigos potenciais da IA, mas os funcionários europeus foram pegos de surpresa pela evolução da tecnologia, enquanto os legisladores dos EUA admitem abertamente que mal entendem como ela funciona.

O resultado tem sido variado. O presidente Joe Biden emitiu uma ordem executiva em outubro sobre os efeitos da segurança nacional da IA, enquanto os legisladores debatem quais medidas, se houver, devem ser adotadas.

O Japão está elaborando diretrizes não vinculativas para a tecnologia, enquanto a China impôs restrições a certos tipos de IA. O Reino Unido afirmou que as leis existentes são adequadas para regular a tecnologia. Arábia Saudita e Emirados Árabes Unidos estão investindo dinheiro do governo em pesquisa de IA.

Na raiz das ações fragmentadas está uma incompatibilidade fundamental. Os sistemas de IA estão avançando tão rapidamente e de forma imprevisível que legisladores e reguladores não conseguem acompanhar.

Essa lacuna tem sido agravada por um déficit de conhecimento em IA nos governos, burocracias labirínticas e medos de que muitas regras possam limitar, mesmo que sem querer, os benefícios da tecnologia.

Mesmo na Europa, talvez o regulador de tecnologia mais agressivo do mundo, a IA tem confundido os formuladores de políticas.

Ilustração - Hokyoung Kim/The New York Times

A União Europeia seguiu em frente com sua nova lei apesar das disputas sobre como lidar com os fabricantes dos últimos sistemas de IA.

Um acordo final poderia restringir certos usos arriscados da tecnologia e criar requisitos de transparência sobre como os sistemas subjacentes funcionam.

Mas mesmo que seja aprovado, não se espera que entre em vigor por pelo menos 18 meses —uma eternidade no desenvolvimento da IA— e como será aplicado ainda não está claro.

"O veredicto ainda está em aberto sobre se você pode regular essa tecnologia ou não", disse Andrea Renda, pesquisadora sênior do Centro de Estudos de Políticas Europeias, um think tank em Bruxelas. "Existe o risco de que esse texto da UE acabe sendo pré-histórico."

A ausência de regras deixou um vácuo. Google, Meta, Microsoft e OpenAI, que criou o ChatGPT, foram deixados para se autorregular enquanto correm para criar e lucrar com sistemas avançados de IA.

Muitas empresas, preferindo códigos de conduta não vinculativos que proporcionam flexibilidade para acelerar o desenvolvimento, estão fazendo lobby para suavizar as regulamentações propostas e colocando governos uns contra os outros.

Sem uma ação unida em breve, alguns funcionários alertaram que os governos podem ficar ainda mais para trás em relação aos criadores de IA e suas descobertas.

"Ninguém, nem mesmo os criadores desses sistemas, sabe o que eles serão capazes de fazer", disse Matt Clifford, conselheiro do primeiro-ministro Rishi Sunak, do Reino Unido, que presidiu uma Cúpula de Segurança da IA no mês passado com 28 países. "A urgência vem daí, de haver uma verdadeira questão sobre se os governos estão preparados para lidar com e mitigar os riscos."

A Europa Assume a Liderança

Em meados de 2018, 52 acadêmicos, cientistas da computação e advogados se reuniram no hotel Crowne Plaza em Bruxelas para discutir inteligência artificial.

Os funcionários da UE os selecionaram para fornecer conselhos sobre a tecnologia, que estava chamando a atenção por impulsionar carros autônomos e sistemas de reconhecimento facial.

O grupo debateu se já havia regras europeias suficientes para proteger contra a tecnologia e considerou diretrizes éticas potenciais, disse Nathalie Smuha, estudiosa do direito na Bélgica que coordenou o grupo.

Mas, enquanto discutiam os possíveis efeitos da IA —incluindo a ameaça da tecnologia de reconhecimento facial à privacidade das pessoas— eles reconheceram "que havia todas essas lacunas legais, e o que acontece se as pessoas não seguirem essas diretrizes?", disse ela.

Em 2019, o grupo publicou um relatório de 52 páginas com 33 recomendações, incluindo maior supervisão das ferramentas de IA que poderiam prejudicar indivíduos e a sociedade.

Ursula von der Leyen, presidente da Comissão Europeia, tornou o assunto uma prioridade em sua agenda digital. Um grupo de 10 pessoas foi designado para desenvolver as ideias do grupo e elaborar uma lei.

Outro comitê no Parlamento Europeu, o ramo legislativo da União Europeia, realizou quase 50 audiências e reuniões para considerar os efeitos da IA na cibersegurança, agricultura, diplomacia e energia.

Em 2020, os formuladores de políticas europeus decidiram que a melhor abordagem era focar em como a IA era usada e não na tecnologia subjacente. Eles disseram que a IA não era intrinsecamente boa ou má; dependia de como era aplicada.

Portanto, quando o AI Act foi revelado em 2021, ele se concentrou em usos "de alto risco" da tecnologia, incluindo aplicação da lei, admissões escolares e contratação. O ato evitou em grande parte regular os modelos de IA que os alimentavam, a menos que fossem listados como perigosos.

De acordo com a proposta, as organizações que oferecem ferramentas de IA arriscadas devem cumprir certos requisitos para garantir que esses sistemas sejam seguros antes de serem implantados.

O software de IA que criava vídeos manipulados e imagens "deepfake" deve divulgar que as pessoas estão vendo conteúdo gerado por IA.

Outros usos foram proibidos ou restritos, como o software de reconhecimento facial em tempo real. Os infratores podem ser multados em 6% de suas vendas globais. Alguns especialistas alertaram que o projeto de lei não considerava o suficiente as reviravoltas futuras da IA.

O Jogo de Washington

Jack Clark, fundador da startup de IA Anthropic, visitava Washington há anos para dar aulas sobre IA aos legisladores. Quase sempre, apenas alguns assessores do Congresso apareciam.

Mas depois que o ChatGPT viralizou, suas apresentações passaram a ser lotadas de legisladores e assessores clamando para ouvir seu curso intensivo sobre IA e opiniões sobre a criação de regras.

"Todo mundo meio que acordou para essa tecnologia", disse Clark, cuja empresa recentemente contratou duas empresas de lobby em Washington.

Sem conhecimento técnico, os legisladores estão cada vez mais dependendo da Anthropic, Microsoft, OpenAI, Google e outros fabricantes de IA para explicar como ela funciona e ajudar a criar regras.

"Não somos especialistas", disse o deputado Ted Lieu, democrata da Califórnia, que recebeu Sam Altman, CEO da OpenAI, e mais de 50 legisladores em um jantar em Washington em maio. "É importante ser humilde."

As empresas de tecnologia aproveitaram sua vantagem. No primeiro semestre do ano, muitos dos 169 lobistas combinados da Microsoft e do Google se reuniram com legisladores e a Casa Branca para discutir a legislação de IA, de acordo com divulgações.

A OpenAI registrou seus primeiros três lobistas, e um grupo de lobby de tecnologia lançou uma campanha de US$ 25 milhões para promover os benefícios da IA este ano.

No mesmo período, Altman se reuniu com mais de 100 membros do Congresso, incluindo o ex-presidente da Câmara Kevin McCarthy, republicano da Califórnia, e o líder do Senado, Chuck Schumer, democrata de Nova York.

Após testemunhar no Congresso em maio, Altman embarcou em uma turnê global de 17 cidades, encontrando líderes mundiais, incluindo o presidente Emmanuel Macron da França, Sunak e o primeiro-ministro Narendra Modi da Índia.

Em Washington, a atividade em torno da IA tem sido frenética —mas sem nenhuma legislação para mostrar.

Em maio, após uma reunião na Casa Branca sobre IA, os líderes da Microsoft, OpenAI, Google e Anthropic foram solicitados a elaborar autorregulações para tornar seus sistemas mais seguros, disse Brad Smith, presidente da Microsoft. Depois que a Microsoft enviou sugestões, a secretária de Comércio, Gina Raimondo, devolveu a proposta com instruções para adicionar mais promessas, segundo ele.

Dois meses depois, a Casa Branca anunciou que as quatro empresas concordaram com compromissos voluntários sobre a segurança da IA, incluindo testar seus sistemas por meio de supervisores terceirizados —o que a maioria das empresas já estava fazendo.

"Foi brilhante", disse Smith. "Em vez de pessoas do governo apresentarem ideias que poderiam ter sido impraticáveis, eles disseram: 'Mostre-nos o que você acha que pode fazer, e vamos pressioná-lo a fazer mais'".

Durante o verão, a Comissão Federal de Comércio abriu uma investigação sobre a OpenAI e como ela lida com os dados do usuário. Os legisladores continuaram recebendo executivos de tecnologia.

Em setembro, Schumer foi o anfitrião de Elon Musk, Mark Zuckerberg do Meta, Sundar Pichai do Google, Satya Nadella da Microsoft e Altman em uma reunião a portas fechadas com legisladores em Washington para discutir regras de IA. Musk alertou sobre os riscos "civilizacionais" da IA, enquanto Altman proclamou que a IA poderia resolver problemas globais como a pobreza.

Colaboração Passageira

Em maio, Vestager, Raimondo e Antony Blinken, secretário de Estado dos EUA, se reuniram em Lulea, Suécia, para discutir a cooperação em política digital.

Após dois dias de conversas, Vestager anunciou que a Europa e os Estados Unidos lançariam um código de conduta compartilhado para proteger a IA "dentro de semanas". Ela enviou mensagens para colegas em Bruxelas pedindo que compartilhassem sua postagem nas redes sociais sobre o pacto, que ela chamou de "grande passo em uma corrida que não podemos nos dar ao luxo de perder".

Meses depois, nenhum código de conduta compartilhado havia sido divulgado. Em vez disso, os Estados Unidos anunciaram suas próprias diretrizes de IA.

Pouco progresso foi feito internacionalmente em relação à IA. Com os países atolados na competição econômica e na desconfiança geopolítica, muitos estão estabelecendo suas próprias regras para a tecnologia sem fronteiras.

Alguns formuladores de políticas disseram que esperavam progresso em uma cúpula de segurança de IA realizada pelo Reino Unido no mês passado em Bletchley Park, onde o matemático Alan Turing ajudou a decifrar o código Enigma usado pelos nazistas. O encontro contou com a presença da vice-presidente Kamala Harris; Wu Zhaohui, vice-ministro de ciência e tecnologia da China; Musk; e outros.

O resultado foi uma declaração de 12 parágrafos descrevendo o potencial "transformador" da IA e o risco "catastrófico" de mau uso. Os participantes concordaram em se reunir novamente no próximo ano. As negociações, no final, resultaram em um acordo para continuar negociando.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.