Descrição de chapéu
John Thornhill

Regulamentar a inteligência artificial é um desafio em 4D

Especialistas advertem sobre ameaças existenciais que exigem uma competição global por boas ideias

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

John Thornhill

Fundador do site Sifted, sobre startups europeias, apoiado pelo Financial Times

Financial Times

Os líderes das nações do G7 abordaram muitas preocupações globais enquanto comiam ostras Nomi cozidas ao vapor no último fim de semana em Hiroshima: guerra na Ucrânia, resiliência econômica, energia limpa e segurança alimentar, entre outros. Mas também jogaram um item extra em sua sacola de boas intenções: a promoção da inteligência artificial inclusiva e confiável.

Embora reconheçam o potencial inovador da IA, os líderes se preocupam com os danos que ela pode causar à segurança pública e aos direitos humanos. Ao lançar o processo de IA de Hiroshima, o G7 contratou um grupo de trabalho para analisar o impacto de modelos de IA generativos, como o ChatGPT, e preparar as discussões dos líderes até o final deste ano.

Os desafios iniciais serão a melhor forma de definir a IA, categorizar seus perigos e enquadrar uma resposta apropriada. É melhor deixar a regulamentação para as agências nacionais existentes? Ou a tecnologia é tão importante que exige novas instituições internacionais? Precisamos de um equivalente moderno da Agência Internacional de Energia Atômica, fundada em 1957 para promover o desenvolvimento pacífico da tecnologia nuclear e impedir seu uso militar?

Ilustração em fundo amarelo mostra um robo escrevendo em uma máquina de escrever azul; papeis amassados ao aldo da máquina completam a imagem
Ilustração sobre uso do ChatGPT para escrever livros - Moor Studio/Adobe Stock

É discutível com que eficácia o órgão da ONU cumpriu essa missão. Além disso, a tecnologia nuclear envolve material radioativo e infraestrutura maciça que é fisicamente fácil de detectar. A IA, por outro lado, é comparativamente barata, invisível, difundida e tem casos de uso infinitos. No mínimo, apresenta um desafio quadridimensional que deve ser abordado de maneiras mais flexíveis.

A primeira dimensão é a discriminação. Os sistemas de aprendizado de máquina são projetados para discriminar, para detectar discrepâncias em padrões. Isso é bom para detectar células cancerígenas em exames de radiologia. Mas é ruim se sistemas de caixa preta treinados em conjuntos de dados defeituosos forem usados para contratar e demitir trabalhadores ou autorizar empréstimos bancários. Proibir esses sistemas em áreas de alto risco inaceitável, como propõe a próxima Lei de IA da União Europeia, é uma abordagem estrita e preventiva. A criação de auditores independentes e especializados pode ser um caminho mais adaptável.

Segunda, a desinformação. Como o especialista acadêmico Gary Marcus alertou ao Congresso dos EUA na semana passada, a IA generativa pode colocar em risco a própria democracia. Tais modelos podem gerar mentiras plausíveis e humanos falsificados na velocidade da luz e em escala industrial.

As próprias empresas de tecnologia deveriam arcar com o ônus de certificar o conteúdo e minimizar a desinformação, da mesma forma que suprimiram o spam no e-mail. Deixar de fazer isso apenas amplificará os apelos por uma intervenção mais drástica. O precedente pode ter sido estabelecido na China, onde um projeto de lei coloca a responsabilidade pelo uso indevido de modelos de IA no produtor, e não no usuário.

Terceira, deslocamento. Ninguém pode prever com precisão o impacto econômico que a IA terá em geral. Mas parece bastante certo que ele levará à "desprofissionalização" de muitos empregos de colarinho branco, como disse a empresária Vivienne Ming no festival FT Weekend em Washington, DC.

Os programadores de computador adotaram amplamente a IA generativa como uma ferramenta de aumento da produtividade. Por outro lado, roteiristas notáveis de Hollywood podem ser os primeiros de muitas profissionais a temer que suas habilidades básicas sejam automatizadas. Essa história confusa desafia soluções simples. As nações terão de se ajustar aos desafios sociais à sua própria maneira.

Quarta, devastação. Incorporar IA em sistemas letais de armas autônomas (LAWS), ou robôs assassinos, é uma perspectiva aterrorizante. O princípio de que os humanos devem sempre permanecer no circuito de tomada de decisão só pode ser estabelecido e aplicado por meio de tratados internacionais. O mesmo vale para a discussão em torno da inteligência artificial geral, o dia (possivelmente fictício) em que a IA ultrapassará a inteligência humana em todos os campos. Alguns ativistas descartam esse cenário como uma fantasia perturbadora. Mas certamente vale a pena dar atenção aos especialistas que alertam sobre possíveis riscos existenciais e pedem colaboração internacional em pesquisa.

Outros podem argumentar que tentar regulamentar a IA é tão inútil quanto rezar para que o sol não se ponha. As leis sempre evoluem de forma incremental, enquanto a IA está se desenvolvendo exponencialmente. Mas Marcus diz que ficou animado com o consenso bipartidário para ação no Congresso dos EUA. Temendo, talvez, que os reguladores da UE estabeleçam normas globais para IA, como fizeram cinco anos atrás com a proteção de dados, as empresas de tecnologia dos EUA também estão apoiando publicamente a regulamentação.

Os líderes do G7 devem encorajar uma competição por boas ideias. Eles agora precisam desencadear uma corrida regulatória para o topo, em vez de presidir uma queda assustadora para baixo.

O autor é fundador do Sifted, site sobre startups europeias apoiado pelo FT

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.