Os líderes das nações do G7 abordaram muitas preocupações globais enquanto comiam ostras Nomi cozidas ao vapor no último fim de semana em Hiroshima: guerra na Ucrânia, resiliência econômica, energia limpa e segurança alimentar, entre outros. Mas também jogaram um item extra em sua sacola de boas intenções: a promoção da inteligência artificial inclusiva e confiável.
Embora reconheçam o potencial inovador da IA, os líderes se preocupam com os danos que ela pode causar à segurança pública e aos direitos humanos. Ao lançar o processo de IA de Hiroshima, o G7 contratou um grupo de trabalho para analisar o impacto de modelos de IA generativos, como o ChatGPT, e preparar as discussões dos líderes até o final deste ano.
Os desafios iniciais serão a melhor forma de definir a IA, categorizar seus perigos e enquadrar uma resposta apropriada. É melhor deixar a regulamentação para as agências nacionais existentes? Ou a tecnologia é tão importante que exige novas instituições internacionais? Precisamos de um equivalente moderno da Agência Internacional de Energia Atômica, fundada em 1957 para promover o desenvolvimento pacífico da tecnologia nuclear e impedir seu uso militar?
É discutível com que eficácia o órgão da ONU cumpriu essa missão. Além disso, a tecnologia nuclear envolve material radioativo e infraestrutura maciça que é fisicamente fácil de detectar. A IA, por outro lado, é comparativamente barata, invisível, difundida e tem casos de uso infinitos. No mínimo, apresenta um desafio quadridimensional que deve ser abordado de maneiras mais flexíveis.
A primeira dimensão é a discriminação. Os sistemas de aprendizado de máquina são projetados para discriminar, para detectar discrepâncias em padrões. Isso é bom para detectar células cancerígenas em exames de radiologia. Mas é ruim se sistemas de caixa preta treinados em conjuntos de dados defeituosos forem usados para contratar e demitir trabalhadores ou autorizar empréstimos bancários. Proibir esses sistemas em áreas de alto risco inaceitável, como propõe a próxima Lei de IA da União Europeia, é uma abordagem estrita e preventiva. A criação de auditores independentes e especializados pode ser um caminho mais adaptável.
Segunda, a desinformação. Como o especialista acadêmico Gary Marcus alertou ao Congresso dos EUA na semana passada, a IA generativa pode colocar em risco a própria democracia. Tais modelos podem gerar mentiras plausíveis e humanos falsificados na velocidade da luz e em escala industrial.
As próprias empresas de tecnologia deveriam arcar com o ônus de certificar o conteúdo e minimizar a desinformação, da mesma forma que suprimiram o spam no e-mail. Deixar de fazer isso apenas amplificará os apelos por uma intervenção mais drástica. O precedente pode ter sido estabelecido na China, onde um projeto de lei coloca a responsabilidade pelo uso indevido de modelos de IA no produtor, e não no usuário.
Terceira, deslocamento. Ninguém pode prever com precisão o impacto econômico que a IA terá em geral. Mas parece bastante certo que ele levará à "desprofissionalização" de muitos empregos de colarinho branco, como disse a empresária Vivienne Ming no festival FT Weekend em Washington, DC.
Os programadores de computador adotaram amplamente a IA generativa como uma ferramenta de aumento da produtividade. Por outro lado, roteiristas notáveis de Hollywood podem ser os primeiros de muitas profissionais a temer que suas habilidades básicas sejam automatizadas. Essa história confusa desafia soluções simples. As nações terão de se ajustar aos desafios sociais à sua própria maneira.
Quarta, devastação. Incorporar IA em sistemas letais de armas autônomas (LAWS), ou robôs assassinos, é uma perspectiva aterrorizante. O princípio de que os humanos devem sempre permanecer no circuito de tomada de decisão só pode ser estabelecido e aplicado por meio de tratados internacionais. O mesmo vale para a discussão em torno da inteligência artificial geral, o dia (possivelmente fictício) em que a IA ultrapassará a inteligência humana em todos os campos. Alguns ativistas descartam esse cenário como uma fantasia perturbadora. Mas certamente vale a pena dar atenção aos especialistas que alertam sobre possíveis riscos existenciais e pedem colaboração internacional em pesquisa.
Outros podem argumentar que tentar regulamentar a IA é tão inútil quanto rezar para que o sol não se ponha. As leis sempre evoluem de forma incremental, enquanto a IA está se desenvolvendo exponencialmente. Mas Marcus diz que ficou animado com o consenso bipartidário para ação no Congresso dos EUA. Temendo, talvez, que os reguladores da UE estabeleçam normas globais para IA, como fizeram cinco anos atrás com a proteção de dados, as empresas de tecnologia dos EUA também estão apoiando publicamente a regulamentação.
Os líderes do G7 devem encorajar uma competição por boas ideias. Eles agora precisam desencadear uma corrida regulatória para o topo, em vez de presidir uma queda assustadora para baixo.
O autor é fundador do Sifted, site sobre startups europeias apoiado pelo FT
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.