Painel S.A.

Julio Wiziack é editor do Painel S.A. e está na Folha desde 2007, cobrindo bastidores de economia e negócios. Foi repórter especial e venceu os prêmios Esso e Embratel, em 2012

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Painel S.A.
Descrição de chapéu tecnologia

Quanto mais delegarmos à IA, mais perderemos nossas habilidades humanas, diz autor da lei europeia

Coordenador da comissão europeia, Gabriele Mazzini avalia que a desigualdade no Brasil exige regulamentação própria do uso da inteligência artificial

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Brasília

Ex-servidor na Corte de Justiça e no Parlamento Europeu, o italiano Gabriele Mazzini é o coordenador da Comissão Europeia que editou a Lei de Inteligência Artificial aprovada recentemente pela União Europeia. Na semana passada, Mazzini participou de um debate em Brasília (DF) promovido pelo ITS Brasil e a Abranet (Associação Brasileira de Internet). Ele nunca tinha vindo ao Brasil antes e disse ter vivido aqui uma de suas experiências mais marcantes: um almoço na churrascaria.

O italiano Gabriele Mazzini, ex-chefe do comitê de inteligência artificial da União Europeia
O italiano Gabriele Mazzini, ex-chefe do comitê de inteligência artificial da União Europeia - Divulgação

O Brasil deveria copiar a Lei de Inteligência Artificial da Europa?
Depende. Posso imaginar que em países como o Brasil há muitas pessoas que precisam de crédito e elas lutam para ter acesso pelos canais tradicionais. Será que a IA e os dados disponíveis dessas pessoas permitirão o acesso ao crédito a quem não têm histórico de crédito [e menos renda]? Então, se você pensar em sistemas tradicionais, talvez nosso modelo não funcione no Brasil. É importante avaliar se uma determinada abordagem regulatória faz sentido no contexto de cada país.

Leis como a que foi aprovada na Europa nos protegem do poder excessivo da inteligência artificial?
O poder da tecnologia dificilmente pode ser resolvido por um único regulamento. Na Europa, quando pensamos em lidar com a concentração de poder, temos, por um lado, a lei da concorrência, e, de outro, regulamentações em torno das plataformas [propriamente ditas], como a Lei de Serviços Digitais e Lei dos Mercados Digitais, que regula o acesso a certas atividades ou serviços essenciais.

A lei de inteligência artificial foi criada com o propósito de coibir o poder das techs?
A lei concentrou-se em garantir que os sistemas de inteligência artificial na Europa, independentemente de quem o faz, se grandes ou pequenas corporações, sejam de confiança, respeitem a saúde, a segurança e os direitos fundamentais das pessoas. A lei não distingue o ator.

Mas, ao final, a lei englobou funcionalidades oferecidas por certas plataformas, como o ChatGPT.
A legislação foi alargada para regular também modelos de uso geral, como aqueles por trás do ChatGPT. No entanto, seja de uso geral ou não, todos os modelos estão sujeitos a certas regras. A preocupação foi manter o mercado aberto. Se esses modelos estão ligados à utilização de uma determinada quantidade de computação, o que significa que apenas determinados players conseguirão utilizá-la, então estarão sujeitos a regras adicionais.

Quais são os maiores riscos da inteligência artificial?
Estamos realmente focados em garantir que a IA seja integrada em produtos ou processos existentes para ajudar os humanos na tomada de decisões. Queríamos ter certeza de que a IA se comportará corretamente, sem prejudicar a saúde ou a segurança das pessoas, e não cause danos. Esse é o risco sobre o qual nos concentramos. Penso no impacto da IA, por exemplo, na nossa força de trabalho ou na nossa capacidade de, como humanos, garantir a palavra final sobre as coisas.

O senhor está dizendo que a preocupação foi garantir que a IA não substitua habilidades humanas?
Quanto mais delegarmos à IA, mais perderemos certas habilidades. Penso que, quanto mais a IA se torna avançada, mais nos estimula a substituir certas atividades de forma mais eficiente. Isso significa que podemos perder certas capacidades cognitivas. Não acho que isso seja um risco agora. Mas se continuarmos a desenvolver a IA e a integrá-la descuidadamente na nossa sociedade, talvez [seja um risco].

Deixar que o Google funcione como nossa memória, por exemplo?
Exatamente. Hoje, a gente não faz mais cálculos de cabeça. A IA está movendo essa fronteira mais rápido. Então, acho importante usá-la sem permitir que não sejamos mais capazes de fazer coisas que a IA está fazendo por nós.

Se as máquinas não funcionarem no futuro, estaríamos perdendo nossa capacidade de calcular?
Engenheiros faziam cálculos manuais sobre as forças nos edifícios, nas grandes infraestruturas. Esses são cálculos complexos. Em algum momento, um software foi usado para isso. Mas, ao final, é preciso ser um bom engenheiro para entender se os cálculos [da IA] estão corretos. Quanto mais delegarmos à IA, mais poderemos entrar na lacuna cognitiva.

Existe o risco de a inteligência artificial nos levar a perder a noção do que é real e do que é simulação?
Está ficando claro que a IA tem a capacidade de realmente retratar como reais coisas que não são. As ferramentas de deepfake estão se tornando mais fáceis de usar. E vejo que isso cria um problema para a democracia. Você pode ter deepfakes, mas precisamos criar ferramentas que permitam às pessoas identificar se algo é verdadeiro ou não. É por isso que, na lei de IA, estabelecemos a obrigação de rotular conteúdos sintéticos quando existe risco de engano.

Essa obrigação vale só para quem produz o conteúdo?
Fomos ainda mais longe no sentido de estabelecer a obrigação para as empresas que desenvolvem modelos generativos [de produção de conteúdos, sejam textos, fotos ou vídeos] de introduzirem certificados que permitam identificar [nas conversas entre máquinas, por exemplo] se o conteúdo é falso ou não. Toda imagem gerada por um determinado sistema seria rotulada pelo próprio sistema com uma espécie de marca d´água, que cria algumas camadas identificáveis [entre máquinas].
No entanto, essa tecnologia ainda não está muito avançada. Então, acho que vai demorar até que, pela educação, as pessoas se acostumem com a possibilidade de que as coisas não sejam reais. E elas terão de exercer um julgamento mais crítico.

A própria tecnologia fiscalizaria o cumprimento da lei?
Exatamente. As empresas estão realmente investindo muito [nessa tecnologia] nisso.

Se a tecnologia não é madura, não pode causar danos?
Houve esse debate na União Europeia. Nos EUA, por exemplo, os professores usaram um algoritmo para detectar se os alunos estavam usando IA generativa em suas tarefas. Como essas ferramentas de detecção não são muito boas, alguns estudantes foram acusados de usar IA quando, na verdade, não tinham usado. Ainda estamos discutindo esses impactos.

Até que ponto a regulação na Europa entrou em conflito com os interesses empresariais dos desenvolvedores de tecnologia?
Não queremos regulamentar determinados intervenientes de forma mais rigorosa do que outros. Isso porque você pode ter grandes atores capazes de obedecer a regras e pequenos menos capazes. Portanto, você poderia dar aos grandes uma vantagem.

Por que Alemanha, França e Itália resistiram tanto às regras aprovadas?
A lei de IA se concentra nos produtos finais: um sistema de recomendação para bancos, um algoritmo para decidir quem contratar, como demitir pessoas. Essa é uma área que está a emergir porque temos grandes players nos EUA, na China e também na Europa. Não posso dizer se a posição deles era proteger suas empresas. Acho que os três países defendiam que regulamentássemos demasiadamente a tecnologia, deixando outras questões, o código de conduta, digamos, para serem discutidas no G7, em nível global.

Com a IA, as techs podem se tornar mais poderosas do que os próprios países?
Se as empresas são boas no desenvolvimento de produtos, na prestação de serviços, devem ser livres para operar. Sou a favor da competição e do mercado livre. O problema é quando você consolida esse poder e ele exclui outros concorrentes. Penso que este é o campo onde entra o direito da concorrência. É claro que, às vezes, leva tempo para que certas decisões sejam tomadas [nesse campo]. E é por isso que, na UE, decidimos complementar o direito da concorrência com a Lei dos Mercados Digitais, que garante o mercado para esses serviços essenciais, aberto para novos participantes.

Mas a minha questão é mais política. No Brasil e em outros países, surgem críticas de que algumas big techs, como o X, não querem se submeter às leis locais e, por isso, desafiam a autoridade e até a soberania dos países. Como resolver isso avançando para a IA?
Na Europa, para o problema das notícias falsas, lidamos via lei de IA e Lei dos Serviços Digitais. Mas, daqui a alguns anos, as pessoas também estarão acostumadas a verificar se um conteúdo é verdadeiro ou não. Elas precisam ser educadas sobre como verificar o conteúdo em diferentes fontes. Contamos com um certo grau de alfabetização e educação [e isso ajuda], embora não ache que nosso nível de alfabetização seja excepcional. Mas é verdade que os países com maior grau de desigualdade podem encontrar dificuldade diante da capacidade das pessoas se atualizarem.

A IA acentuará mais a diferença entre nações ricas e pobres?
Trabalhei em um projeto na África, que possibilitou a disseminação de informações sobre cuidados básicos com recém-nascidos e com as mães grávidas através de agentes comunitários de saúde que utilizavam uma solução de e-saúde em áreas sem acesso a médicos.
Ou pensamos que todos devem ter acesso aos mesmos cuidados em todos os lugares do mundo ou reconhecemos que talvez seja melhor ter algum grau de cuidado em vez de cuidado zero. Acho que a IA entra aí. Ela pode ser útil. Certamente, temos grandes expectativas em relação à IA no norte global. Mas penso que ela continua a ser uma ferramenta que, se utilizada corretamente, ajudará a resolver lacunas em áreas com recursos limitados.


Raio-X | Gabriele Mazzini

Advogado, possui LLM pela Harvard Law School e doutorado em Direito Penal Italiano e Comparado pela Universidade de Pavia (Itália). Coordenador da Comissão Europeia que editou a Lei de Inteligência Artificial, desde 2017. Antes disso, foi Conselheiro Geral Associado do Millennium VIllages Project, uma iniciativa do economista Jeffrey Sachs, da Universidade de Columbia (EUA), em países da África. Atua ainda como associado do MIT.

Com Diego Felix

LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.