Ezra Klein

Colunista do New York Times, fundou o site Vox, do qual foi diretor de Redação e repórter especial

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Ezra Klein
Descrição de chapéu internet Meta Facebook

Competição está forçando empresas de inteligência artificial a ir rápido demais

No atual cenário, membros dessa indústria não podem desacelerar para um ritmo seguro sem arriscar a irrelevância

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

The New York Times

Entre as muitas experiências únicas de reportagem sobre inteligência artificial está esta: em uma indústria jovem inundada por badalação e dinheiro, todo mundo me diz que está desesperado para ser regulamentado, mesmo que isso os desacelere. Na verdade, especialmente se isso os desacelerar.

O que eles me dizem é óbvio para qualquer um que esteja assistindo. A competição os está forçando a ir rápido demais e tomar muitos atalhos. Essa tecnologia é muito importante para ser deixada numa corrida entre Microsoft, Google, Meta e algumas outras empresas. Mas nenhuma delas pode desacelerar para um ritmo seguro sem arriscar a irrelevância. É aí que entra o governo –ou assim elas esperam.

Pessoas em cima de um andaime são vistas retocando um outdoor dp Google com uma parede verde
Um outdoor do Google é preparado para a CES 2023, uma das maiores feiras de eletrônicos do mundo - Robyn Beck - 3.jan.23/AFP

Um lugar para começar é com os esquemas que os formuladores de políticas já apresentaram para governar a IA. As duas principais propostas, pelo menos no Ocidente, são o Projeto para uma Declaração de Direitos da IA, que a Casa Branca apresentou em 2022, e a Lei de Inteligência Artificial (LIA), proposta pela Comissão Europeia em 2021. Então, na semana passada, a China divulgou sua mais recente abordagem regulatória.

Vamos começar com a proposta europeia, já que veio primeiro. A LIA tenta regular os sistemas de IA de acordo com a forma como são usados.

Ela está particularmente preocupada com usos de alto risco, que incluem tudo, desde a supervisão da infraestrutura crítica até a classificação de documentos, o cálculo de pontuações de crédito e a tomada de decisões de contratação. Usos de alto risco, em outras palavras, são qualquer uso em que a vida ou o sustento de uma pessoa possa depender de uma decisão tomada por um algoritmo de aprendizado de máquina.

A Comissão Europeia descreveu essa abordagem como "à prova de futuro", o que provou ser previsivelmente arrogante, já que novos sistemas de IA já lançaram no caos as claras definições do projeto de lei.

Focar em casos de uso é bom para sistemas restritos projetados para uso específico, mas é um erro categórico quando aplicado a sistemas generalizados. Modelos como o GPT-4 não fazem nada, exceto prever a próxima palavra numa sequência.

Você pode usá-los para escrever código, passar no exame da Ordem dos Advogados, redigir contratos, criar campanhas políticas, traçar estratégias de mercado e alimentar companheiros de IA ou sexbots. Ao tentar regular os sistemas por caso de uso, a LIA acaba dizendo muito pouco sobre como regular o modelo subjacente que alimenta todos esses casos de uso.

Consequências imprevistas são abundantes. A LIA determina, por exemplo, que em casos de alto risco "os conjuntos de dados de treinamento, validação e teste devem ser relevantes, representativos, livres de erros e completos".

Mas o que os grandes modelos de linguagem estão mostrando é que os sistemas mais poderosos são aqueles treinados nos maiores conjuntos de dados. Esses conjuntos não podem estar plausivelmente livres de erros, e não está claro o que significaria para eles ser "representativos".

Há um forte argumento a favor da transparência de dados, mas não acho que a Europa pretenda implantar sistemas mais fracos e menos capazes em tudo, desde notas de exames até infraestrutura.

O outro problema na abordagem de caso de uso é que ela trata a IA como uma tecnologia que, por si só, respeitará os limites. Mas seu desrespeito aos limites é o que mais preocupa as pessoas que trabalham nesses sistemas.

Imagine que o "assistente pessoal" seja classificado como um caso de uso de baixo risco e um GPT-6 hipotético seja implantado para capacitar um assistente pessoal absolutamente fabuloso.

O sistema é ajustado para ser extremamente bom em interagir com humanos e atingir um conjunto diversificado de objetivos no mundo real. Isso é ótimo até que alguém peça para garantir uma reserva no restaurante mais badalado da cidade e o sistema decida que a única maneira de fazer isso é causando um corte de energia que leva um terço dos clientes daquela noite a cancelar suas reservas.

Parece ficção científica? Desculpe, mas esse tipo de problema é um fato científico.

O Projeto da Casa Branca para uma Declaração de Direitos da IA é uma proposta mais interessante. Mas enquanto a abordagem da Comissão Europeia é muito personalizada o projeto da Casa Branca pode ser muito amplo. Nenhum sistema de IA hoje chega perto de aderir ao esquema, e não está claro se algum deles conseguiria.

O projeto diz que "sistemas automatizados devem ser desenvolvidos com consulta de diversas comunidades, partes interessadas e especialistas de domínio para identificar preocupações, riscos e impactos potenciais do sistema".

Isso é crucial, e seria interessante ver a Casa Branca ou o Congresso definir quanta consulta é necessária, que tipo é suficiente e como os reguladores garantirão que os desejos do público sejam realmente seguidos.

Talvez a mais interessante das propostas do plano seja que "você deve ter a capacidade de optar por sair de sistemas automatizados em favor de uma alternativa humana, quando apropriado". Nessa frase, o diabo espreita na definição de "apropriado".

Mas vale a pena considerar o princípio subjacente. Deve haver uma opção negativa aos sistemas de IA? Quais? Quando uma cláusula de exclusão é uma escolha genuína e em que ponto ela se torna apenas um convite para se afastar da sociedade por completo, como dizer que você pode optar por não usar a internet, transporte veicular ou serviços bancários, se assim o desejar.

Depois, há as novas regras propostas pela China. Não direi muito sobre isso, exceto para observar que são muito mais restritivas do que qualquer coisa que os Estados Unidos ou a Europa estejam imaginando, o que me deixa muito cético em relação aos argumentos de que estamos numa corrida com a China para desenvolver inteligência artificial avançada.

A China parece perfeitamente disposta a prejudicar o desenvolvimento da IA geral para que possa se concentrar em sistemas que servirão de forma mais confiável aos interesses do Estado.

Depois de conversar com muitas pessoas que trabalham com esses problemas e ler muitos documentos de políticas que imaginam soluções, há algumas categorias que eu priorizaria.

A primeira é a questão –e é uma questão– da interpretabilidade. Como eu disse acima, não está claro se a interpretabilidade é alcançável. Mas sem ela estaremos entregando cada vez mais nossa sociedade a algoritmos que não entendemos.

Se você me dissesse que estava construindo uma usina nuclear de próxima geração, mas não havia como obter leituras precisas sobre se o núcleo do reator iria explodir, eu diria que você não deveria construí-la.

A IA é como essa usina? Não tenho certeza. Mas essa é uma questão que a sociedade deveria considerar, não uma questão que deva ser decidida por algumas centenas de tecnólogos. No mínimo, acho que vale a pena insistir que as empresas de IA gastem um pouco mais de tempo e dinheiro descobrindo se esse problema tem solução.

A segunda é a segurança. Apesar de toda a conversa sobre uma corrida de IA com a China, a maneira mais fácil para a China –ou qualquer país, ou mesmo qualquer coletivo de hackers– se equiparar em IA é simplesmente roubar o trabalho que está sendo feito aqui.

Qualquer empresa que esteja construindo sistemas de IA acima de uma certa escala deve operar com segurança cibernética reforçada. É ridículo bloquear a exportação de semicondutores avançados para a China e simplesmente esperar que todo engenheiro de 26 anos da OpenAI esteja seguindo as medidas de segurança apropriadas.

A terceira são as avaliações e auditorias. É assim que os modelos serão avaliados em tudo, desde o viés até a capacidade de enganar as pessoas e a tendência a se replicar na internet.

A quarta é a responsabilidade. Haverá a tentação de tratar os sistemas de IA da mesma forma que tratamos as plataformas de rede social e isentar as empresas que as constroem dos danos causados por quem as utiliza. Acredito que isso seria um erro.

A maneira de tornar os sistemas de IA seguros é dar às empresas que projetam os modelos um bom motivo para torná-los seguros. Fazê-las assumir pelo menos alguma responsabilidade pelo que seus modelos fazem encorajaria muito mais cautela.

A quinta é, por falta de um termo melhor, humanidade. Queremos um mundo cheio de sistemas de IA projetados para parecer humanos em suas interações com humanos?

Porque não se engane: essa é uma decisão de design, não uma propriedade emergente do código de aprendizado de máquina. Os sistemas de IA podem ser ajustados para retornar respostas enfadonhas e cheias de ressalvas, ou podem ser construídos para mostrar personalidades brilhantes e se enredar na vida emocional dos seres humanos.

Eu acho que a última classe de programas tem o potencial de fazer tanto bem quanto mal, então as condições sob as quais eles operam devem ser cuidadosamente pensadas. Por exemplo, talvez faça sentido impor limites bastante rígidos aos tipos de personalidade que podem ser construídos para sistemas de IA que interagem com crianças.

Também gostaria de ver limites muito rígidos em qualquer capacidade de ganhar dinheiro usando companheiros de IA para manipular o comportamento do consumidor.

Esta não pretende ser uma lista exaustiva. Outros terão prioridades diferentes e visões diferentes. E a boa notícia é que novas propostas estão sendo lançadas quase diariamente. As recomendações de políticas do Future of Life Institute são fortes, e acho que o foco do AI Objectives Institute nas instituições administradas por humanos que projetarão e serão proprietárias de sistemas de IA é crítico.

Mas uma coisa que os reguladores não devem temer são as regras imperfeitas que retardam uma indústria jovem. Pela primeira vez, grande parte dessa indústria está desesperada por alguém que ajude a desacelerá-la.

Tradução de Luiz Roberto M. Gonçalves 

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.