Os riscos apresentados pelos chatbots de inteligência artificial estão na mira dos reguladores dos Estados Unidos pela primeira vez, após a FTC (Comissão Federal de Comércio, na sigla em inglês) iniciar uma ampla investigação contra a fabricante do ChatGPT, a OpenAI.
Em uma carta enviada à empresa, que recebe investimentos da Microsoft, o órgão disse que vai analisar se pessoas foram prejudicadas pela criação de informações falsas pelo chatbot de IA. Também vai investigar se a OpenAI se envolveu em práticas de privacidade e segurança de dados "injustas ou enganosas".
Produtos de IA generativa são alvo de reguladores no mundo depois que especialistas alertaram sobre a enorme quantidade de dados pessoais consumidos pela tecnologia, bem como seus resultados potencialmente prejudiciais, que vão desde desinformação a comentários sexistas e racistas.
Em maio, a FTC disparou um alerta para a indústria, dizendo que estava "focando intensamente em como as empresas podem optar por usar a tecnologia de IA, incluindo novas ferramentas de IA generativas, de maneiras que possam ter um impacto real e substancial nos consumidores".
Em sua carta, o regulador dos EUA pediu à OpenAI que compartilhasse material interno, desde como o grupo usa ou retém as informações do usuário até as medidas que a empresa tomou para lidar com o risco de seu modelo produzir declarações que são "falsas, enganosas ou depreciativas".
A FTC se recusou a comentar a carta, que foi relatada pela primeira vez pelo Washington Post nesta quinta-feira (13). A OpenAI se recusou a comentar.
Lina Khan, presidente da FTC, testemunhou na manhã desta quinta-feira (13) perante o comitê judiciário da Câmara e enfrentou fortes críticas de legisladores republicanos por sua postura rígida de aplicação da lei.
Quando questionada sobre a investigação durante a audiência, Khan se recusou a comentar, mas disse que as preocupações mais amplas do órgão regulador envolviam o ChatGPT e outros serviços de IA "recebendo uma enorme quantidade de dados" enquanto não havia "nenhuma verificação sobre que tipo de dados alimentam essas empresas".
Ela acrescentou: "Ouvimos falar de relatos em que as informações confidenciais das pessoas estão aparecendo em resposta a uma consulta de outra pessoa. Ouvimos falar de calúnias, declarações difamatórias, coisas totalmente falsas que estão surgindo. Esse é o tipo de fraude e engano que nos preocupa."
Os especialistas estão preocupados com a enorme quantidade de dados sendo usados pelos modelos de linguagem por trás do ChatGPT. O OpenAI chegou a ter mais de 100 milhões de usuários ativos mensais dois meses após o lançamento.
O novo mecanismo de busca Bing da Microsoft, também alimentado pela tecnologia da OpenAI, estava sendo usado por mais de 1 milhão de pessoas em 169 países dentro de duas semanas de seu lançamento em janeiro.
Os usuários relataram que o ChatGPT forjou nomes, datas e fatos, além de links falsos para sites de notícias e referências a trabalhos acadêmicos, um problema conhecido na indústria como "alucinações".
A investigação da FTC investiga detalhes técnicos de como o ChatGPT foi projetado, incluindo o trabalho da empresa na correção de alucinações e a supervisão de seus revisores humanos, que afetam os consumidores diretamente.
Também pede informações sobre reclamações de consumidores e esforços feitos pela empresa para avaliar a compreensão dos consumidores sobre a precisão e confiabilidade do chatbot.
Em março, o regulador de privacidade da Itália baniu temporariamente o ChatGPT enquanto examinava a coleta de informações pessoais da empresa americana após uma violação de segurança cibernética, entre outras questões. Ele foi restabelecido algumas semanas depois, depois que a OpenAI tornou sua política de privacidade mais acessível e introduziu uma ferramenta para verificar a idade dos usuários.
O presidente-executivo da OpenAI, Sam Altman, já havia admitido que o ChatGPT tem pontos fracos. "O ChatGPT é incrivelmente limitado, mas bom o suficiente em algumas coisas para criar uma impressão enganosa de grandeza", escreveu ele no Twitter em dezembro. "É um erro confiar nele para qualquer coisa importante agora. É uma prévia do progresso; temos muito trabalho a fazer em termos de robustez e veracidade."
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.