Empresas lançam ferramentas para explicar como as máquinas 'pensam'

Detalhar como a inteligência artificial toma decisões é questão ética para companhias como IBM e Google

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

SARA CASTELLANOS
Nova York

A preocupação com a transparência e a ética da IA (inteligência artificial) está crescendo, levando as empresas de serviços de computação em nuvem a oferecer novas ferramentas que expliquem os processos decisórios usados por seus algoritmos.

Executivos de setores econômicos regulamentados, como o financeiro e o de contabilidade, dizem que é crucial que tanto os cientistas de dados quanto os gestores de negócios não técnicos compreendam os processos por trás de uma decisão algorítmica.

Esse conhecimento pode ter impacto considerável na proteção contra violações regulatórias e éticas, especialmente à medida que algoritmos empresariais de IA ganham espaço.

"Não acredito que seja possível elevar a escala da inteligência artificial dentro de uma empresa para além da casa das centenas [de experimentos] a menos que seja possível explicar [como o processo ocorre]", disse Vinodh Swaminathan, sócio responsável pelas áreas de automação inteligente, cognição e inteligência artificial do KPMG.

Vinodh Swaminathan, responsável pela área de IA do KPMG - Reprodução

Na busca de explicar como as máquinas "pensam", empresas como a IBM e o Google, do grupo Alphabet, adotaram ferramentas de ética e transparência às suas ofertas de serviços de IA em nuvem.

Cerca de 60% de 5.000 executivos entrevistados para um estudo da IBM se declararam preocupados sobre como explicar a maneira pela qual a tecnologia usa dados e toma decisões, de forma que garanta respeito aos padrões regulatórios e de fiscalização. Em 2016, a proporção era de 29%.

As decisões sobre IA podem representar caixas-pretas, em certos casos, tanto para os cientistas de dados que as programam quanto para os executivos de negócios que alardeiam seus benefícios.

Isso é especialmente verdadeiro no caso de ferramentas de aprendizado profundo, como as redes neuronais, empregadas para identificar padrões em conjuntos de dados, usando uma estrutura que tenta imitar a operação do cérebro humano.

Embora esses sistemas sejam capazes de extrair conclusões com precisão e velocidade sem precedentes, nem sempre fica claro como a densa teia de computações chega a uma decisão específica.

0
Fachada da IBM; novas ferramentas podem analisar decisões tomadas por sistemas de inteligência artificial para identificar discriminações - Bloomberg/Getty Images

A KPMG desenvolve ferramentas e também recorre a novos instrumentos de transparência da IBM.

O objetivo é garantir que os empregados tenham a capacidade de "abrir a caixa-preta" e determinar de que maneira os algoritmos inteligentes chegaram às suas conclusões, disse Swaminathan.

As ferramentas podem analisar decisões tomada por esses sistemas em tempo real, para identificar discriminações e recomendar correções. Elas trabalham com os serviços da IBM e do Google.

"Poder desempacotar esses modelos e compreender de onde tudo aquilo veio ajuda a entender de que forma uma decisão está sendo tomada", disse David Kenny, vice-presidente de soluções cognitivas da IBM.

No ano passado, o Google começou a lançar novas ferramentas para seu código de fonte aberta para aprendizado de máquina, como parte de "um esforço maior de pesquisa sobre interpretação".

Outra ferramenta do Google permite que não programadores examinem e eliminem bugs de sistemas de aprendizado por máquina, em um esforço para avaliar a equidade de um algoritmo.

Um porta-voz da Microsoft, que oferece serviços de inteligência artificial por meio do serviço de computação em nuvem Azure, disse que é preciso desenvolver sistemas de inteligência com proteções à equidade, à transparência e à segurança, de uma maneira que gere confiança, o que representa um esforço continuado.

A Amazon não respondeu a um pedido de comentário.

A Capital One Financial e o Bank of America estão entre as empresas financeiras, altamente regulamentadas, que vêm pesquisando maneiras de fazer com que os algoritmos de IA expliquem o raciocínio por trás de suas respostas.

As preocupações sobre como explicar a operação da IA vão além do setor privado.

A divisão de pesquisa do Departamento de Defesa dos Estados Unidos, por exemplo, coordena um esforço internacional para construir sistemas explicáveis de inteligência artificial capazes de traduzir complexas decisões de algoritmos em linguagem que os seres humanos possam compreender.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.