Cientistas ingleses usam IA para detectar o que pessoas digitam pelo som das teclas

Precisão do método alcançou índice de 95% com áudio gravado por microfone em geral e 93% com áudio de Zoom

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Três pesquisadores britânicos usaram inteligência artificial para identificar texto a partir do som do teclado. A precisão do programa é de 95% quando a gravação é feita por um microfone próximo à pessoa que digita, segundo dados do estudo conduzido pelas universidades de Durham, Surrey e Royal Halloway.

Os professores britânicos alertam para o risco de pessoas mal-intencionadas usarem a técnica de interceptação do teclado para roubar senhas e também bisbilhotar informações sensíveis.

Técnicas de espionagem que envolvem a interpretação de sinais emitidos por um aparelho são chamadas de ataques de canal lateral (SCAs, na sigla em inglês). O interceptador pode captar ondas eletromagnéticas, consumo de bateria, sensores móveis e também sons.

Em foto ilustrativa, a sombra de uma mão alcança o teclado do computador, para representar o crime cibernético
Em foto ilustrativa, a sombra de uma mão alcança o teclado do computador, para representar o crime cibernético - Calado/Adobe Stock

Os ataques de canal lateral são conhecidos. Já decodificaram com êxito processadores Intel, impressoras e a máquina Enigma —aquela interceptada pelo pai da computação Alan Turing, como mostra o filme "O Jogo da Imitação" (2014).

O que a pesquisa britânica —divulgada em pré-print (ainda sem a revisão por pares)— mostra é que avanços em aprendizado de máquina aumentam o desempenho das técnicas de interpretação de sons.

Para fazer a análise, os pesquisadores primeiramente definiram o desenho da onda sonora e depois usaram uma técnica matemática para transformá-la em um sinal. A IA, então, consegue receber esses sinais e sugerir as palavras mais prováveis.

Já era possível detectar o que era digitado em teclados mecânicos —e barulhentos. O novo estudo testou teclados de notebook, que, embora mais silenciosos, têm estruturas parecidas e, durante o uso, emitem sons semelhantes, o que facilitaria a reprodução da técnica de interceptação, segundo os autores.

Ainda assim, é muito difícil conseguir o mesmo resultado em teclados diferentes, segundo o professor de ciência da computação da USP Marcelo Finger, que já desenvolveu IAs que detectavam padrões com base em amostras de som.

Senhas que contenham palavras inteiras são mais vulneráveis a ataques com inteligência artificial. Mesmo que o modelo entenda errado o significado de uma tecla, as IAs podem corrigir vocábulos por funcionarem com predição de palavras conhecidas —ou seja, indicando a próxima palavra mais provável—, de acordo com Eerke Boiten, professor da Universidade de Leicester.

Finger afirma que a inteligência artificial deve acertar mais em trechos maiores de digitação, pela característica estatística de seu funcionamento. O algoritmo tem mais informações com que trabalhar e para corrigir as teclas erradas.

Outro fator de risco é que a proliferação de dispositivos digitais aumenta os microfones nas ruas e nas casas e, com isso, cresce a chance de haver gravações com a qualidade necessária para a interpretação com maior fidelidade.

Smartphones, assistentes pessoais —como Alexas—, smartwatches e até lâmpadas inteligentes, em alguns casos, podem gravar áudio. Os objetos mais simples são os mais vulneráveis a ciberataques.

De acordo com a empresa de tecnologia Ericsson, é difícil se proteger de ataques de canais laterais, uma vez que a estratégia explora características físicas dos aparelhos. Uma forma de proteção é o uso, pelos fabricantes de eletroeletrônicos, de estratégias para confundir os sinais emitidos pelos dispositivos.

No caso do Zoom, o algoritmo do estudo britânico consegue acertar 93% do que foi digitado —abaixo da precisão máxima do programa. Um filtro contra ruído no aplicativo dificulta a diferenciação do som das teclas.

A tecnologia corta parte das ondas de som, que são transformadas em código inteligível pela inteligência artificial. Para contornar essa barreira, os cientistas britânicos solucionaram o problema com uma técnica chamada aumento de dados.

A partir dos padrões registrados com o som gravado em microfone e de operações matemáticas, os pesquisadores conseguem preencher os trechos cortados pelo filtro. O aumento de dados também serviu para treinar o modelo de aprendizado de máquina com informações virtuais.

A pesquisa foi iniciada pelo pesquisador Joshua Harrison, da Universidade de Durham, e teve como coautores os professores Ehsan Toreini, da Universidade de Surrey, e Maryan Mehrnezhad, da Royal Holloway University of London.

"Nosso trabalho joga luz a uma nova forma de ataque virtual possível com machine learning [treinamento de programas a partir de exemplos]", diz Toreini, que orientou a elaboração do artigo. Em pesquisa de cibersegurança, é comum testar brechas antes que criminosos as explorem.

Finger, da USP, afirma que o estudo ainda precisa ser reproduzido por outros cientistas para ter seus números testados. "Mas a metodologia faz sentido."

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.