Haja Vista

Histórias de um repórter com baixa visão

Haja Vista - Filipe Oliveira
Filipe Oliveira
Descrição de chapéu tecnologia

Reconhecimento de imagens com ChatGPT impressiona e já derruba barreiras de acessibilidade

Aplicativo Be My Eyes testa serviço que descreve imagens com inteligência artificial para pessoas cegas e com baixa visão

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

São Paulo

Parece que uma pessoa próxima está do meu lado, contando e explicando pacientemente todos os detalhes do que está presente em uma foto.

Essa é a sensação de experimentar a nova função baseada em inteligência artificial do aplicativo Be My Eyes, em teste para parte dos usuários.

O Be My Eyes é um aplicativo de origem dinamarquesa bem conhecido entre pessoas cegas e com baixa visão. Como sugere o nome do serviço, que em português significa Seja meus Olhos, o usuário pode pedir ajuda a qualquer momento a partir do celular e, em alguns instantes, se conecta por vídeo a uma pessoa que enxerga disposta a auxiliar. Serve, por exemplo, para verificar se a roupa está combinando ou ler um código com números e letras embaralhados para conseguir acessar um serviço no computador.

Não é que a máquina ficou tão inteligente que substituiu os humanos. A função de chamar ajuda de alguém real continua lá. Porém parte dos usuários do serviço agora também pode pedir apoio do ChatGPT a partir do mesmo app, usando a função que ganhou o nome de Be My AI (seja minha inteligência artificial). Para isso, é preciso tirar uma foto pelo app ou encaminhar a ele qualquer imagem armazenada no aparelho.

Até poucos dias, eu não era um grande entusiasta do ChatGPT e via com reservas a criação de textos supostamente originais a partir dele sem a inclusão de fontes usadas pelo sistema. Mas não há como descrever o que a ferramenta faz sem um adjetivo de impacto. O resultado da descrição é impressionante, inacreditável, assombroso.

Nós, que temos deficiência visual, já estamos acostumados com descrições que as redes sociais fazem automaticamente de imagens. Em geral são muito simples, apenas para termos uma ideia de que se trata. Algo como "mulher sorrindo em ambiente fechado" ou "homem com óculos de sol".

Compare com a descrição de uma foto que tirei ao acaso do meu quarto:

"A foto mostra um quarto com piso de madeira. À esquerda, há uma estante branca com várias prateleiras contendo livros e outros itens. Ao lado da estante, há uma mochila verde no chão. No centro da foto, há uma cama com lençóis verdes e travesseiros brancos. Há também um cachorro deitado na cama. À direita, há uma janela com persianas meio abertas através da qual você pode ver algumas árvores."

Parece muito; É mais do que eu esperaria e revela mais da bagunça de meu quarto do que eu gostaria. Mas, além disso, é possível também conversar com o ChatGPT a partir do Be my Eyes e pedir mais informações, como a cor do pelo do cachorro ou a iluminação do local. Sem falar que ele também fez um sonetinho sobre o Bob e seu repouso.

De imediato, suspeito que os problemas de acessibilidade nas conversas de whatsApp acabaram. Afinal, era muito comum nós, com deficiência visual, recebermos imagens e ficarmos de fora da conversa por não termos como saber o que havia nelas. Agora basta clicar em um botão para compartilhar a foto, enviar para o aplicativo e passamos a entender do que estão falando sem precisar pedir para alguém explicar a piada.

Na vida fora da tela,, a identificação de cores e objetos ficou muito mais precisa. Já havia aplicativos que reconhecem cores ou produtos, mas ainda não nesse nível de precisão.

Importante fazer a ressalva de que, mesmo com toda minha empolgação, não quero dizer que todos os problemas de acessibilidade digital com fotos estão resolvidos nem que não é mais necessário que ninguém descreva imagens em sites ou nas redes sociais.

O reconhecimento de uma foto no Be My Eyes leva mais ou menos um minuto. Tente contar quantas fotos você vê por dia no Instagram. Mesmo que não seja aficionado pela rede, seria totalmente inviável usar o serviço para reconhecer um décimo disso em um dia normal. Em especial porque não há uma integração entre os aplicativos e seria preciso fazer um print screen de cada postagem que parecesse interessante antes de enviar a imagem para que seja analisada.

Ou seja, parece um processo rápido, mas, dado a velocidade de conexões e comunicações, na verdade é bem demorado. No estágio atual da tecnologia, ainda é melhor que cada um faça uma descrição rapidinha do que está postando para que a pessoa cega ou com baixa visão use o aplicativo apenas nas que gerarem muita curiosidade por mais detalhes.

Enquanto sigo com os testes, pela primeira vez espero ansioso por seus cartões de "Bom Dia" e pelos próximos memes no grupo de WhatsApp.

LINK PRESENTE: Gostou deste texto? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.