São Paulo, segunda-feira, 08 de dezembro de 2008

Texto Anterior | Próximo Texto | Índice

CIÊNCIA & TECNOLOGIA

Uso de robôs em guerras levanta debate ético

Por CORNELIA DEAN

ATLANTA, Geórgia - No calor da batalha, mesmo os soldados mais bem treinados são capazes de agir de maneiras que violam a Convenção de Genebra ou as regras de combate. Alguns pesquisadores sugerem que robôs poderiam fazer um trabalho melhor.
“Minha hipótese de pesquisa é que robôs inteligentes são capazes de agir mais eticamente no campo de batalha do que os humanos conseguem hoje”, disse Ronald C. Arkin, cientista da computação no Instituto de Tecnologia da Geórgia que está desenhando softwares para robôs de combate, sob contrato com o Exército dos EUA.
Aviões teleguiados, detectores de minas e aparelhos de sensoriamento robotizados já são comuns em campo de batalha, mas são controlados por humanos. Arkin está falando de robôs verdadeiros, operando por conta própria.
Ele e outros cientistas dizem que a tecnologia necessária para produzir robôs autônomos letais custa pouco e está se proliferando. Eles afirmam que é apenas questão de tempo para esses robôs serem usados no campo de batalha. Isso significa, dizem os cientistas, que é hora de as pessoas começarem a discutir se essa tecnologia é algo que querem colocar em uso.
O cientista da computação Noel Sharkey, da Universidade de Sheffield, no Reino Unido, escreveu no ano passado no periódico “Innovative Technology for Computer Professionals” que “não se trata de ficção científica no estilo de ‘O Exterminador do Futuro’, mas da realidade sombria”. Segundo ele, Coréia do Sul e Israel já usam robôs armados para vigiar suas fronteiras.
Randy Zachery, chefe da diretoria de Ciência da Informação do Escritório de Pesquisas do Exército, que está financiando o trabalho de Arkin, disse que o Exército espera que essa “ciência básica” mostre como soldados humanos poderiam usar e interagir com sistemas autônomos e como seria possível desenvolver softwares “que permitam que sistemas autônomos operem dentro dos limites impostos pela parte em guerra”.
Num relatório apresentado ao Exército no ano passado, Arkin descreveu algumas das vantagens potenciais de robôs combatentes autônomos. Para começar, eles podem ser projetados sem instinto de autopreservação e, portanto, sem tendência a reagir violentamente por medo. Podem ser construídos para não ter raiva ou comportamentos insensatos, escreveu o cientista, e podem ser feitos invulneráveis “ao problema psicológico da ‘realização de cenários prontos’”, que leva pessoas a absorver informações novas mais facilmente se elas correspondem a suas idéias preexistentes.
Seu relatório aproveitou idéias de uma pesquisa feita em 2006 pelo comandante médico do Exército, que constatou que menos da metade dos soldados e fuzileiros navais que prestavam serviço militar no Iraque opinaram que não-combatentes deveriam ser tratados com dignidade e respeito, enquanto 17% disseram que todos os civis deveriam ser tratados como insurgentes.
Arkin imagina várias maneiras nas quais poderiam ser usados agentes robotizados autônomos —em operações contra franco-atiradores, para retirar suspeitos de terrorismo de prédios ou outras tarefas perigosas. Mas primeiro esses robôs teriam que ser programados com regras e instruções sobre em quem atirar, quando é aceitável disparar e como distinguir tropas inimigas atacantes de civis, feridos ou pessoas que querem se render.
As simulações de campo de batalha criadas por Arkin são exibidas em monitores de computador. Os pilotos robôs dispõem das informações que um piloto humano teria em mãos, incluindo mapas que mostram a localização de templos, prédios residenciais, escolas e outros centros de vida civil.
Eles são instruídos sobre a localização de tropas e equipamentos inimigos e de alvos prioritários. E recebem as regras de combate, diretrizes que limitam as circunstâncias nas quais eles podem iniciar e realizar combates.
Em uma simulação, um piloto robô sobrevoa um pequeno cemitério. O piloto vê um tanque na entrada do cemitério —um alvo potencial. Mas um grupo de civis também se reuniu no cemitério. Então o piloto decide continuar voando e pouco depois localiza outro tanque, este sozinho no meio de um campo. O piloto dispara; o alvo é destruído.
Alguns especialistas que estudaram a questão temem que faltaria empatia a robôs combatentes criados sem emoções. Arkin raciocina que, pelo fato de regras como as da Convenção de Genebra serem baseadas em princípios humanitários, embuti-las na arquitetura mental de uma máquina a dotaria de uma espécie de empatia. Ele reconheceu, entretanto, que seria difícil desenhar “algoritmos perceptivos” capazes de reconhecer, por exemplo, quando pessoas estão feridas ou segurando uma bandeira branca.
Arkin disse que provocar discussões sobre a tecnologia é a parte mais importante de seu trabalho. E, se os robôs autônomos de campo de batalha acabarem sendo proibidos, disse ele, “isso não me incomodará nem um pouco”.


Texto Anterior: Análise: Uma mal desenhada vitória americana
Próximo Texto: Novo enfoque ao déficit
Índice



Copyright Empresa Folha da Manhã S/A. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização escrita da Folhapress.