UOL


São Paulo, domingo, 25 de maio de 2003

Texto Anterior | Próximo Texto | Índice

Livro perturba o espírito de otimistas e confirma os temores de pessimistas

Para usar o estilo argumentativo do próprio livro, há uma probabilidade considerável de que o leitor fique deprimido ao chegar à última página de "Our Final Hour", a mais nova obra de sir Martin Rees. De forma direta e sucinta, sem rodeios, o astrônomo apresenta tudo que pode dar errado durante os próximos cem anos por conta de falhas de percepção, enganos bem-intencionados e terrorismo puro e simples, potencializados pela crescente revolução científico-tecnológica iniciada no século passado.
Para os pessimistas com relação ao futuro da humanidade, o livro não só é uma confirmação de suas piores suspeitas, como uma multiplicação exponencial das potenciais catástrofes. Rees não se contenta com mencionar as tecnologias, velhas e novas, que são capazes de causar um grande estrago à civilização -muito embora bombas nucleares, armas biológicas e possíveis ataques de fundo nanotecnológico ganhem de fato o maior destaque nas pouco mais de 200 páginas-, mas também menciona tragédias ainda mais impactantes, que podem levar mesmo ao final do Universo.
Parece um pouco exagerado que meia dúzia de primatas seja capaz de acabar com a "Criação", mas Rees aponta que os humanos hoje já planejam e realizam experimentos que geram fenômenos nunca antes produzidos pela natureza, ou então pertencentes a momentos radicalmente intensos da vida do Universo, como as frações mínimas de segundo que sucederam ao Big Bang, a explosão que gerou o cosmos. É improvável que colisões produzidas por aceleradores de partículas gerem eventos tão grandiosos quanto a produção de novos universos, ou mesmo de buracos negros capazes de engolir a Terra e toda a massa circundante. Mas é preciso menos que isso.
Segundo Rees, algumas teorias sugerem que esses testes poderiam, por exemplo, forçar a criação de um novo arranjo de quarks (partículas que formam prótons e nêutrons) chamado "strangelet". Cada um deles poderia ter uma espécie de toque de Midas, contaminando a matéria com que entrasse em contato. Logo, todo o planeta teria sido consumido e a vida, destruída. Em troca, ficaríamos com um punhado de "strangelets".
Toda vez que os físicos pretendem realizar um experimento novo num acelerador, calculam a probabilidade de que alguma coisa catastrófica desse tipo possa ocorrer, levando em conta mesmo as mais desvairadas teorias. Até agora, tudo o que eles fizeram foi considerado seguro -as chances de uma tragédia cósmica eram quase nulas, variando de 1 em 1 milhão a 1 em 1 trilhão. O astrônomo real britânico, entretanto, apresenta uma pergunta fundamental: quando o que está em risco é o futuro do Universo, quem é capaz de decidir qual risco pode ser considerado aceitável?
Para os otimistas, o livro pode ser uma espécie de eterno "teaser". A cada novo capítulo, a cada novo parágrafo, espera-se que Rees apresente algumas das maravilhas que a ciência pode trazer, algumas das esperanças que se pode nutrir, alguma luz no fim do túnel. Elas nunca vêm. Não que o astrônomo não tenha um pingo de otimismo -ao conversar com ele, fica claro que há tímidas razões para esperar um futuro possível, viável e saudável, ainda que não totalmente humano. Mas o objetivo do livro é outro.
Como ele mesmo coloca, trata-se de um "alerta", que leva em conta até os mais catastróficos cenários. Não é de surpreender que um dos argumentos a nortear o raciocínio de Rees seja justamente o famoso "princípio da precaução", rotina costumeiramente evocada por ecochatos xiitas para recusar o risco de determinadas ações humanas. Os melhores "alertas", como já provaram os ambientalistas, são os radicais. Só assim para contrabalançar os efeitos nefastos da típica irresponsabilidade dos Bushs da vida, quando se trata de administrar seu poder de destruição.
Entre os dois extremos, uma coisa é certa: ninguém é obrigado a concordar com Rees para admitir que vale a pena se aventurar pelas questões éticas mais polêmicas da ciência moderna, de preferência quando introduzidas por um inteligente e hábil escritor best-seller. (SN)


Our Final Hour
de Martin Rees
228 págs., US$ 25,00
Basic Books (EUA)
Onde comprar: www.amazon.com


Leia a seguir trechos da entrevista concedida pelo astrônomo real à Folha.

Para começar, queria perguntar sobre subtítulo do seu novo livro. Ele diz "Alerta de um cientista". O sr. acha que alertas de cientistas estão em falta hoje em dia?
Sim, estão. Eu acho que muitos cientistas estão cientes de que a ciência tem tremendo potencial, mas também apresenta riscos. Por exemplo, em ciências ambientais, tivemos muitos avisos.

Mas o sr. acha que algumas áreas, especialmente as altamente tecnológicas, sofrem com a falta de avisos? Vemos muito otimismo em torno disso, vemos perspectivas como a dos livros do físico norte-americano Michio Kaku, que dizem que a tecnologia vai acabar resolvendo tudo no final. O sr. não acha que esse tipo de abordagem está faltando?
Talvez esteja. Meu livro talvez seja um discreto antídoto para o otimismo excessivo, porque tento apontar que a ciência oferece perspectivas interessantes, mas conforme o poder do indivíduo cresce há um risco maior de mau uso da ciência.

O sr. aponta ao longo do livro que guerra nuclear, biotecnológica e nanotecnológica são crescentes ameaças para a humanidade. A primeira foi considerada inevitável logo que surgiu. Agora, 50 anos se passaram e nenhum conflito ocorreu. Não estamos dando menos crédito do que merecido quando tentamos imaginar quanto desastre humanos podem evitar?
Se olharmos a Guerra Fria, é verdade que evitamos a catástrofe. Mas eu acho que foi um risco bem alto na época da crise de Cuba. E o fato de que evitamos a catástrofe não quer dizer que o risco tenha sido baixo. Eu acho que talvez o risco de uma catástrofe tenha sido de 20% ou 30%. E, claro, se tivesse ocorrido uma guerra nuclear nos anos 1970 ou nos anos 1960, teria sido uma catástrofe, pelo menos no hemisfério Norte, porque os arsenais nucleares eram equivalentes a uma das grandes bombas convencionais para cada pessoa na América ou na Europa. E, se tivéssemos só o perigo nuclear, eu diria que no século 21 há um risco de 50% para a civilização. Nós sobrevivemos por talvez 30 anos, mas nos próximos cem anos poderia acontecer algum realinhamento político -porque nos últimos cem anos a União Soviética apareceu e desapareceu, então nos próximos cem anos poderia haver todo tipo de mudança política-, que trouxesse de volta a ameaça de guerra nuclear para pelo menos o nível que existiu nos anos 1960 e 1970. Então, eu não sou otimista. Eu acho que dizer que não há risco é como um homem caindo de um um arranha-céus e, ao passar pelo décimo andar, dizer "até aqui tudo bem". Houve um risco sério durante a Guerra Fria. E eu acho que no futuro, em um mundo talvez mais instável, o risco pode ser mais alto. Então, eu não sou otimista sobre o fim da ameaça nuclear.


Cientistas podem não conseguir controlar como seu trabalho será aplicado, mas eles têm de se preocupar com ele


O sr. parece advogar que cientistas deveriam tomar uma posição mais decidida com relação a desenvolvimentos futuros de tecnologia com resultados potencialmente catastróficos. O que os cientistas poderiam fazer, dado o presente cenário econômico e social, para ajudar a evitar erros fatais?
Bem, em meu livro eu cito cientistas que ajudaram a fazer a primeira bomba atômica e que, na era pós-guerra, em muitos casos, deram um ótimo exemplo ao tentar promover o desarmamento. Eu menciono pessoas como Hans Bethe e Joseph Rotblat, que eu conheci e que estabeleceram um bom exemplo de preocupação social. E eu acho que houve outros bons exemplos no passado. Eu menciono os biólogos que em 1975 disseram que talvez devêssemos ir devagar em alguns desenvolvimentos de combinação artificial de genes -o DNA recombinante-, e eu acho que esse foi um bom precedente para mostrar que os cientistas, em biologia, foram capazes de concordar em serem cuidadosos sobre alguns experimentos e que puderam manter esse acordo. Então, acho que houve muitos casos em que os cientistas expressaram preocupação. E, mais recentemente, há parte do orçamento para o Projeto Genoma Humano que foi alocada para o estudo de aspectos éticos, então aqueles cientistas também estão muito preocupados. Há bons exemplos, mas vai se tornar mais difícil que cientistas influenciem o que acontece, porque a comunidade científica é muito maior e as pressões comerciais são muito mais agudas.

Que áreas o sr. acha que precisariam mais de uma moratória ou coisa do tipo?
Não estou certo de que precisemos de uma moratória. Há certos tipos de ciência que queremos controlar por razões éticas, coisas como clonagem etc. Mas acho que queremos ser muito cuidadosos com as aplicações da ciência, e as aplicações da ciência deveriam ser decididas não pelos cientistas, mas por uma comunidade mais ampla.

Não é difícil separar a ciência básica que vai, por exemplo, nos ajudar a combater a epidemia de Sars e a ciência que poderia ser aplicada em armas biológicas?
De fato, é muito difícil, porque é justamente a mesma ciência, como você sugere. E é por isso que não é realista frear alguns tipos de ciência, e não outros, porque está tudo interconectado, e você não pode predizer quais serão as aplicações da ciência. Então, o que temos de fazer é estarmos cientes de que qualquer descoberta pode ser usada para bons propósitos ou para maus propósitos. E os cientistas devem informar o público dos benefícios e dos riscos. O público deve decidir sobre quais aplicações serão perseguidas, quais portas serão abertas e quais serão deixadas fechadas. E os cientistas têm uma responsabilidade especial. Como digo no meu livro, os pais não podem sempre controlar o que seus filhos fazem, mas eles são maus pais se não ligam para o que seus filhos fazem. Do mesmo modo, os cientistas podem não ser capazes de controlar como seu trabalho será aplicado, mas eles têm de se preocupar com ele, fazer o que podem para garantir que seu trabalho seja aplicado em bons propósitos.

Então o papel do cientista é só informar o público, para que eles tomem a decisão?
Eu acho que os cientistas deveriam ter cuidado ao trabalhar no desenvolvimento de novas armas, por exemplo. Porque, como discuto em meu livro, a corrida armamentista durante a Guerra Fria foi conduzida parcialmente por cientistas inventando novas armas que os adversários não haviam imaginado.

Uma das grandes diferenças entre as ameaças nuclear e biotecnológica é o poder que está disponível para um único indivíduo...
Isso está correto. As razões pelas quais aplicações biológicas são mais difíceis de lidar são duas. A primeira é que as mesmas técnicas são usadas para bons propósitos e para maus propósitos. A segunda é que o equipamento é pequeno em escala. Para fazer uma arma nuclear você precisa de equipamento muito grande, que é fácil de detectar, enquanto que para modificar um vírus você não precisa disso. Então, é muito difícil controlar o uso dessas novas tecnologias. E uma coisa com que estou preocupado é que haverá muitos milhares, até milhões de pessoas, que sabem biologia suficiente para serem capazes de modificar vírus e causar uma epidemia. Mesmo uma pessoa é muito, porque, como você diz, essas novas ciências dão ao indivíduo mais poder. Não é preciso uma nação, não é nem preciso um grande grupo terrorista. Você só precisa de um indivíduo.

Um dos possíveis meios de lidar com isso, conforme o sr. menciona no livro, seria derrubar algumas barreiras de privacidade. Isso não poderia gerar mais pessoas revoltadas, e pessoas potencialmente perigosas, do que uma sociedade livre com direitos de privacidade garantidos?
Eu acho que poderia. Eu não recomendo a perda da privacidade. Tudo que estou dizendo é que se houvesse um evento onde houvesse a liberação intencional de algum vírus, se isso acontecesse nos EUA, haveria pânico imediato, exatamente como aconteceu com o antraz, embora aquilo tenha matado apenas cinco ou seis pessoas. Haveria pânico imediato, e eles perceberiam que, se isso aconteceu uma vez, pode acontecer de novo, a qualquer hora, em qualquer lugar, e acho que haveria pressão muito forte da sociedade americana para monitorar muito de perto todas as pessoas que tivessem especialidade em biotecnologia. Eu concordo que não seria uma idéia atraente, poderia até não funcionar, mas eu acho que haveria pressão muito forte para tentar seguir o que todas essas pessoas estão fazendo.

Do que vemos até agora, a direção para os EUA tem sido diferente. Após os ataques eles decidiram tentar restringir o modo como cientistas publicam seus resultados.
Imagino se um desfecho igualmente trágico e possível não seria o de manter o público desinformado do desenvolvimento científico...
Eu acho que essa é outra coisa que poderia acontecer. Sim, poderia haver uma pressão contra a ciência. As pessoas podem não perceber que a ciência também oferece benefícios tremendos. Então eu acho que é muito mais difícil lidar com as ameaças que a biotecnologia vai apresentar do que com aquelas apresentadas pela energia nuclear.


"Coisas incríveis podem acontecer nos próximos mil anos, contanto que não enfrentemos um retrocesso severo nos próximos cem"


Estamos acostumados a pensar que ciência e tecnologia irão nos trazer uma utopia. E esses desfechos parecem sinalizar que uma distopia é a melhor palavra. O sr. acha que é esse o caso?
Depende, é claro. Acho que é ingênuo acreditar que vamos ter todos os benefícios sem ter risco algum, mas espero que possamos evitar esses problemas. E, claro, um modo de evitá-los é a sociedade mudar de modo que haja menos pessoas motivadas a agir como terroristas ou de um modo anti-social. Obviamente, isso é o que deveria estar sendo feito de todo modo, mas isso dá uma razão extra para tentar garantir que as pessoas não se sintam pesarosas.

O sr. também fala bastante sobre nanotecnologia e de inteligência artificial. Mas as perspectivas são muito maiores do que a tecnologia disponível até agora. Esse não seria um problema para o futuro distante?
É um problema, eu diria, para este século. Não é um problema com que nos preocupamos agora. Talvez não nos próximos dez ou 20 anos. Eu acho que nos próximos dez ou 20 anos, as principais preocupações serão nucleares e biológicas. Mas, se você pensar 50 anos à frente, é bem possível que nanotecnologia e computadores superinteligentes não sejam mais ficção científica. Então, se pensarmos no que acontece num século, muita coisa pode mudar. Se pensarmos no que aconteceu entre 1900 e o presente, avanços incríveis não podiam ser percebidos cem anos atrás. E deixe-me mencionar outra coisa que faz este próximo século ainda mais imprevisível e ainda mais incerto. Pela primeira vez, seres humanos em si vão se modificar. Até agora, por milhares de anos de história registrada, as características e as propriedades físicas dos seres humanos não mudaram. Elas mudam na escala de tempo da evolução, mas é muito lento. Mas, no próximo século, seres humanos podem mudar por várias razões. Engenharia genética, talvez até implantes em nossos cérebros e novos tipos de drogas com propriedades muito específicas.

É uma perspectiva meio assustadora. O sr. acha que isso poderia ser benéfico ou deveria ser interrompido antes que comece?
É de fato assustador, e é por isso que acho que há um risco sério, o que é um dos temas do livro. E acho que quanto mais as pessoas estiverem cientes desse risco, mais provavelmente irão exercer pressão para minimizá-lo. E o modo de minimizá-lo é ter cuidado sobre que aplicações da ciência encorajamos.

Considerando a forma como o público entende e apreende ciência, não é possível que mensagens como esta acabem produzindo um movimento generalizado contra a ciência? As pessoas não poderia ficar tão assustadas a ponto de dizer, "eu não quero mais nada disso"?
Há um risco disso, claro. E o público muitas vezes tem um medo exagerado de algumas coisas. Neste país [Reino Unido], alimentos geneticamente modificados, por exemplo. As pessoas se preocupam mais do que na América. Isso é algo com que muitas pessoas se preocupam e pode ser exagero. Mas acho que as responsabilidades que os cientistas têm é de entrar em discussão com o público mais amplo.

O sr. menciona que a única chance de resistirmos até mesmo a uma catástrofe será se espalhar pelo espaço. Outros também pensam assim, como Stephen Hawking e Freeman Dyson. Por que então tanta oposição sua ao projeto da ISS [Estação Espacial Internacional]?
Bem, deixe-me dizer que eu não acho que vamos nos extinguir na Terra. Acho que há uma boa chance de uma crise severa na civilização, mas é improvável que nos extingamos. E também a maioria das pessoas nunca irá ao espaço, pois nenhum lugar do espaço oferece um ambiente que seja tão bom quanto a Antártida ou o fundo do oceano, nunca será um lugar hospitaleiro. Mas deixe-me dizer umas poucas palavras sobre o futuro da exploração do espaço. Se você perguntar minha opinião, falando como cientista, sou contra. Se me perguntar como um ser humano, sou a favor. O que quero dizer com isso é que a defesa prática de enviar pessoas ao espaço está ficando mais fraca, porque a robótica e a miniaturização estão ficando mais eficientes, e nós não precisamos de pessoas no espaço para ciência, meteorologia, navegação e comunicações. Não precisamos se quisermos explorar os planetas, fazemos isso muito melhor com robôs. Mas eu acredito que, no longo prazo, os seres humanos vão se espalhar além da Terra, e eu espero que haja pequenos grupos de pioneiros que viverão em comunidades além da Terra em cem anos. Mas eu acho que a exploração espacial por seres humanos, ir à Lua novamente ou ir a Marte, só vai acontecer quando duas coisas forem satisfeitas. Primeiro, terá de ser feita de forma muito mais barata do que com as técnicas atuais. E minha objeção à ISS é que ela é enormemente cara. E o ônibus espacial é enormemente caro. E não é muito inspirador, porque tudo que fazem é girar e girar em torno da Terra. Um outro problema do programa espacial da Nasa é que ele é pago por contribuintes americanos e as pessoas que vão para cima são civis, e eles não querem correr risco. Quando há um acidente, é um trauma nacional. Mas você precisa aceitar que sempre será perigoso. E eu acho que o único modo em que a exploração espacial será viável em algum momento é se for feita mais barata, por pessoas financiadas por organizações privadas, consórcios privados, e aceitando riscos muito grandes. O tipo de risco aceito por pessoas que vão à Antártida ou dão a volta ao mundo em balões ou que escalam montanhas, e os riscos tomados pelos primeiros exploradores. Se são pessoas [financiadas por instituições] privadas, se elas não voltarem, será muito triste, mas não será um trauma nacional, saberíamos que elas estavam preparadas para assumir altos riscos.

Numa entrevista, o astrônomo Donald Brownlee sugeriu que os humanos já tenham provado força imensa para causar problemas em escala global, mas não para evitá-los ou contorná-los. O sr. concorda com a afirmação dele?
Não estou certo do que ele quer dizer, porque evitamos muitas grandes epidemias, por exemplo, ao ampliar cuidados médicos, então podemos fazer algo com a ciência. Mas é certamente verdadeiro que os principais riscos ambientais no século vindouro serão riscos causados por ações humanas. Aquecimento global, extinções etc. são mais sérios que as ameaças naturais, como vulcões ou asteróides. Porque as ameaças naturais não são piores para nós do que foram para as pessoas 2 mil anos atrás, enquanto as outras ameaças, como aquecimento global e a perda da biodiversidade, são mais sérias.

O sr. acha que em algum ponto do futuro vamos encontrar problemas para os quais não poderemos encontrar nem mesmo soluções paliativas?
Suponho que possamos, há um risco de que as consequências do aquecimento global sejam mais sérias do que o melhor palpite, e há sempre o risco de outro tipo de consequência não-intencional, vindo de qualquer transformação que estejamos fazendo em nosso ambiente.

Probabilidades de lado, o sr. é pessimista ou otimista com relação ao futuro da humanidade, curto prazo e longo prazo?
De novo, citando meu livro, acho que há uma chance de 50% de um retrocesso muito severo nos próximos cem anos, e eu suponho que nesse sentido eu seja um pouco pessimista. Por outro lado, uma das razões pelas quais eu escrevi o livro é que o potencial é muito maior do que as pessoas percebem. As coisas podem mudar e melhorar e se desenvolver para maior complexidade e maior inteligência, numa escala muito mais curta do que ocorreu no passado. Coisas incríveis podem acontecer nos próximos mil anos, contanto que não enfrentemos um retrocesso severo nos próximos cem. Teremos a chance de desenvolver uma vida pós-humana, e isso aconteceria numa escala de tempo mais rápida do que a escala normal da evolução de espécies no passado, porque é controlada por nós. Essa será uma mudança importante. Outro ponto é que, quando houver comunidades independentes vivendo além da Terra, você pode imaginar que todas elas irão se diversificar, elas vão todas no final evoluir diferentemente.


Texto Anterior: O pós-humano
Próximo Texto: + brasil 504 d.C.: Feiticeiros do saber
Índice

UOL
Copyright Empresa Folha da Manhã S/A. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização escrita da Folhapress.