É bobagem pôr dinheiro público em ciência esperando obter retornos em tecnologia. Essa é uma ideia polêmica, da qual não estou pessoalmente convencido. Mas, como uma das funções do jornalista é apresentar teorias contraintuitivas, desde que amparadas em argumentos, exponho aqui essa tese, defendida por autores como Matt Ridley.
Comecemos com a famosa Lei de Moore, segundo a qual o número de transistores num chip dobra a cada dois anos, aumentando o poder de computação das máquinas e reduzindo seu preço. Bem, especialistas se meteram a calcular padrões de desenvolvimento de tecnologias e descobriram que ela avança num passo muito mais regular do que se poderia imaginar. Além da Lei de Moore, há a Lei de Kryder (sobre a capacidade de armazenagem dos discos magnéticos) e a Lei de Cooper (sobre transmissões de rádio simultâneas).
Tais padrões, vários deles centenários, não viram seu ritmo se alterar nem com a queda de investimentos na esteira da crise de 1929 nem com o forte aumento de gastos registrado durante a Segunda Guerra Mundial. Como explicar isso?
Para Ridley, a tecnologia funciona quase como um organismo autônomo, em que cada degrau de desenvolvimento leva ao próximo (o adjacente possível), num processo difícil tanto de conter quanto de acelerar. Para ele, o modelo linear segundo o qual a ciência produz a inovação que gera a prosperidade está errado.
Embora haja casos em que desenvolvimentos científicos acabam criando novas tecnologias, o mais comum é ocorrer o contrário, isto é, inovações abrirem caminhos para a ciência. Um exemplo clássico é o da astronomia, que avançou enormemente depois da invenção das lunetas e telescópios. Idem para a termodinâmica, que conheceu uma idade de ouro depois das primeiras máquinas a vapor, e não antes.
De minha parte, acho que, mesmo que essa descrição valha para algumas áreas, está longe de cobrir a totalidade das ciências.
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.