São Paulo, quarta-feira, 19 de março de 2008

Texto Anterior | Próximo Texto | Índice

processadores

Até onde chegará o computador

ANÁLISE Presidente do Comitê de Pesquisas em Computação do Reino Unido avalia evolução da informática

STEVE FURBER
DA UNIVERSIDADE DE MANCHESTER

Têm sido espetaculares os avanços realizados pela tecnologia da computação nas últimas quatro décadas, avanços esses impulsionados pela Lei de Moore, que, apesar de seu caráter inicial de mera constatação, se transformou em uma profecia autoconfirmatória e em um instrumento de planejamento para os executivos.
Gordon Moore [co-fundador da Intel] manifestou seu vaticínio sobre o progresso referindo-se somente ao número de transistores que poderiam ser incorporados de forma economicamente viável em um circuito integrado, mas a maneira pela qual esse progresso seria atingido se basearia principalmente na diminuição das dimensões do transistor.
Com isso, ocorreram ganhos colaterais em termos de performance, eficiência no uso de energia e, por último, mas não menos importante, redução de custos. A indústria dos semicondutores parece estar segura a respeito de sua capacidade de continuar diminuindo os transistores, ao menos durante cerca de uma década ainda.
Mas o jogo já começa a adquirir uma nova cara. Não podemos mais pressupor que os circuitos menores terão velocidades cada vez maiores ou consumirão energia de forma cada vez mais eficiente. À medida que nos aproximamos do limite atômico, a inconstância dos dispositivos começa a cobrar seu preço, e os custos dos projetos atingem proporções gigantescas. Isso tem afetado a lógica comercial dos projetos de uma forma que reverberará em todo o setor da computação e das comunicações.
Por exemplo, nos desktops há uma tendência de trocar os processadores simples de alta velocidade por processadores com vários núcleos, apesar do fato de a programação em paralelo para fins genéricos continuar sendo um dos problemas insolúveis da informática.
Para que os computadores se beneficiem dos futuros avanços tecnológicos, há grandes desafios à frente quanto à compreensão sobre como desenvolver sistemas confiáveis com base em uma tecnologia cada vez menos confiável e sobre como explorar de forma cada vez mais eficiente os recursos de paralelismo.
Isso significa não apenas uma melhoria de performance mas também a superação das conseqüências geradas pelas falhas de componentes.


Esta página traz os principais trechos da palestra proferida por STEVE FURBER na Sociedade Britânica de Computação no dia 12 de fevereiro último, publicado sob licença da Oxford University Press. Leia o texto integral da palestra em www.folha.com.br/circuitointegrado


Texto Anterior: Tendências: Controlar o lado negro da rede é o grande desafio
Próximo Texto: Saiba quem é o professor Steve Furber
Índice


Copyright Empresa Folha da Manhã S/A. Todos os direitos reservados. É proibida a reprodução do conteúdo desta página em qualquer meio de comunicação, eletrônico ou impresso, sem autorização escrita da Folhapress.