|
Texto Anterior | Próximo Texto | Índice
processadores
Até onde chegará o computador
ANÁLISE Presidente do Comitê de Pesquisas em Computação do Reino Unido avalia evolução da informática
STEVE FURBER
DA UNIVERSIDADE DE MANCHESTER
Têm sido espetaculares os
avanços realizados pela tecnologia da computação nas últimas quatro décadas, avanços
esses impulsionados pela Lei
de Moore, que, apesar de seu
caráter inicial de mera constatação, se transformou em uma
profecia autoconfirmatória e
em um instrumento de planejamento para os executivos.
Gordon Moore [co-fundador
da Intel] manifestou seu vaticínio sobre o progresso referindo-se somente ao número de
transistores que poderiam ser
incorporados de forma economicamente viável em um circuito integrado, mas a maneira
pela qual esse progresso seria
atingido se basearia principalmente na diminuição das dimensões do transistor.
Com isso, ocorreram ganhos
colaterais em termos de performance, eficiência no uso de
energia e, por último, mas não
menos importante, redução de
custos. A indústria dos semicondutores parece estar segura
a respeito de sua capacidade de
continuar diminuindo os transistores, ao menos durante cerca de uma década ainda.
Mas o jogo já começa a adquirir uma nova cara. Não podemos mais pressupor que os circuitos menores terão velocidades cada vez maiores ou consumirão energia de forma cada
vez mais eficiente. À medida
que nos aproximamos do limite
atômico, a inconstância dos
dispositivos começa a cobrar
seu preço, e os custos dos projetos atingem proporções gigantescas. Isso tem afetado a lógica
comercial dos projetos de uma
forma que reverberará em todo
o setor da computação e das comunicações.
Por exemplo, nos desktops
há uma tendência de trocar os
processadores simples de alta
velocidade por processadores
com vários núcleos, apesar do
fato de a programação em paralelo para fins genéricos continuar sendo um dos problemas
insolúveis da informática.
Para que os computadores se
beneficiem dos futuros avanços tecnológicos, há grandes
desafios à frente quanto à compreensão sobre como desenvolver sistemas confiáveis com base em uma tecnologia cada vez
menos confiável e sobre como
explorar de forma cada vez
mais eficiente os recursos de
paralelismo.
Isso significa não apenas
uma melhoria de performance
mas também a superação das
conseqüências geradas pelas
falhas de componentes.
Esta página traz os principais trechos da palestra proferida por STEVE FURBER na
Sociedade Britânica de Computação no dia 12 de
fevereiro último, publicado sob licença da Oxford University Press. Leia o texto integral da
palestra em www.folha.com.br/circuitointegrado
Texto Anterior: Tendências: Controlar o lado negro da rede é o grande desafio Próximo Texto: Saiba quem é o professor Steve Furber Índice
|