Marcelo Viana

Diretor-geral do Instituto de Matemática Pura e Aplicada, ganhador do Prêmio Louis D., do Institut de France.

Salvar artigos

Recurso exclusivo para assinantes

assine ou faça login

Marcelo Viana

A descoberta da teoria da informação

É possível medir quanta informação há em um livro, um disco e até neste texto

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Na minha infância, supermercados não existiam, pelo menos onde eu morava. Na mercearia sempre tínhamos que especificar as quantidades: quantos quilos de arroz, litros de leite, metros de barbante. Lembro quando, bem mais tarde, aprendi que informação também pode ser quantificada. A descoberta de que faz sentido medir quanta informação há em um livro, um disco, ou até neste artigo, fascina-me até hoje.

Mulher lê em biblioteca em Taocheng de Hengshui, no norte da China - Zhu Xudong - 23.abr.2020/Xinhua

A ideia remonta à publicação, em 1948, do trabalho "Uma Teoria Matemática da Informação", do americano Claude Shannon (1916—2001), que transformou numa ciência pujante, fortemente ligada à matemática, o que até então fora um conjunto de regras empíricas, abrindo o caminho para a Era da Informação em que vivemos atualmente.

Shannon graduou-se na universidade de Michigan, em 1936, com titulação dupla em matemática e engenharia. No ano seguinte, concluiu o mestrado no Instituto de Tecnologia de Massachusetts, o renomado MIT.

Na dissertação provou que circuitos elétricos que executam as operações lógicas fundamentais ("e", "ou" e "não") permitem realizar todos os cálculos numéricos. Essa descoberta está na base do funcionamento de todo computador.

Shannon terminou o doutorado em 1940, também no MIT, com uma tese sobre a formulação matemática da genética. Durante a Segunda Guerra Mundial, participou ativamente no esforço de guerra, particularmente em criptografia. "Uma teoria Matemática da Informação" é resultado da pesquisa que realizou e da experiência adquirida nesse período.

A ideia central da teoria de Shannon é que a quantidade de informação de um evento E depende apenas da probabilidade p(E) desse evento, e é tanto maior quanto menor for a probabilidade.

Por exemplo, em 2014, a notícia "Brasil tomou 7 a 1 da Alemanha" continha muita informação, pois esse era um evento muito improvável (entre nós: era para ter sido impossível!).

Em termos precisos, para Shannon, a quantidade de informação está dada pelo logaritmo de 1/p(E) na base 2. Assim, a quantidade de informação de um evento com probabilidade 1/2, tal como "a moeda deu cara", é igual a 1. Essa é a unidade (uma espécie de litro, quilo ou metro) de informação que Shannon chamou bit, abreviatura de "binary digit" (dígito binário, em inglês).

A memória de todo computador é formada por unidades que guardam 1 bit de informação cada. Elas estão organizadas em grupos, normalmente de 8 bits, que são chamados bytes. Uma foto de 1 megabyte (1.048.576 bytes) ocupa o mesmo espaço de memória que seria necessário para guardar o resultado de 268.435.456 lançamentos de uma moeda. Não importa se a foto é bonita ou feia.

PS: Hoje (6) é o Dia Nacional da Matemática. Nesta semana o Impa (Instituto de Matemática Pura e Aplicada) promove diariamente lives no Instagram e, na sexta, o webinário "Matemática em Tempos de Crise" no YouTube.

LINK PRESENTE: Gostou desta coluna? Assinante pode liberar cinco acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

  • Salvar artigos

    Recurso exclusivo para assinantes

    assine ou faça login

Tópicos relacionados

Leia tudo sobre o tema e siga:

Comentários

Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.