Siga a folha

A descoberta da teoria da informação

É possível medir quanta informação há em um livro, um disco e até neste texto

Continue lendo com acesso ilimitado.
Aproveite esta oferta especial:

Oferta Exclusiva

6 meses por R$ 1,90/mês

SOMENTE ESSA SEMANA

ASSINE A FOLHA

Cancele quando quiser

Notícias no momento em que acontecem, newsletters exclusivas e mais de 200 colunas e blogs.
Apoie o jornalismo profissional.

Na minha infância, supermercados não existiam, pelo menos onde eu morava. Na mercearia sempre tínhamos que especificar as quantidades: quantos quilos de arroz, litros de leite, metros de barbante. Lembro quando, bem mais tarde, aprendi que informação também pode ser quantificada. A descoberta de que faz sentido medir quanta informação há em um livro, um disco, ou até neste artigo, fascina-me até hoje.

Mulher lê em biblioteca em Taocheng de Hengshui, no norte da China - Zhu Xudong - 23.abr.2020/Xinhua

A ideia remonta à publicação, em 1948, do trabalho "Uma Teoria Matemática da Informação", do americano Claude Shannon (1916—2001), que transformou numa ciência pujante, fortemente ligada à matemática, o que até então fora um conjunto de regras empíricas, abrindo o caminho para a Era da Informação em que vivemos atualmente.

Shannon graduou-se na universidade de Michigan, em 1936, com titulação dupla em matemática e engenharia. No ano seguinte, concluiu o mestrado no Instituto de Tecnologia de Massachusetts, o renomado MIT.

Na dissertação provou que circuitos elétricos que executam as operações lógicas fundamentais ("e", "ou" e "não") permitem realizar todos os cálculos numéricos. Essa descoberta está na base do funcionamento de todo computador.

Shannon terminou o doutorado em 1940, também no MIT, com uma tese sobre a formulação matemática da genética. Durante a Segunda Guerra Mundial, participou ativamente no esforço de guerra, particularmente em criptografia. "Uma teoria Matemática da Informação" é resultado da pesquisa que realizou e da experiência adquirida nesse período.

A ideia central da teoria de Shannon é que a quantidade de informação de um evento E depende apenas da probabilidade p(E) desse evento, e é tanto maior quanto menor for a probabilidade.

Por exemplo, em 2014, a notícia "Brasil tomou 7 a 1 da Alemanha" continha muita informação, pois esse era um evento muito improvável (entre nós: era para ter sido impossível!).

Em termos precisos, para Shannon, a quantidade de informação está dada pelo logaritmo de 1/p(E) na base 2. Assim, a quantidade de informação de um evento com probabilidade 1/2, tal como "a moeda deu cara", é igual a 1. Essa é a unidade (uma espécie de litro, quilo ou metro) de informação que Shannon chamou bit, abreviatura de "binary digit" (dígito binário, em inglês).

A memória de todo computador é formada por unidades que guardam 1 bit de informação cada. Elas estão organizadas em grupos, normalmente de 8 bits, que são chamados bytes. Uma foto de 1 megabyte (1.048.576 bytes) ocupa o mesmo espaço de memória que seria necessário para guardar o resultado de 268.435.456 lançamentos de uma moeda. Não importa se a foto é bonita ou feia.

PS: Hoje (6) é o Dia Nacional da Matemática. Nesta semana o Impa (Instituto de Matemática Pura e Aplicada) promove diariamente lives no Instagram e, na sexta, o webinário "Matemática em Tempos de Crise" no YouTube.

Receba notícias da Folha

Cadastre-se e escolha quais newsletters gostaria de receber

Ativar newsletters

Relacionadas