Na minha infância, supermercados não existiam, pelo menos onde eu morava. Na mercearia sempre tínhamos que especificar as quantidades: quantos quilos de arroz, litros de leite, metros de barbante. Lembro quando, bem mais tarde, aprendi que informação também pode ser quantificada. A descoberta de que faz sentido medir quanta informação há em um livro, um disco, ou até neste artigo, fascina-me até hoje.
A ideia remonta à publicação, em 1948, do trabalho "Uma Teoria Matemática da Informação", do americano Claude Shannon (1916—2001), que transformou numa ciência pujante, fortemente ligada à matemática, o que até então fora um conjunto de regras empíricas, abrindo o caminho para a Era da Informação em que vivemos atualmente.
Shannon graduou-se na universidade de Michigan, em 1936, com titulação dupla em matemática e engenharia. No ano seguinte, concluiu o mestrado no Instituto de Tecnologia de Massachusetts, o renomado MIT.
Na dissertação provou que circuitos elétricos que executam as operações lógicas fundamentais ("e", "ou" e "não") permitem realizar todos os cálculos numéricos. Essa descoberta está na base do funcionamento de todo computador.
Shannon terminou o doutorado em 1940, também no MIT, com uma tese sobre a formulação matemática da genética. Durante a Segunda Guerra Mundial, participou ativamente no esforço de guerra, particularmente em criptografia. "Uma teoria Matemática da Informação" é resultado da pesquisa que realizou e da experiência adquirida nesse período.
A ideia central da teoria de Shannon é que a quantidade de informação de um evento E depende apenas da probabilidade p(E) desse evento, e é tanto maior quanto menor for a probabilidade.
Por exemplo, em 2014, a notícia "Brasil tomou 7 a 1 da Alemanha" continha muita informação, pois esse era um evento muito improvável (entre nós: era para ter sido impossível!).
Em termos precisos, para Shannon, a quantidade de informação está dada pelo logaritmo de 1/p(E) na base 2. Assim, a quantidade de informação de um evento com probabilidade 1/2, tal como "a moeda deu cara", é igual a 1. Essa é a unidade (uma espécie de litro, quilo ou metro) de informação que Shannon chamou bit, abreviatura de "binary digit" (dígito binário, em inglês).
A memória de todo computador é formada por unidades que guardam 1 bit de informação cada. Elas estão organizadas em grupos, normalmente de 8 bits, que são chamados bytes. Uma foto de 1 megabyte (1.048.576 bytes) ocupa o mesmo espaço de memória que seria necessário para guardar o resultado de 268.435.456 lançamentos de uma moeda. Não importa se a foto é bonita ou feia.
PS: Hoje (6) é o Dia Nacional da Matemática. Nesta semana o Impa (Instituto de Matemática Pura e Aplicada) promove diariamente lives no Instagram e, na sexta, o webinário "Matemática em Tempos de Crise" no YouTube.
Comentários
Os comentários não representam a opinião do jornal; a responsabilidade é do autor da mensagem.