Lançado há alguns meses, The Information: A History, a Theory, a Flood de James Gleick é uma leitura imperdível para se entender a revolução digital que vivemos. Abaixo a resenha de Nicholas Carr, autor de Shallows e outros no blog The Daily Beast.
Afogando em Beeps
Já sentiu como as informações ameaçam sobrecarregar o significado? Nicholas Carr diz que é essa a preocupante conclusão da história impressionante de James Gleick no livro, A Informação.
Numa conferência de tecnologia no ano passado, o ex-CEO do Google Eric Schmidt tentou colocar a “explosão da informação” atual em uma perspectiva histórica. Hoje, ele disse, nós criamos a mesma quantidade de informações em 48 horas – cinco bilhões de gigabytes –, quanto foi criado “entre o nascimento do mundo e 2003.” É uma comparação surpreendente, e parece iluminar algo importante sobre os tempos que vivemos dentro mas o mais difícil é que quanto mais você olhar os números Schmidt, mais complicado eles se tornam. O que significa a criação de informação? Quando medimos a informação, o que exatamente estamos medindo? Que diabos é “informação”, afinal?
Da Informação: Uma História, uma teoria, um dilúvio. Por James Gleick. 544 páginas.
Nenhuma dessas perguntas, ao que parece, é fácil de responder. Wikipedia não ajuda muito. “Como conceito,” ele nos diz, “a informação tem muitos significados”, que são “intimamente relacionado às noções de restrição, comunicação, controle, dados, forma, instrução, conhecimento, significado, estímulo mental, padrão, percepção e representação . ” Poderia ter sido mais simples para listar as noções que a informação não está relacionada. Os dicionários são um pouco mais claros. Eles sugerem que a informação é mais ou menos um sinônimo de conhecimento. Mas essa definição não parece suficiente. Como um gigabyte de conhecimento parece? O fato é que, apesar de vivermos na era da informação, nós não sabemos realmente o que significa informação mesmo.
Nesta procura está o talentoso escritor de ciência James Gleick. Em seu novo livro formidável – A Informação, Gleick explica como temos progredido ao vermos as informações como uma expressão do pensamento humano e emoção até olhá-lo como uma mercadoria que pode ser processada, como o trigo ou plutônio. É uma história longa, complicada e importante, começando com os tambores tribais e terminando com a física quântica, e nas mãos de Gleick é também hipnotizante. Sabiamente, ele evita se atolar nas fórmulas arcanas e equações de teoria da informação, embora (justa advertência) existam muito poucas, mas situa seu conto nas vida notáveis e nas descobertas de uma série de matemáticos brilhantes, de lógicos, e de engenheiros.
Há o excêntrico inglês polímata Charles Babbage, que em meados do século 19 projetou uma máquina elaborada de calcular, a Máquina Analítica, que antecipou o moderno computador. Há a Condessa Ada Lovelace Byron, filha do poeta, que, inspirado pelo trabalho de Babbage, surgiu com a idéia do algoritmo de software. Há o grande filósofo e matemático Bertrand Russell, que imaginou que a linguagem da matemática seria um sistema perfeito de lógica. E há a problemático teórico austríaco Kurt Gödel, que desmantelou o sonho de Russell, mostrando que a matemática é tão propenso a paradoxos e mistérios como qualquer outra língua.
A estrela da história de Gleick é um Midwesterner, tímido desengonçado chamado Claude Shannon. Como um menino que cresceu em uma cidade do norte de Michigan na década de 1920, Shannon ficou obcecado com a mecânica de transmissão de informações. Ele virou uma cerca de arame farpado perto de sua casa em um sistema de telégrafo improvisado, usando-o para troca de mensagens codificadas com um amigo há um quilômetro de distância. Depois de ganhar um doutorado no MIT, juntou-se Bell Labs como pesquisador. Em 1948, mesmo ano em que viu a invenção do transistor, Shannon publicou uma monografia inovadora intitulada “Uma Teoria Matemática da Comunicação”. A tese foi, como escreve Gleick, “um ponto de apoio em torno do qual o mundo começou a girar.”
James Gleick falando para o pessoal do Google sobre seu livro The Information. Vale a pena:
Os seres humanos, Shannon viu, comunicam-se através de códigos, as cordas de letras que formam palavras e frases, pelos pontos e traços de mensagens telegráficas, pelos padrões de ondas elétricas que fluem pelas nas linhas telefônicas. A informação é uma organização lógica de símbolos, e os símbolos, independentemente do seu significado, podem ser traduzido em símbolos da matemática. Com base nessa visão, Shannon mostrou que a informação pode ser quantificada. Ele cunhou o termo “bit” – termo que indica uma escolha binária simples: sim ou não, ligado ou desligado, um ou zero, como a unidade fundamental de informação. Ele percebeu, também, que há uma grande quantidade de informações redundantes, bits irrelevantes na comunicação humana. A mensagem “Where are you (Onde você está)?” Pode ser resumida em “whr ru?” E manter-se compreensível ao seu destinatário. Afastando-se a redundância, através da análise matemática, você pode transmitir mais informações mais rapidamente e a um custo muito menor.
O impacto das percepções de Shannon é enorme. Elas permitiram que empresas de telefone transmitissem conversas através de seus fios, reduzindo drasticamente o custo de comunicação e transformaram o telefone em um aparelho universal. Elas abriram o caminho para computadores digitais de alta velocidade, para a programação de software, para o armazenamento de dados em massa, e para a tão incrível e revolucionária Internet. Os algoritmos de compressão derivados do trabalho de Shannon tornaram-se essenciais para a mídia moderna, eles comprimem a música que ouvimos, os filmes que assistimos, e as palavras que lemos. Quando você envia um tweet, ou busca no Google por uma palavra-chave, ou baixa um filme no Netflix, você está colhendo os frutos que Shannon semeou.
Mas a teoria da informação acabou por ter aplicações muito distantes dos sistemas de comunicações. Quando, no início dos anos 1950, James Watson e Francis Crick descobriram que a informação genética é transmitida através de um código de quatro dígitos – as bases de nucleotídeos designados A, C, G e T – os biólogos e geneticistas começaram a recorrer a teoria de Shannon para decifrar o segredos da vida. Os físicos, também, começaram a sentir que a matéria do universo não pode ser nada mais do que a manifestação física da informação, que as partículas mais fundamentais podem ser portadores e transmissores de mensagens. O bit, relatata Gleick, poderia muito bem vir a ser a unidade básica de existência. O universo inteiro pode ser nada mais do que “uma máquina de processamento de informação cósmica”.
Como uma celebração da engenhosidade humana, A informação é um livro profundamente esperançoso. Mas termina com uma nota ambivalente. A análise matemática da informação, Gleick aponta, implica no “sacrifício cruel” de significado, a mesma fonte que “dá a informação o seu valor e o seu propósito.” Para os mastigadores de números e criadores de código que desenham nossas redes mundiais de informação, a mensagem é irrelevante. Um bit é um bit que é um bit. Shannon observa secamente, que o significado é “irrelevante para o problema de engenharia.” E ouvimos um eco dessa idéia na sugestão de Eric Schmidt, de que séculos de cultura pode ser comprimido em alguns bilhões de gigabytes de dados.
Mesmo alguns dos contemporâneos de Shannon manifestaram temores de que suas teorias pode acabar deformando a nossa compreensão do conhecimento e da criatividade. O físico Heinz von Foerster preocupou-se que, na separação significado da mensagem, Shannon arriscou-se reduzindo a comunicação a uma série de “bips beep”. Informação, argumentou ele, só pode ser entendida como um produto da busca humana por significado, que não reside nos “bips”, mas na mente. O aviso de Von Foerster é mais importante do que nunca. O perigo de ter uma visão matemática da informação, com sua ênfase na maximização da velocidade de comunicação, é que ele nos encoraja a eficiência de valor sobre a expressividade, a quantidade em detrimento da qualidade. E o que os teóricos chamam de redundância de informação, sempre é bom lembrar, é também o que faz a poesia.
Nicholas Carr é autor mais recentemente de Shallows: O que a Internet está fazendo com nossos cérebros.