O maior desafio do big data não é analisar milhares de dados mas processar milhares de informações ao mesmo tempo, como num cérebro humano
Quando as pessoas pensam em big data, muitas vezes pensam em clusters com pilhas enormes de dados.
No entanto, o cérebro humano ainda está anos-luz além desses sistemas em sua capacidade de monitorar constantemente fluxos múltiplos de entrada, sintetizá-los em modelos significativos e unificados para tomar medidas imediatas.
Enquanto a internet em sua encarnação atual é o cenário adequado para responder perguntas através da realização de pesquisas sobre os fatos, algumas coisas que fazemos inconscientemente, como um bocejo, é inexplicável até mesmo para os supercomputadores.
Vamos considerar, por exemplo, algo que nós fazemos diariamente e que parece banal: o deslocamento.
Tomamos nosso café da manhã e saímos para o trabalho, dirigindo carros por quilômetros em alta velocidade, de maneira natural e dinâmica.
Inconscientemente, nós resolvemos enigmas espaciais, analisando símbolos críticos, cores e sons que compõem os nossos sinais de trânsito e negociações não verbais que precisamos fazer no trânsito.
E, apesar de estarmos continuamente controlando a totalidade desses fluxos de entrada de informação tomando decisões com a mistura de instinto e experiência, ainda temos largura de banda suficiente para programarmos reuniões e encontros.
Os computadores podem nos vencer quando se trata de classificar milhões de entradas de dados por minuto, sem ficar cansado.
Mas a verdadeira distinção da mente humana é a capacidade de ingerir constantemente inundações caóticas de dados: sons, luzes, símbolos verbais, sempre em diversas relações espaciais, lembranças e projeções para digerir instantaneamente essa loucura em uma resposta graciosa.
As melhores tentativas da ciência para alcançar artificialmente até mesmo uma fração da capacidade do cérebro humano confirma isso: os 4 computadores mais poderosos do mundo no Japão aproveitaram o poder combinado de seus 82 mil processadores e só foram capazes de simular 1 único segundo de atividade do cérebro humano.
Esta é a lacuna que o big data do futuro precisa superar. Hoje, a maioria das pessoas que falam sobre big data estão se referindo ao processo incompleto de segmentação através de datasets estáticos.
Mas, como as nossas expectativas continuam a crescer, as tarefas de nossos sistemas estão se tornando cada vez mais complexas e multifacetadas.
Esperamos que os nossos sistemas operem mais rápido como faz o cérebro humano. Eles devem estar cientes de múltiplos streaming de dados que mudam constantemente, sejam eles tendências de mercado, mídias sociais ou análise de cliques.
Os processadores devem ser capazes de ingerir as informações de todas as fontes de uma só vez.
Mais importante, eles devem ser capazes de harmonizar esses tipos de dados diferentes em um único entendimento, e tomar decisões inteligentes que melhor tratam a paisagem total.
As tecnologias que suportam esses sistemas já estão começando a surgir.
Redes de sensores avançados capazes de detectar os estímulos mais ligeiros servirão como olhos, ouvidos e nariz de sistemas de dados inteligentes de amanhã, enquanto as plataformas de processamento de dados e banco de dados NoSQL servirão, juntamente com as arquiteturas paralelas, de massa cinzenta.
Esses e outros esforços revelam uma mudança no foco de processamento em lote para processamento em tempo real e comunicação entre as empresas de alto nível de tecnologia, e há fortes indícios de que o mercado mais amplo está prestes a seguir essa tendência.
Ainda estamos nos primeiros dias do big data.
Num futuro próximo, nossos sistemas mais inteligentes instantaneamente e magistralmente irão supervisionar, otimizar, gerenciar e adaptar os processos mais críticos, tomando como exemplo o maior supercomputador natural que temos: o cérebro humano.
___
Este artigo foi adaptado do original, “Why the big data systems of tomorrow will mirror the human brain of today” do Venturebeat.