Quando você busca por formas nas nuvens, frequentemente você encontra coisas que costuma ver no cotidiano: cães, pessoas, carros. E com “cérebros” artificiais acontece a mesma coisa. O Google chama esse fenômeno de “Inceptionism”, e nos dá uma boa ideia de quão avançadas as redes neurais artificiais realmente são.
Em um post feito em seu blog Google Research, a equipe de pesquisa de redes neurais artificiais do Google explicou como está fazendo para construir um tipo de sistema de visão computacional muito avançado que é capaz de identificar quando você está olhando para uma imagem de, digamos, uma laranja contra uma banana. O post completo é bem interessante e vale a pena ler por inteiro (ele está em inglês). Mas eis um resumo do que foi falado por lá.
Para começar, é bom saber um pouco sobre a estrutura de redes neurais. O Google explica como elas são feitas de camadas de neurônios artificiais, em muitos casos trinta de uma vez. Quando você envia uma foto através da rede, a primeira camada detecta informações de baixa importância, como as bordas da imagem. A camada seguinte pode preencher alumas informações sobre as formas em si, se aproximando um pouco mais do que é mostrado na imagem. “As últimas camadas montam tudo isso em uma interpretações completas – esses neurônios são ativados em resposta a coisas bastante complexas como prédios ou árvores,” explicam os engenheiros do Google.
O Google “treina” cada rede ao alimentá-las com toneladas de imagens – algumas vezes com foco em um tipo específico, como árvores ou animais. A equipe do Google descobriu que essas redes podem até gerar imagens de certos objetos se pedirem a elas: