X

Busque em mais de 20.000 artigos de nosso acervo.

Novidades pela net

Novo estudo do Facebook revela quanto a rede social filtra o que você vê


Há alguns anos, eu dei uma palestra sobre como algoritmos e mídias sociais moldam o que sabemos. Concentrei-me sobre os perigos do “filtro-bolha” – o universo personalizado de informação que chega ao nosso feed – e argumentei que os algoritmos de filtragem de notícias limitam o que sabemos, cercando-nos de informações que tendem a apoiar o que já acreditamos. A imagem na parte superior é o principal slide.

Na palestra, eu pedi a Mark Zuckerberg, Bill Gates, e Larry e Sergey do Google (alguns dos quais supostamente estavam na plateia) para garantirem que seus algoritmos priorizassem pontos de vista e notícias contrárias que fossem importantes, não apenas o material mais popular ou que reforçasse nossas crenças. (Eu também escrevi um livro sobre o assunto, caso você se interesse.)

Agora, a equipe de ciência de dados no Facebook testou parte da teoria do “filtro-bolha”, e publicou os resultados na famosa revista científica Science. Eytan Bakshy e Solomon Messing, dois dos coautores, foram prestativos e me deram mais informações sobre o estudo.

>>> Curtir tudo o que aparece no seu Facebook não é uma ideia muito boa
>>> Como domar o Feed de notícias do Facebook

Como se saiu a teoria do “filtro-bolha”?

Eis o resultado: sim, usar o Facebook significa que você tende a ver muito mais notícias que sejam populares entre pessoas que compartilham suas crenças políticas. E há um “efeito filtro-bolha” real e cientificamente significativo: o algoritmo do feed de notícias no Facebook, em particular, tende a amplificar as notícias que seus afetos políticos favorecem.

Este efeito é menor do que você imagina (e menor do que eu teria imaginado). Em média, você é cerca de 6% menos propenso a ver conteúdo que o outro lado político favoreça. Na verdade, as suas amizades pesam muito mais do que o algoritmo em si.

Mas o efeito não é insignificante. Para quem se descreve como liberal no Facebook, por exemplo, o algoritmo desempenha um papel um pouco maior no que eles veem, em relação às escolhas próprias sobre o que clicar. O algoritmo reduz o conteúdo discordante em 8%, contra uma queda de 6% causada pelas próprias escolhas dos liberais sobre o que clicar.

Para os conservadores, o efeito do filtro-bolha é de cerca de 5%, e o efeito clique é cerca de 17% – uma situação bem diferente. (Eu selecionei alguns outros resultados interessantes do estudo aqui.)

No estudo, Bakshy, Messing e o cientista de dados Lada Adamic se concentraram nos 10 milhões de usuários que se definiram politicamente na rede social. Eles usaram palavras-chave para distinguir conteúdo “hard news” – sobre política ou economia, por exemplo – das “soft news” sobre a família Kardashian.

E eles atribuíram a cada artigo uma pontuação baseada em crenças políticas das pessoas que o compartilharam. Se apenas os liberais compartilhassem um artigo, ele era considerado altamente liberal. (Existem algumas ressalvas que vale a pena atentar nesta metodologia, que eu destaco a seguir.)

Em seguida, eles analisaram a forma como os liberais viam conteúdo alinhado a conservadores, e vice-versa. Aqui está o principal gráfico:

adf LhjVDfAmPiM

Via RSS de Gizmodo Brasil

Leia em Gizmodo Brasil

Comente este artigo

Populares

Topo