X

Busque em mais de 20.000 artigos de nosso acervo.

Novidades pela net

Novo estudo do Facebook revela quanto a rede social filtra o que você vê


Há alguns anos, eu dei uma palestra sobre como algoritmos e mídias sociais moldam o que sabemos. Concentrei-me sobre os perigos do “filtro-bolha” – o universo personalizado de informação que chega ao nosso feed – e argumentei que os algoritmos de filtragem de notícias limitam o que sabemos, cercando-nos de informações que tendem a apoiar o que já acreditamos. A imagem na parte superior é o principal slide.

Na palestra, eu pedi a Mark Zuckerberg, Bill Gates, e Larry e Sergey do Google (alguns dos quais supostamente estavam na plateia) para garantirem que seus algoritmos priorizassem pontos de vista e notícias contrárias que fossem importantes, não apenas o material mais popular ou que reforçasse nossas crenças. (Eu também escrevi um livro sobre o assunto, caso você se interesse.)

Agora, a equipe de ciência de dados no Facebook testou parte da teoria do “filtro-bolha”, e publicou os resultados na famosa revista científica Science. Eytan Bakshy e Solomon Messing, dois dos coautores, foram prestativos e me deram mais informações sobre o estudo.

>>> Curtir tudo o que aparece no seu Facebook não é uma ideia muito boa
>>> Como domar o Feed de notícias do Facebook

Como se saiu a teoria do “filtro-bolha”?

Eis o resultado: sim, usar o Facebook significa que você tende a ver muito mais notícias que sejam populares entre pessoas que compartilham suas crenças políticas. E há um “efeito filtro-bolha” real e cientificamente significativo: o algoritmo do feed de notícias no Facebook, em particular, tende a amplificar as notícias que seus afetos políticos favorecem.

Este efeito é menor do que você imagina (e menor do que eu teria imaginado). Em média, você é cerca de 6% menos propenso a ver conteúdo que o outro lado político favoreça. Na verdade, as suas amizades pesam muito mais do que o algoritmo em si.

Mas o efeito não é insignificante. Para quem se descreve como liberal no Facebook, por exemplo, o algoritmo desempenha um papel um pouco maior no que eles veem, em relação às escolhas próprias sobre o que clicar. O algoritmo reduz o conteúdo discordante em 8%, contra uma queda de 6% causada pelas próprias escolhas dos liberais sobre o que clicar.

Para os conservadores, o efeito do filtro-bolha é de cerca de 5%, e o efeito clique é cerca de 17% – uma situação bem diferente. (Eu selecionei alguns outros resultados interessantes do estudo aqui.)

No estudo, Bakshy, Messing e o cientista de dados Lada Adamic se concentraram nos 10 milhões de usuários que se definiram politicamente na rede social. Eles usaram palavras-chave para distinguir conteúdo “hard news” – sobre política ou economia, por exemplo – das “soft news” sobre a família Kardashian.

E eles atribuíram a cada artigo uma pontuação baseada em crenças políticas das pessoas que o compartilharam. Se apenas os liberais compartilhassem um artigo, ele era considerado altamente liberal. (Existem algumas ressalvas que vale a pena atentar nesta metodologia, que eu destaco a seguir.)

Em seguida, eles analisaram a forma como os liberais viam conteúdo alinhado a conservadores, e vice-versa. Aqui está o principal gráfico:

adf LhjVDfAmPiM

Via RSS de Gizmodo Brasil

Leia em Gizmodo Brasil

Comente este artigo

Populares

Topo
http://enterslots.epizy.com/ http://cair138.epizy.com/ http://sido247.epizy.com/ http://omega89.epizy.com/ http://merdeka138.epizy.com/ 7meter slot 7winbet abcslot https://obor138.web.fc2.com/ https://monsterbola.web.fc2.com/ https://daget77slot.web.fc2.com/ star77 138 slot istana77 mega138 cuan138 nuke gaming slot grandbet infini88 pg slot baccarat casino idn live idn poker sbobet tangkas88 slot sbobet88 slot deposit dana joker123 autowin88 zeus138 dewagg roma77 77lucks bos88 ligadewa sonic77 168 slot