Neste final de semana, descobrimos que o Facebook realizou experimentos psicológicos no feed de notícias dos usuários. A equipe de Zuckerberg não vê problema nisso, mas pesquisadores acadêmicos acreditam que isto viola diretrizes éticas de pesquisa.
Em janeiro de 2012, um cientista de dados do Facebook e dois pesquisadores universitários ajustaram o feed de notícias de quase 690 mil usuários para exibir histórias mais “positivas” ou “negativas”, a fim de descobrir se “as emoções são contagiosas nas redes sociais”.
Estudo
Segundo o estudo publicado este mês na Proceedings of the National Academy of Science, os pesquisadores do Facebook queriam descobrir se a transferência de emoções que acontece cara-a-cara também pode ocorrer digitalmente.
Assim, a equipe criou um algoritmo para analisar palavras no feed de notícias, que categorizou cada post como emocionalmente positivo ou negativo. Eles então usaram essas informações para ajustar os feeds de notícias de 689.003 usuários durante uma semana: em alguns feeds, o usuário deixava de ver status mais negativos; outros destacavam posts mais tristes.
Isso teve um efeito direto: apesar de não ocorrer nenhuma interação humana real, os participantes que viram feeds artificialmente mais positivos postavam atualizações de status mais felizes; e pessoas com feeds mais tristes postavam mensagens mais amargas.
Ou seja, temos uma prova estatística de que redes sociais afetam nossas emoções de forma muito semelhante à interação humana na vida real. Como dizem os autores:
… em contraste com os pressupostos vigentes, a interação presencial e sinais não-verbais não são estritamente necessários para o contágio emocional, e… a observação de experiências positivas de outras pessoas constitui uma experiência positiva para as pessoas.
O Facebook pode fazer isso?
Mas há algo um pouco assustador sobre o Facebook usar centenas de milhares de usuários como cobaias psicológicas, sem eles nunca saberem. Sim, tudo foi feito de forma automática, sem que pessoas estivessem de olho em seus posts não-públicos, mas a ideia de que o Facebook pode manipular suas emoções através do feed de notícias é meio desconfortável.
No entanto, isso é coberto pela política de privacidade do Facebook. É uma cláusula minúscula nos Termos de Serviço – que tem mais de 9.000 palavras – mas que você aceitou cegamente ao criar uma conta na rede social: eles podem realizar “análise de dados, testes, pesquisa, desenvolvimento e melhoria do serviço” com seus dados. O Facebook não precisava pedir sua autorização para um estudo desses – a permissão já foi dada.
O Facebook, claro, não vê problema nesse estudo. A rede social diz à Forbes:
Esta pesquisa foi conduzida por uma única semana em 2012, e nenhum dos dados utilizados foi associado à conta de uma pessoa específica no Facebook. Fazemos pesquisas para melhorar os nossos serviços, e para tornar o conteúdo visto no Facebook o mais relevante e envolvente quanto possível. Boa parte disso é entender como as pessoas respondem a diferentes tipos de conteúdo, seja ele positivo ou negativo, sejam notícias de amigos ou informações de páginas que eles seguem.
Nós consideramos cuidadosamente quais pesquisas fazemos, e temos um forte processo interno de revisão por pares. Não há coleta desnecessária de dados das pessoas para essas iniciativas de pesquisa, e todos os dados são armazenados de forma segura.
Controvérsia
Isso ainda não muda o fato de que a maioria dos usuários não espera que sua experiência no Facebook seja manipulada para avaliar suas emoções.
Infelizmente, isso acontece mais do que sabemos. Toda empresa de mídia digital pode fazer experimentos para maximizar o uso ou a receita, e muitos deles podem afetar o estado emocional dos usuários – mesmo que essa não seja a intenção. A diferença é que, aqui, os estudos foram publicados em um periódico acadêmico, que tem regras diferentes da pesquisa interna de uma empresa.
Na verdade, isso pode ser um problema para o Facebook. James Grimmelmann, professor de Direito na Universidade de Maryland (EUA), aponta que a lei federal americana exige o consentimento informado dos participantes em tais estudos. Ou seja, apenas uma cláusula nos termos de serviço não bastaria. Ele também alega que o estudo prejudicou os participantes:
Este… não era um estudo observacional. Foi um estudo com experimentos – de fato, um estudo randomizado controlado – no qual os participantes foram tratados de forma diferente. Nós não dizemos aos pacientes em um teste de remédios que o estudo foi inofensivo porque apenas um computador saberia se eles receberam o placebo.
Os participantes no estudo do Facebook – que não sabiam fazer parte de um estudo – viram, por uma semana, que seus amigos criavam um mundo escuro e triste, ou um paraíso. Isso é manipulação psicológica, mesmo se foi realizada automaticamente.
Ele conclui dizendo que “este estudo é um escândalo porque trouxe práticas preocupantes do Facebook para uma área – a academia – na qual ainda temos padrões de tratar as pessoas com dignidade e de servir ao bem comum”. Este é o principal motivo para toda a polêmica envolvendo o estudo científico do Facebook. Mas você usaria menos o Facebook – ou o deixaria de vez – por causa disso?
O post Facebook fez experimento psicológico envolvendo 690 mil usuários sem eles saberem apareceu primeiro em Gizmodo Brasil.