Algoritmo de 700 mil usuários foi manipulado por uma semana
em 2012. Resultado mostrou que humor de usuários varia de acordo com
conteúdo.
Da France Presse
Um estudo detalhando
como o Facebook manipulou secretamente o feed de notícias de aproximadamente
700 mil usuários com o objetivo de avaliar o "contágio emocional"
desencadeou revolta na rede social.
Durante uma semana em
2012 o Facebook manipulou o algoritmo usado para distribuir os posts no feed de
notícias do usuário para verificar como isso afetou o seu humor.
O estudo, conduzido
por pesquisadores associados ao Facebook, pela Universidade de Cornell, e pela
Universidade da Califórnia, foi publicado em junho na 17ª edição dos Anais da
Academia Nacional de Ciência.
Os pesquisadores
pretendiam verificar se o número de palavras positivas ou negativas nas
mensagens lidas pelos usuários resultaria em atualizações positivas ou
negativas de seus posts nas redes sociais.
Observou-se que os
usuários que tiveram o feed manipulado utilizaram palavras positivas ou
negativas dependendo do conteúdo ao qual foram expostos.
Os resultados do
estudo foram propagados quando a revista online Slate and The Atlantic abordou o
assunto no sábado.
"Estados
emocionais podem ser transferidos para os outros por meio do contágio
emocional, levando as pessoas a experimentarem as mesmas emoções de modo
inconsciente", afirmam os autores da pesquisa.
"Estes resultados
provam que as emoções expressas pelos outros no Facebook influenciam nossas
próprias emoções, o que evidencia o contágio em larga escala via redes
sociais."
Enquanto outros
estudos usam metadados para estudar tendências, este parece ser o primeiro a
manipular dados para verificar se há reação.
A pesquisa é
considerada legal de acordo com as normas do Facebook, mas seria ética?
"#Facebook FEED
DE USUÁRIOS MANIPULADOS PARA EXPERIMENTO PSICOLÓGICO EM MASSA... Sim, está na
hora de encerrar a conta do FB!", lia-se em post do Twitter.
Outros tweets usavam
expressões como "super perturbador", "assustador" e
"mau", assim como manifestações irritadas, para descrever o estudo.
Susan Fiske,
professora da Universidade de Princeton que editou o artigo para publicação,
disse a The Atlantic que ela ficou preocupada com a pesquisa e entrou em
contato com os autores.
Eles disseram que o
conselho institucional aprovou o estudo, já que "o Facebook manipula a
atualização do feed dos usuários o tempo todo".
Fiske admitiu ter
ficado "um pouco assustada" com o estudo.
O Facebook disse a The
Atlantic que "considera cuidadosamente" a pesquisa e que há "um
processo de avaliação interna".
O Facebook, maior rede
social do mundo, informa ter mais de um bilhão de usuários ativos.
Fonte: G1
Nenhum comentário:
Postar um comentário