O Facebook ensaia a manipulação de mentes

140630-facebook-control2

Sem consentimento dos usuários, rede testa meios de torná-los “felizes” ou “coléricos” e desencadeia onda de temor sobre controle social e político

Por Robert Booth, no The Guardian | Tradução: Gabriela Leite

Ele já sabe se você está solteiro ou em um relacionamento; a primeira escola onde estudou;  se ama ou odeia Justin Bieber. Mas agora o Facebook, a maior rede social do mundo, está enfrentando uma tempestade de protestos ao se revelar que descobriu como fazer usuários se sentirem mais tristes ou felizes, com apenas alguns toques no teclado.

O Facebook acaba de publicar detalhes de um amplo expermiento, no qual manipulou informações postadas nas páginas de 689 mil usuários, e descobriu que poderia fazê-los sentir-se mais positivos ou negativos, por meio de um processo de “contágio emocional”.

Em um estudo [leia o relatório] com acadêmicos da Universidade de Cornell e da Universidade da Califórnia, o Facebook filtrou o feed de notícias de usuários — a corrente de comentários, vídeos, imagens e links postados por outras pessoas em sua rede social. Um teste reduziu a exposição de usuários ao “conteúdo emocional positivo” de seus amigos. Em consequência, os usuários submetidos a este conteúdo manipulado também postavam menos posts positivos. Outro teste reduziu a exposição a “conteúdo emocional negativo”: os usuários reagiram de maneira oposta à do  primeiro grupo.

TEXTO-MEIO

O estudo concluiu: “Emoções expressas por amigos, via redes sociais, influenciam nossos próprios humores, constituindo, segundo sabemos, a primeira evidência experimental de contágio emocional em escala maciça, via redes sociais.”

Advogados, ativistas que debatem o futuro da internet e políticos afirmaram, neste final de semana, que o experimento de massa sobre manipulação emocional era “escandaloso”, “assustador” e “incômodo”.

Na noite de domingo, um membro experiente do Parlamento Britânico pediu uma investigação parlamentar sobre como o Facebook e outras redes sociais manipularam respostas emocionais e psicológicas de seus usuários, ao editar informações oferecidas a eles.

Jim Sheridan, um membro do comitê de mídia da Câmara dos Comuns britânica, disse que o experimento era intrusivo. “Trata-se de algo extraordinariamente poderoso, e se ainda não há uma legislação para isso, deveria haver, para proteger as pessoas”, disse. “Estão manipulando informações da vida pessoal de seres humanos, e me preocupa a capacidade do Facebook e de outros para manipular os pensamentos relacionados a política ou outras áreas. Se as pessoas estão sendo controladas dessa maneira, segundo o que pensam, é necessário que haja uma proteção, e elas precisam ao menos ter consciência disso.”

Uma porta-voz do Facebook disse que a pesquisa, publicada este mês na revista de Procedimentos da Academia Nacional de Ciências dos EUA, foi realizada para “melhorar nossos serviços e tornar o conteúdo que os usuários veem no Facebook o mais relevante e envolvente possível”.

Ela acrescentou: “Uma grande razão da pesquisa é entender como as pessoas respondem a tipos diferentes de conteúdo, seja em um tom positivo ou negativo, notícias de amigos, ou informações sobre as páginas que seguem.”

Mas alguns outros comentaristas expressaram receio de que o processo poderia ser usado para propósitos políticos em disputas eleitorais ou para encorajar internautas a se manterem focados no site, alimentando-os com pensamentos felizes, e permitindo bombar as receitas de publicidade do próprio Facebook.

Em uma série de posts no Twitter, Clay Johnson, o co-fundador da Blue State Digital, a empresa que construiu e gerenciou a campanha online de Barack Obama à presidência em 2008, disse: “O experimento do Facebook de ‘trasmissão de raiva’ é aterrorizante.”

Ele pergunta: “A CIA poderia iniciar uma revolução no Sudão pressionando o Facebook a promover descontentamento? Isso seria legal? Mark Zuckerberg poderia virar o resultado de uma eleição ao promover posts do Upworthy [um site que agrega conteúdo viral] duas semanas antes de os cidadãos irem às urnas? Isso seria legal?”

Alega-se também que o Facebook possa ter quebrado normas éticas e legais, ao não informar seus usuários que estavam sendo manipulados no experimento, realizado em 2012.

A rede afirmou que alterar o feed de notícias foi “consistente com a política de uso de dados do Facebook, com a qual usuários devem concordar antes de criar uma conta no Facebook, constituindo consentimento informado para esta pesquisa”.

Mas Susan Fiske, acadêmica de Princeton que editou o estudo, disse estar preocupada. “As pessoas devem ser avisadas quando vão participar de estudos e concordar com isso, além de terem a opção de discordar sem serem penalizadas.”

James Grimmelmann, professor de Direito da Maryland University, disse que o Facebook não obteve “consentimento informado”, segundo os padros definidos pela política federal dos EUA para a proteção da subjetividade das pessoas. A lei demanda explicação sobre os propósitos da pesquisa e a duração estimada de participação do indivíduo, uma descrição de quaisquer riscos razoavelmente previsíveis e uma confirmação de que o envolvimento é voluntário. “Este estudo é um escândalo porque trouxe as práticas problemáticas do Facebook a um reino — a academia — onde ainda temos como padrão tratar pessoas com dignidade e servir ao bem comum”, disse em seu blog.

Não é novidade para as empresas de internet usar algorítimos que selecionam o conteúdo que mostram aos seus usuários. Jacob Silverman, autor do livro Terms of Service: Social Media, Surveillance, and the Price of Constant Connection (em tradução livre, “Termos de serviço: mídias sociais, vigilância e o preço da conexão constante”), disse à revista Wired, no domingo, que a internet já é “uma coleção ampla de estudos de pesquisa de mercado; nós somos os objetos”.

“O que é perturbador sobre como o Facebook agiu sobre isso, entretanto, é que eles essencialmente manipularam os sentimentos de centenas de milhares de usuários sem pedir permissão”, disse. “As coisas com as quais o Facebook mais se importa são as seguintes: envolvimento e publicidade. Se o Facebook, digamos, decide que filtrar nossos posts negativos ajuda-o a manter as pessoas felizes e clicando, há pouco motivo para pensar que eles não irão fazê-lo. Enquanto a plataforma se mantiver na condição de um filtrador tão decisivo — e conservar seus algorítimos completamente opacos — nós devemos ficar cautelosos com o poder e confiança que delegamos a ele.”

Robert Blackie, diretor digital da agência de marketing Ogilvy One, disse que a maneira que as empresas de internet filtram informações que mostram a seus usuários é fundamental para seus modelos de negócio, o que as faz relutantes para abri-los.

“Para garantir aceitação continuada de público, estas empresas terão que rediscutir tal questão de maneira mais aberta no futuro”, ele disse. “Será preciso introduzir ou críticos independentes, capazes de analisar o que elas fazem, ou regulação governamental. Se o Facebook e similares não compreenderem isso, as pessoas ficarão relutantes ao utilizar seus serviços, o que é potencialmente um grande problema de negócios.”

 

TEXTO-FIM
The following two tabs change content below.

Robert Booth

Robert Booth é um repórter de notícias no The Guardian. Já trabalhou no The Sunday Times e editou o Building Design, jornal de arquitetura.

Latest posts by Robert Booth (see all)