Talvez você já tenha visto a notícia por aí: o Facebook tentou manipular as emoções de 689 mil de seus usuários “em nome da ciência”.
Em um estudo publicado mês passado, os pesquisadores da empresa revelaram que, durante uma semana em 2012, mudaram levemente o feed de notícias das cobaias involuntárias para medir o quanto ver mais notícias positivas ou mais notícias negativas teria impacto no humor.
A conclusão parece razoavelmente óbvia: se virmos mais notícias tristes, ficamos meio deprimidos (não muito, mas o suficiente, para os pesquisadores, para ser estatisticamente perceptível). Coisas felizes, mais felizes. Ou, na palavra deles, há um “contágio de emoções”.
A pesquisa, publicada em conjunto com a respeitada Universidade de Cornell, nos EUA, é controversa por várias razões. A começar pelo fato que este foi um experimento psicológico sem o prévio consentimento dos participantes*. Mas, principalmente, que o Facebook não deve “testar” algo que poderia ter um efeito claramente negativo em seus usuários. Mau humor faz mal pra saúde, como o próprio estudo lembra.
Obviamente a rede de Zuckerberg levou pauladas de todos os lados, mas o mais impressionante – que mostra a desconexão da rede que conecta as pessoas da realidade – foi a resposta oficial da empresa, através do pesquisador Adam Kramer:
A razão pela qual nós fizemos esse estudo foi porque nos importamos com o impacto emocional do Facebook e as pessoas que usam o nosso produto. (…) Estávamos preocupados com a ideia de que a exposição à negatividade dos amigos poderia levar as pessoas a evitarem visitar o Facebook. O objetivo de toda a nossa pesquisa no Facebook é aprender como prover um serviço melhor.
Ou seja: ao descobrir que um feed de notícias cheio de coisas “tristes” pode afastar os usuários, o Facebook pode trabalhar ativamente para que a nossa vida fique mais feliz (ou pareça). Na verdade, ele já pode, ou deve, estar fazendo isso neste momento. Não sabemos. E isso é um gigantesco problema.
Um mundo de algoritmos
Muito se fala hoje no poder do tal “big data”, da enorme quantidade de informações que hoje são geradas sem muito trabalho, e armazenadas com quase nenhum custo. Toda a pesquisa do Facebook, e a ideia de que seria possível fazê-la sem maiores consequências, vêm dessa lógica de que é possível conseguir descobrir coisas complexas, que aumentam a eficiência das empresas, apenas analisando uma quantidade monstruosa de dados à disposição.
Mas o problema é que os dados do Facebook, no caso, não são “produtos vendidos”, “anúncios clicados”, ou “notas dadas pelos usuários”, objetos comuns da pesquisa em big data. Mas sim pessoas reais e suas respostas emocionais a eventos reais acontecidos com seus amigos.
Nathaniel Mott, jornalista do Pando, que cobre as startups e empresas de tecnologia há anos, escreveu que a obsessão por números e a crença quase religiosa de que os dados sejam a resposta de tudo pode estar por trás do bizarro experimento:
Talvez isso tenha acontecido porque a cultura do Vale do Silício fez com que fosse mais fácil pensar que as milhões ou bilhões de pessoas não fossem mais que pontos de dados utilizados para levantar verba de anunciantes.
Como este estudo precisou tecnicamente de apenas algumas mexidas em um algoritmo, ele pode ser visto como um experimento sem consequências criado para levantar mais dados, o que é cada vez mais sagrado no Vale.
É difícil pensar que um bilhão de pontos de informação são na verdade compostos de pessoas que podem se preocupar com a habilidade do Facebook de manipular as suas emoções – ao invés de bits e bytes.
A repercussão sobre a pesquisa ficou muito centrada ou na questão do “Facebook manipula” (importante, vamos chegar lá) ou no caso de uma invasão (ainda maior) de privacidade. Pra mim, um dos grandes problemas que a pesquisa mostra é que empresas gigantes, com cada vez mais poder, acreditam que sentimentos complexos podem ser reduzidos a coisas como “palavras positivas” e “sentimento negativo”. Para as informações obtidas pelo Facebook — e o Google, ou o Twitter — fazerem algum sentido, para o seu produto ficar “mais interessante”, é preciso simplificar as pessoas e o que elas falam.
O Facebook é, pela sua natureza, um exercício em simplificação. Quando você se depara com um post, as únicas ações possíveis são curtir ou compartilhar. Mesmo o BuzzFeed, considerado “bobo” por muita gente, propõe uma forma mais complexa de medir a reação das pessoas.
Um post “importante”, para os olhos do algoritmo do Facebook, é, em grande medida, algum que tenha muitas curtidas e compartilhamentos. E esses números ajudam a definir de que maneira nosso feed será populado. Já que uma fração do que nossos amigos postam é visível (se não fosse assim, haveria uma avalanche de informação impossível de ser “consumida”), o Facebook usa essas pistas do que vale a pena ser lido. O “curtido pelos nossos amigos” é uma delas.
Mas, como a pesquisa de humor mostra, a rede de Zuckerberg também usa dados “qualitativos”, para definir o que vai aparecer pra todo mundo. Recentemente, descobriu-se que se a palavra “congratulations” (ou “parabéns”, em português) estiver escrita nos comentários de um post, a chance de ele aparecer nos feeds dos outros aumenta bastante. Afinal, as pessoas dizem isso quando alguém anuncia casamento, filho, que passou no vestibular, mudou de emprego ou coisas assim – eventos importantes, que não podem ficar invisíveis.
Acontece que para essa lógica “qualitativa” funcionar, especialmente em um universo tão vasto, de 1 bilhão de usuários, é preciso fazer ainda mais simplificações e ignorar, por exemplo, o humor, a graça. A palavra “parabéns” pode ser usado de maneira irônica, ou para comentar o envolvimento de outra pessoa. “Raiva” pode ser uma palavra para descrever uma infinidade de situações, inclusive cômicas.
A quantidade de perfis que são “qualquercoisa da depressão” também deve confundir. Poderia ir longe nessa análise, mas meu ponto é: a forma que usamos a linguagem é dinâmica, e analisar o “humor” de tantas pessoas automaticamente, por software, parece ingênuo. E escolher o que deve aparecer baseado nessa análise falha, perigoso.
Mas foi exatamente o que o Facebook fez. De acordo com a pesquisa, “posts eram considerados positivos ou negativos se continham no mínimo uma palavra considerada positiva ou negativa, como definido pelos softwares Linguistic Inquiry e Word Count”.
Lembrando que, em 2012, estávamos no auge da expressão “só que não” no Brasil, modinha que inviabilizava análises de algoritmos sobre o nosso discurso.
Ok, posso estar subestimando a capacidade linguística dos softwares no Vale do Silício, mas me parece claro que a qualquer rede que envolva o social e uma grande quantidade de dados do usuário interessa que sejamos pessoas rasas e previsíveis.
Se você gosta só de um ou dois gêneros de música, é bem mais fácil para o Spotify acertar nas sugestões (aumentando o valor percebido do serviço); o Netflix pode ter problemas em oferecer uma boa dica se você gostar de Transformers e filmes franceses de três horas. Essa lógica funciona para quase tudo que confia nos algoritmos para definir importância.
O Spotify não vai te sugerir algo muito diferente do que você já ouviu, nem o Netflix vai querer desafiar o seu gosto. O objetivo deles não é enriquecer a sua pessoa, expandir as suas fronteiras, mas que você seja um consumidor satisfeito. Viciado seria uma aproximação melhor.
E para o Facebook, cliente satisfeito é aquele que curte bastante coisa, que tem seus posts compartilhados, que controlam página com bastante engajamento, etc. Mas, já imaginou se a rede social fosse só grandes hits, posts populares? Ela poderia emular e amplificar a lógica da nossa adolescência, onde os mais populares ganham mais atenção, e nossos amigos esquisitos, que falam pra dentro, ficando no seu canto, com poucos amigos.
O pior é que o impacto da lógica simplificadora do Facebook não é percebido apenas no que seus amigos postam.
A nova “grande mídia”
Uma notícia compartilhada milhares de vezes é melhor que outra? Para o Facebook, sim. As consequências disso são bastante sentidas no meu meio, que até um tempo atrás era conhecido como jornalismo.
Você Sabe Por Que Manchetes Assim Atraem Tanta Atenção? A Resposta Pode Surpreender Você e Mudar os Seus Hábitos Para o Resto da Sua Vida!
Títulos (ou, melhor arapucas de cliques) assim são cada vez mais comuns. Na escola de jornalismo, aprendíamos como regra básica que o título deveria resumir o que o leitor iria encontrar. Hoje, vemos sites como Upworthy ou o Brasil Post que tentam fazer o contrário: omitir a informação principal para forçar o clique.
No dialeto das pessoas que trabalham com “social” (sempre lido como palavra em inglês, algo como sôlchiáu), mais cliques = mais “engajamento”. Mais engajamento = mais curtidas. Links com mais curtidas são mais “importantes” e têm uma chance maior de aparecer no seu feed de notícias. As empresas que aprenderam essa lógica simples começaram a se concentrar em fazer posts altamente compartilháveis, nada além disso.
Logo, posts assim começaram a aparecer um bocado no nosso feed de notícias. Assim como os quiz do Buzzfeed, que além de serem normalmente divertidos, ainda têm, no fim, um “compartilhe o resultado”, para as pessoas se compararem. Outro tipo de link favorecido pelo Facebook é o de colunas de opinião. Como normalmente é algo polêmico, que gera alguma discussão (logo, “engajamento”) nos comentários, ele ganha espaço.
Ou seja: não é que os seus amigos todos estão lendo o mesmo tipo de coisa. É que esses “conteúdos” especificamente são favorecidos pelos algoritmos do Facebook, e fazem com que eles tenham bem mais visibilidade que outras coisas, digamos, mais sérias.
Recentemente, o gerente de produtos do Facebook, Mike Hudack, publicou um post reclamando de como a mídia só publicava coisas bobas, que o jornalismo sério estava sendo deixado de lado em favor de sensacionalismo. Mais uma vez, foi incrível perceber quão desconectadas da realidade as pessoas do Facebook estão.
Vários jornalistas foram ao seu post lembrá-lo que o “jornalismo bobo” tem espaço, em grande parte, justamente porque ele gera muito mais cliques, e como as empresas de comunicação vivem de vender anúncios (que valem mais quanto mais cliques, até inventarem métrica melhor), é normal que se veja mais isso nas páginas. Muitos disseram que o próprio Facebook pode ajudar a consertar o jornalismo, modificando seu algoritmo para favorecer coisas importantes.
O problema, de novo, é que ele usa critérios muito simples, automáticos, para definir o que é importante. Esta semana, por exemplo, foi aprovado o novo plano diretor de São Paulo. É um assunto bem importante para quem mora aqui. Nem a boa reportagem do G1 sobre o assunto nem a da Folha, com um infográfico caprichado, ganharam mais de mil curtidas.
A culpa não é só dos leitores que não se interessam tanto assim por assuntos “chatos” (basta olhar a lista de coisas mais lidas), mas é que elas não geram engajamento. Quem “curte” o novo plano diretor? Que tipo de discussão aparece?
Um terço do tempo que o brasileiro passa na internet, ele está em redes sociais. O Facebook é, cada vez mais, o verdadeiro portal das pessoas, é dali que elas saem para outros lugares. É muito poder para direcionar atenção e, consequentemente, muita responsabilidade. E muito pouca transparência. Não sabemos, nem nunca saberemos, o que exatamente norteia os algoritmos do Facebook. Nem nunca teremos um controle completo, como no Twitter, do que deve aparecer em destaque.
O Facebook pode perceber que você não clica nos links “de direita” daquele seu amigo e esconder todos eles, antes mesmo de você parar de seguí-lo. Ou privilegiar as notícias de um determinado site, alinhado politicamente com o que você pensa e que você já costumeiramente visita. Ele pode ajudar a piorar o famoso filtro-bolha. Tudo para deixar a nossa experiência mais “aprazível”. Até porque ver uma opinião que desafia as nossas crenças nos deixam meio mal-humorados.
Link YouTube | Eli Pariser e sua palestra sobre filtro-bolha, no TED 2011 (Legendado em português)
No limite, você pode dizer que algumas mexidas nos algoritmos do Facebook podem decidir uma eleição. Você pode mesmo. Em 2010, um grupo de cientistas políticos usou (com o consentimento entusiasmado) o Facebook para conduzir um experimento de “engenharia cívica”.
O voto nos EUA não é obrigatório, e há várias campanhas para levar a população às urnas. No dia das eleições de outubro daquele ano, os cientistas separaram a população americana no Face em dois grupos: em um deles, colocaram no feed um chamado à votação, com endereço dos colégios eleitorais. No outro grupo, além desse chamado, havia um botão de “eu já votei”, que mostrava as fotos de amigos que já tinham feito o mesmo.
Cruzando com os dados da justiça eleitoral para ter certeza, os pesquisadores descobriram que os usuários que eram notificados de que seus amigos já votaram tinham uma chance 0,39% maior de votar do que o grupo de controle. Parece pouco, mas isso significava que os gráficos do Facebook mobilizaram diretamente 60 mil eleitores que possivelmente não teriam saído de casa. Parece pouco, mas eleições importantes, como a de Bush contra Al Gore em 2000, foram decididas por menos de mil votos.
O Facebook pode fazer a gente ser mais politicamente radical, mais bem humorado ou até ter mais vontade de votar. Basta alguns ajustes nos seus algoritmos, sua fórmula secreta, que nunca teremos acesso.
Toda vez que alguém fala que as ferramentas digitais têm um efeito importante na nossa vida (eu falo isso bastante, inclusive escrevi um livro todo com essa premissa), e que ele pode sim ser ruim, ouço a mesma ladainha: “não são as ferramentas, mas como a gente usa”.
Isso é quase verdade, porque parte de uma noção ingênua de como as nossas ferramentas são projetadas, ou que tipo de uso garantem um maior lucro para os seus criadores. Ninguém é “viciado no celular”, é claro, mas a maneira com que as notificações funcionam, por exemplo, dão uma sensação de urgência e necessidade desmedida naquilo.
O Facebook pode ser genuinamente legal e enriquecer a nossa vida, mas ele é projetado para que o usemos, ao menos nas configurações padrão, de uma determinada forma. Sempre precisamos ter isso em mente, e aprender melhor as suas motivações e mecanismos para não cair nas armadilhas e usá-los para nosso benefício.
Porque, é importante lembrar, um “consumidor feliz” não é necessariamente um “cidadão melhor”. Os nossos interesses pessoais e da nossa comunidade podem estar em conflito com o que o algoritmo guia.
Uma prova disso é que você não precisa entender como funciona o sistema de ranqueamento de Mark Zuckerberg se quiser subvertê-lo. Basta pagar uma graninha e o que quer que você queira dizer, feliz ou triste, importante ou banal, com alto potencial de curtidas ou não, estará no topo. No fim, como dizem os americanos, money talks.
Puxe uma cadeira e comente, a casa é sua. Cultivamos diálogos não-violentos, significativos e bem humorados há mais de dez anos. Para saber como fazemos, leianossa política de comentários.