Esqueça o apagão de segunda-feira. O depoimento e os documentos vazados pela ex-funcionária do Facebook Frances Haugen é que são o verdadeiro problema da rede social. Ex-cientista de dados da empresa, Haugen mostrou à mídia e ao Senado dos EUA os meandros das políticas do Facebook e acusa a rede social de privilegiar o lucro em detrimento da qualidade.
Ela mostrou as provas de que o Facebook sabia, sim, que seus sistemas ajudaram a explodir a desinformação e o discurso de ódio, além de afetar a saúde mental de jovens, mas escolheu não fazer nada para mudar isso. São denúncias que nós vínhamos fazendo há anos e que, finalmente, ultrapassaram a barreira dos contratos de confidencialidade e chegaram ao conhecimento do público.
Da série de escândalos envolvendo o Facebook desde o caso Cambridge Analytica, esse é certamente o pior. Isso porque, embora já tivesse ficado claro que o modelo de extração massiva de dados para fins publicitários tivesse consequências péssimas na esfera pública e privada, os documentos que Hagen divulgou mostram que a empresa estava absolutamente ciente disso. E desmontam, ponto a ponto, as mensagens robóticas usadas pelo time de relações públicas para desmerecer qualquer um que ousasse denunciar esses abusos corporativos.
O Facebook mentiu ao público e aos investidores sobre seus esforços no combate ao discurso de ódio, sobre a extensão de seus esforços internacionais de combate a terrorismo, sobre o propósito de mudanças no feed de notícias, sobre o real impacto do Instagram na saúde mental de jovens.
A rede social que começou como uma ferramenta misógina para classificar mulheres na universidade se expandiu sem controle nenhum, adquiriu todas as empresas que chegaram perto de incomodar os seus negócios e chegou a países com cultura absolutamente diferentes sem nenhum tipo de preparação ou entendimento profundo sobre seus impactos – só o pensamento colonizador de “vamos conectar o mundo”, do jeito Vale do Silício de ser. O resultado? Genocídios, ascensão e empoderamento de extremistas, exacerbação da polarização política, calamidade negacionista no meio da pandemia e todo o resto que você conhece bem.
Listei as quatro grandes mentiras que o Facebook contou, reveladas pela ex-funcionária. Elas foram originalmente publicadas em uma série de reportagens do Wall Street Journal e depois detalhadas em entrevistas e em uma sabatina de Haugen no Senado americano. Também foram destrinchadas em documentos elaborados pela Whistleblower Aid, associação que está defendendo a cientista, e enviados à Securities and Exchange Comission, o órgão regulador de mercado de ações dos EUA.
1. O Facebook não está agindo de forma adequada contra discurso de ódio. Na verdade, praticamente não faz nada.
No ano passado, publiquei uma notícia que mostrou que o número de denúncias de discurso de ódio – incluindo neonazismo – estava crescendo em todas as redes sociais. Pior: no Facebook, especificamente, o número de posts removidos estava caindo. A rede social não comentou os dados, levantados pela ONG Safernet. Se limitou apenas a dizer que “nossa taxa de detecção proativa de discurso de ódio no Facebook e Instagram aumentou para 95% e 84,2% em âmbito global, respectivamente, na comparação entre o primeiro e o segundo trimestres de 2020. Nesse período, a quantidade de conteúdo com discurso de ódio que removemos globalmente aumentou de 9,6 milhões para 22,5 milhões no Facebook e de 808,9 mil para 3,3 milhões no Instagram”.
Foi um malabarismo para esconder uma mentira. Segundo os documentos vazados, o Facebook remove apenas de 3% a 5% dos conteúdos de ódio e 0,6% dos de violência. “Nós só tomamos atitudes contra aproximadamente 2% do conteúdo de ódio na plataforma. Estimativas recentes mostram que, ao menos que haja uma mudança significativa na estratégia, será muito difícil melhorar mais do que 10-20% a médio prazo”, diz um trecho de um relatório interno. “Estamos apagando menos de 5% de todo discurso de ódio no Facebook. Na verdade, essa é uma estimativa otimista”, diz outro trecho.
Eles sabiam que o que causava isso era o coração dos negócios: o modelo de exibição de conteúdo que privilegiava interação para prender atenção, capturar mais e mais dados e vender anúncios segmentados. “Também temos evidências constrangedoras de que a nossa mecânica central de produto, como viralização, recomendação e otimização para o engajamento, são centrais para esse tipo de discurso florescer na plataforma”. O Facebook nada fez para mudar isso.
Ao contrário: em seus discursos, Zuckerberg garantia que mais de 94% do conteúdo de ódio era removido e se gabava de ter tecnologias capazes de detectar e suprimir esse tipo de discurso sem intervenção humana. Balela. No Afeganistão, por exemplo, só 0,2% do conteúdo de ódio era detectado por tecnologia.
Além disso, os documentos mostram uma leniência da rede social com propagadores de discurso de ódio: 99% dos usuários que espalhavam essas postagens tinham as contas mantidas intactas pela plataforma. Mesmo os reincidentes.
2. O Facebook tentou te enganar dizendo que as mudanças no feed eram para mostrar mais ‘conteúdo significativo’. Não eram.
Os documentos internos revelados por Haugen mostram que o Facebook sabia muito bem o que pesquisadores externos estavam cansados de apontar: ofensas e desinformação são os conteúdos com maior capacidade de viralização. Viralização significa mais gente interagindo. Interações significam mais tempo e mais dados sendo entregues. Atenção e dados significam lucro.
Em 2018, o Facebook promoveu uma grande mudança no algoritmo que seleciona os conteúdos para os usuários. Passou a privilegiar conteúdos de amigos e familiares – esse era o discurso oficial. “Construímos o Facebook para ajudar as pessoas a permanecerem conectadas e nos aproximaremos das pessoas que são importantes para nós. É por isso que sempre colocamos amigos e familiares no centro da experiência”, disse Zuckerberg no post que justificou a mudança.
Na prática, o que a rede social percebeu foi que esse conteúdo “significativo” gerava mais engajamento. Então, conteúdos mais engajáveis eram privilegiados e exibidos para mais pessoas. Como a tecnologia é supostamente neutra – ela apenas aprende o que engaja as pessoas, não avalia o mérito do post –, conteúdos que despertavam raiva ou indignação acabaram sendo melhor ranqueados.
O Facebook sabia muito bem disso. Os documentos mostram que pesquisas internas revelaram que ofensas e desinformação são mais passíveis de viralizar. Estudos de feedback e experiência de usuário também deixaram claro que a mudança no algoritmo fazia com que usuários e atores políticos passaram a postar mais conteúdos divisivos e sensacionalistas para conseguirem mais interação e distribuição.
Equipes internas propuseram mudar o algoritmo, deixando de priorizar o compartilhamento, por exemplo, de posts em que o original não fosse contato ou amigo de quem postou. Estudos revelaram que só essa mudança teria um impacto considerável na propagação de ódio e desinformação. Mas Mark Zuckerberg negou. Funcionários reclamavam que, apesar da boa vontade da equipe e de pesquisas internas, a diretoria da empresa não tinha interesse nas mudanças. “A tomada de decisões no Facebook é rotineiramente influenciada por considerações políticas”, disse um funcionário, segundo o documento.
3. O Facebook mentiu sobre tornar o mundo um lugar mais conectado.
O Facebook sempre se vendeu como global com seus 2,8 bilhões de usuários no mundo. Isso era importante institucionalmente e também para os investidores. Foi por isso que a crise em Myanmar foi um duro golpe para a empresa. Em 2010, o Facebook começou um ambicioso plano para “conectar” – assim, entre aspas, e já você vai entender a razão – o país asiático, cuja população tinha pouquíssimo acesso à internet. A empresa passou a oferecer acesso a seus aplicativos com acordos com empresas de telefonia, em que os dados da franquia não eram cobrados. Assim, em Myanmar, o acesso à internet custava dinheiro, mas ao Facebook era de graça. A empresa se tornou central nas comunicações.
Em 2014, em meio a uma crise política entre uma etnia muçulmana e a maioria budista, um monge publicou uma notícia falsa de que uma menina teria sido estuprada por muçulmanos.
O conteúdo rapidamente viralizou, e o que se seguiu foi o linchamento violento e o assassinato dos acusados. Na crise política que assolou o país, 24 mil pessoas morreram e mais de 600 mil precisaram se refugiar no vizinho Bangladesh. E o Facebook foi cúmplice, apontou a ONU. A própria rede social assumiu depois a sua responsabilidade sobre o caso.
Diante da atrocidade, era de se supor que a rede social redobrasse sua atenção com países em situação política sensível, certo? Errado. Os documentos internos revelam que o Facebook inclusive se recusava a detalhar o que exatamente estava fazendo em Myanmar. Não informava quantos moderadores de conteúdo, essenciais para avaliar se um post viola ou não as regras, falavam birmanês, língua do país. Quando questionado, se limitava a soltar a resposta padrão de que trabalhava com “80 organizações de checagem de fatos pelo mundo”, como se isso resolvesse algum problema.
Há dois meses, outra ex-funcionária do Facebook mostrou que a rede social sabia que havia evidências sólidas de manipulação política por meio da rede social em vários países. Índia, México, Afeganistão, Coreia do Sul e Honduras tiveram ações articuladas de manipulação do debate político na rede social, mas o Facebook não fez nada. Ao contrário: demitiu a funcionária que apontou a falta de ação da empresa.
Agora, os documentos revelados por Haugen deixam mais claro o porquê: embora diga que defende um mundo mais próximo e conectado, o Facebook prioriza alguns países e gasta recursos de forma extremamente desigual. EUA, Brasil e Índia são as prioridades zero (o enorme número de usuários ajuda a explicar). Aqui, havia ao menos políticas próprias e verbas para atuar no período eleitoral. Para os outros países, nada. Não há sequer moderadores suficientes que falem árabe, hindi ou bengali.
4. O Facebook mentiu ser inofensivo para crianças e jovens.
No documentário “O dilema das redes”, ex-funcionários contam que as redes sociais são desenvolvidas com um propósito: prender a atenção. Para isso, usam recursos sofisticados de experiência do usuário e design – tudo testado para garantir que a gente gaste nosso precioso tempo em scroll infinito nos feeds, passando raiva ou atiçando a vontade de consumir. Há vários estudos que mostram que o tempo gasto em plataformas digitais tem crescido, especialmente entre jovens – o que é motivado, em parte, pelas ~melhorias~ de experiência de usuário propostas pelas grandes plataformas. Só no Instagram, os jovens brasileiros gastam cerca de 1h30 por dia. Todos os dias.
Mas o Facebook sempre refutou essa leitura. Questionado no Congresso americano sobre um possível impacto do vício em tecnologia, Zuckerberg afirmou que sua empresa estuda muitos dos efeitos de suas tecnologias no bem estar das pessoas. “Como qualquer ferramenta, há bons e maus usos dela”, tergiversou.
“O que nós encontramos, em geral, foi que, se você está usando as redes sociais para construir relacionamentos, então você está compartilhando conteúdo com amigos, está interagindo. Então isso é associado com todas as medidas de bem-estar em que você intuitivamente pode pensar”, ele disse.
Zuckerberg escondeu, no entanto, que o próprio Facebook sabia o quanto o Instagram era nocivo para a saúde mental. Os documentos vazados mostram que pesquisas internas revelaram que o Instagram piorava pensamentos de suicídio e automutilação em 13,5% das meninas jovens. Para 17%, a rede social afetava negativamente os transtornos alimentares. E, para uma a cada três, piorava a autoestima.
Saídas para o problema
Em seu depoimento, Haugen falou pouco do modelo de negócios da empresa – a extração de dados para oferecer publicidade segmentada e altamente persuasiva. As soluções que ela propôs passam por regulação e mudança nos algoritmos, para que privilegiem conteúdos relevantes e não os mais passíveis de engajamento.
Para muitos, porém – eu inclusa –, é preciso discutir com mais profundidade a natureza dos negócios das big techs, como Google e Facebook. A exploração de dados e predição de comportamento têm efeitos devastadores quando acontecem em plataformas que são as fontes primárias de interação social e informação das pessoas. É uma realidade especialmente dramática onde a rede social se confunde com a própria internet – caso do Brasil.
Correção – 20 de janeiro de 2022, 13h16
Ao contrário do que estava no texto, cerca de 24 mil pessoas foram mortas na crise política em Myanmar, e não 600 mil – esse foi o número estimado de refugiados. O texto foi corrigido.
JÁ ESTÁ ACONTECENDO
Quando o assunto é a ascensão da extrema direita no Brasil, muitos acham que essa é uma preocupação só para anos eleitorais. Mas o projeto de poder bolsonarista nunca dorme.
A grande mídia, o agro, as forças armadas, as megaigrejas e as big techs bilionárias ganharam força nas eleições municipais — e têm uma vantagem enorme para 2026.
Não podemos ficar alheios enquanto somos arrastados para o retrocesso, afogados em fumaça tóxica e privados de direitos básicos. Já passou da hora de agir. Juntos.
A meta ousada do Intercept para 2025 é nada menos que derrotar o golpe em andamento antes que ele conclua sua missão. Para isso, precisamos arrecadar R$ 500 mil até a véspera do Ano Novo.
Você está pronto para combater a máquina bilionária da extrema direita ao nosso lado?