- Relatos e documentos internos mostram como é o trabalho dos brasileiros responsáveis por checar conteúdos em redes da Meta para treinar sistemas de inteligência artificial. Um dos projetos prevê a criação de um sistema automatizado para “identificar e combinar evidências com desinformação”.
- Os trabalhadores precisam checar informações de posts em “fontes confiáveis”. A remuneração é de cerca de 45 centavos por cada post. Os moderadores têm 1h para moderar pelo menos 40 conteúdos.
- Falta de orientação e treinamento resulta em classificações inconsistentes e pode ser decisiva em conteúdos críticos, como as enchentes no Rio Grande do Sul, conteúdos sexuais, violentos e até Jogo do Tigrinho.
- Os moderadores são frequentemente expostos a conteúdos perturbadores, como violência e desinformação política, sem suporte.
Nas últimas semanas, a fila de tarefas de Érica, uma paulista que trabalha desde fevereiro remotamente em uma plataforma para treinar inteligência artificial da Meta, está tomada por um assunto: as enchentes no Rio Grande do Sul. Seu trabalho é checar os posts no Facebook em sites “confiáveis” e marcar se a informação é falsa ou verdadeira.
Os resultados são usados para criar um sistema automatizado para “identificar e combinar evidências com desinformação”, segundo materiais de treinamento obtidos pelo Intercept Brasil. Relatos de trabalhadores, dezenas de prints de tela e vídeos mostram que o trabalho é feito em uma plataforma interna da Meta, com conteúdos do Facebook e Instagram.
Assolada por notícias falsas e conteúdos potencialmente criminosos, a gigante de tecnologia paga para veículos jornalísticos checarem informações e terceiriza moderadores de conteúdo pelo mundo. Agora, parece caminhar para a última etapa da precarização: está desenvolvendo robôs para substituir os humanos na tarefa.
As notícias falsas sobre as enchentes no Rio Grande do Sul se transformaram em um problema sério, atrapalhando resgates e ações do governo. A Meta afirmou, por meio de uma nota, que está “facilitando para que os checadores encontrem e classifiquem conteúdos relevantes”, pois reconhece “que a velocidade é especialmente importante durante eventos críticos como esse”.
A empresa não divulga, no entanto, que o farto e sensível conteúdo mentiroso sobre as enchentes está indo parar na linha de produção de trabalhadores brasileiros que recebem centavos para classificar cada conteúdo, no fim de uma longa cadeia produtiva de treinamento de inteligência artificial.
O Intercept encontrou trabalhadores que atuam em projetos da Meta por meio da plataforma Appen, que reúne 1 milhão de “colaboradores” terceirizados pelo mundo para executar pequenas tarefas de treinamento de inteligência artificial – traduções, transcrições, avaliações e outras atividades.
Um dos projetos, chamado Uolo, visa “melhorar a qualidade e a credibilidade das informações que circulam nas redes sociais”, segundo a descrição da vaga, e “contribuir na criação de um sistema automatizado para identificar e combinar evidências com desinformação”, segundo o material de treinamento. O projeto existe também em outros países, como Rússia e Ucrânia, além do Brasil.
Nele, os trabalhadores recebem uma série de conteúdos para checar. Para cada post classificado, recebem cerca de R$ 0,45. São 40 conteúdos a serem avaliados em uma hora – ou seja, pouco mais de 1 minuto e meio para cada um. Para cada hora completada com êxito, os trabalhadores recebem US$ 3,50 – cerca de R$ 18 na cotação atual.
Na fila de trabalho, aparece de tudo: jogos de azar, publicidade falsa, política. Mas, nas últimas semanas, conteúdos sobre o Rio Grande do Sul começaram a aparecer com frequência, segundo relatos em grupos aos quais o Intercept teve acesso.
A notícia falsa de que Lula teria recusado ajuda do Uruguai, por exemplo, foi uma que apareceu na fila de Érica. Ela checou a informação na Folha e no Uol, mas ficou incerta sobre a resposta. Não havia orientação específica da empresa sobre o tema, tampouco treinamento; coube aos colegas tirarem a dúvida.
“Eu sei que é difícil o que as pessoas estão passando, mas eu não aguento mais ver notícias de lá”, desabafou Érica.
Só no período em que o Intercept Brasil acompanhou os moderadores, apareceram posts descredibilizando a imprensa, e também críticas ao governo federal. Érica teve dificuldades para classificar o conteúdo. Outra trabalhadora concordou: “está sendo difícil achar notícia confiável”.
Para Yasmin Curzi, professora de Direito e pesquisadora do Centro de Tecnologia e Universidade da FGV, esse tipo de trabalho é exaustivo, e a exposição dos trabalhadores a esses conteúdos deveria ter implicações éticas e trabalhistas. Mas não só. “A situação de precariedade e a pressão por decisões mais céleres para atingir metas podem fazer com que os conteúdos não sejam analisados com o cuidado devido”, explica.
Big techs como Meta, Microsoft, Apple, Amazon e Google representavam, no ano passado, mais de 80% dos lucros da Appen. De um ano para cá, no entanto, a multinacional amargou perdas importantes de clientes, como o Google, e queda no faturamento.
Mas a Meta segue, sobretudo, em projetos para treinar IA para checagem de fatos, conteúdo clickbait e classificação de anúncios.
Para Curzi, a criação de um sistema automatizado de checagem e classificação tem “riscos significativos”. “Ainda não é possível automatizar de forma eficaz a detecção de discursos tão sensíveis e que dependem de contexto, como a desinformação”, diz Curzi.
“A automação excessiva pode resultar em falsos positivos – conteúdos legítimos indevidamente classificados como desinformação –, ao mesmo tempo, em que há também risco de falsos negativos – conteúdos prejudiciais não sendo identificados corretamente”, explica.
O Intercept mandou uma série de perguntas à Meta. Perguntamos, por exemplo, como funciona o treinamento dos trabalhadores terceirizados via Appen, como a remuneração é calculada e qual é o objetivo dos projetos. Inicialmente, a assessoria de imprensa no Brasil afirmou desconhecer o trabalho com a Appen; depois que enviamos as perguntas, a Meta não respondeu. A Appen também se recusou a responder as nossas perguntas.
‘Política é o que mais tem fake news’
Publicamente, o projeto Uolo é vendido apenas como uma “excelente oportunidade para indivíduos que são apaixonados por promover informações confiáveis no espaço digital”. “Você será responsável por revisar e avaliar as postagens, garantindo precisão, confiabilidade e credibilidade”, diz a descrição do projeto. Não há menção pública à Meta.
A Appen tem regras rígidas de confidencialidade que visam impedir que os trabalhadores troquem informações fora da plataforma e, consequentemente, se organizem e reivindiquem melhores condições.
Por isso, todos os relatos e documentos descritos nesta reportagem serão anonimizados. O Intercept também teve acesso a dezenas de prints de tela dos sistemas internos, que mostram claramente a relação com a Meta, e checou a veracidade dos conteúdos exibidos, mas não irá divulgá-los para proteger as fontes.
A rotina dos trabalhadores é intensa, complexa e exaustiva. Eles têm uma hora para avaliar o objetivo principal do post – se é uma sátira ou se pretende informar, persuadir ou entreter – e se é potencialmente mentiroso. Cada foto deve ser checada em um minuto; os vídeos podem ser feitos em até três.
As orientações vêm em um PDF de mais de 30 páginas adaptado para o português com um tradutor online. Uma das instruções determina, por exemplo, que os posts sejam checados em busca reversa de imagem no Google e em sites de notícias.
Os checadores devem informar se a informação pode “afetar a vida de alguém” – posts sobre saúde, política, religião e governo, por exemplo –, e decidir quantas pessoas poderiam ser afetadas. Na escala de potencial impacto negativo, o documento descreve que informações financeiras, de voto e de saúde, por exemplo, estão entre as mais danosas.
Na prática, no entanto, a moderação é muito mais complicada. O documento sugere que se procure uma “fonte confiável” para confirmar uma informação – que pode ser uma “autoridade amplamente aceita” ou que “provê conteúdo profissional de qualidade”, sem especificar.
‘Se você não tem um contexto, você não sabe avaliar. É tudo feito mesmo para deixar você no escuro.’
Não há orientação específica sobre quais são as fontes confiáveis. Nos grupos que o Intercept acompanhou em que os trabalhadores trocam dicas, o site de checagem de fatos do G1, por exemplo, foi indicado como referência.
Para Curzi, a falta de treinamento pode fazer com que os moderadores – sem formação, informações específicas sobre o Brasil e contexto – tomem “decisões inadequadas, inconsistentes, que podem violar a expressão alheia, com falsos positivos, ou colocar direitos de outras pessoas em risco, com falsos negativos”. “É justamente essa a raiz da falta de qualidade da moderação de conteúdo em português”, explica.
“Se você não tem um contexto, você não sabe avaliar. É tudo feito mesmo para deixar você no escuro e dizer ‘ó, teve supervisão humana, se eles não souberam avaliar o problema é deles’, analisa Rafael Grohmann, professor da Universidade de Toronto e pesquisador em trabalho decente nas plataformas.
Ele explica que, como essa cadeia de trabalho de treinamento de IA é global – ou seja, as tarefas vêm de fora, muitas vezes sem contexto brasileiro – nem sempre os gerentes locais da Meta, por exemplo, têm conhecimento dessas atividades.
O material oferecido como treinamento aos brasileiros deixa clara a falta de contexto e nuance na classificação do conteúdo.
“É necessário saber se eles possuem algum tipo de orientação e formação para fazer esse tipo de trabalho – que é juízo sobre a expressão de outras pessoas e tem impacto tão profundo sobre o exercício de direitos online”, diz Curzi. “A moderação é um poder quasi-judicial e precisa ser tratada com a seriedade devida pelas plataformas”.
Um dos posts disponíveis aos brasileiros para moderar, por exemplo, era uma postagem que informava que o botijão de gás baixou R$ 0,13 no governo Lula, com um vídeo do então presidente da Petrobras. Um trabalhador de Minas Gerais, que atua no projeto, procurou no Google a informação, que considerou falsa.
“Política é o que mais tem fake news”, disse outro trabalhador no grupo. Os conteúdos são variados, e a exigência é que os verificadores dediquem 20 horas por semana ao trabalho. “Às vezes a gente perde muito tempo procurando, pesquisando”, disse o trabalhador, que afirma tirar um salário mínimo com o projeto.
Para muitos, o trabalho é exaustivo. Erros não são admitidos. “O Uolo é um dos projetos mais rigorosos que tem, vacilou tá fora”, disse um deles. “Eu acho muito criterioso para a mixaria que eles pagam”, respondeu outro.
Com tempo curto, trabalhadores apelam para o ChatGPT
Érica trabalha em dois projetos diferentes. Passa o dia sentada em um computador de mesa – quer juntar dinheiro para comprar um notebook. Acorda muito cedo para aproveitar a fila de tarefas, e ajuda colegas com dúvidas. Trabalha no Uolo e em outro projeto, chamado Odgen, um dos preferidos dos brasileiros.
O Odgen tem a mesma lógica, mas é voltado para classificação de anúncios. É uma tarefa especialmente sensível, já que propagandas são outra fonte de desinformação.
No caso do Rio Grande do Sul, uma pesquisa do NetLab, laboratório da UFRJ, encontrou pelo menos 381 anúncios fraudulentos e 51 com desinformação nas redes da Meta.
No Ogden, os avaliadores devem classificar os anúncios – por exemplo, se são ofensivos ou inadequados. É preciso avaliar um lote de 40 a 60 anúncios em 1 hora. Por esse tempo de trabalho, recebem US$ 5 – cerca de R$ 25. A pessoa reavalia o anúncio em pouco mais de um minuto e coloca uma justificativa. Depois, parte para o próximo.
Um dos documentos obtidos pelo Intercept, por exemplo, descreve como funciona o trabalho de avaliação dos anúncios rejeitados pelos usuários do Instagram. O primeiro passo é a interação: o trabalhador deve observar o anúncio e reagir – curtindo, compartilhando, comentando ou ocultando – como faria normalmente.
Depois, é preciso responder se o trabalhador considera o anúncio ofensivo, prejudicial ou inadequado, e avalia se ele deve continuar ou não no Instagram. Por fim, é preciso enviar um feedback, na forma de um texto curto em inglês, descrevendo a sensação em relação ao produto.
LEIA TAMBÉM:
- TikTok pagou menos de um salário mínimo para funcionários sem registro trabalharem até 18 horas por dia
- Confissões de uma ex-moderadora do Facebook
- Brasileiros ganham frações de centavos para melhorar sua inteligência artificial
Nas telas dos trabalhadores, aparece de tudo. E as plataformas não se responsabilizam por qualquer consequência.
Bruno, um trabalhador ouvido pelo pesquisador Matheus Viana, que estudou o tema, tinha que avaliar se havia sangue, violência e abuso nos anúncios. “Precisava de ter um apoio psicológico, um amparo”, conta. “Uma mulher que conheci teve que fazer tratamento. É preciso tentar minimizar o impacto dos trabalhadores que ficam assistindo a mortes, para tirar a imagem da cabeça da pessoa”.
Vitor, outro trabalhador baiano, disse ao Intercept que já chegou a ver até vídeos de automutilação e meninas jovens sem roupa, além de anúncios contra vacinação.
Não havia uma diretriz clara sobre o que poderia passar ou não. “Você acaba lidando com critérios subjetivos, apesar de pedirem para ser objetivo”, Vitor explicou.
Nos grupos de trabalhadores, é comum decisões sobre como classificar determinado anúncio serem tomadas após ouvir os colegas.
“Eu sempre fico em dúvida. Anúncios de bebidas alcoólicas vocês colocam como inapropriado?”, questionou um trabalhador. “Eu coloco que não tem nada de errado”, respondeu outro. “Eu boto que não porque muita gente bebe”, disse um terceiro colega.
A publicidade de bebidas alcoólicas no Brasil é fiscalizada pelo Conselho Nacional Auto Regulamentação Publicitária, o Conar, e há regras rígidas: as pessoas na propaganda devem aparentar ter mais de 25 anos e não pode ter fotos ou vídeos que mostrem a ingestão do produto.
Anúncios de jogos de azar também aparecem com frequência. Mais uma vez, depende da avaliação de cada um. “Os de azar eu boto enganoso que ganha dinheiro”, disse um moderador no grupo. “Eu coloco potencialmente enganoso e impróprio. E digo que os ganhos mostrados são irreais”, disse outro.
Um dos mais comuns é o Jogo do Tigrinho. “Até gosto quando vem porque já tenho texto pronto para ele”, disse um. O Facebook restringe anúncios de jogos que estimulem “um comportamento de apostas irresponsável como oportunidade de renda”.
Além de jogos de azar e apostas, trabalhadores também relatam com frequência anúncios de suplementos, que usam imagens falsas do médico Drauzio Varella. “Dou nota ruim em todos”, diz um trabalhador. Outro ficou reticente. “No caso o remédio que vendem é verídico, mas como usam imagem falsa pra promover fiquei em dúvida”, respondeu.
Como o tempo de avaliar cada anúncio é curto, a dica dos colegas é usar o ChatGPT, ferramenta de inteligência artificial generativa, para ganhar tempo. “Para anúncio de jogos de azar manda o ChatGPT elaborar cinco respostas, para anúncio de marketplace mais cinco, quando os links não funcionam mais cinco respostas”, outro sugeriu.
“Só faço pelo ChatGPT. Já vou no automático”, disse uma trabalhadora. “Eu vou escrevendo, mas vou fazer assim também. Minha mão fica doendo”, outra respondeu.
Às vezes a Appen libera horas extras, que são disputadas entre os trabalhadores. Mas, em geral, nesse projeto é obrigatório trabalhar pelo menos 1 hora por dia, cinco dias por semana. Quem ultrapassa o limite diário, 1h05, é notificado. Quem trabalha menos também.
“Consultores que não conseguem cumprir consistentemente suas horas contratadas semanais podem ser removidos do projeto”, diz um dos documentos internos do projeto.
Se o trabalhador por alguma razão não conseguir trabalhar pelos cinco dias completos, a Appen solicita que ele fique sem trabalhar durante toda a semana. “Semanas parciais têm um impacto mais negativo em nossos objetivos gerais”, diz o documento.
Vitor faz, em média, entre 38 e 40 anúncios por hora. Para receber, é preciso submeter a fatura até o dia 2 de cada mês, e a plataforma usada para transferência cobra uma taxa anual de US$ 35 (ou R$ 175) de cada trabalhador. Em fevereiro, ele sequer conseguiu trabalhar por conta dos problemas da plataforma. Geralmente consegue fazer R$ 500 por mês. “Não dá pra chamar de trabalho”, ele diz.
Colaborou: Matheus Viana Braz
Essa reportagem foi produzida em parceria com o Núcleo Jornalismo e com apoio da AI Accountability Network do Pulitzer Center.
Você sabia que...
O Intercept é quase inteiramente movido por seus leitores?
E quase todo esse financiamento vem de doadores mensais?
Isso nos torna completamente diferentes de todas as outras redações que você conhece. O apoio de pessoas como você nos dá a independência de que precisamos para investigar qualquer pessoa, em qualquer lugar, sem medo e sem rabo preso.
E o resultado? Centenas de investigações importantes que mudam a sociedade e as leis e impedem que abusadores poderosos continuem impunes. Impacto que chama!
O Intercept é pequeno, mas poderoso. No entanto, o número de apoiadores mensais caiu 15% este ano e isso está ameaçando nossa capacidade de fazer o trabalho importante que você espera – como o que você acabou de ler.
Precisamos de 1.000 novos doadores mensais até o final do mês para manter nossa operação sustentável.
Podemos contar com você por R$ 20 por mês?