- Trabalhadores executam tarefas cruciais para o desenvolvimento de sistemas de IA, como classificação de dados e moderação de conteúdo. Mas são invisíveis e mal remunerados.
- Em plataformas como Appen, Tellus e Oneforma, eles recebem baixos salários e trabalham em condições precárias sem benefícios, com contratos frágeis.
- Também são desprotegidos legalmente, com pouca chance de reivindicar direitos trabalhistas devido à falta de representação legal das empresas em países como o Brasil.
- A crise econômica provocada pela pandemia provocou um aumento neste tipo de trabalho no Brasil. No entanto, como os trabalhadores estão na completa informalidade, não há dados sobre o tamanho exato dessa nova classe trabalhadora.
- A necessidade de organização e suporte mútuo entre trabalhadores é vital para melhorar suas condições de trabalho, aumentar seu poder de negociação e melhorar a qualidade do trabalho.
A baiana Lílian largou um emprego CLT no ano passado. Por causa da filha pequena, trabalhar fora de casa era um pesadelo. Foi em um vídeo no TikTok que ficou sabendo da possibilidade de trabalhar online treinando inteligência artificial.
Depois de um mês tentando, conseguiu ser aprovada nos testes para atuar em projetos na Appen, plataforma que subcontrata trabalhadores para executar a crescente demanda das big tech por produção, classificação e análise de dados.
Hoje, trabalha em horários flexíveis, seis dias por semana, para “melhorar a inteligência artificial com dados”, como propagandeia a Appen. No fim do mês, se tudo der certo, tira R$ 1.400, sem nenhum outro benefício.
Lílian faz parte de uma classe de trabalhadores muitas vezes definidos como fantasmas, escondidos ou microtrabalhadores. Por meio de plataformas multinacionais como Tellus, OneForma e a própria Appen, grandes empresas de tecnologia contratam mão de obra barata, em larga escala e em diversos países, para executar pequenas tarefas.
Na outra ponta da cadeia, gigantes como Meta, Google e TikTok lucram com a facilidade de comprar bases de dados já preparadas por trabalhadores que custam infinitamente menos do que os profissionais do mercado de tecnologia.
As big tech também se beneficiam de uma cadeia que opera à margem da lei, opaca e blindada por contratos de confidencialidade, em que as pessoas sequer sabem para quem ou para quê estão trabalhando.
Além dos salários baixos, esses trabalhadores terceirizados não recebem treinamento e trabalham com prazos apertados. Há inúmeros relatos de calotes, contratos rompidos unilateralmente sem explicação e desassistência das plataformas.
Para Rafael Grohmann, professor da Universidade de Toronto e pesquisador da rede Fairwork, que defende princípios de trabalho decente nas plataformas, esse modelo remete às discussões sobre capitalismo industrial do século 19. “A gente tá bem vintage, tendo que recuperar teorias que achávamos que estavam ultrapassadas”, diz.
A terceirização é uma estratégia para não conectar os trabalhadores ao cliente final, diz Milagros Miceli, socióloga, cientista da computação e fundadora de um grupo de pesquisa sobre algoritmos e ética do Weizenbaum-Institut de Berlim, um instituto de pesquisa sobre digitalização ligado ao governo alemão.
“É importante que os próprios trabalhadores percebam que estão contribuindo para uma indústria multibilionária”, ela comenta. “Se você percebe que está trabalhando para a Microsoft ou para o Google, você vai pedir mais dinheiro. Eu acho que todos os trabalhadores deveriam saber para quem estão trabalhando, e também o lucro gerado pelo seu trabalho”.
O Brasil já é um dos maiores mercados onde big techs recrutam mão de obra barata para esse tipo de trabalho. Pesquisadores apontam que a pandemia intensificou esse processo no país, nos últimos anos: devido à crise econômica e a necessidade de ficar em casa, somadas ao grande consumo de mídias sociais e internet.
Hoje, os brasileiros estão em quarto lugar no número de visitas na Appen, e em quinto na Oneforma, atrás de EUA, Reino Unido, Índia e Filipinas, segundo dados do SimilarWeb.
Por aqui, essas plataformas operam em um limbo político e jurídico. Não há dados confiáveis sobre quantos brasileiros trabalham para essas empresas para se pensar em regulação trabalhista ou políticas de proteção.
Essas empresas sequer têm representação jurídica no Brasil, o que inviabiliza qualquer tipo de reivindicação formal ou ações judiciais. Enquanto isso, as iniciativas de regulação de IA no país ignoram o tema – não há menção sobre os trabalhadores de dados na proposta discutida no Senado, o PL 2338/2023.
Controle e segredos
Os sistemas de aprendizado de máquina são um tipo de inteligência artificial, um conjunto de algoritmos que, a partir de determinado input – dados ou informações disponíveis – gera um output, ou seja, o resultado desejado. Isso pode ser feito com uma árvore de decisão, por exemplo. Mas, no caso da IA generativa, o próprio sistema aprende a decidir sozinho, no chamado ‘deep learning’, ou aprendizado profundo. O programador não cria a regra – só mostra o resultado desejado.
Os dados produzidos por essa legião de trabalhadores são a matéria prima e o refinamento dessa automatização. É a partir deles que os sistemas de computação ditos inteligentes aprendem os padrões que vão imitar depois.
Sem uma montanha de conteúdo produzido por veículos de comunicação e pessoas reais, o ChatGPT seria incapaz de oferecer respostas qualificadas. Sem pessoas reais interpretando erros de digitação em resultados de busca, o Google não adivinharia o que você realmente quis dizer com aquela palavra que escreveu errado. Sem trabalhadores interpretando fotos para treinar algoritmos de visão computacional, câmeras inteligentes não conseguiriam identificar objetos em uma imagem.
Para executar o enorme número de tarefas humanas necessárias para o desenvolvimento de sistemas de IA, é preciso contratar também milhões de trabalhadores. O jeito mais barato que a indústria encontrou para fazer isso foi por meio de multinacionais intermediárias.
Assim, trabalhadores de todo o mundo são pagos para tirar fotos, transcrever áudios, opinar sobre anúncios, moderar conteúdo, checar fake news, identificar imagens, fazer compras. Há todo tipo de tarefa disponível, inclusive gravar vídeos de si mesmo dançando ou de crianças. Sim, crianças. A Appen paga US$ 20 (cerca de R$ 108) por 10 desses vídeos. Não há informações, na tarefa, sobre o que será feito deste conteúdo.
As empresas intermediárias vendem esse tipo de trabalho como uma oferta de liberdade, já que não há horário fixo e os ganhos por tarefa dependem do desempenho individual. No entanto, dezenas de documentos internos obtidos pelo Intercept Brasil mostram um nível de controle intenso das empresas sobre os trabalhadores.
Todos têm que assinar, por exemplo, termos de confidencialidade rígidos, que os proíbe de trocar informações com outros “contratados independentes” – como a empresa chama quem trabalha para ela –, e de se organizar coletivamente.
Os trabalhadores não trabalham para os clientes finais, mas para projetos organizados em codinomes. Em alguns casos, são proibidos até mesmo de mencioná-los publicamente.
“Não participe de grupos ou chats fora dos métodos de comunicação fornecidos pela Appen para discutir informações confidenciais do projeto”, diz um dos termos de uso da empresa, que tem como clientes Amazon, Microsoft, Nvidia e Meta.
A empresa, por exemplo, exige que o trabalho seja feito em um dispositivo ligado a uma rede criptografada. É proibido compartilhar informações de clientes ou qualquer informação sobre o projeto – incluindo suas diretrizes e mesmo seu nome – em qualquer espaço fora do ambiente interno da empresa, ou com pessoas que não assinaram os termos de confidencialidade.
“Violar qualquer uma dessas obrigações legais pode resultar na remoção permanente de projetos da Appen, ações por violação do contrato ou outras medidas legais contra você”, diz um dos termos.
‘Há muitos estudos que mostram que, se você colaborar, tem resultados melhores.’
A Appen também orienta que os trabalhos remotos sejam feitos só em casa e não em espaços públicos. Os trabalhadores são impedidos de fornecerem instruções e são orientados a usar fones e protetores de tela para impedir que outras pessoas vejam o que está sendo feito.
A OneForma, plataforma utilizada para preparação de dados pelo Google, também proíbe qualquer menção pública aos projetos. Os trabalhadores assinam um termo que também isenta a empresa de responsabilidades sobre eventuais vazamentos – ou seja, se alguma informação de cliente vier a público, o único a ser responsabilizado é o trabalhador.
A OneForma também obriga que o trabalhador renuncie a qualquer ação judicial coletiva. “Se, por qualquer motivo, uma reclamação prosseguir em tribunal e não em arbitragem, cada uma das partes renuncia a qualquer direito a um julgamento com júri”, dizem os termos de uso da OneForma.
Procuradas, as plataformas não responderam os questionamentos enviados pelo Intercept.
Grupos são saída para a alienação
Gabriela, dona de casa de 36 anos, trabalhou por um ano e meio na Appen e Lionbrige. Quando aceitou o trabalho, havia acabado de reformar a casa e precisava de dinheiro, mas não queria deixar os filhos pequenos sozinhos. “Foi uma salvação. Me ajudou muito”, ela contou ao Intercept.
Sua primeira tarefa foi tirar selfies. Enviava vídeos dançando, fazendo exercícios, conversando ou movimentando as mãos. O material precisava seguir requisitos específicos para ser aceito, como enquadramento e iluminação. Depois, Gabriela ainda trabalhou classificando anúncios e comprando produtos. Nos melhores meses, tirava R$ 800.
Assim como a maior parte dos trabalhadores, ela contrariou as regras e entrou nos grupos clandestinos. “Ajuda demais, você não se sente sozinho, o pessoal se apoia”, ela diz.
Para Milagros Miceli, que defende que os trabalhadores devem ter poder de decisão sobre as plataformas, a arquitetura desse mercado prejudica inclusive a qualidade dos dados que vão alimentar os sistemas de IA.
LEIA TAMBÉM:
- Senador Marcos Pontes esconde empresas de lobistas em audiência para discutir IA
- Meta paga centavos por checagem sobre enchentes no RS, violência e política para treinar inteligência artificial
- Brasileiros ganham frações de centavos para melhorar sua IA
Em primeiro lugar, por causa do senso de propósito. Sem saber exatamente para quê estão trabalhando, as pessoas performam pior. Depois, pelo isolamento imposto aos trabalhadores. “Há muitos estudos que mostram que, se você colaborar, tem resultados melhores”, diz Miceli.
Com as tarefas fragmentadas, os trabalhadores são alijados do propósito do trabalho. Podem estar contribuindo para viciar adolescentes em vídeos repetitivos, treinar sistemas de vigilância e de predição de crimes da polícia sem sequer saberem o que estão fazendo.
“As plataformas não são obrigadas a falar aos trabalhadores sobre os projetos em que eles estão trabalhando”, disse o pesquisador Phil Jones, autor de Work Without the Worker: Labor in the Age of Platform Capitalism (Trabalhe sem o trabalhador: trabalho na era do capitalismo de plataforma, em tradução livre, sem edição brasileira).
“A noção de alienação é essa, de estranhamento. Em uma fábrica em que você fazia só a roda do carro, claro, você sabia que estava numa montadora. É como se você intensificasse esse estranhamento a ponto de já não saber para onde vai a roda ou parafuso”, compara Rafael Grohmann.
Grohmann e Miceli têm trabalhos que mostram o quanto os grupos de trabalhadores, ainda que clandestinos, são fundamentais. “Não apenas para a sobrevivência dos trabalhadores em meio a condições terríveis, mas também para performar melhor”, diz Miceli. “Os trabalhadores precisam coletivizar e se organizar e sindicalizar se for possível. É um processo coletivo que deve vir dos trabalhadores”.
Calote e ansiedade à espera de uma nova tarefa
No final de dezembro de 2023, Marcia recebeu uma confirmação esperada: depois de um mês tentando, ela finalmente havia passado no teste para um trabalho remoto, o projeto Uolo. Sua função era avaliar anúncios nas redes da Meta.
Para isso, ela se cadastrou na terceirizada Appen com a promessa de receber US$ 3,50 por hora trabalhada – ou R$ 15, quase o dobro da hora do salário mínimo brasileiro, em uma conta simples.
Marcia se dedicou. Ela deveria avaliar pelo menos 40 anúncios em uma hora, classificando se eram ou não impróprios. Em um dia, diz que cumpriu três horas de trabalho, mas só conseguiu receber por pouco mais de uma hora.
No final do primeiro mês, outra frustração: seu computador deu problema e ela não conseguiu mais trabalhar. Pediu dicas para comprar um outro notebook em um grupo de WhatsApp. “Só tenho R$ 500”, avisou. “Vai ser difícil”, respondeu um colega.
Pouco tempo depois, vários trabalhadores receberam um e-mail afirmando que o projeto estava suspenso temporariamente. O acesso às tarefas foi cortado. “Gente, vamos ficar sem trabalhar o resto da semana?”, questionou uma trabalhadora no grupo de mensagens.
Na descrição da vaga, a empresa prometia seis horas de trabalho diárias ou 20 horas semanais, totalizando 700 dólares (R$ 3.780) por mês, valor sedutor para um trabalhador brasileiro. Ninguém chegou lá. No grupo clandestino, os brasileiros aguardavam ansiosos a empresa desbloquear novas tarefas. “Preciso ainda conseguir mais 260 dólares esse mês”, disse Lílian. “Alegria de pobre dura pouco”.
‘Para cada tarefa há uma longa fila de trabalhadores dispostos a fazê-la por menos dinheiro.’
Quando finalmente puderam voltar a trabalhar, eles descobriram que haviam sido mal avaliados. Uma nota baixa é motivo de preocupação, porque três avaliações ruins geram suspensão.
A nota de Lílian ficou em 60%, quando costumava tirar 100%. Tentou reclamar com a plataforma, mas ninguém respondeu, até que ela não conseguiu mais logar na plataforma. Ainda tinha 138 dólares (R$ 745) para receber da Appen. “Tô sem trabalhar há três dias. Meu Deus, alguém me ajuda”, ela pediu no grupo dos trabalhadores.
Pouco depois, seguindo instruções dos colegas, reinstalou a VPN necessária para o serviço e conseguiu retomar. “A Appen está me deixando desanimada. Fiz duas horas na terça e conta que trabalhei seis minutos”, ela reclamou.
Preocupada, começou a tentar entrar em outros projetos. Foi reprovada nos testes. Tinha medo do projeto sumir sem explicação. “Hoje não recebi nenhum e-mail da Appen, tô ficando preocupada”, escreveu.
Uma pesquisa feita em 2020 no Brasil mostrou que bugs na plataforma são problemas comuns enfrentados pelos trabalhadores. É justamente nos grupos que eles conseguem ajuda para resolver os problemas.
“A comunicação entre trabalhadores auxilia nos processos de recebimento do pagamento, a fim de evitar perdas financeiras”, explicam os pesquisadores Grohmann e Willian Fernandes Araújo no artigo “O chão de fábrica (brasileiro) da inteligência artificial: a produção de dados e o papel da comunicação entre trabalhadores de Appen e Lionbridge”, que inspirou o título deste projeto.
Dois dias depois, a Appen liberou duas horas extras para os trabalhadores. Alívio geral – seguido por outra decepção. Em fevereiro, a fatura veio com quase 30 dólares faltando para Lílian. Mesmo assim, ela segue na plataforma, ansiando por novas tarefas.
Se um trabalhador é suspenso, há uma fila para substituí-lo. “O constante excesso de oferta de trabalho erode qualquer poder de negociação por melhores pagamentos, porque para cada tarefa há uma longa fila de trabalhadores dispostos a fazê-la por menos dinheiro”, escreveu o pesquisador Florian A. Schmidt, professor de design e teoria das mídias na University of Applied Sciences HTW Dresden, em um artigo publicado em 2022.
Segundo Schmidt, que estudou esse mercado na Venezuela, esse excesso de demanda gera uma constante ansiedade nos trabalhadores, que ficam atualizando as páginas incessantemente para conseguir novas tarefas.
“Como no resto da gig economy, há pouca flexibilidade e autonomia restante se você tem que entrar em qualquer oportunidade para fazer uma tarefa antes de outras pessoas. E essa competição é muito mais extrema se o trabalho não é baseado por localidade”, explicou.
Propostas de regulação ignoram os trabalhadores de dados
Para Renan Kalil, procurador do Ministério Público do Trabalho, o MPT, que pesquisou em seu doutorado a Amazon Mechanical Turk, plataforma de trabalho da Amazon, elementos de controle e direção do trabalhador oferecem evidência robusta para caracterizar a existência de uma relação de emprego e justificar a aplicação dos direitos trabalhistas.
O problema, ele explica, é aplicar esses direitos. O próprio MPT já esbarrou em dificuldades na hora de contatar empresas que não tinham representação no Brasil. “Não é incomum o trabalhador estar executando atividade em um país, a plataforma estar sediada em um segundo país e do tomador de serviço, num terceiro país”.
“A empresa ou o tomador vai ser citado como?”, ele questiona. “Essa é uma das oportunidades que a gente está perdendo na hora de debater regulação do trabalho”.
Em abril de 2024, a União Europeia aprovou uma diretiva para regulamentar o trabalho por plataformas. Ela prevê, por exemplo, a presunção de vínculo se há mecanismos de controle do trabalhador. E também proíbe demissões com base em decisões tomadas por um algoritmo.
‘As pessoas não estão conectando os pontos, vendo que temos um problema de mão de obra.’
O governo Lula, que assumiu em 2023 com a proposta de regular o tema, simplesmente ignorou os trabalhadores de dados. O grupo de trabalho criado para plataformas digitais, formado por vários ministérios e entidades trabalhistas, não discutiu o tema em nenhuma das 12 reuniões.
O foco foi em aplicativos de entrega – o que deu origem ao PL do iFood – e de transporte de passageiros. Quem trabalha com o “digital” ficou de fora.
O Brasil também discute a regulação de inteligência artificial, com o PL 2338, de 2023, de autoria do senador Rodrigo Pacheco, do PSD. Mas a proposta também não traz nenhuma linha sobre a maneira como os bancos de dados, fontes primárias desses sistemas, são criados, aperfeiçoados ou tratados.
“O problema é um passo atrás. As pessoas não estão conectando os pontos, vendo que temos um problema de mão de obra. Só vêem um problema com os dados e com o sistema”, diz Milagros Miceli.
Para a pesquisadora, que participou de um grupo que levou trabalhadores de dados para o Parlamento Europeu durante a discussão da regulamentação por lá, a hierarquia das plataformas é pensada para os trabalhadores obedecerem. Quando o processo dos trabalhadores de dados é obscurecido – ou seja, quando não se sabe em que condições aqueles dados foram coletados, os conjuntos de dados “viram uma caixa preta”.
Ela defende uma mudança nessa lógica, com mais espaços para que os trabalhadores sejam ouvidos e tenham voz no processo.
O tema também já entrou no radar da Organização Internacional do Trabalho, a OIT. Ainda não há regulamentação sobre o tema, mas a 113ª Conferência Internacional do Trabalho, que acontecerá em 2025, terá uma sessão para definir normas internacionais sobre o trabalho decente em plataformas.
Colaborou: Matheus Viana Braz
Você sabia que...
O Intercept é quase inteiramente movido por seus leitores?
E quase todo esse financiamento vem de doadores mensais?
Isso nos torna completamente diferentes de todas as outras redações que você conhece. O apoio de pessoas como você nos dá a independência de que precisamos para investigar qualquer pessoa, em qualquer lugar, sem medo e sem rabo preso.
E o resultado? Centenas de investigações importantes que mudam a sociedade e as leis e impedem que abusadores poderosos continuem impunes. Impacto que chama!
O Intercept é pequeno, mas poderoso. No entanto, o número de apoiadores mensais caiu 15% este ano e isso está ameaçando nossa capacidade de fazer o trabalho importante que você espera – como o que você acabou de ler.
Precisamos de 1.000 novos doadores mensais até o final do mês para manter nossa operação sustentável.
Podemos contar com você por R$ 20 por mês?