A IA precisa de babá.

A máquina da morte da extrema direita está literalmente botando fogo em nosso país, enquanto muitos fingem que não.

Ela tem trilhões de reais para gastar em propaganda, e a grande mídia está muito feliz em aceitá-los.

Mas no Intercept praticamente cada centavo vem de você, nosso leitor. E, em 2025, precisamos nos unir e lutar mais do que nunca.

Podemos contar com você para atingir nossa meta de arrecadação de fim do ano? O futuro depende de nós.

QUERO APOIAR

A máquina da morte da extrema direita está literalmente botando fogo em nosso país, enquanto muitos fingem que não.

Ela tem trilhões de reais para gastar em propaganda, e a grande mídia está muito feliz em aceitá-los.

Mas no Intercept praticamente cada centavo vem de você, nosso leitor. E, em 2025, precisamos nos unir e lutar mais do que nunca.

Podemos contar com você para atingir nossa meta de arrecadação de fim do ano? O futuro depende de nós.

QUERO APOIAR

Para dar lucro, a IA precisa de babás humanas

Para que a indústria da IA tenha lucro, é preciso transformar as pessoas em babás da 'inteligência' artificial

A IA precisa de babá.

Uma historinha divertida de IA: um pesquisador em segurança percebeu que o código-fonte de grandes empresas, criado por IA, reiteradamente fazia referência a uma biblioteca inexistente (uma “alucinação” da IA). Ele então criou uma biblioteca maliciosa (mas inofensiva) com esse nome, fez upload, e ela foi automaticamente baixada e incorporada por milhares de desenvolvedores ao compilarem o código.

Essas “alucinações” são uma característica persistente dos grandes modelos de linguagem, ou LLMs, porque o que esses modelos oferecem é uma ilusão de compreensão: na realidade, são apenas formas sofisticadas de preenchimento automático, que recorrem a imensas bases de dados para fazerem suposições espertas (mas consistentemente falhas) sobre a palavra seguinte.

Adivinhar a próxima palavra sem compreender o significado da frase resultante torna os LLMs não supervisionados inadequados para tarefas de alto risco. A bolha inteira da IA se baseia em convencer os investidores de que uma ou mais das seguintes afirmações são verdadeiras:

  • I. Existem tarefas de baixo risco e alto valor que permitirão recuperar os enormes custos de treinamento e operação da IA;
  • II. Existem tarefas de alto risco e alto valor que podem ficar mais baratas agregando a IA a um operador humano;
  • III. Adicionar mais dados de treinamento à IA fará com que ela pare de alucinar, para que possa assumir as tarefas de alto risco e alto valor sem um “ser humano no circuito”.

São afirmativas duvidosas. Existe um universo de tarefas de baixo risco e baixo valor — desinformação política, spam, fraudes, plágio acadêmico, pornografia não consensual, diálogo de NPCs de jogos de videogame — mas nenhuma delas parece capaz de gerar faturamento suficiente para justificar os bilhões gastos pelas empresas de IA em modelos, nem os trilhões em que elas são avaliadas.

A proposição de que aumentar os dados de treinamento reduzirá as alucinações é altamente contestada entre os praticantes da IA. Confesso que não entendo o suficiente dos detalhes para avaliar os argumentos de ambos os lados, mas mesmo que se determine que acrescentar um grande volume de dados de treinamento gerados por seres humanos irá melhorar os palpites do software, há um problema grave: todos esses usos de baixo valor e baixo risco estão inundando a internet com lixo de bots. Afinal, se tem uma coisa que a IA é indiscutivelmente muito boa em fazer, é produzir besteira em grande escala. À medida que a internet se torna uma lagoa anaeróbica para o lixo de bots, a quantidade de “conteúdo” de produção humana em qualquer amostragem da internet está minguando para níveis homeopáticos.

Isso significa que acrescentar mais uma ordem de magnitude de dados de treinamento para a IA não apenas aumentará enormemente os gastos computacionais: os dados ficarão muitas ordens de magnitudes mais caros para adquirir, mesmo sem levar em conta a responsabilidade adicional que pode decorrer das novas teses jurídicas sobre a raspagem de conteúdo.

Isso nos leva aos “seres humanos no circuito” — a ideia de que um dos modelos de negócios da IA é vender para as empresas software que precisa ser emparelhado com operadores humanos para examinarem de perto os palpites do código. Há uma versão disso que parece plausível, em que o operador humano está no comando, e a IA serve como uma “verificação de sanidade” constantemente vigilante sobre as atividades humanas.

Meu carro, por exemplo, tem um sistema que percebe quando ativo a luz de seta enquanto outro carro está no meu ponto cego. Eu sou muito cuidadoso para conferir meu ponto cego, mas também sou um ser humano falível, e algumas vezes o alerta já me salvou de fazer uma manobra potencialmente perigosa. Por mais disciplinado que eu seja, às vezes também esqueço de apagar as luzes, de acordar na hora para ir trabalhar, ou não me lembro do número do telefone (ou data de aniversário) de alguém. Gosto de ter um sistema automatizado que faça o truque roboticamente perfeito de nunca esquecer algo importante.

Existe um nome para isso nos círculos de automação: um “centauro”. Sou a cabeça humana, fundida a um poderoso corpo de robô que faz as coisas que os seres humanos são inerentemente ruins em fazer.

Esse é o tipo bom de automação, e todos nos beneficiamos dele. Mas basta uma pequena mudança para transformar essa automação boa em um pesadelo. Estou falando aqui do centauro reverso: a automação em que o computador está no comando, dando ordens a um ser humano para fazer seu trabalho. Pense nos funcionários dos armazéns da Amazon, que usam pulseiras de resposta tátil e são continuamente observados por câmeras com IA, enquanto prateleiras autônomas se lançam na frente deles e exigem que eles peguem e embalem itens em um ritmo de destruir o corpo e enlouquecer a cabeça.

Os centauros da automação são ótimos: aliviam os seres humanos das tarefas repetitivas e permitem que eles se concentrem nas partes criativas e satisfatórias de seu trabalho. É assim que a programação assistida por IA é vendida: em vez de procurar sintaxes confusas e outras tarefas de programação entediantes, anuncia-se que um “copiloto” de IA poderia liberar seu “piloto” humano para a parte criativa de solução de desafios que torna a programação tão satisfatória.

Mas uma IA que alucina é um péssimo copiloto. Ela é boa o suficiente apenas para fazer o trabalho na maior parte do tempo, mas também inserir furtivamente armadilhas que com certeza estatística parecem tão plausíveis quanto o código correto (é isso que um programa de adivinhar a próxima palavra faz: ele adivinha a palavra estatisticamente mais provável).

Isso transforma os programadores “assistidos” por IA em centauros reversos. A IA pode produzir código em velocidade sobre-humana, e você, o ser humano no circuito, precisa manter atenção e vigilância absolutas ao revisar o código, detectando as brechas de código malicioso habilmente camufladas, que não é possível impedir que a IA insira. Como escreve o autor e programador qntm, “revisar código [é] mais difícil do que escrever código novo“.

E por quê? “Ler passivamente o código de alguém simplesmente não ativa meu cérebro da mesma forma. É mais difícil de fazer corretamente.”

Há um nome para esse fenômeno: “ponto cego da automação”. Os seres humanos simplesmente não estão equipados para a vigilância contínua. Nós somos bons em perceber padrões que ocorrem com frequência — tão bons, que não percebemos as anomalias. É por isso que os agentes de aeroporto são tão eficientes para detectar frascos inofensivos de shampoo no raio-x, ao mesmo tempo em que não percebem praticamente nenhuma arma ou bomba que uma equipe de teste infiltra pelos postos de controle:

O fio de qntm no X mostra que isso é tão verdadeiro para a direção assistida por IA quanto para a programação assistida por IA: “carros autônomos substituem a experiência de dirigir pela experiência de ser um instrutor de direção”.

Em outras palavras, eles transformam você em um centauro reverso. Enquanto o meu robô que controla pontos cegos me permite manobrar em velocidade humana e aponta coisas que eu não percebi, um carro autônomo “supervisionado” manobra no ritmo frenético do computador, e exige que seu supervisor humano avalie incansavelmente e com perfeição cada uma dessas manobras. Não é à toa que os táxis “autônomos” assassinos da Cruise substituíram os motoristas de baixa remuneração por supervisores técnicos de robôs com uma remuneração 50% maior.

Dizem que os programas de radiologia com IA conseguem detectar tumores cancerosos que os radiologistas humanos não percebem. Um programa de radiologia assistida por IA com uma lógica de centauro manteria o mesmo número de radiologistas empregados, mas eles seriam menos eficientes: cada vez que analisassem um raio X, a IA daria uma segunda opinião. Se o ser humano e a IA divergissem, o ser humano analisaria novamente o raio X. Teríamos radiologia de melhor qualidade, a um preço mais alto (o preço do software de IA, além das horas adicionais de trabalho do radiologista).

Mas voltando à ideia de fazer a bolha da IA valer a pena: para que a IA valha a pena, o ser humano no circuito precisa reduzir os custos da empresa que adquire a IA. Ninguém que investe em uma empresa de IA acredita que terá retorno com clientes empresariais que concordam em aumentar seus custos. A IA não pode fazer o seu trabalho, mas o vendedor de IA pode convencer o seu chefe a te demitir e te substituir por IA do mesmo jeito: e essa estratégia é a forma mais bem sucedida de desinformação sobre IA no mundo.

Uma IA que “alucina” orientações equivocadas para passageiros não pode substituir agentes humanos de atendimento ao cliente, mas as empresas estão demitindo os agentes e substituindo por chatbots.

Uma IA que “alucina” orientação jurídica equivocada para os nova-iorquinos não pode substituir os serviços da prefeitura, mas o prefeito da cidade, Eric Adams, ainda assim sugere aos nova-iorquinos que busquem orientação jurídica de seus chatbots.

A única razão pela qual os chefes querem comprar robôs é para demitir pessoas e reduzir seus custos. É por isso que a ideia de “arte IA” é tão irritante. Existem muitas formas inofensivas de automatizar a produção de arte usando software — desde um “pincel de recuperação” no Photoshop até ferramentas de deepfake que permitem a um editor de vídeo alterar as linhas do olhar de todos os figurantes em uma cena para mudar o foco. Um autor de quadrinhos que faz um modelo de um cômodo no jogo The Sims, e move a câmera para conseguir visualizar diferentes ângulos é um centauro — ele está realmente transferindo um trabalho maçante e meticuloso para um robô que é perfeitamente atento e vigilante.

Mas a proposta das empresas de “arte IA” é: “demita seus artistas gráficos e substitua por lixo de bots”. Eles estão vendendo um mundo onde os robôs fazem (mal) todas as tarefas criativas, e os seres humanos precisam trabalhar em um ritmo robótico, com vigilância robótica, para conseguir detectar em velocidade sobre-humana os erros cometidos pelos robôs.

O centaurismo reverso é brutal. Isso não é novidade: Charlie Chaplin documentou o problema dos centauros reversos quase 100 anos atrás.

Como sempre, o problema de um dispositivo não é o que ele pode fazer: é para quem ele faz e com quem ele faz. Existem muitos benefícios em ser um centauro — muitas formas como a automação pode ajudar os trabalhadores. Mas o único caminho para a lucratividade da IA está nos centauros reversos, a automação que transforma o ser humano no circuito em zona de deformação para um robô.

JÁ ESTÁ ACONTECENDO

Quando o assunto é a ascensão da extrema direita no Brasil, muitos acham que essa é uma preocupação só para anos eleitorais. Mas o projeto de poder bolsonarista nunca dorme.

A grande mídia, o agro, as forças armadas, as megaigrejas e as big techs bilionárias ganharam força nas eleições municipais — e têm uma vantagem enorme para 2026.

Não podemos ficar alheios enquanto somos arrastados para o retrocesso, afogados em fumaça tóxica e privados de direitos básicos. Já passou da hora de agir. Juntos.

A meta ousada do Intercept para 2025 é nada menos que derrotar o golpe em andamento antes que ele conclua sua missão. Para isso, precisamos arrecadar R$ 500 mil até a véspera do Ano Novo.

Você está pronto para combater a máquina bilionária da extrema direita ao nosso lado? Faça uma doação hoje mesmo.

Apoie o Intercept Hoje

Conteúdo relacionado

Inscreva-se na newsletter para continuar lendo. É grátis!

Este não é um acesso pago e a adesão é gratuita

Já se inscreveu? Confirme seu endereço de e-mail para continuar lendo

Você possui 1 artigo para ler sem se cadastrar