Em março de 2024, um senador brasileiro viajou em um voo comercial para Washington, nos EUA. Marcos Pontes, o ex-astronauta, de 61 anos de idade, havia se tornado uma figura central nas iniciativas de regulação da inteligência artificial no Brasil — onde um projeto de lei propunha importantes restrições à tecnologia em desenvolvimento. Autoconfiante e bem articulado, o ex-ministro da Ciência, Tecnologia e Inovação se considerava excepcionalmente qualificado entre seus colegas para entender as questões complexas em torno da IA.
Pontes já havia trabalhado para a NASA, frequentado a Escola de Pós-Graduação Naval na Califórnia, e era menos cético do que muitos outros senadores em relação às grandes empresas dos EUA que dominam a corrida pela IA. “Não podemos restringir a tecnologia”, ele disse durante uma das primeiras audiências do projeto de lei de IA, manifestando cautela com a possibilidade de legislar sobre ferramentas que ainda estão em desenvolvimento.
Viajou com ele a Washington o senador Laércio Oliveira, outro conservador que integrava a comissão responsável por elaborar o projeto de lei sobre IA. Ambos faziam parte de uma delegação organizada por uma iniciativa do Congresso que tem interação com o setor privado. Seu objetivo: realizar uma série de reuniões sobre a minuta do projeto de lei com representantes do governo dos EUA e de empresas do Vale do Silício.
O projeto era um dos mais abrangentes até hoje no Sul Global. Ele propunha a criação de um novo órgão regulador para supervisionar a IA, proteção aos direitos autorais pelo conteúdo usado para treinar a IA, e proteções aos direitos individuais, com controles antidiscriminação nos sistemas biométricos e o direito de contestar decisões de IA com significativo impacto humano.
‘Pedimos a eles que analisassem a nossa legislação’.
O projeto proibia armas e ferramentas autônomas que pudessem facilitar a criação e a distribuição de material de pornografia infantil, e implementava uma supervisão mais rigorosa sobre os algoritmos das redes sociais que podem ampliar a desinformação. Os defensores mundiais da regulamentação da IA viam no Brasil um potencial modelo para outros países. Mas Pontes considerava que o projeto poderia impedir o investimento e a inovação — e o enxergava, como explicou depois ao Rest of World, como “baseado em medo”.
Pontes não informou os nomes dos americanos com quem se reuniu, mas publicações nas redes sociais mostraram que a delegação visitou integrantes do governo dos EUA, funcionários de think tanks, e executivos de três grandes empresas de IA: Amazon, Google e Microsoft. Pontes diz que o projeto de lei era o foco das discussões. “Pedimos a eles que analisassem a nossa legislação”, ele conta, “e nos dessem um feedback, dissessem o que pensavam”.
Três meses depois, no dia em que o projeto deveria ser colocado em votação, Pontes apresentou 12 emendas, e Oliveira, outras 20, ajudando a desencadear um atraso. Pontes então convocou uma série de audiências sobre o projeto, dizendo que ele precisava de mais debate público. Os defensores da regulamentação alegaram que os representantes das big techs tiveram tempo e influência indevidos nas discussões que se seguiram. As críticas ao projeto vieram de organizações da indústria, e a Confederação Nacional da Indústria, a CNI, alertou que ele levaria o país ao “isolamento tecnológico”. Uma versão enfraquecida do projeto acabou sendo aprovada no Senado em dezembro.
O projeto de lei brasileiro sobre IA representa uma janela para o esforço mundial de definir o papel que a inteligência artificial desempenhará nas sociedades democráticas. As grandes empresas do Vale do Silício envolvidas no desenvolvimento do software de IA — incluindo Google, Microsoft, Meta, Amazon Web Services, e OpenAI — organizaram oposição contra as propostas de regulação abrangente da IA na União Europeia, no Canadá, e na Califórnia.
Hany Farid, ex-reitor da Escola de Informação da Universidade da Califórnia em Berkeley, e importante defensor da regulamentação, que frequentemente depõe em audiências públicas sobre o setor de tecnologia, disse ao Rest of World que o lobby das grandes empresas dos EUA sobre a IA nos países ocidentais tem sido intenso. “Elas estão tentando eliminar todas as leis ou redigi-las a seu favor”, diz. “É feroz.”
Enquanto isso, no Sul Global, onde a regulamentação da IA ainda é mais embrionária, essas mesmas empresas receberam as boas-vindas com pompa e circunstância de políticos interessados em investimentos.
A primeira onda de regulamentação
“Novas tecnologias frequentemente trazem novos desafios, e depende das empresas garantir que vamos desenvolver e lançar produtos de forma responsável” disse ao Senado dos EUA, em 2023, o CEO da Meta, Mark Zuckerberg, defendendo a autorregulação da IA. “Temos condições de criar proteções internas a esses sistemas.”
“A autorregulação é importante”, disse o CEO da OpenAI, Sam Altman, durante uma visita a Nova Délhi naquele mesmo ano, quando o burburinho sobre o ChatGPT estava crescendo em todo o mundo. Naquele momento, porém, ele também advertiu que “o mundo não deveria ser deixado inteiramente nas mãos das empresas, diante do que consideramos que seja o poder dessa tecnologia”.
Os defensores da IA dizem que ela irá revolucionar as indústrias, impulsionar a pesquisa científica, e tornar mais eficientes muitos aspectos da vida e do trabalho. Do outro lado do debate, políticos, especialistas em tecnologia, representantes dos setores afetados pela IA, e representantes da sociedade civil defendem ferrenhamente uma regulamentação muito mais rígida. Eles querem a implementação antecipada de regras sobre direitos autorais, proteção de dados e boas práticas trabalhistas, além dos usos que afetam a segurança pública, com os deepfakes generativos, a criação de armas químicas e biológicas, e os ataques cibernéticos.
A mais ambiciosa legislação sobre IA aprovada até hoje, a Lei da IA de 2024 na União Europeia, oferece um modelo para uma regulamentação mais restritiva. Ela proíbe o uso da IA para efeitos de crédito social, impõe restrições ao uso de IA na análise de perfis criminais, e exige rótulos no conteúdo gerado por IA — uma medida que tem o objetivo de aumentar a transparência e combater a desinformação. Ela também cria uma série de requisitos especiais para os desenvolvedores de sistemas de IA categorizados como de alto risco para a saúde, a segurança, ou os direitos fundamentais.
Os EUA não têm nenhuma proposta de lei com regras abrangentes sobre IA para apreciação a sério pelo Congresso. Em âmbito estadual, a Califórnia é o estado mais avançado na regulamentação da IA, e seu governador sancionou recentemente 17 projetos sobre IA que foram convertidos em lei. Suas disposições vão desde a proteção contra réplicas digitais de artistas até a proibição de deepfakes relacionados às eleições.
LEIA TAMBÉM:
- Após ‘operação de influência’ da indústria, governo Lula rifou proteção a trabalhadores para aprovar regulação de IA
- Senador Marcos Pontes esconde empresas de lobistas convidados para debater regulação da IA
O Canadá, enquanto isso, está tentando uma abordagem semelhante à da União Europeia: o partido do governo está propondo padronizar o design, o desenvolvimento e o uso da IA por meio do Artificial Intelligence and Data Act (Lei de Inteligência Artificial e Dados, AIDA), que ainda não foi aprovado.
Os esforços regulatórios nos EUA e na UE ensejaram pressão contrária das empresas de tecnologia, e o lobby relacionado à IA aumentou. No Canadá, executivos da Amazon e da Microsoft reprovaram publicamente a iniciativa, e chamaram a proposta de legislação de vaga e onerosa. A Meta já sinalizou que pode evitar o lançamento de certos produtos de IA no país.
Um histórico projeto de lei da Califórnia, que teria exigido medidas de segurança nos programas com IA para proteção contra aplicativos fraudulentos, foi vetado pelo governador no ano passado, após uma campanha dos investidores em capital de risco e desenvolvedores de IA, que incluiu anúncios pagos e artigos de opinião em jornais. O diretor de estratégia da OpenAI escreveu uma carta aberta alertando que o projeto poderia “desacelerar o ritmo da inovação” e levar os empreendedores a “deixarem o estado em busca de melhores oportunidades em outro lugar”.
As gigantes da tecnologia também fizeram lobby agressivo contra o projeto da UE. A OpenAI teria obtido bons resultados na tentativa de reduzir o ônus regulatório da lei sobre a empresa, e Altman fez uma ameaça de que a OpenAI poderia deixar a Europa se ele considerar que a regulamentação está muito restrita.
Em agosto, Zuckerberg escreveu em coautoria um artigo de opinião descrevendo a abordagem regulatória da UE como “complexa e incoerente”, e alertando que ela poderia inviabilizar “a oportunidade única em uma geração” de inovação, além da chance de capitalizar as “oportunidades de crescimento econômico” da IA.
“Temos dito com clareza que apoiamos estruturas regulatórias e proteções eficientes e baseadas em riscos para a IA”, disse um representante da Amazon ao Rest of World, observando que a empresa já assinou compromissos voluntários com a Casa Branca e a UE para o desenvolvimento responsável de IA, e compactua com o objetivo maior da lei europeia. A OpenAI e o Google não responderam aos diversos pedidos de comentários para esta matéria.
Um representante da Microsoft compartilhou uma publicação da empresa propondo “esforços equilibrados para desenvolver leis e regulamentos” para encorajar a confiança do público e a adoção da IA, assim como normas de “interoperabilidade e consistência” da IA em diferentes países.
Um representante da Meta encaminhou um comunicado anterior da empresa sobre a legislação de IA da UE: “é nossa prioridade assegurar que a IA seja desenvolvida e implementada de forma responsável — com transparência, segurança e responsabilidade em primeiro lugar. Damos as boas vindas às regras harmonizadas da UE. (…) Não deveríamos também perder de vista o imenso potencial da IA para promover a inovação na Europa e permitir a concorrência.”
Em muitos países do Sul Global, as discussões sobre políticas ainda estão em desenvolvimento. O Chile é um dos poucos países que está tentando aprovar uma legislação pormenorizada sobre IA. Seu histórico projeto de lei copia alguns componentes da abordagem europeia centrada no risco, e promete impulsionar o desenvolvimento da IA e ao mesmo tempo proteger os princípios democráticos e os direitos humanos. A Lei Básica de IA da Coreia do Sul, aprovada em dezembro, promove o papel da IA no crescimento econômico, mas também remete a algumas das proteções de ética, segurança e transparência da União Europeia.
Outros governos estabeleceram estruturas políticas que priorizam o interesse comercial em detrimento de uma regulamentação rigorosa. A Lei Básica de IA de Taiwan, por exemplo, determina que futuras interpretações jurídicas relativas à regulação da IA “não devem impedir o desenvolvimento de novas tecnologias de IA, nem a prestação de serviços com tecnologia IA incorporada”, segundo uma análise da IAPP, uma organização sem fins lucrativos que acompanha leis e regulações sobre IA em todo o mundo. O Japão vem defendendo sua regulação minimalista de IA, que prioriza atrair empresas e investimentos. Cingapura, outra potência econômica mundial que vem tentando se tornar um centro de IA, ainda não aprovou nenhuma política sobre IA, mas o governo já sinalizou uma preferência por regras direcionadas, específicas por setor, no lugar de uma abordagem mais abrangente.
Influência das big techs
O Brasil vem despontando na vanguarda da regulamentação da tecnologia entre as economias emergentes. O Marco Civil da Internet, que entrou em vigor em 2014, estabeleceu proteções à neutralidade da rede, à liberdade de expressão e à privacidade. Em 2023, um abrangente projeto de “Lei das Fake News”, como ficou conhecido, tentou obrigar as redes sociais a terem mais transparência e se responsabilizarem pela desinformação. O projeto de lei foi aprovado no Senado, mas acabou derrotado na Câmara, após intensa pressão pública do Google, da Meta, e do aplicativo de troca de mensagens Telegram.
O pormenorizado projeto de lei de regulamentação da IA foi apresentado no Senado em maio de 2023. Seus proponentes esperavam que ele tivesse força semelhante à da legislação europeia, e ao mesmo tempo fornecesse “um modelo para ser debatido em todo o mundo”, disse ao Rest of World a advogada Estela Aranha, assessora especial do presidente Lula que esteve envolvida de perto no processo.
Aranha, que também integra o órgão consultivo de alto nível da ONU sobre inteligência artificial, acrescentou que a coordenação global é essencial quando se trata da regulamentação da IA. Os países precisam ter a liberdade de criar sua própria legislação, ela diz, mas também é necessário que exista um consenso sobre as regras essenciais, para que elas possam ser aplicadas de maneira eficaz.
“A IA é uma ferramenta que ultrapassa fronteiras, e você não pode ter uma legislação completamente desconectada do cenário internacional”, observa Aranha. “É preciso ter alguma convergência minimamente, para conseguir que esses atores globais em oligopólios muitos poderosos cumpram as leis.”
Mas o senador e ex-astronauta Pontes, que esteve à frente da reação contra o projeto no Senado, disse ao Rest of World que sua preocupação inicial de que o projeto fosse muito rigoroso foi reforçada pela viagem aos EUA em março de 2024.
Após seu retorno, ele apresentou propostas que incluíam a redução do sistema de contestação de decisões da IA; o afrouxamento das proteção aos direitos autorais; e a restrição dos tipos de sistema de IA que seriam regulados. Oliveira, o senador que o acompanhou aos EUA, apresentou várias das mesmas propostas, algumas delas, com textos quase idênticos. (O gabinete de Oliveira não respondeu aos diversos pedidos de comentários).
Pontes defendeu as audiências que convocou sobre o projeto como um esforço para incluir todos os setores envolvidos: “não podemos simplesmente impor uma regulação de cima para baixo”. Mas representantes da sociedade civil os consideram tendenciosos.
Em uma movimentação incomum, dois lobistas americanos foram convidados a falar ao Senado brasileiro, ambos representando grupos de interesse com sede em Washington, que têm entre seus integrantes Amazon, Google, Meta, Microsoft e outras grandes empresas de tecnologia.
Paula Guedes, advogada especialista em direitos digitais, foi uma das defensoras da regulação que participou do debate sobre o projeto no Senado, na qualidade de líder de IA da Coalizão Direitos na Rede, uma rede de organizações de sociedade civil e acadêmicos. Ela disse ao Rest of World que achava que os grupos de interesse do setor tinham mais facilidade para acessar os senadores e participar das audiências do que os representantes da sociedade civil: “tudo já foi esquematizado favoravelmente ao setor privado”.
Em resposta às perguntas sobre seu papel nas discussões do projeto, um representante do Google confirmou a visita da delegação brasileira em março de 2024 à sede da empresa em Washington, e acrescentou: “reforçamos nosso compromisso com o diálogo contínuo entre a sociedade, as empresas e as autoridades para discutir questões centrais, como a adoção responsável da inteligência artificial para promover o desenvolvimento e a solução de importantes desafios na sociedade brasileira”.
Microsoft e Meta não comentaram. “A Amazon se orgulha de investir no Brasil desde 2011”, disse um representante da empresa. “Como acontece com todas as empresas globais, participamos regularmente de discussões com decisores políticos, associações do setor e think tanks para compartilhar conhecimento e contribuir para o desenvolvimento de soluções em temas relevantes para os nossos clientes.”
A versão do projeto que foi aprovada no Senado em dezembro incluía pagamento aos detentores de direitos autorais quando seu conteúdo for usado para treinar sistemas de IA; criação de uma autoridade de supervisão de IA; e a proibição de armas autônomas. Outras medidas regulatórias permaneceram, mas foram enfraquecidas.
A retirada de regras sobre algoritmos que moderam e recomendam conteúdo das redes sociais, e do dispositivo sobre desinformação, foram consideradas grandes perdas para os defensores da regulação. O projeto de lei segue para a Câmara, onde o projeto de Lei das Fake News foi derrotado. “Vão ser necessárias ações desde o início do ano que vem”, diz Guedes, prevendo que os esforços para alterar o projeto de lei continuarão.
Essa reportagem foi publicada em uma parceria com Rest of World. Você pode ler a versão completa desta investigação global deles aqui.
JÁ ESTÁ ACONTECENDO
Quando o assunto é a ascensão da extrema direita no Brasil, muitos acham que essa é uma preocupação só para anos eleitorais. Mas o projeto de poder bolsonarista nunca dorme.
A grande mídia, o agro, as forças armadas, as megaigrejas e as big techs bilionárias ganharam força nas eleições municipais — e têm uma vantagem enorme para 2026.
Não podemos ficar alheios enquanto somos arrastados para o retrocesso, afogados em fumaça tóxica e privados de direitos básicos. Já passou da hora de agir. Juntos.
A meta ousada do Intercept para 2025 é nada menos que derrotar o golpe em andamento antes que ele conclua sua missão. Para isso, dependemos do apoio de nossos leitores.
Você está pronto para combater a máquina bilionária da extrema direita ao nosso lado? Faça uma doação hoje mesmo.