Uma executiva da área de privacidade da Meta, uma advogada que atua em uma organização que representa iFood, IBM e Microsoft, e dois representantes de uma entidade que tem como associadas Amazon, Google e Huawei. Esses são alguns nomes que o senador Marcos Pontes, do PL de São Paulo, quer chamar para audiências públicas para discutir a regulação de inteligência artificial no Brasil.
Até aí, parece tudo certo: é razoável ouvir as empresas do setor. O problema é que essas pessoas foram incluídas na lista omitindo as empresas que elas realmente representam.
Eduardo Paranhos aparece na lista do astronauta como representante do Instituto de Estudos Avançados da USP, o IEA-USP. Mas Paranhos, na verdade, é líder do grupo de trabalho de Inteligência Artificial da Associação Brasileira de Empresas de Software, a Abes, que representa dezenas de empresas do setor, incluindo gigantes como AWS, Google Cloud e vendedores de tecnologias de vigilância como a Techbiz.
A história piora: questionado pelo Intercept Brasil, o IEA esclareceu que Paranhos não integra o instituto, e que apenas participou de um encontro sobre IA como expositor em agosto de 2023. Na data, ele representava a Abes.
Em um artigo recente assinado por Paranhos, a Abes criticou o caminho que o Brasil está seguindo na regulação de IA, comparando-o a “modelos de regulação prescritivos” com “potencial efeito colateral de desestimular o desenvolvimento e adoção de IA localmente”.
Paranhos não é o único membro da associação a ter seu nome no requerimento. Andriei Gutierrez é também vice-presidente da Abes – mas, na lista do astronauta, aparece apenas como representante da empresa de tecnologia Kyndryl.
Outro nome camuflado no requerimento do astronauta é o de Ana Bialer. Ela foi apresentada como advogada do escritório Bialer Falsetti e membro da Agência Nacional de Proteção de Dados, a ANPD.
O que foi omitido é que Bialer é líder do grupo de trabalho de Internet e Regulação dentro da Brasscom, organização que tem como associadas empresas como Microsoft, IBM, iFood e Uber.
Giovanna Carloni também teve seu nome proposto por Pontes para as audiências públicas. Ela aparece na lista como ligada ao Centro de Liderança de Política de Informação, um departamento do escritório de advocacia internacional Hunton Andrews Kurth.
Mas, segundo o LinkedIn de Carloni, ela deixou esse cargo em outubro de 2021. O motivo: passou a trabalhar na Meta. Hoje, Carloni ocupa o cargo de gerente do programa de privacidade no escritório de Proteção de Dados da Meta em Londres.
O Intercept entrou em contato com a assessoria do senador Marcos Pontes e foi informada que “a lista é verificada e convocada pela mesa da comissão”. A assessoria disse ainda que vai solicitar a verificação e correção da lista e que “o importante é termos representantes dos diversos setores participando. Inclusive a academia, comunidade científica, setor produtivo desde startups até grande esperesas, governo, etc”.
Em resposta aos questionamentos do Intercept, a Meta disse que não foi convidada e nem indicou representante para participar das audiências públicas e que, alertada pela reportagem, solicitou a remoção do nome de Carloni da lista. A Brasscom disse que também não foi convidada e que Bialer não participará da audiência como representante da associação.
A Abes disse que estará representada nas audiências pelo seu diretor de Relações Institucionais e Governamentais, Marcelo Almeida, e que não é responsável pela formulação da lista de convidados e “nem por quaisquer omissões ou qualificações que constem nas suas convocações para audiências públicas”. A assessoria esclareceu ainda que Paranhos não faz parte da USP, como mencionado na lista de convidados.
A ofensiva para segurar a votação
O requerimento de Marcos Pontes, que incluiu até o CEO da OpenAI, Sam Altman, foi apresentado no dia 18 de junho, data em que a votação do projeto de lei foi travada. A justificativa foi dar “oportunidade para todos falarem a respeito”.
Marcos Pontes é um dos senadores que estava em uma tour, em março, por empresas de tecnologia dos EUA. Uma reportagem do Aos Fatos mostrou que os parlamentares que estavam na viagem são os campeões de emendas ao projeto, com sugestões que vão de acordo com os interesses do governo americano.
O texto em discussão, conhecido como PL da IA, é derivado de um relatório preliminar da Comissão Temporária Interna de Inteligência Artificial, a CTIA, apresentado em abril por Eduardo Gomes, senador pelo PL do Tocantins.
Em sua redação atual, o projeto de lei prevê o desenvolvimento de IA pautado na ética, a avaliação prévia de riscos dos sistemas e a obrigatoriedade de “avaliação de impacto algorítmico”, mas abre margem para o uso de IA para reconhecimento facial. Na versão mais recente, o uso de IA em armas automáticas foi expressamente banido.
A Comissão foi alvo de críticas da Coalizão Direitos na Rede, a CDR, que reúne 55 entidades da sociedade civil e organizações acadêmicas, sobre sua transparência. Foram realizadas audiências públicas em outubro de 2023, em encontros repletos de homens brancos do Sul e Sudeste.
O atual texto, no entanto, abarcou algumas sugestões da sociedade civil – o que levou a Coalizão à apoiar a proposta, ainda com críticas em relação à proteção de direitos, em especial sobre reconhecimento facial e score de crédito.
Inicialmente, a votação seria no dia 12 de junho. Depois, acabou adiada para o dia 18. Foi aí que a máquina de lobby entrou em ação.Nas horas anteriores à sessão no dia 18, representantes das empresas e associações interessadas em travar o projeto trabalharam intensamente nos bastidores.
Na manhã daquele dia, Gomes, relator do projeto, recebeu em seu gabinete Nicolas Andrade, representante da OpenAI para América Latina e Caribe. O encontro rendeu um post no Instagram:
Quem também trabalhou para fazer pressão para que a votação fosse adiada foi a Associação Brasileira de Inteligência Artificial, a Abria. Na segunda-feira, dia anterior, a organização realizou um evento em São Paulo na sede do Google for Startups.
Organizado em parceria com o Google e com a Endeavor, uma rede de empreendedores, o evento tratou sobre os “desafios e convergências na regulação de IA”.
Segundo a página do evento, seria uma “oportunidade de alinhar visões, entender preocupações comuns e colaborar na definição de um caminho regulatório que suporte a inovação e o crescimento sustentável da IA no Brasil.”
O evento teve a participação de empresas do setor privado como a Incognia, cuja tecnologia antifraude permite verificação de identidade a partir da geolocalização, e até de gigantes como Microsoft e Google.
LEIA TAMBÉM:
- Arthur Lira matou o PL das fake news
- Big techs abraçaram bolsonarismo em ofensiva contra PL das Fake News
- Big techs pagaram por estudo que minimiza impacto de telas em crianças
Ao final, a Abria apresentou uma carta aberta em que defende que o texto não está suficientemente maduro para votação e precisaria de mais debate.
Para a entidade, na redação atual, o projeto traz “imposições regulatórias excessivamente prescritivas e onerosas, que limitam a autonomia dos atores de IA para definirem o nível adequado de sua governança”.
Na prática, o argumento é o de que o texto está rígido e exige demais das empresas, que citaram como exemplos a necessidade de supervisão humana, um rol extensivo de avaliações preliminares e de impacto, e “diversas obrigações de publicização de informações que desafiam o avanço tecnológico, a segurança dos sistemas e o segredo de negócio”.
A convocatória deu certo: em 24h, dezenas de organizações assinaram a carta, dentre elas o Conselho Digital, o Movimento Inovação Digital e entidades como Fecomercio e a Associação Brasileira das Empresas de Segurança Eletrônica, a Abese. O adiamento da votação foi comemorado como uma “pequena vitória” por Luis Fernando Prado, advogado e conselheiro da Abria, em post no Linkedin.
O argumento se repete
Um dos principais argumentos usados pelo setor privado, reciclado da tramitação do PL 2630, é de que a regulamentação de IA acabaria com a inovação no setor.
Segundo a carta da Abria, faltam dispositivos e instrumentos que “sirvam como mecanismos de fomento da IA no Brasil, de modo a incentivar a inovação e o surgimento de novas empresas de base tecnológica”.
Mas o argumento não se sustenta, segundo especialistas. “É justamente o contrário”, disse Paulo Rená da Silva Santarém, doutorando em regulação de políticas públicas de tecnologia na Universidade de Brasília e um dos gestores do processo que culminou no Marco Civil da Internet.
“Sem regras bem definidas, o setor no futuro será forçado a lidar com a necessidade de adequação, desperdiçando muito dos esforços de desenvolvimento, além do custo social incalculável. Sendo uma tecnologia de ponta, em vez de sufocar a inovação, uma regulação jurídica irá impulsionar um ecossistema mais seguro, ético e sustentável para a IA”, disse Rená.
JÁ ESTÁ ACONTECENDO
Quando o assunto é a ascensão da extrema direita no Brasil, muitos acham que essa é uma preocupação só para anos eleitorais. Mas o projeto de poder bolsonarista nunca dorme.
A grande mídia, o agro, as forças armadas, as megaigrejas e as big techs bilionárias ganharam força nas eleições municipais — e têm uma vantagem enorme para 2026.
Não podemos ficar alheios enquanto somos arrastados para o retrocesso, afogados em fumaça tóxica e privados de direitos básicos. Já passou da hora de agir. Juntos.
A meta ousada do Intercept para 2025 é nada menos que derrotar o golpe em andamento antes que ele conclua sua missão. Para isso, precisamos arrecadar R$ 500 mil até a véspera do Ano Novo.
Você está pronto para combater a máquina bilionária da extrema direita ao nosso lado? Faça uma doação hoje mesmo.