O Brasil estreou oficialmente o uso de tecnologias de reconhecimento facial na área de segurança pública este ano. Mas, após um ano de experiências em cinco estados do Brasil, a única certeza é que a tecnologia deve agravar o encarceramento em massa, principalmente de jovens e negros das periferias brasileiras. Além disso, é ineficiente.
A Rede de Observatórios da Segurança monitorou os casos de prisões e abordagem com o uso de reconhecimento facial desde que eles foram implantados em março e descobriu que, dos casos em que havia informações, 90,5% das pessoas presas porque foram flagradas pelas câmeras eram negras. A Bahia liderou o número de abordagens e prisões com a nova técnica: 51,7% das prisões, seguida do Rio, com 37,1%, Santa Catarina, com 7,3%, Paraíba, com 3,3% e o Ceará, com 0,7%.
De março a outubro, foram 151 pessoas presas por meio dessa tecnologia nos cinco estados. O monitoramento da Rede foi feito com base nas matérias publicadas por dezenas de veículos de imprensa e usa as informações veiculadas nas contas oficiais das polícias e de outros órgãos nas redes sociais. As prisões com o uso de reconhecimento facial têm ocorrido desde março, sendo que os meses de abril, setembro e outubro registraram a maioria dos casos. Setembro foi o ápice, com 31,2% das prisões.
Não se sabe como se deram essas prisões. Tentamos obter dados, via Lei de Acesso à Informação, sobre a quantidade oficial de prisões e o número de pessoas abordadas de forma equivocada, mas não houve retorno do pedido. Em alguns casos monitorados foi difícil até mesmo encontrar informações completas sobre o perfil da pessoa presa ou abordada, onde o reconhecimento foi realizado e os motivos da eventual prisão. Em 66 casos, havia informações sobre sexo: 87,9% dos suspeitos foram homens e 12,1%, mulheres, com idade média de 35 anos. No que se refere à motivação para a abordagem, chama a atenção o grande volume de prisões por tráfico de drogas e por roubo: 24,1%, cada uma.
Para jovens e negros, a tecnologia é a certeza de que continuarão a ser abordados de forma preferencial, em nome da chamada guerra às drogas. O reconhecimento facial tem se mostrado uma atualização high-tech para o velho e conhecido racismo que está na base do sistema de justiça criminal e guia o trabalho policial há décadas.
Falhas no sistema
O sistema de reconhecimento facial precisa identificar um rosto no vídeo analisado, tarefa que não é simples nem em Hong Kong nem em outras partes do mundo. Manifestantes e outras pessoas que queiram escapar do monitoramento utilizam camuflagens, como pinturas faciais. Isso porque o reconhecimento facial é uma forma de biometria, que é a ligação entre um elemento único do corpo humano de um indivíduo com uma unidade de registro. O elemento corporal utilizado pode ser a digital, a face, o modo de caminhar.
Mas a parte do corpo utilizada na biometria, seja a digital ou a face, nunca é analisada por completo. Isto quer dizer que são escolhidos alguns pontos do rosto ou do dedo e, com base nas distâncias entre esses pontos, é calculada a probabilidade de aquela digital ou de aquela face ser da pessoa cadastrada no banco de dados. No caso do rosto humano, as possibilidades de haver diferenças ou modificações nessas distâncias são bem maiores do que numa digital, já que uma pessoa envelhece e perde colágeno, pode estar bocejando, piscando etc.
As tecnologias de reconhecimento facial aplicadas ao policiamento se utilizam dessas assinaturas – calculadas de acordo com os pontos da face de indivíduos – para acionar alertas. Esses alertas são emitidos quando o rosto da pessoa filmada pela câmera possui certo grau de semelhança com alguma das faces presentes no banco de dados utilizado – nesses casos, o de pessoas com mandados de prisão em aberto. Esse grau de semelhança tem de ser calibrado, porque se for fixado em níveis menores do que 90% de semelhança, por exemplo, pode provocar um número muito grande de falsos positivos. No extremo oposto, se o nível de semelhança exigido pelo algoritmo for 99,9%, por exemplo, a chance de o sistema emitir alertas será muito baixa.
O problema pior é que os erros do reconhecimento facial podem representar constrangimentos, prisões arbitrárias e violações de direitos humanos.
Se compararmos a técnica com o envio de uma ambulância para socorrer uma vítima, vemos o quanto ela é ineficiente. Se em nove de cada dez chamadas ao Samu não houver uma emergência real, teremos o desperdício de dinheiro público e a alocação inútil de tempo e pessoal. É exatamente o que tem ocorrido na aplicação da tecnologia de reconhecimento facial. Por exemplo, durante o carnaval, nos quatro dias da Micareta de Feira de Santana, na Bahia, o sistema de videomonitoramento capturou os rostos de mais de 1,3 milhões de pessoas, gerando 903 alertas, o que resultou no cumprimento de 18 mandados e na prisão de 15 pessoas, ou seja, de todos os alertas emitidos, mais de 96% não resultaram em nada.
O problema pior é que os erros do reconhecimento facial podem representar constrangimentos, prisões arbitrárias e violações de direitos humanos. Em julho, o sistema utilizado pela polícia do Rio apontou erroneamente, no segundo dia de atividade, uma mulher como procurada pela justiça. Não bastasse a abordagem equivocada, descobriu-se dias depois que a criminosa procurada já estava presa há quatro anos, indício claro de que o banco de dados utilizado à época tinha graves problemas de atualização. Dias depois, policiais do Rio prenderam outra pessoa por engano.
Na contramão
Enquanto cidades e países inteiros proíbem a utilização de reconhecimento facial, no Brasil a tecnologia ganha cada vez mais entusiastas. Estados como Minas Gerais, Espírito Santo, Pará e o Distrito Federal declararam estar em processo de contratação ou de implementação deste tipo de tecnologia para o trabalho de policiamento. Quase todos os estados do Nordeste têm grandes investimentos no setor. Projetos de empresas chinesas estão sendo implementados na região, entre eles a instalação de câmeras de reconhecimento facial.
O governo federal tem dado sua contribuição para a expansão da tecnologia com a portaria n° 793, de outubro de 2019, que regulamenta o uso de dinheiro do Fundo Nacional de Segurança Pública para o “fomento à implantação de sistemas de videomonitoramento com soluções de reconhecimento facial, por Optical Character Recognition – OCR, uso de inteligência artificial ou outros”.
É preocupante ver que, em um país em que historicamente não são respeitadas as premissas de transparência de dados sobre segurança pública e criminalidade, aliado aos recentes projetos que ignoram a Lei Geral de Proteção de Dados Pessoais, não há nenhuma preocupação dos governos em elaborar mecanismos de accountability voltados para as tecnologias de reconhecimento facial e nem protocolos para segurança dos dados coletados.
Os projetos implementados em algumas das corporações policiais do Brasil, com a criação do Banco Nacional Multibiométrico e de impressões Digitais, proposto pelo ministro da Justiça Sérgio Moro, são apresentados como formas de modernização da prática policial. Na verdade, porém, representam um retrocesso em relação à eficiência, transparência, accountability e proteção de dados pessoais da população.
Você sabia que...
O Intercept é quase inteiramente movido por seus leitores?
E quase todo esse financiamento vem de doadores mensais?
Isso nos torna completamente diferentes de todas as outras redações que você conhece. O apoio de pessoas como você nos dá a independência de que precisamos para investigar qualquer pessoa, em qualquer lugar, sem medo e sem rabo preso.
E o resultado? Centenas de investigações importantes que mudam a sociedade e as leis e impedem que abusadores poderosos continuem impunes. Impacto que chama!
O Intercept é pequeno, mas poderoso. No entanto, o número de apoiadores mensais caiu 15% este ano e isso está ameaçando nossa capacidade de fazer o trabalho importante que você espera – como o que você acabou de ler.
Precisamos de 1.000 novos doadores mensais até o final do mês para manter nossa operação sustentável.
Podemos contar com você por R$ 20 por mês?