circa 1937:  A phrenologist, who reads the 'bumps' on people's heads,  demonstrating how to measure a head to a class of schoolgirls.  (Photo by Hulton Archive/Getty Images)

O jornalismo destemido do Intercept só é independente graças aos milhares de leitores que fazem doações mensais. Mas perdemos centenas desses apoiadores este ano.

Nossa missão tem que continuar mesmo depois que o último voto for dado nesta eleição. Para manter nossa redação forte, precisamos de 1.000 novos doadores mensais este mês.

Você nos ajudará a revelar os segredos dos poderosos?

SEJA MEMBRO DO INTERCEPT

O jornalismo destemido do Intercept só é independente graças aos milhares de leitores que fazem doações mensais. Mas perdemos centenas desses apoiadores este ano.

Nossa missão tem que continuar mesmo depois que o último voto for dado nesta eleição. Para manter nossa redação forte, precisamos de 1.000 novos doadores mensais este mês.

Você nos ajudará a revelar os segredos dos poderosos?

SEJA MEMBRO DO INTERCEPT

Inteligência Artificial pode apontar criminosos através de atributos faciais, defende estudo preocupante

Novo estudo diz que computadores podem determinar se você será um criminoso com base em nada além de seus traços faciais.

circa 1937:  A phrenologist, who reads the 'bumps' on people's heads,  demonstrating how to measure a head to a class of schoolgirls.  (Photo by Hulton Archive/Getty Images)

Os campos de inteligência artificial e aprendizagem automática estão se expandindo tão rapidamente que as noções de ética estão ficando para trás, ou sendo deixadas para as obras de ficção científica. Isso parece explicar a realização de um novo estudo da Universidade Shanghai Jiao Tong, na China, que alega que computadores podem determinar se um indivíduo vai se tornar um criminoso baseado em nada além de suas feições.

A esperança frustrada de tentar inferir traços de moralidade a partir da psicologia foi perseguida por centenas de anos, em especial, por indivíduos que esperavam justificar a supremacia étnica de um grupo específico. Mas a frenologia, que estudava o crânio para estabelecer níveis de caráter e inteligência, foi desmistificada na época da Revolução Industrial, quando poucas pessoas além dos adeptos da pseudociência ainda defendiam que o formato da boca ou extensão das pálpebras poderia determinar se uma pessoa viria a se tornar um estuprador ou um ladrão.

Mas, aparentemente, o mesmo não vale para a era moderna da inteligência artificial: em um artigo chamado”Inferência automatizada de criminalidade através de imagens de rostos”, dois pesquisadores da Universidade Shanghai Jiao Tong disseram que carregaram “imagens faciais de 1.856 pessoas” em computadores e descobriram “atributos estruturais distintos que identificam traços de criminalidade, como a curvatura labial, a distância entre as córneas internas e o ângulo entre a boca e o nariz”. Os pesquisadores concluíram que “as quatro classificações têm resultados razoavelmente consistentes e confirmam a validade da inferência de criminalidade automatizada baseada nas feições, embora o assunto seja historicamente polêmico”.

Apesar de ter sido rejeitada há muito tempo pela comunidade científica, a frenologia e outras formas de fisiognomia reapareceram em alguns momentos sombrios da história. Esse artigo publicado em 2009 no site Pacific Standard sobre os horrores do racismo na Ruanda colonial poderia ter servido de inspiração para os pesquisadores:

Nos anos 20 e 30, os belgas, na posição de colonizadores, criaram um programa nacional para tentar identificar a origem étnica de certos indivíduos através da frenologia, uma tentativa frustrada de criar uma escala étnica com base em traços físicos mensuráveis, como altura, peso e largura do nariz, na esperança de que os administradores das colônias não precisassem exigir cartões de identidade.

Isso é extremamente grave: os autores dessa pesquisa — em pleno 2016 — acreditam que computadores são capazes de detectar a propensão à criminalidade escaneando imagens de lábios, olhos e narizes. Essa pesquisa deixa a frenologia no chinelo.

Tradução: (a) Três amostras do conjunto Sc de fotos de criminosos (b) Três amostras do conjunto Sn de fotos de não criminosos Figura 1. Amostras de fotos de identificação de nosso arquivo

Tradução: Figura 4. (a) Resultados FGM (b) Três atributos distintos p, d e 0

O estudo praticamente não discute por que há uma “polêmica histórica” sobre esse tipo de análise, que comprovou-se infundada há centenas de anos. Muito pelo contrário, os autores invocam outro argumento falso para justificar suas principais conclusões; dizem que computadores não podem ser racistas, pois são computadores:

Diferente de um avaliador/examinador humano, o algoritmo ou classificador do computador não tem nenhuma bagagem subjetiva, emoções ou preconceitos baseados em experiências passadas com etnia, religião, ideologia política, sexo, idade, etc. Não apresenta cansaço mental e não reage a ter dormido ou comido mal. A inferência automatizada de criminalidade elimina por completo a variável da meta-precisão (a competência do avaliador/examinador humano). Além da vantagem da objetividade, algoritmos sofisticados baseados em aprendizado de máquina podem descobrir nuances sutis e elusivas nos atributos e estruturas faciais associadas a traços de personalidade inatos, que passariam desapercebidas para um leigo sem treinamento.

Esse argumento ignora o fato de que computadores não vêm do nada. Todo software é desenvolvido por pessoas, e pessoas que se dispõem a inferir criminalidade a partir de traços faciais não estão livres de preconceito.

Além disso, não é mencionado em nenhum ponto da pesquisa se esse software pode ser usado de forma abusiva por parte das agências de segurança. Kate Crawford, pesquisadora de IA do Microsoft Research New York, MIT e NYU, contou ao The Intercept que “chamaria essa pesquisa de frenologia pura. A única diferença é que estão usando ferramentas modernas de aprendizado automático supervisionado, em vez de paquímetros”.

Crawford alertou que, “à medida que entramos em uma era de policiais com câmeras de corpo e policiamento preditivo – baseado em prever fatos – é importante analisar de forma crítica o uso problemático e antiético de aprendizado automático para estabelecer correlações espúrias”, acrescentando ser evidente que os autores “sabem dos problemas éticos e científicos da pesquisa, mas a “curiosidade” foi mais forte”.

Dado o crescimento e o entusiasmo monumental por trás da IA, tanto como campo de estudo quanto como mercadoria, não se surpreenda se essa curiosidade for contagiosa.

Você sabia que...

O Intercept é quase inteiramente movido por seus leitores?

E quase todo esse financiamento vem de doadores mensais?

Isso nos torna completamente diferentes de todas as outras redações que você conhece. O apoio de pessoas como você nos dá a independência de que precisamos para investigar qualquer pessoa, em qualquer lugar, sem medo e sem rabo preso.

E o resultado? Centenas de investigações importantes que mudam a sociedade e as leis e impedem que abusadores poderosos continuem impunes. Impacto que chama!

O Intercept é pequeno, mas poderoso. No entanto, o número de apoiadores mensais caiu 15% este ano e isso está ameaçando nossa capacidade de fazer o trabalho importante que você espera – como o que você acabou de ler.

Precisamos de 1.000 novos doadores mensais até o final do mês para manter nossa operação sustentável.

Podemos contar com você por R$ 20 por mês?

APOIE O INTERCEPT

Inscreva-se na newsletter para continuar lendo. É grátis!

Este não é um acesso pago e a adesão é gratuita

Já se inscreveu? Confirme seu endereço de e-mail para continuar lendo

Você possui 1 artigo para ler sem se cadastrar