Para jovens e negros, a tecnologia é a certeza de que continuarão a ser abordados de forma preferencial, em nome da chamada guerra às drogas. O reconhecimento facial tem se mostrado uma atualização high-tech para o velho e conhecido racismo que está na base do sistema de justiça criminal e guia o trabalho policial há décadas.

Fonte: Rede de Observatórios de Segurança/Imagem: Reprodução - The Intercept

Falhas no sistema

O sistema de reconhecimento facial precisa identificar um rosto no vídeo analisado, tarefa que não é simples nem em Hong Kong nem em outras partes do mundo. Manifestantes e outras pessoas que queiram escapar do monitoramento utilizam camuflagens, como pinturas faciais. Isso porque o reconhecimento facial é uma forma de biometria, que é a ligação entre um elemento único do corpo humano de um indivíduo com uma unidade de registro. O elemento corporal utilizado pode ser a digital, a face, o modo de caminhar.

Mas a parte do corpo utilizada na biometria, seja a digital ou a face, nunca é analisada por completo. Isto quer dizer que são escolhidos alguns pontos do rosto ou do dedo e, com base nas distâncias entre esses pontos, é calculada a probabilidade de aquela digital ou de aquela face ser da pessoa cadastrada no banco de dados. No caso do rosto humano, as possibilidades de haver diferenças ou modificações nessas distâncias são bem maiores do que numa digital, já que uma pessoa envelhece e perde colágeno, pode estar bocejando, piscando etc.

As tecnologias de reconhecimento facial aplicadas ao policiamento se utilizam dessas assinaturas – calculadas de acordo com os pontos da face de indivíduos – para acionar alertas. Esses alertas são emitidos quando o rosto da pessoa filmada pela câmera possui certo grau de semelhança com alguma das faces presentes no banco de dados utilizado – nesses casos, o de pessoas com mandados de prisão em aberto. Esse grau de semelhança tem de ser calibrado, porque se for fixado em níveis menores do que 90% de semelhança, por exemplo, pode provocar um número muito grande de falsos positivos. No extremo oposto, se o nível de semelhança exigido pelo algoritmo for 99,9%, por exemplo, a chance de o sistema emitir alertas será muito baixa.

Se compararmos a técnica com o envio de uma ambulância para socorrer uma vítima, vemos o quanto ela é ineficiente. Se em nove de cada dez chamadas ao Samu não houver uma emergência real, teremos o desperdício de dinheiro público e a alocação inútil de tempo e pessoal. É exatamente o que tem ocorrido na aplicação da tecnologia de reconhecimento facial. Por exemplo, durante o carnaval, nos quatro dias da Micareta de Feira de Santana, na Bahia, o sistema de videomonitoramento capturou os rostos de mais de 1,3 milhões de pessoas, gerando 903 alertas, o que resultou no cumprimento de 18 mandados e na prisão de 15 pessoas, ou seja, de todos os alertas emitidos, mais de 96% não resultaram em nada.

O problema pior é que os erros do reconhecimento facial podem representar constrangimentos, prisões arbitrárias e violações de direitos humanos. Em julho, o sistema utilizado pela polícia do Rio apontou erroneamente, no segundo dia de atividade, uma mulher como procurada pela justiça. Não bastasse a abordagem equivocada, descobriu-se dias depois que a criminosa procurada já estava presa há quatro anos, indício claro de que o banco de dados utilizado à época tinha graves problemas de atualização. Dias depois, policiais do Rio prenderam outra pessoa por engano.

Na contramão

Enquanto cidades e países inteiros proíbem a utilização de reconhecimento facial, no Brasil a tecnologia ganha cada vez mais entusiastas. Estados como Minas Gerais, Espírito Santo, Pará e o Distrito Federal declararam estar em processo de contratação ou de implementação deste tipo de tecnologia para o trabalho de policiamento. Quase todos os estados do Nordeste têm grandes investimentos no setor. Projetos de empresas chinesas estão sendo implementados na região, entre eles a instalação de câmeras de reconhecimento facial.

O governo federal tem dado sua contribuição para a expansão da tecnologia com a portaria n° 793, de outubro de 2019, que regulamenta o uso de dinheiro do Fundo Nacional de Segurança Pública para o “fomento à implantação de sistemas de videomonitoramento com soluções de reconhecimento facial, por Optical Character Recognition – OCR, uso de inteligência artificial ou outros”.

É preocupante ver que, em um país em que historicamente não são respeitadas as premissas de transparência de dados sobre segurança pública e criminalidade, aliado aos recentes projetos que ignoram a Lei Geral de Proteção de Dados Pessoais, não há nenhuma preocupação dos governos em elaborar mecanismos de accountability voltados para as tecnologias de reconhecimento facial e nem protocolos para segurança dos dados coletados.

Os projetos implementados em algumas das corporações policiais do Brasil, com a criação do Banco Nacional Multibiométrico e de impressões Digitais, proposto pelo ministro da Justiça Sérgio Moro, são apresentados como formas de modernização da prática policial. Na verdade, porém, representam um retrocesso em relação à eficiência, transparência, accountability e proteção de dados pessoais da população.