EDITAL EQUIDADE RACIAL

ACESSAR

Polícia algorítmica

Autor: Thiago Amparo Data da postagem: 14:00 03/02/2020 Visualizacões: 135
Curta a nóticia:
Curta o CEERT:
O metrô de São Paulo quer contratar um novo sistema de vigilância de suas pendências com a tecnologia da reconhecimento facial/ Imagem: Reprodução - Divulgação - Folha de São Paulo

Discriminatório, uso de reconhecimento facial por agentes de segurança demanda regulação.

Salvador, setembro de 2019. “A gente estava indo para uma consulta médica no Santa Izabel. Eu entrei numa padaria para tomar café porque era muito cedo. Seguiram a gente do metrô. Não deu tempo nem de a gente pegar o lanche, já foi com arma na cabeça dele, outra nas costas. Em nenhum momento deram um bom dia, solicitaram a documentação para constatar se era a pessoa [procurada].” 

Este é o relato da mãe de um jovem de 25 anos com deficiência mental, abordado violentamente por policiais com base em reconhecimento facial por câmeras instaladas no metrô, aeroporto e rodoviária da capital baiana desde final de 2018 pelo governo de Rui Costa (PT). Tratava-se de um falso positivo. 

Não é um caso isolado. No segundo dia de implementação de sistema similar no RJ pelo governo de Wilson Witzel (PSC), uma mulher foi levada à delegacia, sendo que a pessoa procurada já estava presa. 

Ao todo, 151 pessoas foram detidas de março a outubro de 2019 por meio de tecnologia de reconhecimento facial, em cinco estados: Bahia (52% dos casos), Rio de Janeiro (37%), Santa Catarina (7%), Paraíba (3%) e Ceará (1%), segundo levantamento do Rede de Observatórios da Segurança publicado pela Folha. 90% são negras. Pernambuco, DF e outras localidades pelo Brasil afora devem implementar a mesma tecnologia em breve.
Problemas com reconhecimento facial são endógenos à própria tecnologia. 

147-1jpg-1580749876.jpg (725×471)

A tecnologia, ainda inicial no país, ficará em um novo patamar, diante do fluxo diário de 3 milhões de pessoas nas principais linhas de metrô/ Imagem: Reprodução - Divulgação - Folha de São Paulo

Reconhecimento facial falha. Apesar de ser quase perfeito em seu iPhone, na rua a história é outra. Londres anunciou na semana passada que irá utilizar a tecnologia no metrô da cidade, embora o único relatório independente, publicado por pesquisadores da Universidade de Essex em julho, tenha constatado que 81% dos reconhecimentos positivos estavam errados.

E, pela forma como é construída a tecnologia, reconhecimento facial pode discriminar não-brancos. É o que Tarcizio Silva, pesquisador da UFABC, chama de racismo algorítmico. Algoritmos aprendem reproduzindo as bases de dados a que têm acesso. Distorções nas bases de dados se refletem em distorções nos resultados buscados, se algoritmos não forem ajustados para prevenir tal viés. Em 2015, o Google Photos legendou como “gorila” uma foto de um casal de negros nos EUA. Solução oferecida? Apenas bloquear a palavra "gorila", sem reestruturar o algoritmo.

Por seu impacto, distorções no reconhecimento facial usado por agentes de segurança requerem cautela. Publicado na MIT Technology Review em dezembro de 2019, estudo de órgão do governo americano confirmou que a maioria dos algoritmos hoje apresenta mais falsos positivos no caso de pessoas não-brancas do que de pessoas brancas. Gênero também influencia os resultados, em especial contra mulheres negras. Cidades tecnológicas como São Francisco e Cambridge nos EUA proibiram o uso da tecnologia sob argumento de privacidade. Na última semana, a União Europeia anunciou que avalia proibir a tecnologia pelos próximos cinco anos em áreas públicas enquanto estuda formas de coibir abusos. 

Permitir ou não reconhecimento facial e, se sim, como fazê-lo está intrinsecamente ligado a uma outra questão: sobre quais ombros recai o estado policial? Informação é poder e, como todo poder, pode ser racializado e deve ser controlado.

No Brasil, e também na Índia, Rússia e China, onde esta tecnologia tem sido utilizada para fins de repressão, o debate não se dá fora do contexto de crescente controle autoritário. Que o digam os manifestantes pró-democracia em Hong Kong, que utilizaram laser contra as câmeras de reconhecimento facial durante protestos.

Cabe ao Congresso regular o uso de dados pessoais por agentes de segurança. A lei de proteção de dados de 2018 exclui de seu escopo dados pessoais para este fim, lacuna que precisa ser preenchida com cautela. Regular essa questão passa por debater quais tecnologias utilizar e os interesses geopolíticos por trás delas, passa por falarmos sobre proteção ao direito de protesto, sobre critérios para base de dados da polícia. 

Tecnologias são disruptivas, e cada vez mais o serão, até se tornarem o novo normal. Blockbuster virou Netflix, táxi virou Uber, download virou streaming, hotel virou AirBnB. E racismo virou racismo, agora tecnológico. Não menos perverso.

Curta a nóticia:
Curta o CEERT: