Racismo algorítmico: a inteligência artificial a serviço da discriminação

Autor: Naomi Cary Data da postagem: 10:19 27/01/2021 Visualizacões: 327
Curta a nóticia:
Curta o CEERT:
Racismo algorítmico: a inteligência artificial a serviço da discriminação/Reprodução: Correio Braziliense

Um anúncio de subemprego pode ser direcionado em massa para pessoas negras, enquanto um anúncio de cargos de chefia pode ser direcionado para pessoas brancas

Com a popularização das redes sociais, internalizamos a falácia de que o silenciamento e a invisibilidade das narrativas de pessoas negras poderiam ter fim, mas não é isso exatamente o que temos visto. Mesmo sendo, muitas vezes, protagonistas na produção do conteúdo, a forma como ele (não) é distribuído faz com que falemos para ninguém ouvir. Mas, antes de falar sobre o racismo algorítmico, temos que entender o que é o algoritmo e para que(m) ele serve.

O algoritmo nas redes sociais é uma sequência de ações ou conjunto de dados e regras estabelecidas por cada rede social. Por exemplo, quando você entra no Instagram e decide descer o feed ou clicar nos stories, o que vai ser mostrado em cada caso é escolhido a partir do conjunto de dados que a rede tem das suas ações anteriores, além dos dados sobre quando essa postagem foi feita e como foi a recepção dela por outros usuários.

Se o objetivo das redes sociais é manter as pessoas conectadas o máximo de tempo possível, elas precisam estar constantemente nos tocando de alguma forma. Imagina uma pessoa que baixa o Tinder ou alguma outra rede social de “paquera” e não encontra ninguém que a atraia durante um dia inteiro? Ela vai desinstalar o aplicativo. O mesmo acontece nas demais redes: se o Instagram ou o Twitter mostrar conteúdos que não tocam os usuários, eles os perdem. O algoritmo é a forma pela qual as redes sociais escolhem o conteúdo que vai ser mostrado para cada pessoa, para que, assim, fiquemos o máximo de tempo na frente do celular.

Então, o que é racismo algorítmico, afinal? Algoritmos são conjuntos de dados, regras e ações construídos por pessoas. Essas pessoas são “programadoras”, ou seja, tradutoras da linguagem humana para a linguagem computacional. Quando a plataforma Netflix pausa a exibição e, na tela, aparece aquele aviso “Tem alguém assistindo?”, isso foi um programador que deu o comando, por meio de uma linguagem específica: “A cada três horas de exibição, pause e mostre o aviso”.

E aí é que está o problema: a maioria dos programadores — que agrupam esses dados e regras — é formada por homens, brancos, cisgêneros (ou seja, que se identificam com o gênero que foram designados ao nascer), na maioria, europeus ou estadunidenses. São eles que têm o poder de definir para quem será apresentado cada tipo de conteúdo. Um anúncio de subemprego pode ser direcionado em massa para pessoas negras, enquanto um anúncio de cargos de chefia pode ser direcionado para pessoas brancas. Ou seja, o algoritmo faz com que as redes sociais sejam a visão de um grupo seleto de pessoas sobre o que milhares de outras devem ou querem consumir.

Tal enviesamento tecnológico, causado pelas falhas na educação de pessoas negras, pela não contratação de profissionais negros na área da tecnologia e pelas pressões que sofrem os poucos que são contratados, gera uma parcialidade nas funções computacionais, fazendo com que os algoritmos discriminem — ou simplesmente não reconheçam — imagens ou qualquer conteúdo digital de pessoas negras ou não brancas.

Para criar um banco de dados, por exemplo, do que é uma festa ou uma cadeira, o programador vai inserir várias imagens desses eventos ou objetos. Se ele só colocar um tipo de festa ou um tipo de cadeira, é o que o algoritmo vai reconhecer como tal. Várias pessoas negras têm sido vítimas da tecnologia de reconhecimento facial, que não conseguem reconhecer rostos de pessoas negras, por que elas fogem da descrição de pessoa que o programador ou o grupo de programadores repassou ao sistema de algoritmos na sua construção ou que não conseguem discernir uma pessoa negra de outra, o que, no contexto de segurança pública, aumenta as chances de pessoas negras serem injustamente condenadas por crimes que não cometeram.

Nós, pretos, acreditávamos que, uma vez sendo produtores/as de conteúdo, iríamos conseguir criar redes e meios para compartilhar ideias e produtos entre a comunidade negra, mas ainda estamos sendo mais espectadores ou vítimas do que agentes ou protagonistas nesse processo. Uma vez que produzimos o conteúdo, mas não podemos determinar (ou, ao menos, contribuir para tanto) a quem ele vai chegar, com que relevância e com que potência, perdemos muito mais do que imaginamos. E se, para quem trabalha com produção de conteúdo, engajamento é dinheiro — tanto para os influencers de fato quanto para outras pessoas envolvidas nesse processo, como videomakers e produtores — estamos novamente sendo engolidos por um sistema que nos oprime e nos impede de ascender.

Curta a nóticia:
Curta o CEERT: