Biometria

Cufa fez cadastramento facial de pessoas em favelas; tecnologia pode promover racismo

“A utilização dessa tecnologia fere de maneira mais intensa as populações mais pobres e negra”, explica especialista

Brasil de Fato | São Paulo (SP) |
Trabalhadores da Cufa em Campinas, fazendo o cadastramento facial de pessoas que são atendidas pela ONG - Foto: Reprodução / Instagram

Pelo Twitter, a Central Única das Favelas (Cufa) anunciou, na manhã desta segunda-feira (26), que está usando o reconhecimento facial para cadastrar pessoas nas periferias onde a ONG atua. O uso da tecnologia é considerado temerário e pode ter desdobramentos em práticas racistas pelo Estado, como o incremento no encarceramento de negros.

“No caso da Cufa, não faz sentido, porque a utilização dessas tecnologias fere de maneira mais intensa as populações mais pobres e geralmente negras, são os que mais sofrem com esse tipo de discriminação tecnológica e algorítmica. Não me parece uma boa ideia a formação dessa base de dados baseada em reconhecimento facial”, explica Paulo José Lara, doutor em política pela Universidade de Londres e coordenador do programa de direitos digitais da ONG Artigo19 Brasil.

Em dezembro de 2019, a Rede de Observatórios da Segurança divulgou um estudo sobre pessoas presas no Brasil com uso do reconhecimento facial, feito entre junho e outubro daquele ano, em cinco estados: Bahia, Rio de Janeiro, Santa Catarina e Paraíba. De acordo com o levantamento, 90% dos detidos eram negros.

Veja, abaixo, a identificação biométrica em execução pela Cufa.



Lara explica que “é justamente mais pobre, mulheres, negros e população LGBTQI+ que são mais vulneráveis às violações cometidas pela exploração de dados biométricos. Há uma série de exemplos que mostram a capacidade que a tecnologia tem de operar preconceitos e discriminações”. Para o especialista, esse recurso deve ser extinto.

“A recomendação que se faz é que os processos de reconhecimento facial para fins de vigilância e controle sejam banidos, que não se utilizem esse método. De muitas formas, essa tecnologia acarreta riscos à liberdade de expressão e direitos humanos, principalmente por não passar no teste tripartite, de legalidade, necessidade e proporcionalidade. Ou seja, é uma tecnologia que não temos segurança jurídica e tecnológica ao risco que ela representa.”

Outro lado

Diante da repercussão ruim e dos questionamentos de seus seguidores, a ONG se manifestou em uma série de publicações, também no Twitter, chamando o reconhecimento facial de “tecnologia de ponta”, mas anunciando que deixará de usar a ferramenta.

“A Cufa atua há mais um ano no combate aos impactos da pandemia em mais de cinco mil favelas em todo Brasil, sempre com controle e prestação de contas feitos no papel e caneta. A escolha do uso de tecnologia de ponta, que está em teste, é justamente para agilizar os nossos processos e reforçar a transparência que é uma exigência dos doadores para absolutamente todas as organizações". A ONG anunciou que só fará "parceria com os doadores que aceitarem as prestações de conta em forma de fotos e vídeos. Nenhum dado será solicitado a nenhum beneficiado e a transparência será garantida pela nossa palavra”, encerrou a ONG.

A Cufa informou ao Brasil de Fato que todos os dados coletados foram excluídos. Lara explica que “do ponto de vista legal da LGPD (Lei Geral de Proteção de Dados), o fundamental é que os dados biométricos sejam tratados como sensíveis e que sejam feitos mediante consentimento do titular e garantir a anonimização desses dados, ou seja, não ligar os dados pessoais a outras dados que identifiquem a pessoa. Nesse caso, não é possível fazer, porque aparentemente é um cadastramento para saber pessoas que estão recebendo benefícios.”

A unico, empresa que desenvolveu o sistema para Cufa, informou que não cede e nem comercializa com outras empresas ou governos os dados adquiridos com seu programa. 

Edição: Vinícius Segalla