Uma expressiva parte (83%) dos casos de reconhecimento facial equivocado nas delegacias em todo o Brasil aconteceu com pessoas negras, revelando a pior face do racismo estrutural, a que priva do sagrado direito à liberdade pessoas inocentes, apenas pela cor da sua pele. Dentre os absolvidos após comprovação do erro, 80% ficaram um ano ou mais em prisão provisória, sendo 95,9% do gênero masculino.
Dos 113 casos considerados emblemáticos, ocorridos entre 2000 e 2021 em todo o Brasil, 76,1% aconteceram nos estados do Rio de Janeiro e de São Paulo. Os dados fazem parte de um relatório apresentado à Comissão Parlamentar de Inquérito (CPI) do Reconhecimento Fotográfico nas Delegacias, da Assembleia Legislativa do Estado do Rio de Janeiro (Alerj).
O documento foi elaborado pelo Grupo de Trabalho do Reconhecimento de Pessoas, instituído pelo Conselho Nacional de Justiça (CNJ). Uma reunião de trabalho realizada nesta quinta-feira (29/09) debateu propostas para reduzir a quantidade de prisões injustas.
“Esse reconhecimento gera um número muito alto de prisões provisórias, especialmente de pretos e pardos em nosso país. A vítima não pode se sentir obrigada a reconhecer. A foto do criminoso pode sequer estar no álbum”, disse a advogada Maíra Costa Fernandes, integrante do grupo, que apresentou o relatório apontando iniciativas de melhorias nessa identificação facial.
Reconhecimento facial equivocado, como combater?


De acordo com o documento, o Artigo 226 do Código de Processo Penal (CPP), que estabelece normas para o reconhecimento de suspeitos, precisa de melhorias para evitar prisões por conta de reconhecimento facial incorreto. Contudo, a advogada ressaltou que, caso o artigo fosse seguido integralmente, ocorrências do tipo teriam sensível redução, antes mesmo da aplicação das melhorias sugeridas.
As propostas fazem parte da Resolução 484/2022 do CNJ. “O relatório pode servir como ponto de partida para esta CPI. O Art. 226 não é o ideal, mas se pelo menos ele fosse cumprido, estaríamos em um cenário diferente”, explicou.
O relatório propõe a nulidade de processos em que tenha sido observado desrespeito ao Art. 226; cursos de capacitação em reconhecimento facial para agentes de segurança e magistrados; além de alterações legislativas sobre o artigo.
Entre essas alterações, estão a produção do material fotográfico para reconhecimento passaria a ser padronizada, tatuagens e cicatrizes de suspeitos seriam ocultas, o momento do reconhecimento passaria a ser gravado e a fotografia do suspeito seria excluída de álbuns imediatamente após este quitar suas pendências com a Justiça.
“O nosso judiciário vem reconhecendo, em uma série de decisões, a nulidade do reconhecimento falho. Já temos vários bons precedentes que mostram que o juiz não pode utilizar a prova se ela for feita em desrespeito ao Art. 226, ou seja, não basta apenas o reconhecimento em delegacia para condenar alguém. Também não devem ser feitas à vítima perguntas que possam induzir a resposta e contaminar sua memória”, acrescentou Maíra.
Vítimas de reconhecimento facial errado serão ouvidas


A CPI ainda aprovou o convite a Danillo Felix, jovem acusado erroneamente por um roubo na cidade de Niterói e preso injustamente após reconhecimento fotográfico, para ser ouvido como testemunha. Também foram convidados os diretores do Instituto de Defesa da População Negra (IDPN), Joel Luiz da Costa e Juliana Sanches. As oitivas foram solicitadas pela deputada Verônica Lima (PT).
“O IDPN reúne advogadas e advogados negros que trabalham em centenas de casos de violação de direitos de reconhecimento fotográfico. É importante a participação dessas pessoas para enriquecer os trabalhos desta CPI”, disse a parlamentar.
A Comissão também aprovou o convite, na condição de testemunha, ao soldado da Polícia Militar Douglas da Silva Moreira, vítima do mesmo tipo de reconhecimento equivocado. A proposta foi feita pela presidente do colegiado, deputada Renata Souza (PSol).
“Antes de começar a trabalhar na PM, o soldado foi vítima de um indiciamento em sede policial, com base em reconhecimento fotográfico. Ele é uma das figuras mais importantes para a gente debater sobre esse assunto”, acrescentou a parlamentar, explicando que as datas dos depoimentos ainda serão agendadas pela CPI.
Leia mais
Racismo atinge 2 entre 2 entre 10 pacientes de câncer de mama
Racismo torna doença falciforme invisível no país, denunciam pacientes
Jogo da Lei 10.639 quer combater o racismo nas escolas
Racismo algorítmico: especialistas apontam caminhos para um futuro inclusivo
Profissionais abordam a importância do combate ao viés racial e discriminação na Inteligência Artificial e sociedade; métricas mais confiáveis e considerar a diversidade em profissionais da tecnologia estão entre as soluções apontadas
Na mesma proporção que as pautas sobre racismo ganham destaque na sociedade, os problemas em relação a essa questão se expandem, sobretudo, na tecnologia. Outro levantamento da Rede de Observatório da Segurança revelou que 90,5% das prisões realizadas por meio de reconhecimento facial no Brasil envolvem pessoas negras, enquanto apenas 9,5% são de pessoas brancas.
No entanto, muitas dessas pessoas detidas sequer têm antecedentes criminais, levantando preocupações sobre como seus rostos acabaram no banco de dados de suspeitos. Esse fenômeno alarmante destaca a necessidade de abordar a discriminação e o viés racial nos sistemas de Inteligência Artificial (IA), conforme avaliaValdinei Freire, professor Doutor na EACH-USP.
“Assume-se que avanços tecnológicos caminham para melhorar a humanidade de alguma forma, mas isso nem sempre é verdade. O encarceramento em massa, por exemplo, é fruto de uma tecnologia humana – a prisão – para lidar com pessoas que não se conformam à sociedade e ameaçam algum status quo. O uso de novas tecnologias, como vigilância por câmera e reconhecimento facial, acabam por exacerbar o racismo que já temos no sistema prisional. Então, perceber que o uso de tecnologia não é uma justificativa em si é importante”.
Para ele, o viés algorítmico não é um conceito novo, e é reflexo dos dados obtidos em nossa sociedade. “Se a base de treinamento exibe padrões discriminatórios, os mesmos padrões serão replicados nas decisões dos sistemas inteligentes”, pontua Freire.
Em linha com Freire, o desenvolvedor de software da ZBRA e doutorando na Universidade Federal de Pernambuco, Dayvid Castro, acrescenta que “os dados são a primeira fonte de viés e, por isso, é essencial trabalhar com dados de qualidade, representativos e balanceados”, enfatiza.
Sistemas inclusivos e diversidade
Segundo Dayvid Castro, o conceito de Constitutional Inteligência Artificial é uma solução possível para controlar o conteúdo gerado por assistentes de linguagem e evitar material nocivo à sociedade, o que inclui conteúdo de cunho racial. “Para isso são necessárias métricas mais confiáveis para quantificar o quão justo é um sistema, sendo que as atuais podem não ser suficientes para identificar vieses”, argumenta.
Já Freire ressalta a importância de considerar a diversidade das pessoas para evitar exclusão ou discriminação. “Um programador ou pesquisador engajado racialmente pode identificar, criar e escolher técnicas que possam diminuir as diferenças de erros que observamos com relação a etnia e gênero nos sistemas atuais.”, aponta o especialista.
Uma área emergente e com potencial é a Data-Centric AI, segundo Castro. Isso porque ela foca na qualidade dos dados, portanto há uma oportunidade para alinhar objetivos de justiça e equidade no desenvolvimento de técnicas centradas em dados. “Um exemplo de iniciativa para construir sistemas de visão computacional mais inclusivos é a Monk Skin Tone (MST), desenvolvida pelo professor Ellis Monk de Harvard”, destaca.
Para ambos os especialistas, o compromisso com a redução do viés racista e outras formas de discriminação deve estar no mesmo patamar do nível de atenção dado à redução de erros gerados pelos sistemas de IA. A conscientização sobre essas questões é um passo importante para garantir que a tecnologia seja desenvolvida e implementada de maneira justa e inclusiva para todos.
Especialistas e sociedade unidos
Produzido pela Universidade de Stanford em conjunto com especialistas da indústria e da academia, o relatório AI Index de 2023 também é reconhecido como uma fonte importante de informações sobre os aspectos éticos das Inteligência Artificial. O documento destaca o aumento de incidentes e controvérsias envolvendo IAs, inclusive casos de discriminação racial e de gênero, e enfatiza a necessidade de aprimorar a responsabilidade e a transparência no campo da Inteligência Artificial.
Para enfrentar esses desafios, os especialistas destacam a importância do trabalho em conjunto, envolvendo desenvolvedores, pesquisadores, reguladores e a sociedade como um todo. “Não se trata de ignorar por completo os dados da base de treinamento ou as avaliações, mas, sim, de fazer o uso dessa informação até o limite de não produzir desigualdades pré-designadas”, analisa Freire.
Ambos enfatizam que é crucial que as empresas e as organizações que utilizam IA sejam transparentes quanto aos seus processos e algoritmos. Eles ainda incentivam a adoção de diretrizes éticas e o estabelecimento de comitês internos para garantir que os sistemas de Inteligência Artificial sejam desenvolvidos e implementados de maneira responsável.
Em última análise, o sucesso na construção de sistemas de IA mais justos e inclusivos deve iniciar desde a coleta de dados, e depende da cooperação e do compromisso contínuo de todos os envolvidos no campo. “Da mesma forma que acontece com o aprendizado de máquina, temos que garantir que as decisões tomadas pelas várias instituições de nossa sociedade não reproduzam os padrões discriminatórios do passado”, conclui Freire.
Com Assessorias
[…] Reconhecimento facial errado: a pior face do racismo no Brasil […]
[…] Reconhecimento facial errado: a pior face do racismo no Brasil […]
[…] Reconhecimento facial errado: a pior face do racismo no Brasil […]
[…] Reconhecimento facial errado: a pior face do racismo no Brasil […]