22.8 C
São Paulo
segunda-feira, 22 de julho de 2024

Desafios para a implementação do reconhecimento facial no Brasil

O reconhecimento facial é um método de verificação da identidade de pessoas por meio da face. Com o uso de algoritmos, os sistemas de reconhecimento facial identificam detalhes relacionados à face dos indivíduos, como a distância entre os olhos e entre as maçãs do rosto, e convertem em uma representação matemática. Com base nisso, o sistema busca uma correspondência entre os dados obtidos e os armazenados em um banco de dados, referentes às faces de pessoas já conhecidas. Dessa maneira, o reconhecimento envolve, em sua essência, dados pessoais, o que implica vários aspectos jurídicos, especialmente tendo em vista a Lei Geral de Proteção de Dados (LGPD).

            Essa tecnologia pode ser utilizada tanto no âmbito público quanto no privado, e para propósitos diversos, gerando impactos distintos para cada tipo de uso. O uso do reconhecimento para desbloquear o celular, por exemplo, não parece envolver tanta complexidade. Por outro lado, o emprego dessa técnica no âmbito da segurança pública e da justiça criminal já vem trazendo uma série de problemas e riscos relacionados a direitos fundamentais e à proteção de dados pessoais, além de levantar discussões sobre discriminação, sobretudo racial.

Nesse contexto, no início de 2020, Sundar Pichai – CEO da Google e da Alphabet – defendeu que o uso de técnicas de reconhecimento facial fosse temporariamente suspenso para que os governos pudessem discutir a sua utilização e criar regulações adequadas. Outras empresas, como a Microsoft, já manifestaram discordância em relação à sugestão de Pichai, o que tem gerado muitos debates acerca do tema.

            Certamente, o ponto que merece maior preocupação nessa discussão é, como já mencionado, o uso do reconhecimento facial no âmbito da segurança pública e da justiça criminal, em especial para o cumprimento de mandados de prisão.

            Em evento organizado pelo CEPI-FGV, Luiza Brandão, Diretora do IRIS (Instituto de Referência em Internet e Sociedade), afirmou que as tecnologias de reconhecimento facial são “desenvolvidas por determinados grupos demográficos, para determinados grupos demográficos”. Isto significa que, em alguma medida, essas técnicas estão sujeitas a vieses, que podem causar riscos discriminatórios na sua aplicação. Por sinal, isso já foi comprovado: segundo pesquisa do MIT que analisou alguns desses sistemas, há uma taxa de erro bem maior para reconhecer a face pessoas negras. De acordo com o estudo, enquanto para homens brancos o erro foi de no máximo 0,8%, para mulheres negras esse número chegou a quase 35%.[1]

            Além disso, é importante ressaltar que grande parte das tecnologias de reconhecimento facial é desenvolvida nos Estados Unidos. Dessa forma, a simples importação desses sistemas para países com composições étnicas distintas, pode amplificar ainda mais o problema. O Brasil, por exemplo, tem diferenças demográficas consideráveis em relação aos Estados Unidos, como uma população de negros e pardos muito maior – por sinal, mais de 40% dos brasileiros se declaram pardos, que é uma classificação racial que sequer existe nos EUA.

A propósito, erros desse tipo já têm acontecido no Brasil. Em julho de 2019, uma mulher foi detida por engano no Rio de Janeiro após um erro no sistema de reconhecimento facial da Polícia Militar, que a identificou de maneira equivocada como uma foragida acusada por homicídio e ocultação de cadáver.[2]

Desse modo, fica claro que existem problemas consideráveis nessas tecnologias, especialmente envolvendo os diferentes graus de acurácia. No entanto, é fundamental ressaltar que o reconhecimento facial pode proporcionar grandes avanços em diversos setores, inclusive na segurança pública, de modo que uma proibição permanente jamais poderia ser a solução.

Logo, é inegável a necessidade de maiores discussões antes de uma implementação em larga escala. É fundamental tratar os aspectos técnicos e jurídicos do reconhecimento facial e envolver diferentes setores da sociedade. Por enquanto, o que parece ser mais razoável, principalmente se tratando de autoridades de segurança pública, é que essas tecnologias funcionem como mecanismos meramente auxiliares, não sendo as únicas legitimadoras das atividades policiais.


[1] HARDESTY, Larry. Study finds gender and skin-type bias in commercial artificial-intelligence systems. MIT News. Cambridge, fev. 2018. Disponível em: https://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212. Acesso em: 13 jan. 2022.

[2] G1 RIO. Sistema de reconhecimento facial da PM do RJ falha, e mulher é detida por engano. G1, Rio de Janeiro, 11 jul. 2019. Disponível em: https://g1.globo.com/rj/rio-de-janeiro/noticia/2019/07/11/sistema-de-reconhecimento-facial-da-pm-do-rj-falha-e-mulher-e-detida-por-engano.ghtml. Acesso em: 15 jan. 2022.

Autor:

Ivan Lago Mariotto, graduando pela FGV Direito SP. Atua em direito concorrencial/antitruste e proteção de dados.

1 COMENTÁRIO

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

Leia mais

Patrocínio