Reconhecimento facial: como funciona e os dilemas por trás da tecnologia

O reconhecimento facial está presente em diversos aspectos do cotidiano, de condomínios a aplicativos bancários. Entender a mecânica e os problemas inerentes a essa tecnologia é crucial em um cenário de crescente vigilância.
Em 2010, o Facebook lançou a ferramenta Tag Suggestions, que parecia mágica ao sugerir marcações de rostos em fotos. Contudo, em 2021, após discussões sobre privacidade e uso indevido de dados pessoais, a Meta (dona do Facebook) descontinuou a ferramenta e anunciou a exclusão do maior banco de biometria facial do mundo, com mais de 1 bilhão de usuários. No entanto, antes disso, a Meta já havia utilizado esses dados para desenvolver o DeepFace, o primeiro sistema de reconhecimento facial a se aproximar da precisão humana na identificação de rostos.
Hoje, a tecnologia de reconhecimento facial é onipresente. É utilizada para organizar fotos, desbloquear telas de smartphones, acessar serviços públicos, autorizar pagamentos e controlar o acesso a condomínios e escritórios em todo o País. Mesmo que alguém nunca tenha postado uma selfie, é quase inevitável que uma imagem do seu rosto esteja armazenada em algum lugar, seja em filmagens de segurança de supermercados ou em cópias de documentos compartilhados.
A Lei Geral de Proteção de Dados (LGPD) classifica dados biométricos — como rosto, impressões digitais, DNA e tom de voz — como dados pessoais sensíveis, exigindo requisitos adicionais de segurança para sua coleta e armazenamento. A facilidade com que a biometria facial pode ser coletada sem autorização explícita, e a falta de clareza sobre o armazenamento e uso desses dados, representam um dilema significativo para a privacidade.
Cara a cara
Um sistema de reconhecimento facial funciona medindo as distâncias e proporções matemáticas entre pontos faciais para gerar um código único que representa o rosto. Esse cálculo inicial é comum a todos os sistemas, desde celulares até câmeras de rua.
Para desbloquear um aplicativo, o smartphone realiza uma verificação 1:1, comparando a imagem atual com uma pré-cadastrada. Em aplicações mais críticas, como bancos, são aplicados fatores de vivacidade para garantir que a imagem seja de uma pessoa real e não uma fraude. A verificação 1:1 confirma a identidade do usuário para aquela conta, mas não realiza uma identificação ampla.
A função mais complexa é a identificação (ou reconhecimento 1:N), onde o padrão de um rosto é comparado com múltiplos outros em um banco de dados massivo. O algoritmo fornece uma probabilidade de correspondência entre os rostos. Por fim, a análise (ou classificação) interpreta expressões faciais, indicando, por exemplo, se um rosto pertence a um homem ou expressa raiva.
Contudo, o sistema não é perfeito e apresenta falhas e vieses. Em jovens e idosos, as mudanças faciais mais acentuadas resultam em menor precisão. Além disso, a maioria dos modelos foi treinada predominantemente com bases de dados de homens brancos, o que limita a interpretação de traços e tons de pele. Mulheres negras, especialmente idosas, enfrentam as maiores taxas de erro devido à sub-representação nos dados de treinamento. Peles mais escuras, por refletirem menos luz, também confundem os algoritmos devido às implicações no contraste e na produção da imagem.
Sorria, você está sendo filmado
Apesar da LGPD exigir consentimento para o tratamento de dados biométricos, há uma grande exceção para a segurança pública. Câmeras de reconhecimento facial se proliferaram pelo País sem regulamentação específica. Em 2019, cinco estados brasileiros adotaram a tecnologia para encontrar foragidos e desaparecidos em espaços públicos.
A Bahia foi pioneira nos testes em multidões, como no Carnaval. O sistema emitia alertas com alta probabilidade de correspondência com foragidos, levando a abordagens policiais. A taxa de prisões bem-sucedidas no primeiro ano variou entre 0,27% e 3,6%, dependendo do município e evento.
No entanto, seis anos após a expansão da tecnologia, há inúmeros relatos de abordagens policiais equivocadas, que vão desde constrangimento até violações graves de direitos humanos. Um exemplo é o caso de uma jovem negra abordada por engano em Aracaju, que resultou em violência e detenção indevida. Outro incidente notório foi a divulgação do rosto do ator Michael B. Jordan como suspeito em uma chacina no Ceará.
Desde 2023, a Lei Geral do Esporte tornou o reconhecimento facial obrigatório em estádios e ginásios com capacidade superior a 20 mil pessoas, visando combater fraudes, cambistas, violência e discriminação. Em estádios de futebol, os dados da compra de ingressos são cruzados com bases de foragidos e pessoas envolvidas em violências anteriores. No Allianz Parque, em São Paulo, foram detidas 204 pessoas com mandados de prisão abertos e identificados 253 desaparecidos em dois anos de operação.
Esses resultados representam uma fração dos 471 projetos de monitoramento ativos no país, potencialmente vigiando 87,2 milhões de pessoas (41% da população brasileira). Governos municipais, estaduais, ministérios federais, polícias e clubes de futebol contratam empresas para fornecer a logística e os softwares. Empresas como a Clearview, que construiu seu banco de dados com 3 bilhões de fotos de redes sociais (incluindo crianças), são contratadas no Brasil, apesar de banidas e multadas em vários países europeus.
Gabriel Saad Travassos, defensor público federal, critica a falta de transparência: “Nossas imagens muito provavelmente estão nesse banco de dados, sendo utilizadas por uma empresa privada para obter recursos públicos, que nós pagamos com nossos impostos, para operar uma tecnologia que tem todos esses problemas de ordem ética e legal.”
O Centro de Estudos de Segurança e Cidadania (CESeC) monitora as iniciativas de reconhecimento facial no país através do projeto O Panóptico. Pablo Nunes, diretor do projeto, aponta a crônica falta de transparência da segurança pública brasileira, dificultando o acesso a informações básicas sobre empresas contratadas, softwares, armazenamento de dados e taxas de acerto. Em muitos casos, os “falsos-positivos” não são registrados oficialmente.
O Panóptico mapeou o custo de apenas 33% das iniciativas de reconhecimento facial no País, totalizando R$ 2,3 bilhões, com mais da metade dos investimentos na Bahia e no Rio de Janeiro. Nunes observa que “em todos os casos estudados, nenhum dos estados tem provas de que o reconhecimento facial significou redução de indicadores de criminalidade.” No Rio de Janeiro, R$ 671 milhões investidos resultaram em 500 prisões, um custo de R$ 1,3 milhão por prisão, em contraste com a média de 719 prisões por semana no estado.
O Grande Irmão
O nome do projeto do CESeC remete ao conceito de “Panóptico” de Jeremy Bentham (século 18), uma estrutura ideal para maximizar a vigilância em prisões, onde um guarda central poderia observar todos os detentos sem ser visto. O objetivo era condicionar o comportamento pela sensação de vigilância constante.
Michel Foucault, no século 20, transformou o “panóptico” em metáfora para o controle social exercido pela vigilância sutil, levando as pessoas a uma disciplina interna como se estivessem sempre sendo observadas. Essa teoria, formulada antes da internet, ganha nova relevância com a onipresença das ferramentas de vigilância atuais.
O ditado “quem não deve não teme” é frequentemente usado para justificar a hipervigilância, mas a verdade é que não é preciso ter culpa para estar na mira das câmeras. “Uma imagem pode ser utilizada a qualquer momento no futuro”, alerta Travassos. Ele questiona: “E se, daqui a pouco, as atuais manifestações culturais e políticas que exercemos sofrerem algum tipo de represália? Nós seremos identificados?”
Diante da profusão de smartphones e da vigilância, ativistas têm buscado formas de impedir a identificação em manifestações. Em 2010, Adam Harvey criou a camuflagem facial CV Dazzle, usando maquiagens e penteados para confundir máquinas. Hoje, com o avanço da tecnologia, surgem ataques adversariais, técnicas mais avançadas que modificam pequenas partes das imagens para enganar a IA, fazendo-a acreditar que você é outra pessoa, de forma imperceptível aos olhos humanos.
A ONU, em sua Resolução 48/4 sobre o direito à privacidade na era digital, ressalta a sensibilidade dos dados biométricos. Grupos da sociedade civil, como o movimento “Tire Meu Rosto da Sua Mira”, reivindicam o banimento completo do uso do reconhecimento facial na segurança pública no Brasil, argumentando que o próprio armazenamento dessas informações já representa um risco, especialmente nas mãos de governos autoritários ou pessoas mal-intencionadas.
O banimento poderia ser instituído por lei ou por decisão do STF. Na União Europeia, há uma regulamentação que proíbe o monitoramento biométrico remoto em tempo real, exceto em casos críticos. No Brasil, a tecnologia segue em expansão, mas a falta de transparência persiste, com o software usado em 95% dos projetos ativos de monitoramento ainda desconhecido.
A esperança é que, um dia, o reconhecimento facial possa aprimorar o trabalho policial e ajudar a encontrar desaparecidos sem vieses e com coleta ética de dados. Até lá, a cautela é fundamental para evitar uma realidade de vigilância constante, comparável ao Big Brother, mas sem um prêmio final.
Da redação do Movimento PB.
(GMI-17-05-2024-18:00:00-MVP-APWAI)
