Globalmente, a tecnologia de reconhecimento facial pode e está sendo usada intencionalmente por governos para focar em certas pessoas ou grupos com base em características protegidas, incluindo etnia, raça e gênero. Mesmo que esse não seja o objetivo declarado da tecnologia, ela é, por design, incompatível com princípios fundamentais do direito internacional dos direitos humanos. A falta de regulamentação e de responsabilização permite que os impactos discriminatórios da tecnologia se agravem, frequentemente por modos que podem intensificar e consolidar desvantagens sociais existentes e desproteger ainda mais grupos já marginalizados.
A Incompatibilidade com os Direitos Humanos
O reconhecimento facial é, por natureza, incompatível com o direito internacional dos direitos humanos. Por isso, a Anistia Internacional, junto com mais de 250 outras organizações da sociedade civil e mais de 100.000 signatários de 116 países e territórios, pediu a proibição total de tecnologias de reconhecimento facial que possibilitem vigilância em massa e discriminatória, assim como sistemas que categorizam pessoas com base em características protegidas, como raça ou gênero.
Mesmo com todos os alertas sobre a incompatibilidade de tais tecnologias com o direito internacional dos direitos humanos, incluindo de ex-Relatores Especiais, continuamos a observar seu uso e desenvolvimento, com consequências devastadoras. De Nova York a Hyderabad e Hebron, as tecnologias de reconhecimento facial estão exacerbando o policiamento racialmente discriminatório, impedindo protestos e violando os direitos à privacidade, igualdade, não discriminação, liberdade de expressão e de reunião pacífica.
Direito à Privacidade
A tecnologia de reconhecimento facial (TRF) para identificação (também conhecida como 1:n reconhecimento facial) constitui uma forma de vigilância em massa e, portanto, viola o direito à privacidade. A TRF para identificação envolve monitoramento em larga escala, coleta, armazenamento, análise ou outro uso de material e coleta de dados sensíveis e biométricos sem uma suspeita razoável e individualizada de delito, o que se assemelha a uma vigilância em massa indiscriminada. Em particular, empresas de tecnologia frequentemente desenvolvem reconhecimento facial a partir de milhões de imagens de perfis em redes sociais e de outros bancos de dados, como registros de carteiras de motorista, sem o nosso conhecimento ou autorização, tornando essa tecnologia uma ferramenta de vigilância em massa por design, e, portanto, incompatível com o direito à privacidade.
Direito à Igualdade e Não Discriminação
A combinação de software de reconhecimento facial com circuito fechado de televisão é utilizada para identificar possíveis correspondências. Comunidades negras e marginalizadas correm maior perigo de serem erroneamente identificadas e presas injustamente – em alguns casos, o reconhecimento facial falhou em 95% das ocasiões. Em um estudo de Timnit Gebru e Joy Boulamwini revelou que algoritmos de TRF geraram uma taxa de erro maior para pessoas – especialmente mulheres – de cor. Em parte devido ao uso no treinamento de dados tendenciosos nas fases iniciais do sistema, a tecnologia tem estado envolvida em prisões injustas e assédio de pessoas negras.
Contudo, mesmo que a tecnologia “trabalhe” e faça previsões acuradas, os agentes de segurança podem agir rapidamente para direcionar e intimidar manifestantes. Por exemplo, estudos da Anistia Internacional evidenciaram como os sistemas de reconhecimento facial reproduzem formas perigosas de discriminação no policiamento de minorias raciais e étnicas, tornando-os suspeitos automaticamente – independentemente de possíveis vieses técnicos na própria tecnologia. Vários desses indivíduos e coletivos já sentem os impactos da discriminação estrutural e vulnerabilidade.
Em Nova York, as pesquisas da Anistia Internacional mostraram que a polícia (NYPD) usa um sistema de vigilância desenvolvido pela Microsoft, conhecido como Sistema de Consciência de Domínio, que dá aos policiais acesso a aproximadamente 20.000 câmeras públicas. A pesquisa da Anistia mostrou que esses feeds de vigilância em massa, quando combinados com outras câmeras e software de reconhecimento facial, formam um sistema de vigilância abrangente que pode ser usado para rastrear o rosto de qualquer pessoa na cidade de Nova York. A Anistia também conseguiu estabelecer uma forte correlação entre determinadas áreas censitárias com maior número de membros pertencentes às comunidades negras e latinas, sobre as quais recaem de modo mais reiterado práticas de revista pessoal e cuja densidade de câmeras é maior. No Bronx, Brooklyn e Queens, a pesquisa mostrou que, quanto maior a proporção de residentes não-brancos, maior a concentração de câmeras de circuito de televisão fechados compatíveis com reconhecimento facial.
Em Hebron, o uso de tecnologia de reconhecimento facial reforça restrições arbitrárias ao direito à liberdade de locomoção, impedindo palestinos de acessar seus direitos básicos, como trabalho, educação, atendimento médico e vida familiar. A cidade foi descrita como uma “cidade inteligente”, mas está cheia de câmeras de vigilância instaladas em edifícios, postes de luz, torres e telhados. Essa vigilância intensifica a segregação existente em Hebron, tornando certas áreas inacessíveis para palestinos, mesmo aquelas a poucos metros de suas casas.
A vigilância onipresente em Hebron matou a vida social e criou um efeito de inibição que desencoraja palestinos a protestar. Manifestantes sabem que, mesmo que não sejam imediatamente detidos, seus rostos serão capturados por câmeras, possivelmente levando a prisões posteriores. No contexto do crime internacional de apartheid, essas ferramentas automatizam aspectos de um sistema opressor, agravando ainda mais as condições cruéis sob as quais palestinos vivem nos territórios ocupados.
Dado os impactos cumulativos das tecnologias de reconhecimento facial sobre as formas existentes de discriminação racial no policiamento, a Anistia Internacional concluiu que não há medidas técnicas de mitigação suficientes para satisfazer uma aplicação não discriminatória das tecnologias de reconhecimento facial na prática.
Direito à Liberdade de Expressão e Reunião Pacífica
Um “efeito de inibição” acontece quando as ações de um Estado levam as pessoas a evitar o exercício de seus direitos humanos, devido ao receio das repercussões. Isso é particularmente válido em situações em que os Estados falham em implementar salvaguardas apropriadas, incluindo a transparência, sobre a utilização de instrumentos de vigilância, fazendo com que as pessoas não consigam identificar se estão sendo monitoradas ou como isso pode afetar seus direitos.
O uso de TRF para analisar fotos e vídeos de protestos e manifestações pacíficas, com o objetivo de identificar e/ou punir manifestantes, pode dissuadir indivíduos de participar em protestos, limitando assim o direito à liberdade de reunião pacífica e minando sua capacidade de organização. Crucialmente, a opacidade sobre o uso ou compartilhamento futuro de dados biométricos coletados em protestos e a falta de salvaguardas contra isso, também podem complicar ainda mais qualquer decisão que uma pessoa faça para se reunir.
Conclusão
O crescente uso de vigilância biométrica em massa, vigilância discriminatória direcionada e os riscos de direitos humanos mencionados tornam a tecnologia de reconhecimento facial para fins de identificação irreconciliável com os direitos humanos. O uso de TRF pode previsivelmente dissuadir as pessoas de expressar preocupações e queixas legítimas, por medo de serem identificadas (automaticamente e à distância) e sujeitas a prisão, detenção ou represálias.
Crédito fotografia: Rawpick/Freepick