Câmeras de vigilância, drones, biometrias, algoritmos ou identidades digitais. É difícil pensar o ecossistema dos serviços nas cidades sem pensar em uma variedade de novas tecnologias agregadas. Dentre outros fatores, isso ocorre diante da emergência de uma nova mentalidade na gestão das cidades, desta vez centrada na captura e no acúmulo de dados pessoais. É nesse contexto que as tecnologias de reconhecimento facial surgem, sob uma retórica modernizante, porém trazendo à tona novos níveis de vigilância e insegurança tecnológica sobre a coletividade. Resgatam históricos de pseudo-ciências impopulares somados a baixos graus de eficiência técnica e que vêm provocando reações políticas pouco pacíficas em diversas localidades do mundo.

Ganham força as “tecnologias de reconhecimento”, como muitas outras, após os atentados de 11 de setembro de 2001. Pretendiam uma nova forma de identificar objetos potencialmente perigosos, bem como comportamentos suspeitos observados em lugares públicos. Essa evolução algorítmica ganha novos rumos e camadas de sofisticação ao longo dos últimos quase vinte anos, passando pelo reconhecimento de objetos, placas de carro, faces, fala, marcha e, finalmente, de sentimentos. Novas dimensões de dados pessoais parecem sempre reaquecer os mercados, o ecossistema de inovação, e consequentemente, o potencial de vigilância dos governos. O corpo parece ser a nova fronteira nesse garimpo, em aberta exploração biopolítica. O reconhecimento facial, então, se mostra como fenômeno mais presente e traz à tona discussões necessárias sobre o desenvolvimento de inteligências artificiais e como estão sendo utilizadas para tomar decisões críticas e intermediar interações entre cidadãos e serviços públicos.

Não se resume apenas à prevenção de ações terroristas ou para fins de segurança pública o uso do reconhecimento facial. Aplica-se aos mais diversos círculos da vida em sociedade: da autenticação pessoal para uso do transporte público e nos controles de identificação nos aeroportos ao monitoramento da frequência escolar de crianças – ou até como termômetros de felicidade em colônias de férias. O mapeamento algorítmico dos traços e expressões faciais parece, de repente, ser parte importante das relações sociais.

Porém, se atentarmos para o uso do reconhecimento facial para além da narrativa da eficácia e da otimização dos serviços, é possível perceber dimensões claramente políticas, além de questões éticas relativas às empresas que desenvolvem as soluções, bem como as sistêmicas violações aos direitos humanos por parte dos agentes do Estado no uso da tecnologia.

Imagem: Google Maps

 

Perseguições público-privadas

É possível situar a IBM no atual centro dessas questões: foi documentado que o Departamento de Polícia de Nova York fornecia filmagens de câmeras de vigilância para que a empresa desenvolvesse sistema de reconhecimento facial baseado no tom de pele, o que poderia ser usado, consequentemente, para o monitoramento de minorias étnicas. Para além das sérias questões sobre o fornecimento de dados de toda uma coletividade para uma companhia privada, sem política de privacidade ou escrutínio público, estabelecer critérios raciais e étnicos para criar targets sobre suspeitos pode ser considerada uma política de perseguição mascarada por uma agenda de segurança pública. Outra investigação, liderada pela Human Rights Watch, aponta para o fornecimento de tecnologia de reconhecimento facial ao programa de segurança pública filipino, encabeçado por Rodrigo Duterte, chefe de Estado famoso pela perseguição e assassinato de dissidentes políticos através de seus “esquadrões da morte”. Aqui, a identificação facial possibilitada pela tecnologia é aplicada à supressão das liberdades políticas, uma crescente expressão da vigilância governamental.

Em outro lugar-comum quando falamos de monitoramento político e em larga escala da coletividade – a China – o reconhecimento facial já é massivamente utilizado em várias localidades. Especialmente na região de Xinjiang, fronteira chinesa com países como o Cazaquistão, Afeganistão e o Paquistão, a tecnologia assume contornos de segregação de minorias, monitorando e controlando fluxos migratórios de povos muçulmanos naquela região, em especial da comunidade Uigur. Como esse, alguns sistemas de vigilância são construídos com a finalidade específica de marginalizar minorias étnicas, mantendo-as sob observação por todos os lados: câmeras de vigilância, drones, biometrias, algoritmos ou identidades digitais.

 

Eugenismo, segregacionismo e algoritmos.

Curioso notar que quando observadas de perto as ciências que procuram analisar traços e expressões físicas – agora resgatadas por inteligências artificiais – não tardamos em nos deparar com correntes da medicina e da psicologia uma vez famosas nos círculos das ciências criminais. É o caso da fisiognomia, proposta de identificação de personalidade e do caráter de um indivíduo a partir da topologia facial, frequentemente associada a animais. Uma ciência popular nas políticas segregacionistas raciais do século XIX e durante o regime nazista. Ou da frenologia, pensamento que apontava aptidões mentais de um indivíduo a partir do formato do seu crânio. Outra expressão dessas correntes pode ser encontrada no criminalista Cesare Lombroso, famoso por associar traços faciais natos à propensão ao cometimento de delitos.

Benjamin Duchenne escreveu, em 1862, o Mecanismos da Fisionomia Humana. Ao aplicar eletrodos em pacientes voluntários, o neurologista ativava músculos em seus rostos e dizia ser possível enxergar seus mapas faciais. Assim, seria possível codificar as respostas nervosas como taxonomias de estados emocionais internos. Mais recentemente, as teorias do psicólogo Paul Ekman – para quem as emoções são fixas e se resumem a um pequeno grupo de categorias, independente de variantes culturais ou étnicas – vêm sendo associadas ao desenvolvimento de tecnologias que propõem o reconhecimento algorítmico de emoções a partir da leitura facial, uma atualização do “algoritmo” criado por Duchenne.

Traduzindo as teorias: a TSA – Transportation Security Agency, dos Estados Unidos, vem utilizando algoritmos em suas câmeras para identificar “linguagens faciais suspeitas”, carregando leituras subjetivas de estados emocionais que potencialmente poderiam trazer riscos de atentados. Não coincidentemente, os perfis procurados se confundem com estereótipos de muçulmanos.

Não bastasse um histórico – e um presente – que sugere um resgate a políticas racistas e eugenistas, pesquisas recentes apontam para inegáveis tendências discriminatórias em alguns dos algoritmos de reconhecimento facial mais modernos. Segundo o estudo Gender Shades, do MIT, tecnologias consideradas de ponta, como as da Microsoft e da Face++, mostram baixa eficácia no reconhecimento facial de pessoas negras e/ou na identificação do gênero feminino; outra pesquisa, conduzida pela União Americana pelas Liberdades Civis, aponta que o reconhecimento facial da Amazon, o Rekognition, identificou vinte e oito membros do Congresso norte-americano (a ampla maioria deles negros) com pessoas procuradas pela polícia. Mais uma vez, tecnologias de alto impacto que não passam por amplo debate público podem refletir, em sua arquitetura, desigualdades estruturais.

Frenologia: Vaught’s Practical Character Reader. Imagem: thepublicdomainreview.org

 

Regulações, jaulas e subjetividades

Tensões como essas, desencadeadas em grande parte por programas de vigilância policiais, geram inseguranças sociais, jurídicas e políticas, repercutindo, consequentemente, em um leque de regulações que procuram sanar demandas públicas. A cidade de São Francisco, por exemplo, optou por banir o uso de reconhecimento facial por agências governamentais em locais públicos. Além disso, a cidade vem discutindo a regulação do uso de tecnologias para fins de vigilância, as quais só poderão ser implementadas caso um relatório específico comprove que os benefícios à segurança pública superam os impactos aos direitos humanos. Resta saber se o Brasil vai seguir implementando a tecnologia de forma irrestrita, sem qualquer debate público prévio e com ampla participação da sociedade civil.

A Lei Geral de Proteção de Dados brasileira também não explicita regras prévias ao uso de tecnologias críticas baseadas no uso de dados biométricos por políticas públicas de vigilância. Ainda caem na brecha aberta pelas exceções do art. 4º, incisos I e II (tratamento de dados pessoais para fins de segurança pública e defesa nacional), o que poderá servir de coringa para amplos programas de reconhecimento facial. A sociedade civil deve ser manter atenta aos rumos que o monitoramento social pode tomar, sobretudo no que se refere às finalidades políticas e segregacionistas que essas tecnologias podem carregar.

Ao fim, além do impacto à privacidade, algoritmos de biometria impactam a formação de personalidades, limitando e aprisionando subjetividades e criando uma “jaula informativa”, como aponta Shoshana Magnet. Objetivar ou binarizar gêneros, por exemplo, em constante mutação e descoberta, influencia na própria construção pessoal e agride liberdades identitárias, recaindo em violências estruturais, afinal o reconhecimento facial frequentemente falha em reconhecer elementos não-normativos. É necessário, assim, reestruturar os paradigmas nos quais os tecnologias e biometrias são construídos de forma que não sejam acompanhados por um design repressivo.

André Ramiro

Diretor e Fundador do IP.rec, é mestre em Ciências da Computação no CIn/UFPE e graduado em direito pela UFPE. Foi Google Policy Fellow na ONG Derechos Digitales (Chile). É representante da comunidade científica e tecnológica da Câmara de Segurança e Direitos do Comitê Gestor da Internet (CGI.br) e membro da comissão de avaliação em projetos de pesquisa em direito e tecnologia da Fundação de Amparo à Ciência e Tecnologia do Estado de Pernambuco (FACEPE). No IP.rec, atua na área de Privacidade e Vigilância e lidera projetos relacionados a criptografia, hacking governamental, privacidade, segurança e proteção de dados. Tem atuação no advocacy para proteção de dados e para a garantia de direitos fundamentais, ações e pesquisas sobre programas de vigilância governamentais, modelos de negócio abusivos baseados em mercados de dados e políticas de criptografia e suas relações com os direitos humanos.

Compartilhe

Posts relacionados