Ela está presente no corretor automático do celular e nos mecanismos de pesquisa de buscadores como o Google; nas recomendações de conteúdo do Spotify e da Netflix. Em assistentes de voz como Siri e Alexa, além do Chat GPT. Também é ela que ordena as publicações no feed de acordo com o que define como relevante. Esses são apenas alguns exemplos corriqueiros de como a inteligência artificial foi se instalando nos mínimos detalhes nas vidas das pessoas que têm acesso[1] a bens de consumo tecnológicos relativamente acessíveis como um smartphone.

Mas mesmo quem não tem acesso a internet (o que é o caso de 15,3% da população brasileira) já pode ter sido impactado pelo uso de um sistema dessa natureza. Uma pessoa que foi beneficiária do Auxílio Emergencial talvez não saiba, mas a decisão sobre o acesso ao recurso foi mediada por um algoritmo – e é importante que seja dito: sem possibilidade de revisão humana[2]. Uma pessoa que esteve à procura de emprego de 2020 para cá e se inscreveu no portal de vagas do Sistema Nacional do Emprego (SINE) também dependeu da ferramenta: o cruzamento de vagas cadastradas com os trabalhadores considerados mais adequados para preencher tais vagas se deu por meio de inteligência artificial[3]

Se a pessoa mora em Recife, muito em breve, bastará caminhar pelas ruas: em 2022, a prefeitura licitou a tecnologia de reconhecimento facial para fins de segurança pública, que será implantada em 108 relógios digitais espalhados pela cidade. A despeito dos protestos da sociedade civil por se tratar de uma tecnologia que vários estudos atestam ter vieses racistas e transfóbicos, a proposta seguiu adiante. Os três últimos exemplos escapam à dimensão da escolha individual: são usos em áreas sensíveis de políticas públicas e que podem impactar seriamente o exercício dos direitos humanos.

Respondendo à demanda dessa conjuntura, o Brasil se prepara para regular a Inteligência Artificial, através do Projeto de Lei 21-A/2020 que segue em tramitação no Senado. A comissão de juristas responsável por elaborar o documento recebeu mais de cem contribuições dos diversos setores da sociedade, que sugeriram princípios, regras, diretrizes e fundamentos para regular a Inteligência Artificial no Brasil. A contribuição do IP.rec você encontra aqui

A comissão produziu um relatório reunindo os principais posicionamentos recebidos, de acordo com vários temas: definição de inteligência artificial, modelo regulatório a ser adotado, regime de responsabilização, dimensões éticas, entre outros. Explorar e analisar a imensa diversidade de posicionamentos sobre o PL foi um exercício de muitas camadas: conhecer e entender melhor como pensa cada parte interessada sobre os temas, assim como cada setor; aprender com diversos deles; e divergir de tantos outros. É desse conjunto de reflexões que saiu este texto, assim como os próximos que serão sobre o tema.

Este texto pretende iniciar a discussão a partir de uma das questões mais elementares que envolvem o debate sobre inteligência artificial: seriam as máquinas neutras? Ainda que pareça abstrata, essa é uma questão essencial para compreender a base ontológica a partir da qual os diferentes tipos de políticas e modelos regulatórios serão construídos.

Dentro do campo das humanidades, em especial na comunicação e nas ciências sociais, a ideia de que sistemas que pertencem ao domínio da técnica não seriam neutros nem objetivos já é bem estabelecida. Um dos clássicos a esse respeito é o texto “Artefatos têm política?”, de Langdon Winner[4], escrito em 1986. Por outro lado, nas discussões técnicas sobre IA em campos como ciência da computação, engenharia da computação e áreas afins, assim como no senso comum mais amplo, a ideia de neutralidade das máquinas ainda é dominante[5]. Transpor essas fronteiras disciplinares é um dos nossos objetivos aqui.

 

Explorando o mito da neutralidade das máquinas

Seguem então algumas ideias típicas costumam fazer parte da argumentação de neutralidade das máquinas:

“O que importa não é a tecnologia em si, mas o sistema econômico ou social no qual ela está inserida”. Ou: “Tecnologias são ferramentas neutras que podem ser usadas para o bem ou para o mal”. Ou ainda: “se os preconceitos são fruto da sociedade, não se pode falar num preconceito intrínseco da máquina”.

Segundo a lógica dessas afirmações, uma vez que são neutras e objetivas, as máquinas poderiam até ser consideradas mais confiáveis do que os seres humanos para a realização de determinadas tarefas. Seria mais fácil “corrigir” um preconceito emitido pela máquina[6] – por exemplo, excluindo os dados contaminados ou realizando algumas alterações no desenho de um modelo – do que “corrigir” uma sociedade inteira. Encontrar soluções tecnológicas para problemas sociais parece mais rápido, mais barato e mais simples de implementar do que realizando mudanças sociais mais profundas[7]. Faz sentido para você? Então vamos conversar mais um pouco.

A ânsia de interpretar artefatos técnicos nos termos da linguagem política não é exclusividade de quem é crítico a essas tecnologias e sua suposta neutralidade. Em toda a história, entusiastas das tecnologias aparecem afirmando que alguma nova invenção traria para a sociedade  mais democracia, modernidade, liberdade, ou resolveria algum problema social. Desde aparatos como o sistema fabril, automóveis, telefone, rádio, televisão, foram todos em algum momento descritos como forças democratizantes e libertadoras.

Se tomamos de modo literal a ideia de que o que importa não é a tecnologia em si, mas o contexto no qual está inserida, temos a seguinte sequência lógica: uma vez realizado o trabalho investigativo necessário para revelar as origens sociais, já se teria explicado tudo o que importa; a dimensão técnica não teria qualquer importância. Em vez disso, o que Langdon Winner sugere é que prestemos atenção especial às características dos objetos técnicos e ao significado dessas características. Isto é, quando uma invenção, design ou arranjo de um dispositivo são projetados e construídos de tal modo que extrapolam seus usos imediatos e produzem um conjunto de consequências em uma comunidade particular. Muitas vezes, inclusive, isso se dá de forma não intencional.

Winner conta uma história que aconteceu um pouco longe da nossa realidade brasileira, mas que pode te ajudar a vislumbrar melhor como isso ocorre o tempo todo na prática. Talvez até te faça lembrar de algum exemplo mais próximo. De acordo com ele, para quem está familiarizado com as rodovias estadunidenses, há algo peculiar em Long Island, no entorno do Parque Jones Beach – viadutos espantosamente baixos para o padrão, cerca de 2,5 metros do meio fio. Ele explica que essa característica não se deu por acaso e foi projetada para atingir um efeito social em particular: manter pessoas pobres e negras afastadas das avenidas dos parques do entorno. Isso porque essas pessoas normalmente usavam transportes públicos e estes, com mais de 3 metros de altura, não conseguiam passar pelos viadutos. Robert Moses, o empreiteiro responsável por essa obra, construiu várias obras de engenharia em sua vida, que continuam a moldar as cidades até hoje, muitas delas centradas em favorecer o uso de automóveis em detrimento do transporte público. A história da arquitetura, do planejamento urbano e das obras públicas contêm muitos exemplos dessa natureza, seja explícita ou implicitamente. Artefatos cujo arranjo se dá de tal forma que produz um conjunto de consequências, muito antes das pessoas escolherem usá-los para uma finalidade x ou y. Em outras palavras, intrinsecamente políticos. 

Além de intrinsecamente políticas, as tecnologias podem ser profundamente discriminatórias. Em Race After Technology, Ruha Benjamin[8] argumenta que a automação, enquanto aparenta ser neutra, tem o potencial de esconder, acelerar e aprofundar a discriminação. Um exemplo disso seriam os sistemas de reconhecimento facial, que têm uma taxa de falsos positivos que é 10 a 100 vezes maior entre pessoas de cor do que entre pessoas brancas[9]. Assim, mais do que meramente refletindo o contexto externo, as tecnologias digitais estariam enredadas em processos de vigilância, exploração e controle, produzindo novas formas de opressão.

 

Se as máquinas não são neutras, que tipos de soluções seriam cabíveis?

E aí seguimos para o próximo mito: a ideia de que isolar e remover “dados ruins” ou “algoritmos ruins” seriam suficientes para dar conta de um problema. Esse tipo de proposição trata os vieses como um problema meramente estatístico: uma vez removida a distorção, o problema se encerra[10]. O ponto cego aí diz respeito ao enquadramento, uma vez que um sistema de IA não opera num vácuo em relação às dinâmicas sociais. 

Uma resolução apenas algorítmica dificilmente englobaria todas as camadas em um sistema em que há potenciais de enviesamento: além daqueles de natureza estatística e computacional, há vieses nos procedimentos e práticas institucionais; vieses históricos; vieses relativos ao pensamento humano. Na maior parte das vezes, são vieses implícitos, mas que permeiam os processos de tomadas de decisão individuais, grupais e institucionais. Assim, a ideia de que um problema pode ser “corrigido” e superado pode ser realista no campo da estatística, mas quando estamos lidando com aspectos da sociedade, trata-se de um processo contínuo[11].

São diversas as contribuições que reforçam a necessidade de abordar a inteligência artificial sob uma perspectiva holística. Ruha Benjamin[12] fala na necessidade de não somente focar a atenção numa tecnologia melhor e menos tendenciosa, mas de considerar todo o ecossistema. Unoble e Le Bui[13] reforçam a importância de construir um quadro moral para a garantia de justiça em IA que considere as formas pelas quais as tecnologias estão inevitavelmente conectadas e imersas ao poder. Kate Crawford[14] fala que existe uma espécie de fantasia de que sistemas de IA seriam cérebros descorporificados que absorvem e produzem conhecimento independente de seus criadores, infraestruturas e do mundo mais amplo. O que fica de fora dessa ideia abstrata é todo o aparato que torna essa tecnologia possível: máquinas, trabalhadores humanos, capital investido, pegadas de carbono.

As contribuições das ciências humanas têm se revelado cada vez mais importantes para que a inteligência artificial seja compreendida em toda a sua complexidade. Além disso, problematizar os aspectos de uma tecnologia é mais do que ser a favor ou contra a sua adoção: é dar condições para uma discussão pública informada e de qualidade.

 

——————————————

[1]No Brasil, o smartphone é o dispositivo mais usado para acessar a internet. Em 2022, 88% da população tem acesso ao dispositivo. Mas esse acesso não se distribui de forma homogênea: nas classes D/E apenas 76% tem acesso; já se observamos por faixa etária, os idosos reúnem o menor percentual, 72%. Fonte: https://www1.folha.uol.com.br/tec/2022/07/smartphone-e-cada-vez-mais-dominante-no-acesso-a-internet.shtml

[2]TAVARES, Clarice; FONTELES, Juliana; SIMÃO, Barbara; VALENTE, Mariana. El Auxilio de Emergencia en Brasil: Desafíos en la Implementación de una política de protección social datificada. Derechos Digitales. Fevereiro de 2022. Disponível em:  https://www.derechosdigitales.org/wp-content/uploads/01_Informe-Brasil_Inteligencia-Artificial-e-Inclusao_PT_22042022.pdf

[3]BRUNO, Fernanda; CARDOSO, Paula; FALTAY, Paulo. Sistema Nacional de Emprego e a gestão automatizada do desemprego. Derechos Digitales [online]. Março de 2021. Disponível em: https://ia.derechosdigitales.org/wp-content/uploads/2021/04/CPC_informe_BRASIL.pdf

[4]WINNER, Langdon. Os artefatos têm política? ANALYTICA, Rio de Janeiro, vol 21 nº 2, 2017, p. 195-218.

[5]NOBLE, Safiya Umoja; LE BUI, Matthew. We’re Missing a Moral Framework of Justice in Artificial Intelligence. in The Oxford Handbook of Ethics of AI. Oxford University Press, 2020. 

 [6]COGLIANESE, Cary. Administrative Law in The Automated State. Daedalus, Vol. 150, no. 3, p. 104, 2021, U of Penn Law School, Public Law Research Paper No. 21-15, Available at SSRN: https://ssrn.com/abstract=3825123.

[7]LENHARDT, Amanda; OWENS, Kellie. Good intentions bad inventions: The four myths of healthy tech. Data & Society. October 2020.

[8]BENJAMIN, Ruha. Race After Technology: Abolitionist Tools for The New Jim Code. Polity Press, 2019.

 [9]HINER, Jason. Ruha Benjamin: Why tech made racial injustice worse, and how to fix it. CNET [online]. Publicado em 25 de junho de 2020. Visitado em 02 de março de 2023. Disponível em: https://www.cnet.com/culture/why-tech-made-racial-injustice-worse-and-how-to-fix-it/ 

[10]SCHWARTZ, Reva; VASSILEV, Apostol; GREENE, Kristen; PERINE, Lori; BURT, Andrew; HALL, Patrick. Towards a standard for identifying and managing bias in Artificial Intelligence. National Institute of Standards and Technology: U.S. Department of Commerce. Março de 2022. Disponível em: https://doi.org/10.6028/NIST.SP.1270

[11]HAO, Karen. This is How AI Bias Really Happen – And Why it’s so hard to fix. MIT Technology Review. Publicado em 4 de fevereiro de 2019. Disponível em: https://www.technologyreview.com/2019/02/04/137602/this-is-how-ai-bias-really-happensand-why-its-so-hard-to-fix/

 [12]Ver (HINER, 2020).

 [13]NOBLE, Safiya Umoja; LE BUI, Matthew. We’re Missing a Moral Framework of Justice in Artificial Intelligence. in The Oxford Handbook of Ethics of AI. Oxford University Press, 2020. 

 [14]CRAWFORD, Kate. Atlas of AI. Yale University Press, 2021.

Clarissa Mendes

Graduada em Relações Internacionais (FIR) e Ciências Sociais (UFPE), com intercâmbio na Facultad de Filosofia y Letras na Universidad de Valladolid (Espanha). Na UFPE, é mestra e doutoranda em Sociologia, além de integrante do Núcleo de Estudos e Pesquisas em Políticas de Segurança (NEPS). Atualmente, é pesquisadora nas áreas de Inteligência Artificial e Tecnologias de Realidade Virtual e Realidade Aumentada no IP.rec.

Compartilhe

Posts relacionados