Fazer tecnologia (seja esse “fazer”, a criação de uma tecnologia, a atualização ou modificação dela, ou até a adoção)  é uma ação social[1]. Isso porque desenvolver um artefato tecnológico é um processo que se norteia por quem vai usar esse artefato (o usuário) e como ele deve funcionar para esse grupo de pessoas (suas funcionalidades), teoricamente melhorando sua qualidade de vida e resolvendo as “dores” desse grupo. Outro elemento que corrobora isso é o fato de que a tecnologia é feita por pessoas, técnicas ou não, auxiliadas por ferramentas também tecnológicas ou não.

Sendo feitas por e para pessoas, no contexto social, é muito evidente que, diferente de como alguns defendem, a tecnologia não é neutra e, portanto, impacta a sociedade sempre carregando vieses. Tais vieses possuem uma verdadeira miríade de fontes, mas quase sempre partem dos grupos que fazem tecnologia e quando olhamos para esses grupos vemos o quão homogêneos eles ainda são: geralmente formados por homens, brancos, cis heteronormativos, sem deficiência e do norte global (especificamente quando olhamos para as maiores plataformas tecnológicas do mercado) e que, normalmente, ao longo de sua formação, negligenciam os aspectos sociais e éticos de seu trabalho, focando apenas no tecnicismo.

Nesse cenário, não é difícil encontrar exemplos de aparatos e serviços tecnológicos que excluem grupos minoritários e/ou marginalizados e é objetivo deste texto apresentar alguns desses casos e mostrar como a tecnologia precisa de processos diversos e inclusivos e a importância desses processos serem feitos de forma séria de não somente pro forma (o chamado tokenismo). Para isso, é necessário apresentar o conceito de requisitos e como ele se relaciona com diversidade.

Requisitos e Diversidade

Falando especificamente de tecnologia da informação, quando se constrói um software é preciso mapear o seu funcionamento: qual a lógica por trás do processamento de dados; como a interface vai ser apresentada; se o sistema vai funcionar 24h por dia; etc. Essas funcionalidades e características do software são chamadas de requisitos e elas são coletadas do cliente ou usuário em uma etapa do processo de desenvolvimento chamada elicitação de requisitos.

A partir da análise da necessidade do usuário feita pela equipe de desenvolvimento, esses requisitos são criados e, não raramente, quando a equipe tem a configuração homogênea citada acima, eles desconsideram outras realidades. É fundamental entender que existe um viés trazido por quem faz tecnologia de como ela deve funcionar, pensado para pessoas do mesmo grupo social, e que esse viés às vezes é opressivo, como fala Amy J. Ko em seu trabalho “Requirements of Opression”[2]. Se a equipe não é socialmente diversa e não tem o hábito de pensar em realidades sociais além das suas, ela invariavelmente criará softwares opressivos a grupos minoritários, como por exemplo:

  • Pessoas negras;
  • Mulheres;
  • Pessoas trans ou de gênero não-conformista;
  • Pessoas com deficiência;
  • Pessoas neurodivergentes;
  • Pessoas idosas.

E essa lista não é exaustiva.

Não é muito difícil encontrar exemplos da tecnologia sendo racista, machista, transfóbica, etarista e/ou capacitista. Sistemas de reconhecimento facial, por exemplo, são amplamente conhecidos por apresentar baixa precisão e muitos problemas para a população negra e trans.

No Brasil, o uso de sistemas de reconhecimento facial na segurança pública tem causado um fortalecimento do racismo, gerando prisões indevidas, indiciamento recorrente de pessoas inocentes e o encarceramento em massa, onde mais de 90% dos casos de prisão eram de pessoas negras. Esse viés racista perpassa o desenvolvimento de outros tipos de sistema, como a decisão arbitrária de excluir adaptações a variações linguísticas da população negra em assistentes de voz, nos EUA[3].

Quando olhamos para a questão de gênero, é perceptível como existe uma prevalência de uma visão binária, imutável e fisiológica[4], ignorando completamente a construção social do que é gênero. Para além disso, até mesmos sistemas reconhecedores de gênero, que são criados para isso, desconsideram a existência de pessoas trans não-binárias[5].

Sem falar em como pessoas idosas[6] e neurodivergentes[7] são desconsideradas tanto como usuárias quanto como desenvolvedoras na construção e estudo de tecnologias. Isso ocorre sobretudo porque muitas organizações fazem verdadeiros juízos de valor[4] na forma de requisitos de sistemas e não estão comprometidas a possuírem times diversos que tenham voz nas tomadas de decisões ao longo do ciclo de vida do software.

Inclusão x Tokenismo

Existem algumas formas de mitigar esses problemas, uma delas é a regulação; outra, complementar, é o incentivo à inclusão por parte dos fazedores de tecnologia, mas uma inclusão séria, comprometida com a diversidade e não somente com as aparências, causando o chamado tokenismo, no qual uma pessoa de uma minoria ou grupo social menos favorecido faz parte de um grupo meramente pelo indicador de representatividade, sem que seja construído um espaço em torno dela que realmente escute as necessidades e argumentos dessa pessoa ou que a acolha verdadeiramente.

Não adianta uma empresa contratar pessoas trans se ela faz vista grossa a casos de transfobia entre seus funcionários e gestores, não adianta contratar pessoas com deficiência se o trabalho não possui acessibilidade para ela. É preciso entender que uma postura inclusiva e diversa na construção de ferramentas tecnológicas é importante e trará bons resultados não só a nível de qualidade, respeitando direitos, mas também a nível de retorno financeiro e público consumidor.

 

Referências

[1] WEBER, Max. (1991), Economia e sociedade. Brasília, Editora da UnB.

[2] KO, Amy J. Requirements of Oppression. In: IEEE International Requirements Engineering Confere, 2021. Disponível em: <https://www.youtube.com/watch?v=yf1wfyfgXvA&ab_channel=AmyKo>.

[3] RANKIN, Yolanda A.; HENDERSON, Kallayah K. Resisting Racism in Tech Design: Centering the Experiences of Black Youth. Proceedings of the ACM on Human-Computer Interaction, v. 5, n. CSCW1, p. 1–32, 2021. Disponível em: <https://dl.acm.org/doi/10.1145/3449291>.

[4] KEYES, Os. The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition. Proceedings of the ACM on Human-Computer Interaction, v. 2, n. CSCW, p. 88:1-88:22, 2018. Disponível em: <https://doi.org/10.1145/3274357>.

[5] SCHEUERMAN, Morgan Klaus; PAUL, Jacob M.; BRUBAKER, Jed R. How Computers See Gender: An Evaluation of Gender Classification in Commercial Facial Analysis Services. Proceedings of the ACM on Human-Computer Interaction, v. 3, n. CSCW, p. 1–33, 2019. Disponível em: <https://dl.acm.org/doi/10.1145/3359246>.

[6] CHU, Charlene H; NYRUP, Rune; LESLIE, Kathleen; et al. Digital Ageism: Challenges and Opportunities in Artificial Intelligence for Older Adults. The Gerontologist, v. 62, n. 7, p. 947–955, 2022. Disponível em: <https://academic.oup.com/gerontologist/article/62/7/947/6511948>.

[7] MOTTI, Vivian Genaro. Designing emerging technologies for and with neurodiverse users. In: Proceedings of the 37th ACM International Conference on the Design of Communication. New York, NY, USA: Association for Computing Machinery, 2019, p. 1–10. (SIGDOC ’19). Disponível em: <https://doi.org/10.1145/3328020.3353946>.

Lunara Santana

Pesquisadora do IP.rec nas áreas de Inteligência Artificial e Regulação de Provedores da Internet, possui graduação e faz mestrado em Ciência da Computação pela Universidade Federal de Pernambuco (UFPE) e tem experiência nas áreas de ciência de dados, processamento de linguagem natural, recuperação de informação e engenharia de linguagens de programação.

Compartilhe

Posts relacionados