Publicado em: 10 de abril de 2025


Como bom nordestino e pesquisador, gostaria de iniciar este texto com um causo: versões após versões, solicito a diversos sistemas de IA, na forma de LLMs, que produzam exemplar, com temas aleatórios, de literaturas regionais, notadamente, a literatura de cordel – uma literatura formal, documentada, mas restrita às manifestações de uma nordestinidade, seja ela localizada na região nordeste ou nas periferias nordestinas nos diversos centros do Brasil.

Ainda hoje, 2025, versões após versões, os sistemas pautados numa lógica eficientista e cujo mecanismo interno está estruturado no acúmulo e decupagem massiva de dados (tokenização) entregam outputs que se apresentam como certeiros e definitivos. Como bom nordestino que sou, numa leitura superficial e primeira, já identifico-os em seu simulacro. Não se trata de cordel, mas de uma poema que simula aspectos da literatura formalizada do cordel, sem entretanto, expressá-la em seus pormenores.

Quando questionei representações de empresas que criam e curam tais modelos, a resposta sempre se dividiu em: defender de forma cega o resultado entregue, afirmando que o que o LLM entregava era aquilo que fora solicitado; ou, pior, sequer acessar a questão como um problema a ser enfrentado.

***

O uso e discurso sobre a IA, no contexto dos anos 2020-2025, especialmente com o lançamento no mercado de sistemas de IA generativa e LLMs, é tão massificado que passa a sensação de ser algo perene, inescapável. É essa, inclusive, a defesa de muitos cultores acríticos da tecnologia: a de que a adoção da mesma se dará com ou sem o nosso aval e que, portanto, é preciso resignar-se e adaptar-se a ela.

Essa premissa determinística está à base de processos coloniais no espraiamento da inteligência artificial pelo planeta. E gostaria de abordar que tais processos coloniais instauram uma dinâmica de apagamento de formas de conceber o mundo, ou seja, de epistemicídio. O discurso propalado, ao tempo que ignora as reais dimensões do determinismo tecnológico, busca propagar uma agenda intencional para não gerar resistências na dinâmica de tornar a IA uma tecnologia cada vez mais, e verdadeiramente, pervasiva. É, em certo sentido, um raciocínio e argumento circular, uma falácia que busca fundamentar a si mesma – como na história do Barão de Munchhausen que, para escapar de afundar em areia movediça, arranca a si mesmo do perigo com um puxão dos próprios cabelos. É um sem sentido!

Mas que agenda é essa que parece se apresentar enquanto narrativa e enquanto fato narrado? A inteligência artificial é, enquanto teoria, um desses conhecimentos baseados na antiguidade clássica, com reflexos que conformam sua concepção hodierna. Assim, quando falamos de uma concepção ou metáfora da “mente como máquina computacional”, estamos falando ainda de algumas noções cuja origem está nos pitagóricos e a busca pelo motor do “ser”, arché. Essa metáfora vai se desdobrando e ganhando novos contornos, e ainda que presente, se desenvolve numa dimensão diversa a partir do século XX, com o trabalho seminal de Alan Turing consolidando noções anteriores e esparsas, acerca de uma máquina de computar – dentre as noções fundamentais, a distinção entre mente e corpo e, portanto, a ideia derivada de que a mente é computável (matematizável, formalizável).

Por outro lado, o epistemicídio é o fenômeno de apagamento, marginalização ou destruição sistemática de determinados sistemas de conhecimento e epistemologias, geralmente vinculado a processos coloniais, à modernidade eurocêntrica e à globalização capitalista. Esse conceito, desenvolvido no âmbito dos estudos decoloniais, evidencia como determinadas formas de saber foram historicamente deslegitimadas, enquanto o conhecimento ocidental foi consolidado como norma universal.

Esse processo ocorreu por meio de diferentes mecanismos, como a própria colonização, que impôs um modelo hegemônico de saber aos povos submetidos ao domínio europeu, mas se perpetuou em novas roupagens, mais sofisticadas, de instauração e sustentação de regimes de subordinação. 

Se, no passado, formas de conhecimento locais foram rebaixadas à categoria de mitos e folclore, sendo sistematicamente excluídas dos espaços institucionais de validação do saber, no presente, esses saberes subalternizados são apagados a partir de uma lógica predatória da economia simbólica que impõe a periferização destes saberes.

Essa dinâmica de dominação epistemológica opera através da primazia da “epistemologia ocidental” como única produtora legítima de verdade, ignorando a pluralidade epistêmica e subordinando epistemologias alternativas a um grau subalterno e pouco visível. Walter Mignolo explica que essa estrutura de exclusão não se trata apenas de um fenômeno histórico, mas de uma continuidade colonial que ainda define as relações globais de produção e validação do conhecimento, numa “retórica da modernidade” que classifica e atribui papéis aos diversos povos no mundo (Mignolo, 2007).

Esse epistemicídio tem consequências profundas, como a negação da diversidade epistêmica, a imposição de um padrão único de racionalidade e a perpetuação de desigualdades sociais que restringem a capacidade de grupos historicamente marginalizados de construir e disseminar seus próprios paradigmas de conhecimento, pois fora do tipo-norma que se impõe (Mignolo, 2007).

Especificamente na inteligência artificial, Kate Crawford, em seu Atlas da IA, argumenta que os modelos de inteligência artificial reproduzem desigualdades estruturais, pois são treinados com bases de dados que refletem padrões hegemônicos de classificação do mundo (CRAWFORD, 2021). Esse fenômeno pode ser entendido como um prolongamento da colonialidade do saber na era digital, pois os sistemas algorítmicos reforçam a invisibilização de epistemologias locais ao priorizarem fontes de informação baseadas no conhecimento eurocêntrico, norte globalizado.

Safiya Umoja Noble, no livro Algoritmos da Opressão, complementa essa análise ao demonstrar como os algoritmos de busca, que ao menos em parte são sistemas de inteligência artificial, não são neutros, mas sim construídos dentro de uma lógica que favorece determinados discursos e grupos e apaga outros (NOBLE, 2021). Segundo a autora, aplicações de busca hegemônicas reforçam estereótipos e excluem conteúdos de comunidades marginalizadas (NOBLE, 2021). 

No contexto da inteligência artificial, essa hierarquia se manifesta na forma como dados, algoritmos e modelos de aprendizado de máquina são construídos predominantemente a partir de um viés eurocêntrico. Isso gera um duplo apagamento: primeiro, porque exclui saberes locais das bases de dados e, segundo, porque reforça paradigmas ocidentais na organização do conhecimento digital, que passa a ser reproduzido como uma “fotografia do mundo real”. 

A IA, assim, pode ser entendida como um instrumento de continuidade do epistemicídio, operando por meio da exclusão algorítmica e do monopólio epistêmico das grandes corporações de tecnologia. E tal instrumento é operado de algumas maneiras específicas, que listo, sem pretensão de exaurimento.

A primeira forma pela qual a IA opera como um instrumento epistemicida é por meio da exclusão de dados, uma vez que os modelos de aprendizado de máquina são treinados com bases de dados que refletem predominantemente epistemologias ocidentais, brancas, orientadas a partir de um “modelo de mundo” que se pretende objetivo, neutro e valorativamente neutro (BLUMENBERG, 2020). 

Outro mecanismo fundamental do epistemicídio algorítmico é a padronização cultural, isto é, a forma como os algoritmos de busca e recomendação priorizam fontes ocidentais e relegam epistemologias locais a uma posição secundária. 

Além da exclusão de dados e da padronização cultural, a IA epistemicida também se manifesta por meio do viés de treinamento, que determina as formas como o conhecimento é classificado e estruturado dentro dos sistemas algorítmicos. As ontologias e modelagem que orientam os sistemas de inteligência artificial são, em grande medida, desenhadas a partir de categorias ocidentais, o que leva à reprodução automática de uma visão eurocêntrica do mundo.

O que fazer? Mignolo e outros autores, como Hamid Dabashi, Edward Said e tantos outros, sugerem, cada um à sua maneira, um desligamento com o paradigma central da norma, que instaura e fortalece processos de apagamento cultural e de conhecimento de mundo. O desligamento está dentro de um contexto de desobediência epistemológica, buscando não uma mera rejeição das contribuições do norte global, mas a demarcação de diferença e busca das diversas formas de conhecer e existir que povoam as diferentes periferias do mundo. Assim sendo, estas periferias deixam de ser subordinadas a um centro e passam a ser parte de um complexo multipolar de formas de existir – reconhecendo-se diferentes “imagens do mundo” para criticar a centralidade de um modelo de mundo (BLUMENBERG, 2020).

A importância dos saberes locais, identidade e diferença no enfrentamento da IA epistemicida reside, portanto, na capacidade desses conhecimentos de resistirem à imposição de um modelo único de racionalidade e de afirmarem formas diversas de interpretar e organizar o mundo. 

No contexto da colonialidade do saber e de sua elevação à enésima potência através da inteligência artificial, a valorização dos saberes locais torna-se um elemento essencial para questionar e enfrentar normatizações sobre o mundo, e sua pretensão de verdade universal, permitindo que diferentes formas de conhecimento coexistam e sejam reconhecidas como legítimas ao ponto de poder ditar como queremos criar, apropriar e manejar aparatos tecnológicos.

Todo sul global tem uma literatura de cordel para chamar de sua, na lógica de que essas experiências não são individuais e, portanto, permitem construir redes de solidariedade e mudança.


Referências

BLUMENBERG, Hans. History, Metaphors, Fables: a Hans Blumenberg Reader. NY: Cornell University Press, 2020.

CRAWFORD, Kate. Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence. New Haven: Yale University Press, 2021.

DABASHI, Hamid. Can Non-Europeans Think? London: Zed Books, 2015.

MIGNOLO, Walter. Delinking: The Rhetoric of Modernity, the Logic of Coloniality and the Grammar of De-coloniality. Cultural Studies, v. 21, n. 2-3, p. 449-514, 2007.

NOBLE, Safiya Umoja. Algoritmos da Opressão. Rio de Janeiro: Editora Rua do Sabão, 2021.

André Fernandes

Diretor e fundador do IP.rec, é graduado e mestre em Direito pela UFPE, areá de concentração Teoria e Dogmática do Direito. Doutorando pela UNICAP, na linha de tecnologia e direito, com foco em inteligência artificial e conceitos jurídicos. Professor Universitário na Pós-Graduação da UFPE e da CESAR School. Membro de grupos de especialistas: na Internet Society, o Grupo de Trabalho sobre Responsabilidade de Intermediários; no Governo Federal, Grupo de Especialista da Estratégia Brasileira de IA (EBIA, Eixo 2, Governança). Fundador e Ex-Conselheiro no Youth Observatory, Internet Society. Fundador, Ex-Presidente e atual Vice-Presidente da Comissão de Direito da Tecnologia e da Informação (CDTI) da OAB/PE. Alumni da Escola de Governança da Internet do CGI.br (2016). Ex-Fellow do Center for AI and Digital Policy. No IP.rec, atua principalmente nas áreas de Responsabilidade Civil de Intermediários, Automação do Trabalho e Inteligência Artificial e Multissetorialismo.

Compartilhe

Posts relacionados