Blog
Quando o algoritmo invade o terreiro: epistemicídio e inteligência artificial
Tecnologia não nasceu no Vale do Silício, ela existe desde que existimos. Antes de qualquer computador, a tecnologia já morava nas mãos que sabiam curar com folhas, nos corpos que sabiam dançar para mover energia, nas vozes que sabiam invocar os ancestrais e reorganizar o mundo através do som. No terreiro, tecnologia não é máquina, é saber que liga mundos: É o conhecimento que circula entre gerações, que se repassa com cuidado, que transforma experiência em aprendizado e aprendizado em cura, é a prática de equilibrar forças, de traduzir o invisível em gesto. Tudo isso é tecnologia, porque é mediação entre planos, é invenção coletiva da vida.
O problema é que a modernidade sequestrou a palavra e hoje, quando se fala em tecnologia, imagina-se apenas o que brilha, o que calcula, o que acelera. As máquinas e os algoritmos tomaram o lugar do que é vivo, e o tempo do axé foi substituído pelo tempo da eficiência. A promessa de futuro se tornou fetiche, e a sabedoria ancestral que sempre produziu conhecimento foi rebaixada à categoria de crença.
Tempo é orixá. E por isso, todo conhecimento que se constrói dentro das religiões de matriz africana nasce de um ritmo que a tecnologia não conhece. O tempo da rede é o da pressa, do conteúdo novo a cada minuto, da repetição incessante, do corpo exausto que consome, comenta e esquece. Já o tempo do terreiro é o da escuta, da presença, da palavra que amadurece com o corpo e o silêncio, do aprendizado que não se acumula, mas se transmuta. A velocidade virou virtude, e tudo que resiste à pressa é considerado obsoleto. Quanto mais as redes sociais prometem nos conectar, mais nos afastam de nós mesmos, dos outros, da Terra e do sagrado.
Muita gente anda em busca de respostas, visto que a crise habitual e cíclica do capitalismo, a desigualdade, o autoritarismo, a precarização da vida e a exaustão cotidiana empurram as pessoas para o espiritual como refúgio. Há uma tentativa de recompor um senso de pertencimento que se perdeu, só que essa busca tem acontecido principalmente na internet, um lugar que promete comunidade, mas opera pela lógica da mercadoria. A fé se transforma em conteúdo, o sagrado em estética, a ancestralidade em performance. É um fenômeno ambíguo: povos de terreiro, empurrados à marginalização por séculos, são agora quase obrigados a ocupar o espaço digital para não desaparecer, mas esse mesmo espaço tende a esvaziar os sentidos mais profundos do respeito, da oralidade e do segredo, transformando o axé em tendência e superexposição.
É nesse contexto que o epistemicídio da inteligência artificial se manifesta com força, a partir do fato de que a IA é herdeira direta do projeto colonial, uma nova camada de poder se impõe com a mesma pretensão universalista do pensamento europeu moderno. A máquina é treinada em dados produzidos majoritariamente por vozes brancas e ocidentais, e por isso reproduz, sem deixar evidente, a exclusão que a fundou. Quando a IA fala do mundo, ela o faz a partir de uma epistemologia única, incapaz de lidar com as formas de saber que não cabem na gramática colonial. O epistemicídio, portanto, não é erro técnico: é estrutura, continuidade automatizada da colonização.
O mesmo processo invade as religiões de matriz africana, basta observar como entidades historicamente negras aparecem nas imagens geradas por IA com traços brancos, europeus e suavizados. É a repetição do sincretismo forçado que transformou orixás em santos católicos, agora reconfigurados em pixels. O que era estratégia de sobrevivência nas senzalas, imposta pelo chicote, reaparece na nuvem digital como apagamento estético e simbólico e, por fim, a máquina embranquece o sagrado.
Essa violência simbólica se soma à tentativa das redes sociais de substituir a oralidade, e no terreiro, o saber não é discursivo, é experiencial. Aprende-se observando, convivendo, ouvindo o que pode ser dito e respeitando o que deve ser guardado, é um aprendizado que envolve corpo, silêncio e tempo. As plataformas digitais, porém, exigem velocidade, exposição e simplificação. Canais que prometem “ensinar fundamentos” e “desenvolver espiritualidade remotamente” proliferam, transformando segredos em tutoriais e monetizando aquilo que sempre foi partilha e vivência. A oralidade, que é tecnologia ancestral de memória e comunhão, é substituída por uma comunicação sem corpo, sem chão, e sem tempo.
Além desse processo de simplificação, há algo mais perverso: a instrumentalização da fé como espetáculo. A inteligência artificial tem sido usada para gerar vídeos de “entidades” simuladas, com vozes artificiais e imagens sintéticas que falam com os usuários em tom profético, dizendo frases catastróficas e exigindo que se compartilhe a mensagem para evitar o azar. Essa mistura de manipulação emocional e misticismo digital cria uma espiritualidade de entretenimento, uma simulação da experiência religiosa que não exige vivência, apenas consumo. O transe se transforma em deepfake.
Por trás disso, há o mito mais perigoso da nossa época: o da infalibilidade da inteligência artificial. A crença de que a máquina sabe mais, erra menos, entende melhor. “Se o ChatGPT falou, é verdade.” O problema é que essa crença se aplica inclusive à esfera espiritual, e o resultado é devastador. Uma IA não sabe nada sobre nossos rituais, nossos fundamentos, nossa filosofia. Ela não compreende a maestria do tempo, não entende o silêncio do axé, não reconhece a sacralidade da folha. Ela apenas reorganiza informações descontextualizadas, sem qualquer responsabilidade ética ou espiritual. Quando esses sistemas falam de religiões afro-brasileiras, eles o fazem a partir do olhar colonizador que sempre nos descreveu como folclore, superstição ou curiosidade exótica. O epistemicídio se atualiza como dado.
Retirar a máquina desse pedestal significa compreender que não há neutralidade na tecnologia: ela é produto de escolhas políticas, culturais e históricas, não milagre técnico. A IA não é divina, é ferramenta, e quando acreditamos na sua infalibilidade, transferimos à tecnologia o mesmo tipo de autoridade que o colonialismo reservava à ciência europeia, e isso reforça a mesma hierarquia epistemológica.
Dentro desse cenário, os povos de terreiro enfrentam uma encruzilhada complexa: É preciso ocupar os espaços digitais para não desaparecer e disseminar a própria existência, mas também é preciso proteger os modos de saber que não podem ser traduzidos. Há um dilema ético e existencial: estar online é necessário para resistir, mas é também correr o risco de ser devorado pela lógica do conteúdo. O terreiro ensina que nem tudo deve ser dito, nem tudo deve ser mostrado, nem todo conhecimento é público, contudo, a rede, ao contrário, exige exposição constante, e essa exigência é incompatível com a ética da oralidade e do segredo.
A ausência dessa presença, porém, tem um preço. Quando os terreiros não ocupam o espaço digital, a narrativa sobre eles passa a ser conduzida por quem historicamente os silencia. Nesse vácuo, a desinformação se espalha com facilidade, atualizando velhos estigmas sob a aparência de opinião ou notícia. As religiões de matriz africana voltam a ser retratadas como ameaça, e o imaginário racista encontra novas formas de circular. Não é raro que práticas religiosas sejam apontadas como causa de crimes, perpetuando a lógica colonial que transforma o desconhecimento em acusação, como ocorreu no caso Evandro, nos anos 1990, e mais recentemente no de Esther Izabelly Pereira da Silva, em 2025. Ainda que a disputa pareça ocorrer no plano digital, seus efeitos são concretos: terreiros continuam sendo invadidos e incendiados, e pessoas de fé seguem sendo agredidas ou apedrejadas em razão de boatos e fake news que reforçam o ódio religioso.
Mesmo assim, existem caminhos de resistência e reencantamento. Artistas como Mayara Ferrão têm usado a inteligência artificial de maneira contra-hegemônica, criando imagens que reconstroem memórias afetivas e libertam o imaginário negro da prisão colonial. Suas fotografias sintéticas tem o intuito de mostrar mulheres negras em gestos de amor, em cenas de intimidade e presença que não existem nos arquivos oficiais. Imagem é memória, e a arte de Mayara corrige essa ausência, não pela repetição da dor, mas pela invenção da ternura. É a prova de que a mesma tecnologia que serve ao apagamento pode, se apropriada com consciência, se tornar ferramenta de reconexão. Ainda assim, essa reconexão, nasce e circula no interior de plataformas organizadas pela lógica do lucro, do engajamento e da extração de dados, também revelando que esses caminhos ainda estão presos às condições estruturais que permitiram o epistemicídio digital em primeiro lugar.
Contudo, a obra de Mayara inaugura fendas no sistema sem dele depender para existir plenamente, porque a força de sua criação não está condicionada ao reconhecimento algorítmico, mas ao modo como convoca uma memória que antecede a própria plataforma, uma memória que insiste em viver mesmo quando o meio não foi feito para acolhê-la. A resistência, nesse caso, não é um produto das redes, mas um movimento que se infiltra nelas, se expande através delas e que, embora comece nesse ambiente contraditório, opera justamente a partir daquilo que o excede, daquilo que nem o algoritmo consegue capturar.
Esse gesto de retomada também ecoa o pensamento de Ailton Krenak, que insiste na necessidade de suspender o tempo linear do progresso e recuperar a experiência do pertencimento. Ele nos lembra que a Terra não é recurso, é corpo; que o tempo não é linha, é espiral; que o humano não está acima, mas dentro da vida. Essa filosofia ressoa com a cosmovisão bantu, fundamento umbandista, que compreende o mundo como um conjunto de relações interdependentes. Na tradição bantu, o conhecimento é coletivo, o tempo é cíclico, o ser é sempre com os outros. Saber é relação, não domínio.
Pensar a construção de tecnologias a partir dessa cosmovisão é imaginar uma inteligência artificial que não busque eficiência, mas harmonia. Uma IA que não pretenda substituir o humano, mas amplificar a capacidade de cuidado e escuta, e que reconheça a limitação como parte da sabedoria, o erro como parte do aprendizado, a alteridade como condição de existência. Isso exigiria reprogramar não só as máquinas, mas também o imaginário que as sustenta.
É nesse ponto que a filosofia do Ubuntu, oriunda da cosmologia bantu, se transforma de horizonte ético em projeto concreto. Ubuntu, que significa “eu sou porque nós somos”, é mais que um princípio de convivência: é uma forma de entender a inteligência como relação, e não como propriedade. Aplicar essa visão à inteligência artificial significa desmontar a arquitetura colonial que organiza as tecnologias atuais, nas quais o saber é acumulado, extraído e centralizado em poucas mãos.
Numa IA orientada pelo Ubuntu, o dado não seria extraído das pessoas sem consentimento, mas compartilhado por meio de processos coletivos de decisão. O treinamento dos modelos teria de respeitar o contexto e a origem das informações, reconhecendo que cada comunidade é guardiã do seu próprio conhecimento. Isso exigiria criar protocolos éticos de reciprocidade, nos quais os sistemas retornassem algo às comunidades que os alimentam – seja em forma de infraestrutura, de reconhecimento ou de redistribuição de benefícios.
Enquanto a lógica ocidental de IA busca performance, precisão e lucro, a lógica ancestral propõe equilíbrio, responsabilidade e cuidado. Ela desloca o foco da eficiência técnica para a sustentabilidade relacional. Em vez de operar sobre as pessoas, ela operaria com as pessoas. Projetos seriam conduzidos com participação real das comunidades envolvidas, desde o desenho até a validação dos resultados. Modelos de aprendizado poderiam incorporar processos de revisão humana coletiva, nos quais as decisões da IA são avaliadas por múltiplas perspectivas culturais e éticas, e não apenas pela métrica da precisão estatística.
O conceito de inteligência, nesse sentido, também muda. A cosmologia bantu não entende a inteligência como algo que acontece dentro de um cérebro, mas como um processo vivo que emerge da interação. Uma IA Ubuntu teria de ser desenhada como rede de interdependências, não como entidade autônoma. Isso pode significar, por exemplo, sistemas capazes de cooperar com outras IAs e com seres humanos em ecossistemas distribuídos, em vez de competir pela supremacia cognitiva.
Já há proposições de modelos de justiça generativa, no qual o aprendizado de máquina é guiado não pelo acúmulo de dados, mas pela regeneração de relações. Isso implica reavaliar a própria noção de dado. Em vez de tratar informação como matéria-prima inerte, seria preciso compreendê-la como expressão de vidas, de histórias e de territórios. Cada dado carrega um corpo e uma memória, e mexer com ele é sempre um ato político e espiritual.
O mesmo princípio se aplica à governança das tecnologias, compreendendo que a ideia de que poucas corporações possam definir os parâmetros da inteligência artificial é inconcebível dentro da ética bantu. O conhecimento precisa ser compartilhado, auditável e devolvido, e isso abre espaço para pensar em infraestruturas comunitárias de IA, hospedadas e geridas de forma cooperativa, com autonomia local e transparência sobre como os algoritmos operam.
Ao incorporar essa cosmovisão à construção de tecnologias, criamos a possibilidade de uma IA que não é instrumento de poder, mas mediadora de vínculos. Uma IA que, como diz Krenak, sabe “adiar o fim do mundo” porque compreende que nenhum conhecimento tem sentido se não cuidar da Terra e dos corpos que nela habitam, considerando inclusive o seu impacto ambiental. Construir um legado que não se esgote em si mesmo, compreender que a vida é cíclica, que continuidade e cuidado caminham juntos, e que portanto toda relação tecnológica precisa assumir responsabilidade ética e ambiental. Cuidar do outro passa a ser cuidar de si, e cuidar do mundo passa a ser parte inseparável da própria ideia de inteligência.
É preciso defender uma tecnologia situada, plural, atravessada pelas nossas formas locais de pensar, falar e existir. No fundo, aplicar Ubuntu à construção algorítmica é reconhecer que o conhecimento é um ritual de relação, que toda tecnologia é, antes de tudo, um espelho daquilo que acreditamos ser. E que talvez o futuro mais avançado não seja o das máquinas que pensam como humanos, mas o dos humanos que reaprendem a pensar como comunidade.
Carolina Branco
Graduanda em Direito pela Universidade Federal de Pernambuco (UFPE). No IP.rec, atua nas áreas de Tecnologias de Realidade Virtual e Aumentada e Inteligência Artificial.