Blog
Qual é a cara da IA? Breve explicação da cadeia de suprimentos da IA e como funciona uma consulta aos LLMs
Publicado em: 2 de setembro de 2025
Quando estamos falando de Inteligência Artificial, precisamos primeiro definir a respeito do que exatamente estamos nos referindo.
Portanto, este texto tem por objetivo trazer uma visão mais transparente a respeito de: qual é a sua cadeia de suprimento, quem são os atores envolvidos, e, por fim, como funciona uma predição (um prompt, um pedido).
Começando pela cadeia de suprimentos, vamos começar com um exemplo[¹]:
Um aparelho redondo, de em torno de 10cm de altura, com uma listra brilhante azul um pouco acima da sua base, está, imóvel, aguardando silenciosamente por algum comando, em cima de uma bancada. Uma mulher chega com suas duas mãos ocupadas por carregar várias sacolas da feira e diz: “Alexa, ligar as luzes da sala e da cozinha”.
O aparelho parece tomar vida e responde: “Ok! Ligando as luzes da sala e da cozinha.” As luzes se acendem e a mulher vai em direção a cozinha.
O que parece um simples comando e uma interação desencadeia uma série de atividades por trás: cadeias de exploração de recursos, processamento algorítmico, distribuição de informação, e por fim, predição e otimização. A escala exata deste acontecimento geralmente ultrapassa nossa capacidade de imaginação no cotidiano.
Em primeiro lugar, vamos falar sobre a exploração de recursos naturais. Um dispositivo como esse necessariamente demanda recursos naturais; podemos trazer duas que são extremamente relevantes tanto para nós da população como para a cadeia produtiva: (1) extração de minérios para fabricação de chips e placas específicas para o processamento da IA e (2) grandes quantidades de energia (“renováveis” ou não) para o treinamento e predição da IA.
Agora você talvez deva se perguntar: “O que seria esse tal de treinamento e predição da IA? Porque se consome tanta energia? O que se entende por ‘tanta’?”
Quando falamos de treinamento, estamos falando da etapa em que um modelo utiliza uma quantidade massiva de dados – sem qualquer atribuição de valor, remuneração ou reconhecimento aos criadores desses dados, diga-se de passagem – para aprender com base nos dados imputados, seja por meio de encontro de padrões ou relações lógicas entre eles.
Tudo isto é feito com base em um complexo cálculo matemático, que é operado repetidas vezes até a rede achar parâmetros adequados com determinadas métricas que maximiza o número de acertos, ou qualquer comportamento alvo desejado.
Um Large Language Model (LLM), vide ChatGPT versão 4 por exemplo, se estima que ele levou entre 90 a 100 dias, com servidores ligados durante 24 horas, utilizando mais de 25.000 GPUs (chips) durante seu treinamento[²], o que acarreta um grande consumo de energia nesta etapa.
Ademais, há a etapa de predição, que é aquela em que milhões de consultas são feitas ao ChatGPT, todo esse processamento de requisições (as consultas) consome outra grande parcela de energia.
Quando estamos falando de uma predição, é o momento em que o usuário se utiliza desses LLMs e realiza uma pergunta, nós programadores chamamos isso de prompt. Então, essa pergunta vai ao servidor onde esse LLM versão X (Chat GPT 4.5, por exemplo) está, e retorna ao usuário com base na resposta mais provável – ou seja, se trata de uma predição.
Que nada mais é que uma probabilidade estatística de que aquela é a melhor resposta, feitas diversas considerações internas sobre sua pergunta, como: entender gírias, dialetos regionais e suposições em geral, com a finalidade de trazer a resposta mais adequada.
Mas, em termos simples: cada pequeno comando para um dispositivo como a Alexa ou o ChatGPT – seja tocar uma música, ligar uma luz, criar um alarme – requer uma vasta rede de conexão de atividades, aditivada pela extração de recursos naturais, trabalho humano e dados, começando pela tradução da linguagem natural (humana), em algo compreensível a comandos e o que fazer, à máquina.
Para que isso aconteça, quando você escreve para o LLM, o texto vira números. O modelo, que é um super-autocompletar treinado em muito conteúdo, vai prevendo a próxima palavra até formar a resposta. Se precisamos de informação específica, anexamos trechos dos nossos documentos, aqueles que podemos fornecer ao modelo, para ele usar.
Sob um outro ângulo, queremos iniciar com a cadeia de suprimento da IA: apresentar quem são os atores e em que etapa eles atuam. Da extração de recursos – como minérios para fabricação de chips ou grandes quantidades de energia para treinamento/predição do modelo – e do fornecimento de serviços a esta cadeia.
Apesar da IA ser frequentemente associada a termos abstratos como estar na “nuvem” ou algoritmos, ela depende de uma infraestrutura física complexa, desde a fabricação de chips até a construção de supercomputadores em data centers.
No início desta cadeia, temos a etapa de extração de matérias-primas, como silício, cobre, lítio, cobalto e elementos de terras-raras (ETR – que são 17 compostos metálicos), dentre outros. Para cada um destes, temos diferentes jogadores atuando no fornecimento.
Na América do Sul, temos o Chile como o segundo maior produtor de Lítio do mundo, Argentina na quarta posição e Brasil na sexta, com 25%, 6% e 1% respectivamente – a Austrália é a maior produtora mundial com 52%[⁴].
Depois da etapa de extração, tem o refino e, aqui, temos outros jogadores importantes. A China possui papel central neste momento, refinando muitos materiais críticos da IA, por exemplo: em torno de 90% dos ETRs[⁴], e em torno de 70% de tanto Cobalto quanto Lítio[⁵] são processados na China. Já o Silício, é refinado por outros países como a Alemanha, EUA e Japão, e demais.
Depois, temos a fabricação de semicondutores – Chips e GPUs –, e a fabricação do hardware. Estes são responsáveis pelo processamento massivo de informações que um sistema de IA exige. Ademais, temos a etapa de montagem de hardware – como placas, servidores e infraestrutura – que, ainda, temos outros países e jogadores como atuantes.
Por fim, todo esse aparato chega para construção dos enormes data centers onde são feitos os treinamentos e predições dos modelos de larga escala (LLMs). Vemos então que há uma relação predatória de exploração de recursos naturais e impactos ambientais significativos, seja da extração ou consumo de grandes quantidades de energia para operação dos data centers [⁸].
Ou seja, temos a extração, o refino, a fabricação e montagem de componentes para a operação em data centers e seu uso final de predição.
Cada elo dessa cadeia funciona como dependente da anterior: qualquer disrupção ou gargalo – seja uma escassez de materiais, uma restrição de exportação, um atraso na produção de chips ou problemas na logística global – podem afetar esse mercado.
Essa interdependência entre os diversos fatores leva à geração de riscos e tensões, que envolvem desde o fornecimento de suprimentos a conflitos geopolíticos[⁹], como sanções comerciais, por exemplo.
Até este ponto, cobrimos então o funcionamento geral de uma predição e qual o caminho – da extração à montagem – da infraestrutura física que serve de apoio para os sistemas de IA.
Agora, partindo da ideia da construção dos data centers, estes são utilizados para o treinamento de um LLM, como também as predições (uma consulta ao ChatGPT) que o usuário faz a ela.
Na etapa de treinamento, uma quantidade massiva de dados é utilizada para fazer com que o modelo “aprenda” com padrões e relações lógicas entre os dados, como já explicado anteriormente. A Open AI não divulga oficialmente, mas estima-se que o GPT-4 utilizou 13 trilhões[⁶] de tokens de texto (os dados de texto são “tokenizados” para ingestão no modelo, virando uma cadeia de números), em torno de 45 vezes maior que sua versão anterior, o GPT3.5, com 300 bilhões de tokens, e 1,76Tri e 175Bi[⁷], respectivamente.
Sendo o GPT-4 10x “maior”, que seria uma das métricas de avaliar a capacidade de conhecimento e resolução de problemas, implicando que um aumento expressivo na quantidade de dados não tem o mesmo impacto no tamanho do modelo – contudo, aumenta o tempo de processamento e treinamento e, consequentemente, gastos energéticos.
Enquanto companhias e cadeias inteiras e atuam em benefício próprio, com a exploração comercial que existe nesse mercado, não existem salvaguardas ambientais que obriguem as empresas e países envolvidos a conter, mitigar ou zerar os danos.
Na etapa de treinamento também há um consumo massivo de dados, que acaba por gerar um problema na esfera dos Direitos Autorais. Esfera essa que temos modelos sendo treinados em cima de obras protegidas por direitos autorais, sem remuneração ou mecanismos de proteção ao indivíduo.
Nossa legislação em vigor é branda ao tratar de obrigações ou distribuição de lucro para mitigar tais danos. O mercado como um todo da IA vale, hoje em dia, em torno de US$ 130 bi, podendo atingir até US$ 1,9 tri em 2030[¹⁰], contudo, não usufruímos do lucro mas compartilhamos os danos.
Em se tratando de obrigações, os LLMs não fazem o necessário para conter possíveis males que causam a sociedade, a exemplo de diversas pessoas utilizando a ferramenta como apoio psicológico sem o devido cuidado, ou deixarem transparente seus vieses políticos, que podem acabar por influenciar respostas e, consequentemente, “verdades” ao se utilizar desta ferramenta como um buscador ou algo semelhante, ou até serem influenciados por fake news, em função do seu algoritmo de raspagem da web como forma de coleta de dados.
Portanto, em termos práticos, neste momento precisamos de uma legislação de fato robusta que nos ofereça mecanismos de proteção, tanto em matéria de direitos ambientais quanto autorais, e também maneiras de fomento desta tecnologia de forma justa e sustentável. O cenário atual é que as companhias, cadeias inteiras e os países que estão neste mercado lucram e atuam em benefícios próprios, sem haver contrapartidas da exploração comercial lucrativa e prejudicial, em aspectos importantes, que compensem os danos causados.
Tais modelos estão fazendo cada vez mais parte do nosso dia-a-dia e, portanto, é imprescindível que o mercado em que a IA atua seja tão regulamentado quanto vários outros que existem há mais tempo, para que a sociedade não fique desamparada quanto às suas consequências negativas
Notas de rodapé
- https://anatomyof.ai/
- https://medium.com/data-science/the-carbon-footprint-of-gpt-4-d6c676eb21ae
- https://www.weforum.org/stories/2023/01/chart-countries-produce-lithium-world/#:~:text=Australia%20alone%20produces%2052,mines%20for%20the%20mineral%20spodumene
- https://www.csis.org/analysis/what-chinas-ban-rare-earths-processing-technology-exports-means
- https://resourcetrade.earth/publications/critical-metals-ev-batteries#:~:text=anywhere
- https://spectrum.ieee.org/meta-llama-3
- https://arxiv.org/html/2402.06196v2
- https://www.intercept.com.br/2025/07/03/data-center-tiktok-energia-estudo-interno/
- https://arxiv.org/pdf/2410.06681v1
- https://www.europarl.europa.eu/RegData/etudes/ATAG/2024/760392/EPRS_ATA(2024)760392_EN.pdf
Ramon D’barssoles
Engenheiro de software com mais de 4 anos de experiência na área, baseado em Recife, Brasil. Atualmente trabalhando no projeto da Toyota, onde trabalha no desenvolvimento de novas funcionalidades e microsserviços. Pós-graduando em Deep Learning na UFPE, onde integra a sua experiência com inteligência artificial.