Como usar LangGraph e LLMs para prever a inflação no Brasil

Introdução

A inflação é um dos principais indicadores da economia, afetando diretamente decisões de consumo, investimentos e políticas públicas. No Brasil, a métrica oficial utilizada é o IPCA (Índice de Preços ao Consumidor Amplo), calculado mensalmente pelo IBGE.

Prever a trajetória da inflação é uma tarefa desafiadora: exige não apenas conhecimento sobre modelos de séries temporais, mas também a capacidade de interpretar choques econômicos, políticas monetárias e fatores globais. Neste contexto, a combinação de Modelos de Linguagem (LLMs) com arquiteturas multiagentes baseadas no LangGraph surge como uma abordagem inovadora, que amplia a precisão e a interpretabilidade do processo de previsão.

LLMs e Previsões de Séries Temporais

Tradicionalmente, previsões de séries temporais em economia utilizam métodos estatísticos bem estabelecidos:

  • ARIMA e SARIMA: indicados para séries estacionárias, capturando tendência e sazonalidade.

  • VAR (Vetores Autorregressivos): capazes de modelar interdependências entre variáveis macroeconômicas, como inflação, juros e câmbio.

  • Modelos ETS (Erro, Tendência, Sazonalidade): úteis quando a série apresenta padrões estruturais bem definidos.

Nos últimos anos, técnicas de Machine Learning passaram a ser aplicadas, como:

  • XGBoost: forte em prever séries com múltiplas variáveis explicativas.

  • Redes neurais recorrentes (LSTM, GRU): eficazes em capturar padrões não lineares e de longo prazo.

O desafio, entretanto, é que não existe um modelo universalmente ótimo. Cada abordagem captura diferentes aspectos do comportamento da série, e muitas vezes a melhor solução é combinar múltiplas visões — algo que analistas humanos fazem intuitivamente.

É exatamente nesse ponto que entram os LLMs e os sistemas multiagentes criados com LangGraph. O exercício apresentado no código mostra essa integração de forma prática:

  1. Uso de LLMs como coordenadores: no código, o modelo de linguagem não substitui os métodos estatísticos, mas atua como um supervisor, organizando o fluxo, criando personas e integrando os resultados de diferentes modelos.

  2. Criação de personas analíticas: cada persona no exercício foi configurada para simular um analista com perfil específico — por exemplo, um economista tradicional focado em ARIMA, um cientista de dados aplicando ML (como XGBoost) e um especialista quantitativo que interpreta as previsões.

  3. Validação sistemática: no código, os agentes realizam previsões sobre o IPCA, e os resultados são comparados em termos de erro médio absoluto (MAE). Esse processo imita a prática real de avaliação de modelos em equipes de pesquisa econômica.

  4. Iteração e aprendizado: o LLM atua no papel de “editor” ou “economista chefe”, sintetizando os resultados e garantindo que a previsão final seja consistente, algo que vai além do simples ajuste de modelos estatísticos.

Esse exemplo evidencia que o papel dos LLMs não é apenas gerar texto, mas orquestrar fluxos de decisão em tarefas complexas, integrando métodos econométricos tradicionais e técnicas de machine learning em um sistema unificado.

Criação de Agentes com LangGraph

O LangGraph é um framework que permite estruturar fluxos de trabalho complexos em forma de grafos direcionados, com nós que representam ações e arestas que representam decisões. Isso é particularmente útil em sistemas multiagentes, pois garante:

  • Orquestração clara do processo – cada etapa é visualmente definida.

  • Flexibilidade – fácil adaptação para incluir novos agentes ou etapas.

  • Persistência de estado – memória e contexto preservados ao longo da execução.

No exercício desenvolvido, o grafo foi estruturado em seis etapas principais:

  1. Coleta dos dados: a série histórica do IPCA foi obtida via API do Banco Central.

  2. Preparação da base: divisão em dados de treino e teste para validação.

  3. Geração das personas: criação de três agentes analistas virtuais.

  4. Execução das previsões: cada persona utilizou metodologias diferentes para prever a inflação.

  5. Validação cruzada: cálculo do erro médio absoluto (MAE) em dados fora da amostra.

  6. Síntese dos resultados: consolidação das previsões em um relatório final.

O grafo abaixo simplifica o processo.

Criação de Personas e Paralelização

Uma das inovações do exercício foi a criação de personas analíticas, ou seja, agentes virtuais com diferentes perfis e metodologias. As três personas criadas foram:

  • O Cientista de Dados: explorou métodos de machine learning, buscando capturar padrões não lineares.

  • O Estatístico/Econometrista: aplicou modelos clássicos de séries temporais, com ênfase em ARIMA e VAR.

  • O Economista Quantitativo: interpretou os resultados à luz da teoria econômica e dos dados macro.

Essas personas trabalharam em paralelo, gerando previsões independentes. Em seguida, os resultados foram comparados com os dados reais e avaliados em termos de erro.

Esse mecanismo de paralelização é extremamente valioso:

  • Reduz o risco de depender de um único modelo.

  • Permite identificar discrepâncias metodológicas.

  • Cria um “painel de previsões”, semelhante ao que bancos centrais e consultorias utilizam no mundo real.

Estudo de Caso: Sistema Multiagente para Previsão da Inflação

No estudo de caso realizado com a série do IPCA, os seguintes passos foram observados:

  1. Backtesting: cada persona foi testada em dados de treino e validada em dados de teste, com cálculo do MAE.

  2. Previsões fora da amostra: foram geradas previsões para os 12 meses seguintes, permitindo comparar cenários de curto prazo.

  3. Relatório executivo: um agente adicional, o Economista Chefe, sintetizou os resultados em uma análise final, discutindo não apenas os números, mas também o contexto econômico.

  4. Visualização gráfica: foram produzidos gráficos comparando a série observada, as previsões individuais, a média de consenso e o intervalo de incerteza.

Esse processo resultou em uma análise quantitativa e qualitativa, simulando o trabalho de uma equipe de economistas.

O resultado do processo pode ser observado a seguir. É importante destacar que a atuação dos modelos de linguagem ainda apresenta limitações e, portanto, em um exercício simples como o deste exemplo, os resultados devem ser interpretados como uma demonstração metodológica. Para aplicações reais, seriam necessários ajustes adicionais e validações mais robustas.

--- ETAPA 1: Buscando e dividindo os dados históricos... ---
Dados de treino: 271 meses (até 2024-07)
Dados de teste: 12 meses (de 2024-08 a 2025-07)

--- ETAPA 2: Criando 3 personas de analistas... ---
Analistas técnicos criados:
  - Dra. Alice Souza (Afiliação: Instituto Brasileiro de Dados e Inteligência Artificial, Área: Cientista de Dados)
  - Dr. Bruno Pereira (Afiliação: Universidade Federal do Rio de Janeiro - Departamento de Estatística, Área: Estatístico / Econometrista)
  - Dr. Carlos Silva (Afiliação: FGV - Escola de Economia de São Paulo, Área: Economista (Quantitativo))

--- ETAPA 3 (VALIDAÇÃO): Gerando previsões com dados de treino... ---
Previsões de validação recebidas.

--- ETAPA 4 (VALIDAÇÃO): Calculando erro da previsão (MAE)... ---
  - Erro (MAE) para Dra. Alice Souza: 0.2675
  - Erro (MAE) para Dr. Bruno Pereira: 0.2317
  - Erro (MAE) para Dr. Carlos Silva: 0.2833

--- ETAPA 5 (VALIDAÇÃO): Gerando gráfico comparativo... ---
Gráfico de validação salvo em: validation_forecast_plot.png

--- ETAPA 6 (PREVISÃO FINAL): Gerando previsões com dados completos... ---
Previsões finais (fora da amostra) recebidas.

--- ETAPA 7 (PREVISÃO FINAL): Sintetizando relatório e métricas... ---

--- ETAPA 8 (PREVISÃO FINAL): Gerando gráfico da previsão... ---
Gráfico da previsão final salvo em: final_forecast_plot.png


================================================================================
                         RESULTADOS DO WORKFLOW DE PREVISÃO
================================================================================

--- FASE 1: RESULTADOS DA VALIDAÇÃO (BACKTESTING) ---

Erro Médio Absoluto (MAE) por Analista:
  - Dra. Alice Souza: 0.2675
  - Dr. Bruno Pereira: 0.2317
  - Dr. Carlos Silva: 0.2833

Gráfico de comparação salvo em: validation_forecast_plot.png


--- FASE 2: PREVISÃO FINAL (FORA DA AMOSTRA) ---

Painel de Métricas Agregadas (Próximos 12 Meses):
         Previsão Média  Previsão Mín  Previsão Máx  Dispersão (Desv. Padrão)
2025-08           0.240          0.22          0.28                     0.035
2025-09           0.250          0.25          0.25                     0.000
2025-10           0.293          0.28          0.30                     0.012
2025-11           0.323          0.30          0.35                     0.025
2025-12           0.357          0.32          0.40                     0.040
2026-01           0.387          0.33          0.45                     0.060
2026-02           0.387          0.34          0.42                     0.042
2026-03           0.383          0.35          0.42                     0.035
2026-04           0.363          0.34          0.40                     0.032
2026-05           0.343          0.32          0.38                     0.032
2026-06           0.323          0.30          0.35                     0.025
2026-07           0.303          0.28          0.32                     0.021

Gráfico da previsão final salvo em: final_forecast_plot.png


Relatório Consolidado do Economista Chefe:
**Relatório Executivo: Análise e Previsão do IPCA (Inflação) no Brasil - Agosto/2025 a Julho/2026**

**Introdução:** Este relatório sintetiza as análises de três especialistas sobre a previsão do IPCA para os próximos 12 meses.  Embora existam divergências nas previsões pontuais, um consenso geral aponta para uma trajetória de desaceleração inflacionária, embora com volatilidade persistente.

**Principais Conclusões:**

* **Desaceleração Gradual:** Todas as análises projetam uma redução gradual da inflação ao longo do período, refletindo os efeitos da política monetária contracionista e a expectativa de estabilização econômica.  No entanto, a velocidade dessa desaceleração varia entre as previsões.

* **Volatilidade Persistente:** A volatilidade do IPCA permanece como um fator crucial.  A incerteza inerente à economia brasileira, especialmente em relação a choques externos (preços de commodities e taxa de câmbio) e políticas governamentais, contribui para essa volatilidade.  Modelos como GARCH foram utilizados para capturar essa característica.

* **Sensibilidade a Variáveis-Chave:** A taxa de câmbio e os preços das commodities são identificados como fatores de maior influência nas previsões, exigindo monitoramento constante.

* **Divergência nas Previsões:** As previsões pontuais apresentam divergências, especialmente nos meses finais de 2025 e início de 2026.  Isso destaca a complexidade da previsão macroeconômica e a necessidade de considerar diferentes metodologias e cenários.  A amplitude das previsões sugere uma faixa de incerteza que deve ser considerada na tomada de decisões.

**Previsões Consolidadas (Média das Previsões Individuais):**

| Mês       | Previsão Média (%) |
|------------|--------------------|
| 2025-08    | 0.24               |
| 2025-09    | 0.25               |
| 2025-10    | 0.29               |
| 2025-11    | 0.32               |
| 2025-12    | 0.36               |
| 2026-01    | 0.38               |
| 2026-02    | 0.38               |
| 2026-03    | 0.38               |
| 2026-04    | 0.36               |
| 2026-05    | 0.34               |
| 2026-06    | 0.32               |
| 2026-07    | 0.30               |


**Recomendações:**

* Monitoramento contínuo dos preços das commodities e da taxa de câmbio.
* Acompanhamento próximo da política monetária e fiscal.
* Consideração da faixa de incerteza nas previsões para a tomada de decisões estratégicas.
* Análise contínua e atualização das previsões com base em novos dados e informações.


**Conclusão:**  A previsão de inflação para os próximos 12 meses indica uma tendência de desaceleração, porém com significativa incerteza.  A volatilidade inerente à economia brasileira exige vigilância constante e adaptação das estratégias em resposta a mudanças no cenário macroeconômico.  A média das previsões apresentada serve como um guia, mas a amplitude das previsões individuais deve ser considerada na avaliação de riscos.
================================================================================

Conclusão

A utilização do LangGraph em conjunto com LLMs e sistemas multiagentes mostrou-se uma estratégia poderosa para previsão de séries temporais. No caso do IPCA, foi possível:

  • Criar um sistema autônomo, capaz de coletar dados, rodar previsões e avaliar erros.

  • Explorar diferentes metodologias de forma paralela e comparativa.

  • Produzir relatórios explicativos, integrando números e interpretações.

Essa abordagem não substitui o trabalho de um analista humano, mas serve como um apoio fundamental, automatizando tarefas repetitivas e oferecendo múltiplas perspectivas de forma rápida.

No futuro, estruturas semelhantes poderão ser aplicadas não apenas a inflação, mas também a indicadores como desemprego, produção industrial, balança comercial e expectativas de mercado — ampliando o uso de IA como ferramenta estratégica em macroeconomia.

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Como usar LangGraph e LLMs para prever a inflação no Brasil

Este post apresenta um estudo de caso sobre como utilizar o LangGraph e modelos de linguagem para estruturar um sistema multiagente voltado à previsão do IPCA. O exercício cria um sistema que utiliza-se de personas analíticas que trabalham em paralelo, permitindo validar previsões, calcular métricas de erro e consolidar relatórios automatizados. A abordagem demonstra como fluxos multiagentes podem apoiar a análise econômica, oferecendo múltiplas perspectivas e maior consistência nos resultados.

O que é GraphRAG e implementar usando LangChain

GraphRAG é uma técnica de recuperação de informação para LLMs que utiliza grafos de conhecimento para conectar entidades e relações, permitindo estruturar informações complexas presentes em textos. Neste exercício, mostramos como transformar as atas do Copom em um grafo capaz de compreender essas entidades e relações, respondendo a perguntas complexas de forma contextualizada. Com Python e LangChain, todo o processo se torna automatizado, simples e altamente explorável.

Shiny + Agentes de IA: como criar aplicativos web inteligentes

A combinação de interfaces de usuário interativas com o poder dos grandes modelos de linguagem (LLMs) está abrindo um universo de possibilidades. Imagine criar um aplicativo web que não apenas exibe dados, mas também conversa com o usuário, respondendo a perguntas complexas com base em uma base de conhecimento específica. Usando Shiny para Python e ferramentas de IA como as do Google, isso é mais acessível do que nunca.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.