Como usar LangGraph e LLMs para prever a inflação no Brasil

Introdução

A inflação é um dos principais indicadores da economia, afetando diretamente decisões de consumo, investimentos e políticas públicas. No Brasil, a métrica oficial utilizada é o IPCA (Índice de Preços ao Consumidor Amplo), calculado mensalmente pelo IBGE.

Prever a trajetória da inflação é uma tarefa desafiadora: exige não apenas conhecimento sobre modelos de séries temporais, mas também a capacidade de interpretar choques econômicos, políticas monetárias e fatores globais. Neste contexto, a combinação de Modelos de Linguagem (LLMs) com arquiteturas multiagentes baseadas no LangGraph surge como uma abordagem inovadora, que amplia a precisão e a interpretabilidade do processo de previsão.

LLMs e Previsões de Séries Temporais

Tradicionalmente, previsões de séries temporais em economia utilizam métodos estatísticos bem estabelecidos:

  • ARIMA e SARIMA: indicados para séries estacionárias, capturando tendência e sazonalidade.

  • VAR (Vetores Autorregressivos): capazes de modelar interdependências entre variáveis macroeconômicas, como inflação, juros e câmbio.

  • Modelos ETS (Erro, Tendência, Sazonalidade): úteis quando a série apresenta padrões estruturais bem definidos.

Nos últimos anos, técnicas de Machine Learning passaram a ser aplicadas, como:

  • XGBoost: forte em prever séries com múltiplas variáveis explicativas.

  • Redes neurais recorrentes (LSTM, GRU): eficazes em capturar padrões não lineares e de longo prazo.

O desafio, entretanto, é que não existe um modelo universalmente ótimo. Cada abordagem captura diferentes aspectos do comportamento da série, e muitas vezes a melhor solução é combinar múltiplas visões — algo que analistas humanos fazem intuitivamente.

É exatamente nesse ponto que entram os LLMs e os sistemas multiagentes criados com LangGraph. O exercício apresentado no código mostra essa integração de forma prática:

  1. Uso de LLMs como coordenadores: no código, o modelo de linguagem não substitui os métodos estatísticos, mas atua como um supervisor, organizando o fluxo, criando personas e integrando os resultados de diferentes modelos.

  2. Criação de personas analíticas: cada persona no exercício foi configurada para simular um analista com perfil específico — por exemplo, um economista tradicional focado em ARIMA, um cientista de dados aplicando ML (como XGBoost) e um especialista quantitativo que interpreta as previsões.

  3. Validação sistemática: no código, os agentes realizam previsões sobre o IPCA, e os resultados são comparados em termos de erro médio absoluto (MAE). Esse processo imita a prática real de avaliação de modelos em equipes de pesquisa econômica.

  4. Iteração e aprendizado: o LLM atua no papel de “editor” ou “economista chefe”, sintetizando os resultados e garantindo que a previsão final seja consistente, algo que vai além do simples ajuste de modelos estatísticos.

Esse exemplo evidencia que o papel dos LLMs não é apenas gerar texto, mas orquestrar fluxos de decisão em tarefas complexas, integrando métodos econométricos tradicionais e técnicas de machine learning em um sistema unificado.

Criação de Agentes com LangGraph

O LangGraph é um framework que permite estruturar fluxos de trabalho complexos em forma de grafos direcionados, com nós que representam ações e arestas que representam decisões. Isso é particularmente útil em sistemas multiagentes, pois garante:

  • Orquestração clara do processo – cada etapa é visualmente definida.

  • Flexibilidade – fácil adaptação para incluir novos agentes ou etapas.

  • Persistência de estado – memória e contexto preservados ao longo da execução.

No exercício desenvolvido, o grafo foi estruturado em seis etapas principais:

  1. Coleta dos dados: a série histórica do IPCA foi obtida via API do Banco Central.

  2. Preparação da base: divisão em dados de treino e teste para validação.

  3. Geração das personas: criação de três agentes analistas virtuais.

  4. Execução das previsões: cada persona utilizou metodologias diferentes para prever a inflação.

  5. Validação cruzada: cálculo do erro médio absoluto (MAE) em dados fora da amostra.

  6. Síntese dos resultados: consolidação das previsões em um relatório final.

O grafo abaixo simplifica o processo.

Criação de Personas e Paralelização

Uma das inovações do exercício foi a criação de personas analíticas, ou seja, agentes virtuais com diferentes perfis e metodologias. As três personas criadas foram:

  • O Cientista de Dados: explorou métodos de machine learning, buscando capturar padrões não lineares.

  • O Estatístico/Econometrista: aplicou modelos clássicos de séries temporais, com ênfase em ARIMA e VAR.

  • O Economista Quantitativo: interpretou os resultados à luz da teoria econômica e dos dados macro.

Essas personas trabalharam em paralelo, gerando previsões independentes. Em seguida, os resultados foram comparados com os dados reais e avaliados em termos de erro.

Esse mecanismo de paralelização é extremamente valioso:

  • Reduz o risco de depender de um único modelo.

  • Permite identificar discrepâncias metodológicas.

  • Cria um “painel de previsões”, semelhante ao que bancos centrais e consultorias utilizam no mundo real.

Estudo de Caso: Sistema Multiagente para Previsão da Inflação

No estudo de caso realizado com a série do IPCA, os seguintes passos foram observados:

  1. Backtesting: cada persona foi testada em dados de treino e validada em dados de teste, com cálculo do MAE.

  2. Previsões fora da amostra: foram geradas previsões para os 12 meses seguintes, permitindo comparar cenários de curto prazo.

  3. Relatório executivo: um agente adicional, o Economista Chefe, sintetizou os resultados em uma análise final, discutindo não apenas os números, mas também o contexto econômico.

  4. Visualização gráfica: foram produzidos gráficos comparando a série observada, as previsões individuais, a média de consenso e o intervalo de incerteza.

Esse processo resultou em uma análise quantitativa e qualitativa, simulando o trabalho de uma equipe de economistas.

O resultado do processo pode ser observado a seguir. É importante destacar que a atuação dos modelos de linguagem ainda apresenta limitações e, portanto, em um exercício simples como o deste exemplo, os resultados devem ser interpretados como uma demonstração metodológica. Para aplicações reais, seriam necessários ajustes adicionais e validações mais robustas.

--- ETAPA 1: Buscando e dividindo os dados históricos... ---
Dados de treino: 271 meses (até 2024-07)
Dados de teste: 12 meses (de 2024-08 a 2025-07)

--- ETAPA 2: Criando 3 personas de analistas... ---
Analistas técnicos criados:
  - Dra. Alice Souza (Afiliação: Instituto Brasileiro de Dados e Inteligência Artificial, Área: Cientista de Dados)
  - Dr. Bruno Pereira (Afiliação: Universidade Federal do Rio de Janeiro - Departamento de Estatística, Área: Estatístico / Econometrista)
  - Dr. Carlos Silva (Afiliação: FGV - Escola de Economia de São Paulo, Área: Economista (Quantitativo))

--- ETAPA 3 (VALIDAÇÃO): Gerando previsões com dados de treino... ---
Previsões de validação recebidas.

--- ETAPA 4 (VALIDAÇÃO): Calculando erro da previsão (MAE)... ---
  - Erro (MAE) para Dra. Alice Souza: 0.2675
  - Erro (MAE) para Dr. Bruno Pereira: 0.2317
  - Erro (MAE) para Dr. Carlos Silva: 0.2833

--- ETAPA 5 (VALIDAÇÃO): Gerando gráfico comparativo... ---
Gráfico de validação salvo em: validation_forecast_plot.png

--- ETAPA 6 (PREVISÃO FINAL): Gerando previsões com dados completos... ---
Previsões finais (fora da amostra) recebidas.

--- ETAPA 7 (PREVISÃO FINAL): Sintetizando relatório e métricas... ---

--- ETAPA 8 (PREVISÃO FINAL): Gerando gráfico da previsão... ---
Gráfico da previsão final salvo em: final_forecast_plot.png


================================================================================
                         RESULTADOS DO WORKFLOW DE PREVISÃO
================================================================================

--- FASE 1: RESULTADOS DA VALIDAÇÃO (BACKTESTING) ---

Erro Médio Absoluto (MAE) por Analista:
  - Dra. Alice Souza: 0.2675
  - Dr. Bruno Pereira: 0.2317
  - Dr. Carlos Silva: 0.2833

Gráfico de comparação salvo em: validation_forecast_plot.png


--- FASE 2: PREVISÃO FINAL (FORA DA AMOSTRA) ---

Painel de Métricas Agregadas (Próximos 12 Meses):
         Previsão Média  Previsão Mín  Previsão Máx  Dispersão (Desv. Padrão)
2025-08           0.240          0.22          0.28                     0.035
2025-09           0.250          0.25          0.25                     0.000
2025-10           0.293          0.28          0.30                     0.012
2025-11           0.323          0.30          0.35                     0.025
2025-12           0.357          0.32          0.40                     0.040
2026-01           0.387          0.33          0.45                     0.060
2026-02           0.387          0.34          0.42                     0.042
2026-03           0.383          0.35          0.42                     0.035
2026-04           0.363          0.34          0.40                     0.032
2026-05           0.343          0.32          0.38                     0.032
2026-06           0.323          0.30          0.35                     0.025
2026-07           0.303          0.28          0.32                     0.021

Gráfico da previsão final salvo em: final_forecast_plot.png


Relatório Consolidado do Economista Chefe:
**Relatório Executivo: Análise e Previsão do IPCA (Inflação) no Brasil - Agosto/2025 a Julho/2026**

**Introdução:** Este relatório sintetiza as análises de três especialistas sobre a previsão do IPCA para os próximos 12 meses.  Embora existam divergências nas previsões pontuais, um consenso geral aponta para uma trajetória de desaceleração inflacionária, embora com volatilidade persistente.

**Principais Conclusões:**

* **Desaceleração Gradual:** Todas as análises projetam uma redução gradual da inflação ao longo do período, refletindo os efeitos da política monetária contracionista e a expectativa de estabilização econômica.  No entanto, a velocidade dessa desaceleração varia entre as previsões.

* **Volatilidade Persistente:** A volatilidade do IPCA permanece como um fator crucial.  A incerteza inerente à economia brasileira, especialmente em relação a choques externos (preços de commodities e taxa de câmbio) e políticas governamentais, contribui para essa volatilidade.  Modelos como GARCH foram utilizados para capturar essa característica.

* **Sensibilidade a Variáveis-Chave:** A taxa de câmbio e os preços das commodities são identificados como fatores de maior influência nas previsões, exigindo monitoramento constante.

* **Divergência nas Previsões:** As previsões pontuais apresentam divergências, especialmente nos meses finais de 2025 e início de 2026.  Isso destaca a complexidade da previsão macroeconômica e a necessidade de considerar diferentes metodologias e cenários.  A amplitude das previsões sugere uma faixa de incerteza que deve ser considerada na tomada de decisões.

**Previsões Consolidadas (Média das Previsões Individuais):**

| Mês       | Previsão Média (%) |
|------------|--------------------|
| 2025-08    | 0.24               |
| 2025-09    | 0.25               |
| 2025-10    | 0.29               |
| 2025-11    | 0.32               |
| 2025-12    | 0.36               |
| 2026-01    | 0.38               |
| 2026-02    | 0.38               |
| 2026-03    | 0.38               |
| 2026-04    | 0.36               |
| 2026-05    | 0.34               |
| 2026-06    | 0.32               |
| 2026-07    | 0.30               |


**Recomendações:**

* Monitoramento contínuo dos preços das commodities e da taxa de câmbio.
* Acompanhamento próximo da política monetária e fiscal.
* Consideração da faixa de incerteza nas previsões para a tomada de decisões estratégicas.
* Análise contínua e atualização das previsões com base em novos dados e informações.


**Conclusão:**  A previsão de inflação para os próximos 12 meses indica uma tendência de desaceleração, porém com significativa incerteza.  A volatilidade inerente à economia brasileira exige vigilância constante e adaptação das estratégias em resposta a mudanças no cenário macroeconômico.  A média das previsões apresentada serve como um guia, mas a amplitude das previsões individuais deve ser considerada na avaliação de riscos.
================================================================================

Conclusão

A utilização do LangGraph em conjunto com LLMs e sistemas multiagentes mostrou-se uma estratégia poderosa para previsão de séries temporais. No caso do IPCA, foi possível:

  • Criar um sistema autônomo, capaz de coletar dados, rodar previsões e avaliar erros.

  • Explorar diferentes metodologias de forma paralela e comparativa.

  • Produzir relatórios explicativos, integrando números e interpretações.

Essa abordagem não substitui o trabalho de um analista humano, mas serve como um apoio fundamental, automatizando tarefas repetitivas e oferecendo múltiplas perspectivas de forma rápida.

No futuro, estruturas semelhantes poderão ser aplicadas não apenas a inflação, mas também a indicadores como desemprego, produção industrial, balança comercial e expectativas de mercado — ampliando o uso de IA como ferramenta estratégica em macroeconomia.

_____________

Saiba mais

Quer aprender a construir Agentes de IA que criam modelos para previsão macro? Participe da nossa mais nova Imersão Como Criar um Agente de IA Econometrista clicando aqui.

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Coletando e integrando dados do BCB, IBGE e IPEA de forma automatizada

Quem trabalha com modelagem e previsão macroeconômica sabe o quanto é demorado reunir dados de diferentes fontes — Banco Central, IBGE, IPEA, FRED, IFI... Cada um com sua API, formato, frequência e estrutura. Esse gargalo de coleta e padronização consome tempo que poderia estar sendo usado na análise, nos modelos ou na comunicação dos resultados.

Foi exatamente por isso que criamos uma rotina de coleta automatizada, que busca, trata e organiza séries temporais econômicas diretamente das APIs oficiais, pronta para ser integrada a pipelines de previsão, dashboards ou agentes de IA econometristas.

Criando operações SQL com IA Generativa no R com querychat

No universo da análise de dados, a velocidade para obter respostas é um diferencial competitivo. Frequentemente, uma simples pergunta de negócio — “Qual foi nosso produto mais vendido no último trimestre na região Nordeste?” — inicia um processo que envolve abrir o RStudio, escrever código dplyr ou SQL, executar e, finalmente, obter a resposta. E se pudéssemos simplesmente perguntar isso aos nossos dados em português, diretamente no nosso dashboard Shiny?

Dashboard Financeiro com IA e Shiny Python: Análise de Dados Abertos da CVM

Este artigo apresenta um tutorial completo sobre como construir uma ferramenta de análise financeira de ponta. Utilizando Shiny for Python, demonstramos a automação da coleta de dados das Demonstrações Financeiras Padronizadas (DFP) da CVM e o tratamento dessas informações com Pandas. O ponto alto do projeto é a integração da IA Generativa do Google Gemini, que atua como um assistente de análise, interpretando os dados filtrados pelo usuário e fornecendo insights contábeis e financeiros em tempo real. O resultado é um dashboard dinâmico que democratiza a análise de dados complexos e acelera a tomada de decisão.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.