Econometria, ML ou IA para previsão da PMC?

A previsão de indicadores econômicos é uma tarefa crucial para governos, empresas e investidores. No Brasil, a Pesquisa Mensal de Comércio (PMC) do IBGE, que mede a variação percentual do volume de vendas no varejo, é um dos termômetros mais importantes da atividade econômica. Diante da crescente disponibilidade de ferramentas e técnicas, surge a pergunta: qual a melhor abordagem para prever a PMC? A econometria tradicional, o machine learning (ML) ou a inteligência artificial (IA) generativa?

Para responder a essa questão, foi desenvolvido um sistema robusto de previsão que compara diretamente essas três frentes. Utilizando dados históricos da PMC, extraídos diretamente da API do SIDRA/IBGE, foi criada uma série temporal que vai de fevereiro de 2003 a julho de 2025, permitindo uma análise aprofundada e a construção de modelos preditivos. O projeto foi implementado em Python, com o auxílio de bibliotecas consagradas como pandas para manipulação de dados, pmdarima e statsmodels para a econometria, xgboost e scikit-learn para o machine learning, e nixtla para a inteligência artificial.

A análise comparativa colocou três modelos para competir:

  1. ARIMA (Autoregressive Integrated Moving Average): Um representante da econometria clássica, amplamente utilizado em análise de séries temporais. Este modelo busca capturar autocorrelações nos dados, ou seja, como valores passados da série influenciam seus valores futuros.
  2. XGBoost (Extreme Gradient Boosting): Um poderoso algoritmo de machine learning que se destacou em competições pela sua alta performance. Ele aprende de forma incremental com os erros de previsões anteriores, sendo capaz de modelar relações complexas e não-lineares nos dados.
  3. TimeGPT: Um modelo de fundação para previsão de séries temporais desenvolvido pela Nixtla. Representando a vanguarda da IA, o TimeGPT foi pré-treinado em um vasto conjunto de dados de séries temporais, permitindo-lhe "aprender" padrões sazonais e de tendência complexos e aplicá-los a novos dados sem a necessidade de um treinamento extensivo.

Para garantir uma comparação justa e robusta, os modelos foram submetidos a um rigoroso processo de avaliação. Além de uma simples divisão entre dados de treino e teste, foi aplicada a validação cruzada para séries temporais, uma técnica que avalia o desempenho dos modelos em diferentes janelas de tempo do histórico. As métricas utilizadas para medir a acurácia foram o RMSE e o MAE.

Os resultados revelaram nuances interessantes. No teste com os dados mais recentes, o XGBoost demonstrou uma performance superior, com o menor erro de previsão. Isso sugere que o modelo de machine learning foi mais eficaz em capturar as dinâmicas recentes e de curto prazo da série. Por outro lado, a análise de validação cruzada mostrou que o ARIMA, apesar de mais simples, apresentou o desempenho mais consistente ao longo das diversas janelas históricas (valiação cruadda), indicando maior estabilidade.

A imagem acima ilustra as projeções geradas pelos diferentes modelos para os próximos 12 meses. É possível observar como cada abordagem captura a tendência e a sazonalidade da série de maneiras distintas. Diante da performance variada, a solução mais robusta foi a criação de um modelo ensemble, que combina as previsões do ARIMA, XGBoost e TimeGPT. Essa abordagem busca mitigar os pontos fracos de cada modelo individualmente, resultando em uma previsão mais equilibrada e, potencialmente, mais precisa.

Afinal, qual é o melhor? A análise demonstra que não há uma resposta única. A escolha da ferramenta ideal depende do objetivo. Para capturar padrões mais recentes e complexos, o XGBoost se mostrou superior. Para uma previsão mais estável e consistente com o comportamento histórico, o ARIMA ainda é uma ferramenta valiosa. A IA, com o TimeGPT, oferece uma alternativa poderosa e de rápida implementação. No entanto, a combinação estratégica das três abordagens em um modelo ensemble prova ser o caminho mais promissor para uma previsão mais resiliente e confiável da PMC.

Quer aprender mais?

Conheça nossa Formação do Zero à Análise de Dados Econômicos e Financeiros usando Python e Inteligência Artificial. Aprenda do ZERO a coletar, tratar, construir modelos e apresentar dados econômicos e financeiros com o uso de Python e IA.

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Determinantes do Preço do Ouro: VAR + Linguagem R

Este artigo realiza uma análise econométrica para investigar os determinantes dinâmicos do preço do ouro. Utilizando um modelo Vetorial Autorregressivo (VAR) em R, examinamos o impacto de variáveis como o dólar (DXY), a curva de juros e a incerteza global. Os resultados mostram que um fortalecimento inesperado do dólar tem um efeito negativo e significativo no curto prazo sobre os retornos do ouro, embora a maior parte de sua variância seja explicada por fatores intrínsecos ao seu próprio mercado.

Existe correlação entre vagas de emprego e o S&P 500?

O que explica a divergência entre S&P 500 e vagas de emprego? Seria o impacto da IA ou a política monetária? Utilizando um análise dados e modelo VAR e testes de causalidade de Granger usando a linguagem de programação R, investigamos a relação e o motivo por trás da "boca de jacaré".

Como medir a comunicação do Banco Central?

Descubra como o índice ALT transforma a linguagem do Banco Central em dados analisáveis, permitindo investigar como o tom das atas do COPOM varia conforme o cenário macroeconômico e as decisões de política monetária.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.