Uma análise estatística do IPCA-15

Hoje, o IBGE divulga o IPCA-15, Índice de Preços ao Consumidor Amplo 15, que busca medir a inflação em geral do dia 16 do mês anterior ao 15 do mês de referência, seguindo de resto a mesma metodologia do IPCA. Aproveito a divulgação do índice para mostrar algumas coisas interessantes que vemos no curso de Introdução à Estatística usando o R em relação à construção de estatísticas descritivas análise exploratória de dados de uma determinada variável.

Para começar, pegamos os dados através do pacote sidrar:


library(sidrar)
ipca15 = get_sidra(api='/t/3065/n1/all/v/355/p/all/d/v355%202')

E abaixo visualizamos a nossa série.

Esse tipo de gráfico, a propósito, é feito com de forma customizada com o pacote ggplot2, que eu ensino no nosso Curso de Análise de Conjuntura usando o R. Uma vez que visualizamos a série, podemos notar uma característica importante dela: a existência de sazonalidade. Podemos explorar essa característica com o gráfico abaixo.

O IPCA-15, assim como o IPCA, apresenta uma sazonalidade bastante pronunciada. A inflação medida pelo índice cai ao longo do primeiro semestre e aumenta ao longo do segundo, de acordo, a propósito, com a produção ao longo do ano.

Uma vez identificada essa característica, podemos nos concentrar nas estatísticas descritivas da série. Uma forma simples de visualizar as principais métricas, podemos construir um boxplot da série.

Observe que a mediana do IPCA-15 é de 0,46 e a média é de 0,51. Isso diz alguma coisa sobre a forma de distribuição da série, que podemos visualizar através de um histograma.

Isto é, temos uma assimetria à direita. O valor mínimo da série é, a propósito, de -0,18 e o máximo de 3.05, para um IQR de 0,39. Em outros termos, o primeiro quartil termina em 0,27 e o terceiro quartil em 0,66.

Em assim sendo, o intervalo mais provável de observações do IPCA-15 se situa entre 0,27 e 0,66, centrado em 0,46.

Esse tipo de análise descritiva dos dados serve, por fim, de preâmbulo para qualquer esforço de modelagem e previsão que poderíamos fazer em relação à nossa série.

_________________________________

Update: O script do exercício está disponível aqui. Um vídeo sobre como feito o post pode ser visto no Canal da AM no Youtube.

 

 

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Coletando e integrando dados do BCB, IBGE e IPEA de forma automatizada

Quem trabalha com modelagem e previsão macroeconômica sabe o quanto é demorado reunir dados de diferentes fontes — Banco Central, IBGE, IPEA, FRED, IFI... Cada um com sua API, formato, frequência e estrutura. Esse gargalo de coleta e padronização consome tempo que poderia estar sendo usado na análise, nos modelos ou na comunicação dos resultados.

Foi exatamente por isso que criamos uma rotina de coleta automatizada, que busca, trata e organiza séries temporais econômicas diretamente das APIs oficiais, pronta para ser integrada a pipelines de previsão, dashboards ou agentes de IA econometristas.

Criando operações SQL com IA Generativa no R com querychat

No universo da análise de dados, a velocidade para obter respostas é um diferencial competitivo. Frequentemente, uma simples pergunta de negócio — “Qual foi nosso produto mais vendido no último trimestre na região Nordeste?” — inicia um processo que envolve abrir o RStudio, escrever código dplyr ou SQL, executar e, finalmente, obter a resposta. E se pudéssemos simplesmente perguntar isso aos nossos dados em português, diretamente no nosso dashboard Shiny?

Dashboard Financeiro com IA e Shiny Python: Análise de Dados Abertos da CVM

Este artigo apresenta um tutorial completo sobre como construir uma ferramenta de análise financeira de ponta. Utilizando Shiny for Python, demonstramos a automação da coleta de dados das Demonstrações Financeiras Padronizadas (DFP) da CVM e o tratamento dessas informações com Pandas. O ponto alto do projeto é a integração da IA Generativa do Google Gemini, que atua como um assistente de análise, interpretando os dados filtrados pelo usuário e fornecendo insights contábeis e financeiros em tempo real. O resultado é um dashboard dinâmico que democratiza a análise de dados complexos e acelera a tomada de decisão.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.