Análise regional da inflação com dados do IBGE usando Python

Os dados desagregados do IPCA fornecem informações detalhadas sobre o comportamento de preços no Brasil a nível de região metropolitana e município, possibilitando ricas análises regionais de dados. Neste artigo mostramos como acessar, processar e analisar estes dados utilizando o Python.

Aprenda a coletar, processar e analisar dados na formação de Do Zero à Análise de Dados Econômicos e Financeiros com Python.

Passo 01: buscando dados no portal Sidra/IBGE

  1. Acesse o site https://sidra.ibge.gov.br/
  2. Clique em “IPCA
  3. Clique no ícone ao lado do mês/ano chamado “Relação de tabelas da pesquisa
  4. Clique em uma tabela que possua dados regionais (ex: “7060”)
  5. Aplique filtros na página da tabela para obter dados de interesse (ex: tipo de indicador, variação, grupo, subitem, período e nível territorial)
  6. Clique no botão com símbolo de link no canto inferior direito da tela chamado “Links para compartilhar
  7. Copie o link informado no campo “Parâmetros para a API” (ex: https://apisidra.ibge.gov.br/values/t/7060/n7/all/v/2265/p/all/c315/7169/d/v2265%202)

Passo 02: coleta, tratamento e análise de dados

Para obter o código e o tutorial deste exercício faça parte do Clube AM e receba toda semana os códigos em R/Python, vídeos, tutoriais e suporte completo para dúvidas.

  1. Abrir o Python (ex: acesse o Google Colab pelo endereço https://www.colab.new/)
  2. Importe as bibliotecas pandas e plotnine
  3. Colete os dados usando o link copiado na página do Sidra (adicione o termo “?formato=json” no final do link)
  4. Aplique os tratamentos necessários utilizando a biblioteca pandas
    data rm gr valor
    12 2020-12-01 Belém - PA Norte 4.63
    13 2021-01-01 Belém - PA Norte 4.18
    14 2021-02-01 Belém - PA Norte 5.42
    15 2021-03-01 Belém - PA Norte 6.44
    16 2021-04-01 Belém - PA Norte 7.32
  5. Produza sua análise de dados visualmente utilizando a biblioteca plotnine

Conclusão

Os dados desagregados do IPCA fornecem informações detalhadas sobre o comportamento de preços no Brasil a nível de região metropolitana e município, possibilitando ricas análises regionais de dados. Neste artigo mostramos como acessar, processar e analisar estes dados utilizando o Python.

Quer aprender mais?

Clique aqui para fazer seu cadastro no Boletim AM e baixar o código que produziu este exercício, além de receber novos exercícios com exemplos reais de análise de dados envolvendo as áreas de Data Science, Econometria, Machine Learning, Macroeconomia Aplicada, Finanças Quantitativas e Políticas Públicas diretamente em seu e-mail.

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Criando operações SQL com IA Generativa no R com querychat

No universo da análise de dados, a velocidade para obter respostas é um diferencial competitivo. Frequentemente, uma simples pergunta de negócio — “Qual foi nosso produto mais vendido no último trimestre na região Nordeste?” — inicia um processo que envolve abrir o RStudio, escrever código dplyr ou SQL, executar e, finalmente, obter a resposta. E se pudéssemos simplesmente perguntar isso aos nossos dados em português, diretamente no nosso dashboard Shiny?

Dashboard Financeiro com IA e Shiny Python: Análise de Dados Abertos da CVM

Este artigo apresenta um tutorial completo sobre como construir uma ferramenta de análise financeira de ponta. Utilizando Shiny for Python, demonstramos a automação da coleta de dados das Demonstrações Financeiras Padronizadas (DFP) da CVM e o tratamento dessas informações com Pandas. O ponto alto do projeto é a integração da IA Generativa do Google Gemini, que atua como um assistente de análise, interpretando os dados filtrados pelo usuário e fornecendo insights contábeis e financeiros em tempo real. O resultado é um dashboard dinâmico que democratiza a análise de dados complexos e acelera a tomada de decisão.

Econometria, ML ou IA para previsão da PMS?

Prever a Pesquisa Mensal de Serviços (PMS/IBGE) é um desafio por natureza: trata-se de uma série mensal, sujeita a volatilidade e choques que vão de fatores sazonais a mudanças estruturais no setor. Para enfrentar esse problema, realizamos um exercício de comparação entre três abordagens de modelagem: econometria tradicional (ARIMA), machine learning (XGBoost) e inteligência artificial (TimeGPT).

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.