Modelos de previsão macroeconômica podem facilmente alcançar um número elevado de variáveis. Mesmo modelos simplificados, como o Modelo de Pequeno Porte (MPP) do Banco Central, usam cerca de 30 variáveis. Isso impõe um grande desafio ao nosso dia a dia: como fazer a gestão destes dados para uso em modelos, desde a coleta até o tratamento?
Neste exercício, contruímos um algoritmo simples de cenarização para a Dívida Bruta do Governo Geral (DBGG) em % do PIB, usando apenas dados públicos, simulações estatísticas, a literatura recente e a linguagem R. Em uma abordagem semi-automatizada, as simulações do modelo se aproximam das previsões do mercado para o ano de 2025.
A coleta de dados é uma etapa bastante suscetível a erros, presente em toda análise de dados ou modelo preditivo. Devido a isso e sua importância, muitas pessoas ficam “travadas” quando aparece uma mensagem de erro. Neste exercício mostramos como resolver esse problema usando programação.
Quem trabalha com dados reais e precisa coletar informações de forma online usando APIs e links, sabe que erros de requisição são comuns, principalmente com dados públicos. Neste artigo, damos algumas dicas de como entender estes erros e mostramos um jeito simples de evitar que o código de Python “quebre” nestas situacões.
Neste exercício, apresentamos as principais fontes de dados públicos utilizadas na macroeconomia e desenvolvemos uma rotina para coletar, tratar e disponibilizar (ETL) as variáveis para uso em modelos preditivos.