A edição 36 do Clube do Código detalha a construção de um modelo preditivo para a taxa de desemprego medida pela PNAD Contínua. No modelo básico, os preditores utilizados foram a variação interanual da população ocupada e da população economicamente ativa. Em um modelo alternativo, além desses, foi incluída a variável gtrends, que contém buscas pela palavra chave "empregos" no google trends. O objetivo foi tanto detalhar a construção dos modelos quanto avaliar a qualidade das previsões geradas, dividindo a amostra em uma subamostra de training e outra de teste/validação. Nesse post, resumimos os resultados encontrados.

Antes de mais nada, precisamos coletar as variáveis que vamos utilizar no processo de modelagem. Por sorte, todos os dados estão disponíveis via pacotes do R. O código abaixo, então, ilustra o processo de importação dos dados.


library(forecast)
library(ggplot2)
library(easyGgplot2)
library(ggthemes)
library(BMR)
library(xtable)
library(sidrar)
library(scales)
library(TStools)
library(gtrendsR)
library(xts)
library(gridExtra)

### Obter e tratar dados do SIDRA

pea = ts(get_sidra(api='/t/6318/n1/all/v/1641/p/all/c629/32386')$Valor,
 start=c(2012,03), freq=12)

po = ts(get_sidra(api='/t/6320/n1/all/v/4090/p/all/c11913/96165')$Valor,
 start=c(2012,03), freq=12)

desemprego = ts(get_sidra(api='/t/6381/n1/all/v/4099/p/all/d/v4099%201')$Valor,
 start=c(2012,03), freq=12)

dpea = (pea/lag(pea,-12)-1)*100
dpo = (po/lag(po,-12)-1)*100

### Obter e tratar dados go GTrends

trends = gtrends('empregos', geo='BR')

gtrends = data.frame(time=trends$interest_over_time$date,
 empregos=trends$interest_over_time$hits)
gtrends$time = as.Date(gtrends$time, format='%d/%m/%Y')
gtrends = xts(gtrends$empregos, order.by=gtrends$time)
gtrends = ts(apply.monthly(gtrends, FUN=mean), start=c(2012,10), freq=12)

### Colocar tudo no mesmo objeto

data = ts.intersect(desemprego, dpo, dpea, gtrends)

colnames(data) = c('Desemprego', 'Variação PO', 'Variação PEA', 'GTrends')

De posse dos dados, procedemos uma visualização gráfica dos mesmos.

Para esse exercício, mantivemos os dados em seu formato original, isto é, não procedemos nenhum processo de dessazonalização ou diferenciação. A título de ilustração, o gráfico abaixo mostra como a taxa de desemprego se comporta ao longo dos meses do ano.

Com os dados coletados e tratados, podemos agora conhecer melhor os mesmos através das funções de autocorrelação, antes de proceder a modelagem em si.

 

Abaixo, plotamos as funções de autocorrelação fazendo uso do pacote BMR.

E agora, as funções de autocorrelação parcial.

Com efeito, podemos agora gerar os modelos. Nesse exercício, optamos por construir um modelo bayesiano, utilizando o Normal-inverse-Wishhart como prior. As tabelas abaixo resumem as previsões dos dois modelos considerados nesse exercício.

 

Previsões geradas pelo BVAR - Sem GTrends
Lower Mediana Upper
set/17 12.2 12.4 12.6
out/17 11.8 12.1 12.5
nov/17 11.3 11.8 12.3
dez/17 10.8 11.4 12.1
jan/18 10.3 11.0 11.8
fev/18 9.7 10.6 11.5
mar/18 9.0 10.1 11.2
abr/18 8.3 9.5 10.8
mai/18 7.6 9.0 10.5
jun/18 6.7 8.4 10.1
Previsões geradas pelo BVAR - Com GTrends
Lower Mediana Upper
set/17 11.9 12.1 12.3
out/17 11.2 11.6 12.0
nov/17 10.4 11.1 11.7
dez/17 9.6 10.5 11.4
jan/18 8.7 9.9 11.0
fev/18 7.8 9.3 10.6
mar/18 6.8 8.6 10.3
abr/18 5.7 7.9 9.8
mai/18 4.6 7.1 9.4
jun/18 3.4 6.3 9.0

A adição da variável gtrends acaba gerando um viés nas projeções, piorando as medidas de acurácia. Desse modo, não nos pareceu válido o esforço de adicionar essa variável na modelagem da taxa de desemprego. Ao menos, não na abordagem que consideramos. Ficamos, portanto, com o modelo base. O gráfico abaixo ilustra as projeções 10 meses à frente.

Os membros do Clube do Código têm acesso a todo o processo de construção das previsões, brevemente descrito nesse post. Para se tornar membro, consulte a página do Clube aqui.

Clique na figura para conhecer os nossos Cursos

Clique na figura para conhecer nosso novo curso de econometria

Vítor Wilher

Data Scientist

Vítor Wilher é Bacharel e Mestre em Economia, pela Universidade Federal Fluminense, tendo se especializado na construção de modelos macroeconométricos, política monetária e análise da conjuntura macroeconômica doméstica e internacional. Tem, ademais, especialização em Data Science pela Johns Hopkins University. Sua dissertação de mestrado foi na área de política monetária, titulada "Clareza da Comunicação do Banco Central e Expectativas de Inflação: evidências para o Brasil", defendida perante banca composta pelos professores Gustavo H. B. Franco (PUC-RJ), Gabriel Montes Caldas (UFF), Carlos Enrique Guanziroli (UFF) e Luciano Vereda Oliveira (UFF). Já trabalhou em grandes empresas, nas áreas de telecomunicações, energia elétrica, consultoria financeira e consultoria macroeconômica. É o criador da Análise Macro, startup especializada em treinamento e consultoria em linguagens de programação voltadas para data analysis, sócio da MacroLab Consultoria, empresa especializada em cenários e previsões e fundador do hoje extinto Grupo de Estudos sobre Conjuntura Econômica (GECE-UFF). É também Visiting Professor da Universidade Veiga de Almeida, onde dá aulas nos cursos de MBA da instituição, Conselheiro do Instituto Millenium e um dos grandes entusiastas do uso do no ensino. Leia os posts de Vítor Wilher aquiCaso queira, mande um e-mail para ele: vitorwilher@analisemacro.com.br

Comments