Category

Comentário de Conjuntura

Além da euforia: é possível manter o juro baixo no Brasil?

By | Comentário de Conjuntura

Há uma euforia no mercado financeiro brasileiro com os juros básicos na mínima histórica. O investidor mediano que mantinha seu portfólio aplicado basicamente em renda fixa viu seu rendimento cair substancialmente nos últimos anos. Com efeito, muitos desses migraram para o mercado de capitais, impulsionando a criação de novas gestoras e assets país à fora. A maior consequência dessa euforia talvez seja o avanço do índice Bovespa, mesmo com o crescimento econômico ainda bastante aquém do esperado.

Sabemos da evidência empírica que existe uma correlação negativa entre o índice Bovespa e o juro real. Isto é, menos juro reais estão associados a maiores níveis do índice Bovespa. Isso pode ser facilmente ilustrado com um código de R simples. Abaixo, faço um exemplo.


## Pacotes utilizados nesse comentário
library(tidyverse)
library(sidrar)
library(scales)
library(png)
library(grid)
library(zoo)
library(rbcb)
library(ggrepel)
library(gridExtra)
library(readxl)
library(xts)
library(grDevices)
library(ggalt)
library(quantmod)
library(Quandl)

script desse comentário começa, como de hábito, com os pacotes que utilizaremos. A seguir, importo o ibovespa, o juro nominal (Selic) e a expectativa de inflação.


## Ibovespa
env <- new.env()
getSymbols("^BVSP",src="yahoo",
env=env,
from=as.Date('2008-12-01'))
ibovespa = env$BVSP[,4]
ibovespa = ibovespa[complete.cases(ibovespa)]

## Juro Real
selic = Quandl('BCB/1178', order='asc', start_date='2008-12-01')
expinf = get_twelve_months_inflation_expectations('IPCA',
start_date = '2008-12-01')

Com as variáveis importadas, é preciso criar o juro real. Isso é feito na sequência.


selic = xts(selic$Value, order.by = selic$Date)
expinf12 = xts(expinf$mean[expinf$smoothed=='S'],
order.by = expinf$date[expinf$smoothed=='S'])
dataex = cbind(selic, expinf12)
dataex = dataex[complete.cases(dataex),]
juro_ex = (((1+(dataex[,1]/100))/(1+(dataex[,2]/100)))-1)*100

Por fim, eu posso colocá-las em um tibble para gerar um gráfico de correlação como no código abaixo.


## Juntar dados
df01 = cbind(ibovespa, juro_ex)
df01 = df01[complete.cases(df01),]
df01 = tibble(ibovespa=df01[,1], juroreal=df01[,2])

E o gráfico de correlação é posto abaixo.


ggplot(df01, aes(x=juroreal, y=ibovespa/1000))+
geom_point(size=.8, colour='darkblue')+
geom_smooth(method='lm', se=FALSE, colour='red')+
labs(x='Juro Real (% a.a.)', y='Ibovespa (Mil Pontos)',
title='Juro Real vs. Ibovespa',
caption='Fonte: analisemacro.com.br')

Como dito, há uma correlação negativa entre o índice Bovespa e o juro real. Aí está, basicamente, a raiz da euforia que temos visto no mercado financeiro brasileiro, a despeito do crescimento econômico ainda bastante aquém do desejado. O ponto principal, por suposto, é saber até quando vai essa euforia. E isso passa por saber se o atual nível de juro real será mantido no futuro próximo.

Ao longo dos últimos anos, vimos a aprovação de um conjunto importante de reformas estruturais. Em particular, como visto na edição 71 do Clube do Código, a aprovação do teto de gastos teve como efeito reduzir o juro neutro da economia brasileira - o nível de juro real compatível com hiato do produto nulo em uma Curva IS estacionária.

Um ponto importante, entretanto, é saber o quanto essas reformas irão afetar a capacidade de poupança da economia brasileira. Isto porque, sabemos da teoria e da evidência que a taxa de poupança é um dos fatores mais importantes para determinar o nível de juro do país - ver, por exemplo, The Puzzle of Brazil's High Interest Rates. Infelizmente, como se sabe, a taxa de poupança brasileira é não só baixa como cadente nos últimos anos.

Para ilustrar esse ponto, podemos pegar os dados das Contas Nacionais Trimestrais através do pacote sidrar. O código abaixo implementa.


tab1 = get_sidra(api='/t/2072/n1/all/v/933,940/p/all')
pib = tab1$Valor[tab1$`Variável (Código)`==933]
poupanca = tab1$Valor[tab1$`Variável (Código)`==940]
fbcf = get_sidra(api='/t/1846/n1/all/v/all/p/all/c11255/93406/d/v585%200')$Valor

Com o código acima, pegamos os dados do PIB, da Poupança Bruta e da Formação Bruta de Capital Fixo. A seguir, nós tratamos os dados, de modo a colocar em um tibble as taxas de poupança e de investimento acumuladas em quatro trimestres.


dates_1 = seq(as.Date('1996-01-01'), as.Date('2019-09-01'),
by='3 month')
dates_2 = seq(as.Date('2000-01-01'), as.Date('2019-09-01'),
by='3 month')

df1 = tibble(dates=dates_1, fbcf=fbcf)
df2 = tibble(dates=dates_2, pib=pib, poupanca=poupanca)

data = inner_join(df1, df2, by='dates') %>%
mutate(tx_poupanca = (poupanca+lag(poupanca,1)+lag(poupanca,2)+
lag(poupanca,3))/(pib+lag(pib,1)+lag(pib,2)+lag(pib,3))*100) %>%
mutate(tx_investimento = (fbcf+lag(fbcf,1)+lag(fbcf,2)+
lag(fbcf,3))/(pib+lag(pib,1)+lag(pib,2)+lag(pib,3))*100) %>%
transform(dates = as.yearqtr(dates))

Com os dados prontos, podemos construir o gráfico a seguir.

Como se vê, temos um nível de poupança bastante baixo, mesmo se comparado a outros países de mesmo nível de renda per capita. Há muitas explicações para isso, como a existência de uma ampla rede de proteção social no país, incluindo aí a previdência pública, que desincentivaria a necessidade de poupança para a velhice ou a existência de universidades estatais subsidiadas para a classe média, dentre outras.

A dúvida, portanto, é se as reformas aprovadas ao longo dos últimos anos, bem como as que estão ainda em andamento no Congresso serão suficientes para mudar essa questão institucional estrutural, incentivando as famílias e o governo a aumentarem a poupança no médio e longo prazo. Esse ponto é crucial para saber se o juro que estamos experimentando no momento é de fato permanente ou há risco de voltarmos a flertar com juros nominais de um dígito quando a economia conseguir reduzir a ociosidade.

Não é uma questão simples de responder posto que envolve uma economia política bastante complexa. Em particular, passa pela continuação dos avanços reformistas que vivemos nos últimos anos. E isso não é nada trivial.

A conferir...

__________________________

(*) O código completo desse comentário estará logo mais no Clube do Código.

(**) Aprenda a fazer análises como essa com nossos Cursos Aplicados de R.

Produção Industrial é o patinho feio da recuperação

By | Comentário de Conjuntura

A produção industrial tem sofrido com os choques que afetaram a economia brasileira nos últimos anos mais do que os demais setores. De modo a ilustrar esse ponto, nós importamos, tratamos e visualizamos os dados desagregados da pesquisa, com base nas atividades industriais. Os dados são importados a partir do SIDRA, com o pacote sidrar.


# Pacotes utilizados no script

library(tidyverse)
library(sidrar)
library(xtable)
library(forecast)
library(grid)
library(png)
library(gridExtra)
library(scales)
library(tstools)


# Importação dos dados
## Produção Física por Seção e Atividades
table1 = get_sidra(api='/t/3653/n1/all/v/3134,3135/p/all/c544/all/d/v3134%201,v3135%201')
## Produção Física por grandes categorias econômicas
table2 = get_sidra(api='/t/3651/n1/all/v/3134,3135/p/all/c543/129278,129283,129300,129301,129305/d/v3134%201,v3135%201')
## Ponderações
pond = read_csv2('ponderacao.csv',
locale = locale(encoding = 'Latin1'))


## Atividades com ajuste sazonal
series = as.numeric(table1$`Seções e atividades industriais (CNAE 2.0) (Código)`[1:28])

names = pond$Atividades

atividades_sa <- matrix(NA, ncol=length(series),
nrow=nrow(table1)/length(series)/2)

for(i in 1:length(series)){

atividades_sa[,i] <- table1$Valor[table1$`Variável (Código)`==3134 & table1$`Seções e atividades industriais (CNAE 2.0) (Código)`==series[i]]

}

colnames(atividades_sa) = names


## Atividades sem ajuste sazonal
atividades <- matrix(NA, ncol=length(series),
nrow=nrow(table1)/length(series)/2)

for(i in 1:length(series)){

atividades[,i] <- table1$Valor[table1$`Variável (Código)`==3135 & table1$`Seções e atividades industriais (CNAE 2.0) (Código)`==series[i]]

}

colnames(atividades) = names

Uma vez importados os dados, podemos criar algumas métricas.


vmensal = acum_i(atividades_sa, 1)
colnames(vmensal) = names

vanual = acum_i(atividades, 12)
colnames(vanual) = names

interanual = (atividades/dplyr::lag(atividades,12)-1)*100
colnames(interanual) = names

trimestral <- (((atividades_sa+dplyr::lag(atividades_sa,1)+
dplyr::lag(atividades_sa,2))/3)/
((dplyr::lag(atividades_sa,1)+
dplyr::lag(atividades_sa,2)+
dplyr::lag(atividades_sa,3))/3)-1)*100
colnames(trimestral) = names

E começar a visualizar os dados...

Os gráficos acima trazem o número índice (com ajuste sazonal) completo de quatro indicadores. Observe que houve uma queda forte da produção industrial no período da greve dos caminhoneiros em maio de 2018. Desde então, a produção industrial tem sofrido para crescer. Em particular, a produção de veículos sofre com os problemas da Argentina, principal comprador de carros brasileiros.

A Pesquisa Industrial Mensal - Produção Física, divulgada pelo IBGE, é a principal pesquisa do setor. São avaliados 805 produtos das indústrias extrativa e de transformação. Nesta, há 25 atividades industriais pesquisadas. O peso de cada uma na indústria geral é dado pelo Valor de Transformação Industrial (VTI), sendo as maiores participações dadas pela fabricação de produtos alimentícios, indústria extrativa, derivados de petróleo produção de veículos. O gráfico a seguir ilustra a participação de cada uma das atividades industriais.

A seguir nós ilustramos as métricas que construímos para uma janela mais recente. Primeiro, damos uma olhada na variação mensal.

A seguir, ilustramos a variação interanual...

Por fim, mostramos a variação acumulada em 12 meses desses índices selecionados.

Como se vê, a produção industrial mostra grandes dificuldades de voltar a crescer. É, de fato, o setor que mais sofreu com os choques recentes. Em particular, com a greve dos caminhoneiros e com os problemas na Argentina. Ao longo das próximas semanas, divulgaremos um exercício de modelagem e previsão, no âmbito do Clube do Código, que nos permitirá fazer uma análise prospectiva do setor em 2020.

_____________________

(*) Os códigos completos desse comentário estarão disponíveis logo mais no Clube do Código.

(**) Aprenda a construir análises como essa em nossos Cursos Aplicados de R:

Estimando um modelo de correção de erros entre a Produção de Veículos e a Produção Industrial

By | Comentário de Conjuntura

Uma exceção ao caso de regressão espúria  vem à tona quando dois processos aleatórios compartilham a mesma tendência estocástica - para uma demostração detalhada, ver Enders (2009). Para ilustrar, considere, como Verbeek (2012), duas séries integradas de ordem 1, Y_t e X_t, e suponha que exista uma relação linear entre elas, dada por Y_t = \beta X_t + \epsilon_{Yt}. Isso implica no fato de existir algum valor de \beta tal que Y_t - \beta X_t seja integrado de ordem zero, mesmo com as séries originais sendo ambas não estacionárias. Nesses casos, diz-se que as séries são cointegradas e as mesmas compartilham a mesma tendência.

Sendo um pouco mais formal, com base em Pfaff (2008), a ideia por trás do conceito de cointegração é encontrar uma combinação linear entre duas variáveis I(d) de tal sorte que isso leve a uma variável de menor ordem de integração. Isto é,

Os elementos do vetor x_t são ditos cointegrados de ordem d, b, denominado por x_t \sim CI(d,b), se todos os elementos de x_t são I(d) e o vetor \alpha (\neq 0) existe tal que z_t = \alpha^{'} x_t \sim I(d-b), onde b > 0. O vetor \alpha é então chamado cointegrante.

Para os economistas, por exemplo, esse tipo de análise permite estabelecer relações de longo prazo entre variáveis não estacionárias. O problema, por suposto, passa a como estimar o vetor cointegrante e como modelar o comportamento dinâmico das variáveis I(d). Para resolver, vamos ilustrar o método de dois passos de Engle-Granger}, exposto em Pfaff (2008). No primeiro passo, estimamos o seguinte modelo contendo variáveis não estacionárias de mesma ordem de integração.

(1)   \begin{equation*} y_t = \alpha_1 x_{t,1} + \alpha_2 x_{t,2} + \alpha_K x_{t,K} + z_t  \end{equation*}

para t = 1,...,T, onde z_t é um termo de erro. O vetor cointegrante (K+1) \hat{\alpha} estimado é dado por \hat{\alpha} = [1,-\hat{\alpha^{*}}]^{'}, onde \hat{\alpha^{*}} = (\hat{\alpha_1},...,\hat{\alpha_K}). Assim, acaso exista uma relação de cointegração entre as variáveis, z_t nada mais é do que o erro em relação ao equilíbrio de longo prazo entre elas. Nesse caso, z_t será necessariamente estacionário. Pelo fato de z_t ser uma variável estimada, é preciso testar a presença de raiz unitária com outros valores críticos. No R, esses valores podem ser obtidos com a função unitrootTable do pacote fUnitRoots

Se conseguirmos evidências de que z_t é de fato estacionário, podemos passar adiante. O passo seguinte é especificar um modelo de correção de erros (ECM, no inglês). Para simplificar, vamos considerar, como em Pfaff (2008), o caso bivariado, onde y_t e x_t são cointegradas, sendo ambas I(1). O ECM é então especificado, de forma geral, como segue

(2)   \begin{eqnarray*} \Delta y_t =& \psi_0 + \gamma_1 \hat{z_{t-1}} + \sum_{i=1}^{K} \psi_{1,i} \Delta x_{t-i} + \sum_{i=1}^{L} \psi_{2,i} \Delta y_{t-i} + \varepsilon_{1,t} \\ \Delta x_t =& \xi_0 + \gamma_2 \hat{z_{t-1}} + \sum_{i=1}^{K} \xi_{1,i} \Delta y_{t-i} + \sum_{i=1}^{L} \xi_{2,i} \Delta x_{t-i} + \varepsilon_{2,t} \label{passo22} \end{eqnarray*}

onde \hat{z_{t}} é o erro do modelo estimado em 1 e \varepsilon_{1,t} \varepsilon_{2,t} são ruídos brancos. Nesses termos, o ECM na equação 2 implica que mudanças em y_t são explicadas pela sua própria estória, mudanças defasadas em x_t e pelos erros obtidos da relação de equilíbrio no passo 1. O valor do coeficiente \gamma_1 determina, por suposto, a velocidade de ajustamento e deveria ser sempre negativo. De outra forma, o sistema poderia divergir da sua trajetória de equilíbrio de longo prazo.

Para ilustrar, vamos verificar a relação existente entre a produção de veículos e a produção industrial ao longo do tempo. Abaixo, nós carregamos alguns pacotes do R que utilizaremos nesse Comentário de Conjuntura.


library(ggplot2)
library(xtable)
library(forecast)
library(gridExtra)
library(readxl)
library(dplyr)
library(magrittr)
library(scales)
library(sidrar)
library(vars)
library(dynlm)

Carregados os pacotes, nós podemos importar a produção de veículos e a produção industrial com o código abaixo.


# Produção de Veículos
url = 'http://www.anfavea.com.br/docs/SeriesTemporais_Autoveiculos.xlsm'
download.file(url, destfile = 'veiculos.xlsm', mode='wb')
veiculos = read_excel('veiculos.xlsm', col_types = c('date',
rep('numeric', 25)),
skip=4)
veiculos$X__1 = as.Date(veiculos$X__1, format="%d/%m/%Y")
colnames(veiculos)[1] = 'dates'

## indústria
table1 = get_sidra(api='/t/3653/n1/all/v/3134,3135/p/all/c544/all/d/v3134%201,v3135%201')

geral_sa = table1$Valor[table1$`Variável (Código)`==3134 & table1$`Seções e atividades industriais (CNAE 2.0) (Código)`==129314]

geral = table1$Valor[table1$`Variável (Código)`==3135 & table1$`Seções e atividades industriais (CNAE 2.0) (Código)`==129314]

dates = seq(as.Date('2002-01-01'), as.Date('2019-10-01'), by='1 month')
industria = tibble(dates, geral, geral_sa)

Temos dois tibbles contendo os dados da produção de veículos e da produção industrial. A seguir, nós podemos plotar um gráfico de correlação entre as séries.


filter(veiculos, dates > '2002-01-01') %>%
inner_join(industria, by='dates') %>%
ggplot(aes(x=Produção/1000, y=geral))+
geom_point()+
geom_smooth(se=FALSE, method='lm', colour='red')+
labs(x='Produção de Veículos', y='Produção Industrial',
title='Produção de Veículos vs. Produção Industrial',
caption='Fonte: analisemacro.com.br')

E o gráfico...

De posse dos dados, nós então estimamos a produção industrial contra a produção de veículos e obtemos os resíduos da regressão. Verificamos que os mesmos são estacionários, o que nos permite passar para o passo 2 e estimar o seguinte modelo:

(3)   \begin{align*} \Delta Industria_t = \gamma_0 + \gamma_1 \hat{u_{t-1}} + \gamma_2 \Delta Veiculos_t + \varepsilon_t \end{align*}

onde \hat{u_{t-1}} são os resíduos da regressão que acabamos de estimar. Abaixo a tabela com os resultados da regressão.

 

Dependent variable:
d(industria)
lag(resid, -1) -0.250***
(0.046)
d(veiculos) 0.0001***
(0.00001)
Constant 0.019
(0.243)
Observations 212
R2 0.644
Adjusted R2 0.641
Residual Std. Error 3.542 (df = 209)
F Statistic 189.114*** (df = 2; 209)
Note: *p<0.1; **p<0.05; ***p<0.01

 

Como esperado, o coeficiente que dá a velocidade do ajustamento é negativo, bem como o coeficiente da produção de veículos é estatisticamente significativo. Com a recuperação da produção de veículos, é esperado um impacto positivo sobre a produção industrial ao longo do tempo, o que deve contribuir para uma aceleração no crescimento da economia.

________________________________

Enders, W. Applied Econometric Times Series. Wiley Series in Probability and Statistics. Wiley,
2009.

Pfaff, B. Analysis of integrated and cointegrated time series with R. Springer, New York, second
edition, 2008.

Verbeek, M. A Guide to Modern Econometrics. Editora Wiley, 2012.

(*) Isso e muito mais você aprende no nosso Curso de Séries Temporais usando o R.

(**) Os códigos do comentário estarão disponíveis logo mais no Clube do Código.

O que esperar do mercado de trabalho em 2020?

By | Comentário de Conjuntura

A situação do mercado de trabalho em geral e da taxa de desemprego, em particular, têm sido grandes preocupações minhas, expressas nesse espaço ao longo de 2019. Nesse primeiro comentário de conjuntura de 2020, por suposto, gostaria de fazer uma análise conjunta das duas principais pesquisas da área, o CAGED e a PNAD Contínua, de modo a mostrar como vai se comportar o mercado de trabalho ao longo do ano. Para isso, vou utilizar os scripts automáticos das pesquisas que ensino/disponibilizo no nosso Curso de Análise de Conjuntura usando o R.

Para começar, creio que deixei clara ao longo de 2019 a relação existente entre CAGEd, PNAD e crescimento econômico. Na Edição 58 do Clube do Código, mostrei que o saldo do CAGED ajuda a explicar o crescimento econômico, bem como explica mais de 95% da variância do crescimento. Já na Edição 67, mostrei que o CAGED tem precedência temporal sobre a PNAD Contínua. Por fim, na Edição 68, construí um modelo VEC que buscava projetar a taxa de desemprego [medida pela PNAD Contínua] com base em um vetor X_t de variáveis explicativas. Os exercícios estão disponíveis para membros do Clube do Código e para alunos do plano premium dos nossos Cursos Aplicados de R.

Meu otimismo com o mercado de trabalho em 2020 vem, em parte, desses exercícios. Como mostrei em vários posts nesse espaço, os dados do CAGED mostraram ao longo de 2019 uma melhora na criação líquida de vagas. O gráfico abaixo mostra a média móvel trimestral do saldo dessazonalizado do CAGED. Como é possível observar, houve uma aceleração na margem no saldo. O trimestre móvel encerrado em novembro teve criação líquida de 67,7 mil vagas.

Fazendo uma suavização um pouco maior nos dados, de modo a ter uma perspectiva mais global da pesquisa, podemos olhar a média móvel anual do saldo líquido. O gráfico a seguir ilustra o comportamento dessa série. Como é possível ver pela área hachurada em laranja, há criação positiva de vagas desde o início de 2018, com gradativa aceleração ao longo dos meses seguintes. Enquanto a média móvel anual encerrada em novembro de 2018 era de 35,5 mil vagas criadas, a mesma métrica encerrada em novembro de 2019 apontava para criação líquida de 44,3 mil vagas.

Conquanto o CAGED mostre melhora nítida no mercado formal, é preciso ressaltar que há uma assimetria nítida nos dados por setores. O gráfico abaixo ilustra o comportamento da média móvel anual por quatro setores: indústria, construção civil, comércio e serviços. Enquanto esses três mostram geração líquida positiva de vagas ao longo dos últimos meses, a indústria ainda flerta com números nada animadores.

É cedo para dizer que isso se configura em tendência, mas acho que é o momento para mostrar os dados da PNAD Contínua, bem como apresentar uma hipótese de trabalho para a situação do mercado de trabalho em 2020.  A tabela a seguir faz um retrato das principais métricas da PNAD Contínua.

Métricas Principais da PNAD Contínua
Nov/19 Nov/18 Variação (%)
População 209.944 208.332 0,8
PIA 171.401 169.936 0,9
PEA 106.279 105.078 1,1
PO 94.416 92.915 1,6
PD 11.863 12.164 -2,5
PNEA 65.122 64.858 0,4
Carteira 33.420 32.904 1,6
Sem Carteira 11.812 11.634 1,5
Doméstico 6.356 6.243 1,8
Público 11.686 11.729 -0,4
Empregador 4.483 4.468 0,3
Conta Própria 24.597 23.736 3,6
TFA 2.062 2.201 -6,3
Agropecuária 8.388 8.513 -1,5
Indústria 12.105 11.784 2,7
Construção 6.925 6.791 2,0
Comércio 17.833 17.715 0,7
Transporte 4.911 4.664 5,3
Alojamento 5.613 5.426 3,4
Informação 10.572 10.314 2,5
Administração Pública 16.561 16.457 0,6
Outros Serviços 5.088 4.966 2,5
Serviços Domésticos 6.400 6.249 2,4
Renda Nominal 2.332 2.240 4,1
Renda Real 2.332 2.305 1,2
Massa Nominal 215.104 203.039 5,9
Massa Real 215.104 208.926 3,0

Enquanto o CAGED é uma pesquisa de fluxo restrita ao mercado de trabalho formal, a PNAD Contínua com base em trimestres móveis é uma pesquisa de estoque do mercado de trabalho global. Nessa pesquisa, a situação de desemprego é definida a partir de uma pergunta aos entrevistados: se o mesmo tomou alguma providência para procurar emprego. Caso não tenha procurado emprego, o mesmo não é considerado desempregado.

Isso dito, observa-se pela tabela que a População Economicamente Ativa (PEA) saiu de 105 para 106,2 milhões de pessoas na comparação interanual. Abrindo os componentes da PEA, vemos que a população ocupada (PO) registrou aumento de 1,6% e a população desocupada (PD) caiu 2,5%. Com efeito, o total de desempregados no país está em 11,8 milhões de pessoas.

A população não economicamente ativa (PNEA), o complemento da PEA para formar a população em idade ativa (PIA), também avançou, chegando a 65,1 milhões de pessoas. Em perspectiva, a taxa de participação, importante medida para mostrar desalento, tem mostrado avanço ao longo dos últimos anos. O gráfico a seguir ilustra.

Quanto mais pessoas participam da PEA, mesmo que na condição de procura por emprego, maior é o otimismo com a situação econômica. Menor é o desalento. O dado na margem, diga-se, está cerca de meio ponto percentual acima da média histórica. A dessazonalização da série, por suposto, fica como exercício para o leitor. O gráfico a seguir mostra o comportamento da PEA ao longo dos últimos anos. Há um nítido avanço na série.

Se por um lado a PEA mostrou avanço nos últimos anos, há também um crescimento na população ocupada, saindo de 88,6 milhões no início de 2017 para 94,4 milhões no último dado disponível. O gráfico a seguir ilustra.

A abertura do dado de população ocupada, diga-se, nos faz mostrar a hipótese de trabalho para 2020 que comentei anteriormente. Os gráficos a seguir ilustram o comportamento da PO. Como é possível verificar, só nos últimos meses há um avanço na ocupação com carteira. A recuperação da população ocupada tem sido liderada pelos conta própria e pelos ocupados sem carteira.

Isso dito e como comentado anteriormente sobre o CAGED, isso não significa que o emprego com carteira não vá mostrar reação nos próximos meses. Como mostrei na Edição 67 do Clube do Código, há uma relação de causalidade entre os dados do CAGED e da PNAD [no corte com carteira]. O gráfico a seguir ilustra. Ou seja, devemos ver em 2020, enfim, um aumento maior na população ocupada com carteira na PNAD Contínua, refletindo os bons números do CAGED.

A hipótese de trabalho, contudo, é que deveremos observar novas formas de trabalho daqui para frente, explorando as possibilidades abertas pela reforma trabalhista. Ademais, serão criadas cada vez mais vagas no setor de serviços e não propriamente na indústria, refletindo as novas tecnologias - talvez em uma intersecção entre um e outro, no que as pessoas têm denominado como "Indústria 4.0". Sobre isso, dois comentários rápidos: (i) quanto às novas formas de tralbaho, vejo isso como algo positivo posto que reduz a assimetria entre os mercados formal e informal de trabalho. Ou, entre "todos os direitos" e "nenhum direito" que existia antes da reforma; (ii) sobre novas tecnologias, creio que a atividade industrial deve continuar perdendo participação relativa no PIB. E isso não é algo negativo a princípio, mas implica em mudanças fundamentais na estrutura produtiva do país. Em particular, em termos de educação formal: será preciso preparar as novas gerações para operar/construir robôs, ao invés de pregar parafusos.

Tudo isso dito, concluo esse [extenso] comentário de conjuntura com a taxa de desemprego, a principal métrica do mercado de trabalho.

Como é possível ver no gráfico acima, houve queda na taxa de desemprego ao longo dos últimos anos, desde o pico de 13,7% no início de 2017 até chegar aos 11,2% de novembro último. Feito o ajuste sazonal, o desemprego está na casa dos 11,7%. Para os próximos meses, conforme atualização que fiz do modelo apresentado na edição 68 do Clube do Código, o desemprego deve manter seu padrão sazonal ao longo dos próximos meses, chegando aos 12,1% em maio de 2020, com mínima projetada em 11,3% e máxima em 12,8%.

Certamente, não é a rapidez que precisávamos para incluir os atuais 11,8 milhões de desempregados dentro do mercado de trabalho. Mas a série de desemprego é mesmo a última a se recuperar dentro do ciclo econômico. Para além dos seis meses projetados, é difícil fazer alguma avaliação, já que é muito difícil projetar o desemprego para além disso. O que se espera, contudo, é que a melhora dos dados do CAGED cheguem ao desemprego, como já é possível projetar pela relação existente entre aquele e o corte com carteira da população ocupada. Tudo indica, portanto, que será um 2020 melhor para o mercado de trabalho.

___________________

(*) Aprenda tudo sobre política monetária com a nossa área de Central Banking.

(**) Aprenda a usar o R para fazer análise de dados com nossos Cursos Aplicados de R.

(***) Os códigos desse comentário estarão disponíveis no Clube do Código daqui a pouco.

O papel da política monetária no ciclo econômico

By | Comentário de Conjuntura

O Banco Central busca calibrar a taxa de juros de curto prazo, seu instrumento de política, de modo a manter a taxa de juros real próxima à taxa de juros de equilíbrio da economia. Em situações onde o hiato do produto é diferente de zero, entretanto, isto é, ou bem o PIB da economia está abaixo/acima do PIB potencial, cabe ao Banco Central manter uma política monetária expansionista/contracionista, de modo a reagir às pressões inflacionárias baixistas/altistas.

Em termos formais, o Banco Central possui uma função de perda social quadrática e intertemporal a ser minimizada a cada período como a que segue:

(1)   \begin{align*} E \left [ (1 - \delta) \sum_{\tau = 0}^{\infty} \delta^{\tau} L_{t+\tau} | I_t \right ] \end{align*}

onde E \left [ . | I_t \right ] representa a expectativa racional do Banco Central, condicionada pelo conjunto de informação I_t. \delta é um fator de desconto, que varia de 0 a 1 (exclusive) e L_t uma função de perda para o período t como abaixo

(2)   \begin{align*} L_t = \frac{1}{2} \left [ (\pi_t - \pi^{*})^2 + \gamma (h_t)^2 \right ]  \end{align*}

onde \pi_t é a inflação corrente, \pi^{*} é a meta de inflação, h_t é o hiato do produto e \gamma é um parâmetro que mede o peso relativo dado à estabilização do produto na FPS. \gamma > 0 implica que a variância de \pi_t será maior do que zero, ou seja, o Banco Central se preocupa com a estabilização do produto e o regime de metas é do tipo flexível. Acaso, \gamma = 0, a variância de \pi_t será igual a zero e o regime é do tipo estrito, o Banco Central só se preocupa com a inflação. Svensson (1997) argumenta que o tipo flexível é o mais comum entre os regimes adotados, isto é, os Bancos Centrais buscam manter a inflação baixa e estável ao mesmo tempo em que se preocupam com os efeitos da política monetária sobre o nível de atividade.

Isso dito, em uma situação onde o PIB efetivo está abaixo do PIB potencial, configurando um hiato do produto negativo, recomenda-se que a política monetária seja expansionista. Isto porque, um hiato do produto negativo irá produzir, tudo o mais constante, pressões deflacionárias sobre a economia.

Nesse contexto, o Banco Central deve calibrar o juro nominal de modo que o juro real se posicione abaixo do juro neutro.

A operacionalização disso envolve, entretanto, tanto arte quanto ciência. O Banco Central calibra o juro nominal de acordo com uma regra de Taylor, olhando para a diferença entre inflação esperada e meta e hiato do produto. O efeito da diferença entre o juro real e o juro neutro sobre o hiato do produto ocorrerá via Curva IS, mas com alguma defasagem para a tomada de decisão sobre o juro nominal. Por fim, o efeito do hiato sobre a inflação ocorre via Curva de Phillips, com mais alguma defasagem. Em outras palavras, o Banco Central precisa manter um arsenal robusto de forecasting, de modo que o efeito da decisão expansionista de política monetária ocorra de fato sobre uma economia com hiato do produto negativo, dadas as defasagens envolvidas.

Como mostram os dados, o trabalho atual do Banco Central no Brasil está correto, posto que o hiato do produto ainda é bastante negativo, prescrevendo uma política monetária expansionista no curto prazo.

___________________

Svensson, L. E. O. Optimal inflation targets conservative central banks and linear inflation contracts. The American Economic Review, 87(1):98114, 1997.

(*) Aprenda tudo sobre política monetária com a nossa área de Central Banking.

(**) Aprenda a usar o R para fazer análise de dados com nossos Cursos Aplicados de R.

(***) Os códigos desse comentário estarão disponíveis no Clube do Código daqui a pouco.

(****) Super promoção de Natal: combos com até 50% de desconto. Veja aqui.

Cadastre-se na newsletter
e receba nossas novidades em primeira mão!