Google Trends e previsão do desemprego no Brasil

A pandemia do coronavírus impôs diversos desafios para a humanidade, nos mais diferentes campos. Em termos de previsão de variáveis macroeconômicas, não é diferente. O ajuste dos modelos tem sido um desafio para economistas e analistas de mercado, que possuem a árdua e ingrata tarefa de antecipar eventos futuros. Pensando nisso, nesse Comentário de Conjuntura buscamos implementar um modelo de previsão para a taxa de desemprego medida pela PNAD Contínua que utiliza termos de busca do Google Trends.

A base de dados do Google Trends é hoje em dia bastante conhecida por especialistas que se dedicam à tarefa de forecasting, tendo um amplo conjunto de artigos e papers que fazem uso da mesma para esse fim. D´Amuri e Marcucci, 2017, por exemplo, fazem uso dessa base para construir um modelo de previsão para o desemprego nos Estados Unidos. Os resultados encontrados sugerem que essa base de dados é um bom preditor para a taxa de desemprego norte-americana.

Tendo o mesmo objetivo que os autores, nós revisamos um modelo de cointegração para o desemprego que inclui os termos de busca empregos seguro desemprego, que são ilustrados acima. A inclusão do termo seguro desemprego procura "tratar" o efeito pandemia, que causou um forte choque sobre a taxa de desemprego medida pela PNAD Contínua, como pode ser visto abaixo.

Além dos termos de busca do GT, também adicionamos mais algumas co-variáveis ao modelo, listadas a seguir.

O modelo é implementado, então, no R, com o auxílio da biblioteca vars e uso da metodologia de Johansen. A seguir, um gráfico que apresenta a previsão fora da amostra considerada.

Os códigos que implementam o exercício estão disponíveis para os membros do Clube AM.

 

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Como analisar o sentimento dos textos do COPOM no Python?

Neste exercício construímos um indicador que busca quantificar o sentimento proveniente das decisões de política monetária no Brasil. Usando técnicas de mineração de texto, implementamos todas as etapas necessárias, desde web scraping e pré-processamento das atas do Comitê de Política Monetária do Banco Central (COPOM), até a criação de tokens e a classificação do sentimento implícito nos textos.

Como importar os textos do COPOM para análise de sentimentos no Python?

Os textos divulgados pelo COPOM, sejam os comunicados ou atas, são o ponto de partida para diversos tipos de análises quantitativas, como a análise de sentimentos, e qualitativas, como uma análise de cenário econômico. Neste artigo, mostramos como coletar estes textos de forma automatizada usando web scrapping e Python.

Como tratar dados no Python? Parte 5: renomeando colunas

Como dar novos nomes significativos para as colunas em uma tabela de dados usando Python? Neste tutorial mostramos os métodos de renomeação de colunas disponíveis na biblioteca pandas, que tem como vantagem sua sintaxe simples e prática.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.