Uma série temporal é, basicamente, uma sequência de observações tomada ao longo de um período de tempo. Diversos conjuntos de dados se apresentam como uma série temporal, como a taxa de desemprego, os juros básicos de uma economia, o PIB, a taxa de inflação, etc, o que torna esse campo da econometria extremamente importante. Para além da economia, há também aplicações do que chamamos de econometria de séries temporais na engenharia, nos negócios, nas ciências naturais, nas ciências sociais, etc.
Publicado em: 12/06/2023
Autor: Luiz Henrique Barbosa Filho
Uma série temporal é, basicamente, uma sequência de observações tomada ao longo de um período de tempo. Diversos conjuntos de dados se apresentam como uma série temporal, como a taxa de desemprego, os juros básicos de uma economia, o PIB, a taxa de inflação, etc, o que torna esse campo da econometria extremamente importante. Para além da economia, há também aplicações do que chamamos de econometria de séries temporais na engenharia, nos negócios, nas ciências naturais, nas ciências sociais, etc.
Uma série temporal é facilmente compreendida por meio de um gráfico de linha, em que os valores das observações da série ficam no eixo y, enquanto o período correspondente a observação se situam no eixo x.
Abaixo temos como exemplo a série do Desemprego do Brasil medida pela PNADC. Podemos analisar diversas questões sobre a série, não somente economicamente, como também em termos estatísticos.
Para obter todo o código do processo de criação dos gráficos abaixo, faça parte do Clube AM, o repositório de códigos da Análise Macro, contendo exercícios semanais.
Sendo um pouco mais formal, podemos verificar como os conceitos de série temporal e processo estocástico se relacionam. Com base em Pfaff (2008), um processo estocástico é uma sequência ordenada de variáveis aleatórias, podendo ser definido formalmente como
(1)
onde, para cada é uma variável aleatória no espaço amostral , e a realização desse processo estocástico é dada por para cada com respeito a um ponto no tempo .
Consequentemente, a série temporal que observamos é uma realização particular de um processo estocástico desconhecido. Ela pode ser representada como segue
(2)
Nesses termos, esse processo estocástico desconhecido é o que chamamos de processo gerador dos dados que formam uma série temporal.
Cada em é, desse modo, apenas um valor possível de uma variável aleatória. Uma variável aleatória, por seu turno, é aquela que assume valores numéricos e tem um resultado que é determinado por um experimento.
O desafio do econometrista será, portanto, tendo acesso apenas à série temporal, buscar compreender esse processo estocástico desconhecido. Quanto melhor for essa compreensão, melhor será a modelagem e, com efeito, a previsão de observações futuras.
Vamos ilustrar regressões envolvendo séries temporais com um dataset extraído de Greene (2003), contendo observações trimestrais de diversas variáveis macroeconômicas do EUA de 1959 até 2009.
Tomemos duas séries contidas nesse dataset: realcons, Despesas reais de consumo pessoal e realdpi, Rendimento disponível privado real.
Greene (2003) considera os seguintes modelos:
(3)
Os modelos podem ser especificados no Python utilizando o pacote statsmodels como se segue.
Temos o da primeira especificação:
E o da segunda especificação:
Que além dos resultados da estimação de ambas as especificações, é possível visualizar os valores ajustados e os resíduos, como nos gráficos abaixo.
Enquanto cons_lm1 representa a primeira equação, cons_lm2 representa a segunda. Vemos que ambas possuem um resultado muito próximo, com apenas alguns desvios em diferentes pontos do tempo.
Em relação aos resíduos, o resultado é diferente. Enquanto a primeira equação possui maior variância (implicando em heterocedasticidade) e tendência descendente/ascendente (possivelmente implicando em autocorrelação), a segunda equação se comporta como um ruído branco, tornando-a melhor que o seu par.
Heterocedasticidade e Autocorrelação
É comum em regressões envolvendo séries temporais termos problemas de heterocedasticidade e autocorrelação nos resíduos.
A heterocedasticidade surge se diferentes termos de erro não possuem a mesma variância, assim os elementos da diagonal da matriz de covariância não serão os mesmos. Por exemplo, é possível que diferentes grupos na amostra possuam diferentes variâncias. A autocorrelação, por sua vez, surge tipicamente quando os dados possuem uma dimensão temporal. Isso implica que a matriz de covariância será não diagonal de modo que diferentes termos de erro são correlacionados.
O Teste Breush-Pagan (BP) para heterocedasticidade é fácil de ser implementado com rotinas de MQO básicas. Após estimar um modelo, nós tomamos os resíduos . Feito isso, nós regredimos o valor dos resíduos ao quadrado em relação às variáveis explicativas da equação original. Assim, basta verificar o teste de significância ou utilizar um teste multiplicando o da segunda regressão pelo número de observações.
Uma outra forma de verificar heterocedasticidade é através do Teste White, uma variação do Teste BP. Nele, no segundo estágio, nós regredimos os resíduos ao quadrado do primeiro estágio contra os regressores e também contra os valores ajustados sem alteração e os valores ajustados elevados ao quadrado.
Uma forma de contornar esse problema é corrigir o cálculo da matriz de covariância dos coeficientes estimados. A matriz de covariância é usada para calcular os erros padrão dos coeficientes, que por sua vez são usados para testar hipóteses sobre os coeficientes de regressão.
A Heteroskedasticity and Autocorrelation Consistent (HAC) standard errors, também conhecidos como Newey-West standard errors, são uma forma de corrigir a matriz de covariância na presença de heterocedasticidade e autocorrelação nos dados.A abordagem HAC, desenvolvida por Newey e West (1987), é uma extensão da matriz de covariância robusta que leva em consideração tanto a heterocedasticidade quanto a autocorrelação dos erros.
A ideia básica por trás dos erros padrão HAC é ponderar as observações de forma que as correlações entre os erros sejam devidamente consideradas ao calcular a matriz de covariância. Essa ponderação leva em conta o número de defasagens (lags) a serem considerados para capturar a autocorrelação, bem como a forma como as observações distantes no tempo devem ser menos ponderadas do que as observações próximas.
Usamos uma cesta de 12 moedas para construir um cenário contrafactual da taxa de câmbio após o último anúncio de pacote fiscal, com base em modelagem Bayesiana. No período, o dolár depreciou quase 5% e passou os R$ 6,15, enquanto que na ausência da intervenção a moeda deveria estar cotada em R$ 5,78.
A Análise Macro apresenta os resultados da IBC-br de Outubro de 2024, com gráficos elaborados em Python para coleta, tratamento e visualização de dados. Todo o conteúdo, disponível exclusivamente no Clube AM, foi desenvolvido com base nos métodos ensinados nos cursos da Análise Macro, permitindo aos assinantes acesso aos códigos e replicação das análises.
A Análise Macro apresenta os resultados da PMC de Outubro de 2024, com gráficos elaborados em Python para coleta, tratamento e visualização de dados. Todo o conteúdo, disponível exclusivamente no Clube AM, foi desenvolvido com base nos métodos ensinados nos cursos da Análise Macro, permitindo aos assinantes acesso aos códigos e replicação das análises.
Boletim AM
Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!