Calculando o Value at Risk gaussiano no R

Uma das medidas de risco mais populares no mundo das finanças está representado no Value at Risk, ou popularmente conhecido como VaR. O VaR mensura a perda em valor monetário de um portfólio em um determinado horizonte de tempo, com base em um intervalo de confiança. Dentre as diversas possibilidades de cálculo do VaR, que depende tanto da forma que se encontram os dados, quanto o objetivo a ser alcançado, iremos ensinar no post de hoje o método do VaR gaussiano.

O VaR gaussiano é uma da formas mais simples que existem para se calcular o risco da perda monetária de um portfólio, assumindo que a distrubuição dos retornos seja normal. Portanto, para calcular o VaR nesse tipo de medida, necessitamos apenas do intervalo de confiança, da média dos retornos e o desvio padrão dos retornos. Seguimos a seguinte equação:

(1)   \begin{equation*}VaR_\alpha = -(\mu - \sigma * Z_\alpha) * I, \end{equation*}

onde \alpha é o nível de significância do VaR, \mu é média dos retornos, \sigma é o desvio padrão, Z_\alpha é o z-score baseado no nível de significância do VaR e I é o atual valor monetário do portfólio.

Vamos então realizar os cálculos do VaR.

library(tidyverse)
library(PerformanceAnalytics)
library(timetk)
library(quantmod)

Primeiro, iremos retirar os dados dos preços e calcular o retorno do portfólio, com base no peso de cada ativo.

# Define os ativos que irão ser coletados

tickers <- c("PETR4.SA", "ITUB4.SA", "ABEV3.SA", "JBSS3.SA")

# Define a data de início da coleta

start <- "2019-12-01"

# Realiza a coleta dos preços diários

prices <- getSymbols(tickers,
                     auto.assign = TRUE,
                     warnings = FALSE,
                     from = start,
                     src = "yahoo") %>% 
  map(~Cl(get(.))) %>% 
  reduce(merge) %>% 
  `colnames<-`(tickers)


# Calcula os retornos mensais

asset_returns <- Return.calculate(prices,
                                  method = "log") %>% 
  na.omit()


# Define os pesos

w <- c(0.50, 0.27, 0.13, 0.10)

# Calcula o retorno do portfolio baseado no peso de cada ativo

portfolio_return <- Return.portfolio(asset_returns,
                                      weights = w) %>% 
  `colnames<-`("port_returns")

# Calcula o retorno do portfolio com 1000 reais investidos

value <- cumprod(1 + portfolio_return) * 1000

Feito isso, podemos calcular o VaR. Devemos definir o valor monetário do nosso portfólio. Considerando que investimos 1000 reais no primeiro dia, sem aportar nenhum outro valor, temos que nosso portfólio até então chegou ao valor de 683,38 reais (podemos dizer que a montagem do portfólio não foi boa).

Em seguida, calculamos nosso VaR com base na média e no desvio padrão do portfólio. Utilizaremos dois níveis de significância para comparação: 1% e 5%.

# Calcula a média dos retornos

port_mean <- mean(portfolio_return)

# Calcula o desvio-padrão dos retornos

port_risk <- sd(portfolio_return)


# Calcula o Var gaussiano com 1% e 5% de significância

var_01 <- -(port_mean + port_risk * qnorm(0.01))

  
var_05 <- -(port_mean + port_risk * qnorm(0.05)) 


# Calcula o valor monetário com base na significância


value_01 <- round(last(value) * var_01)

value_05 <- round(last(value) * var_05)

Por fim, podemos comparar em um gráfico nosso VaR.

# Transforma em tibble

portfolio_return_tbl <- portfolio_return %>% 
  tk_tbl(preserve_index = TRUE,
         rename_index = "date")


# Plota o gráfico de densidade

ggplot(portfolio_return_tbl, aes(x = port_returns))+
  geom_density(color = "darkblue",
               size = .8)+
  geom_vline(xintercept = -var_01,
             linetype = "dotted",
             color = "red",
             size = 1)+
  annotate(geom = "text",
           x = -var_01,
           y = 6,
           label = paste("1% 1 Dia VaR", "R", value_01),
           color = "red",
           angle = 90,
           alpha = .8,
           vjust = -1.75)+
   geom_vline(xintercept = -var_05,
             linetype = "dotted",
             color = "black",
             size = 1)+
  annotate(geom = "text",
           x = -var_05,
           y = 6,
           label = paste("5% 1 Dia VaR", "R", value_05),
           color = "black",
           angle = 90,
           alpha = .8,
           vjust = -1)+
  theme_minimal()+
  labs(title = "Densidade de retornos do Portfólio",
       subtitle = "1% e 5% 1 Dia Gaussian Value at Risk",
       caption = "Dados: Yahoo Finance | Elaboração: analisemacro.com.br",
       x = "",
       y = "")

________________________

(*) Para entender mais sobre Mercado Financeiro e medidas de risco, confira nosso curso de R para o Mercado Financeiro.
________________________

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Criando operações SQL com IA Generativa no R com querychat

No universo da análise de dados, a velocidade para obter respostas é um diferencial competitivo. Frequentemente, uma simples pergunta de negócio — “Qual foi nosso produto mais vendido no último trimestre na região Nordeste?” — inicia um processo que envolve abrir o RStudio, escrever código dplyr ou SQL, executar e, finalmente, obter a resposta. E se pudéssemos simplesmente perguntar isso aos nossos dados em português, diretamente no nosso dashboard Shiny?

Dashboard Financeiro com IA e Shiny Python: Análise de Dados Abertos da CVM

Este artigo apresenta um tutorial completo sobre como construir uma ferramenta de análise financeira de ponta. Utilizando Shiny for Python, demonstramos a automação da coleta de dados das Demonstrações Financeiras Padronizadas (DFP) da CVM e o tratamento dessas informações com Pandas. O ponto alto do projeto é a integração da IA Generativa do Google Gemini, que atua como um assistente de análise, interpretando os dados filtrados pelo usuário e fornecendo insights contábeis e financeiros em tempo real. O resultado é um dashboard dinâmico que democratiza a análise de dados complexos e acelera a tomada de decisão.

Econometria, ML ou IA para previsão da PMS?

Prever a Pesquisa Mensal de Serviços (PMS/IBGE) é um desafio por natureza: trata-se de uma série mensal, sujeita a volatilidade e choques que vão de fatores sazonais a mudanças estruturais no setor. Para enfrentar esse problema, realizamos um exercício de comparação entre três abordagens de modelagem: econometria tradicional (ARIMA), machine learning (XGBoost) e inteligência artificial (TimeGPT).

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.