O que é Ciência de Dados?

By | Hackeando o R, Python

O que é Ciência de Dados?

O avanço da informática e das telecomunicações possibilitou o armazenamento e a distribuição de conjuntos de dados cada vez mais complexos. Lidar com essas bases de dados exigiu a sistematização de diversas técnicas de coleta e armazenamento, tratamento, exploração e visualização, experimentação e previsão e a apresentação de dados. Essa sistematização promoveu a criação da Ciência de Dados, que é basicamente um conjunto de metodologias criadas para receber milhares de formato de dados diferentes que estão disponíveis, com o objetivo de tirar informações ou conclusões significativas e úteis.

Mas o que os dados podem fazer?

Os dados podem descrever o estado atual de uma organização ou processo, como por exemplo, o lucro obtido por uma empresa ou o número de clientes ativos em uma plataforma. Essa descrição pode ser resumida em gráficos, painéis interativos (dashboards) ou alertas de mudança de um estado para o outro.

Através dos dados, também é possível diagnosticar as causas de um evento ou comportamento de um determinado indicador. Grandes corporações conseguem monitorar as atividades de seus usuários, e consequentemente mudanças dos seus comportamentos ou aplicar mudanças de um aplicativo para determinada amostra de usuários com a finalidade verificar se tal mudança gera maiores benefícios ou interações.

Um dos maiores benefícios dos dados está contido também na possibilidade de prever eventos futuros. Através de métodos estatísticos e matemáticos, é possível realizar uma estimativa do quanto uma empresa esperar vender ou faturar no mês seguinte, ou mesmo, a rotatividade dos usuários em um determinado horizonte de tempo.

Aplicações da Ciência de Dados

A Ciência de Dados pode ser aplicada em qualquer área ou campo que possa se extrair os dados e gerar informações úteis. Obviamente, isso leva a ter uma importância significativa em praticamente todos os setores da sociedade, visto a capacidade dessa relação do avanço de tecnologia. É possível citar exemplos de áreas e suas aplicações práticas que mais se beneficiam da Ciência de Dados.

Finanças

A Ciência de dados tem praticado uma importante função na indústria financeira, com a sua utilização por grandes bancos e gestoras para a criação de modelos complexos. Entre os exemplos de aplicações, é possível citar:

Gerenciamento de risco de crédito: analise de crédito de usuários de forma automática através dos dados históricos do usuário sobre finanças, ativos, score e transações.

Detecção de Fraudes: Identificação de fraudes em empréstimos, financiamentos e cartões através da análises dos dados e algoritmos;

Analise Quantitativa de Ativos: Formas de mensuração, previsão e estratégias de trading e hedging de ativos financeiros;

Trading de Alta Frequência: Análise de negociações e cotações para descobrir ineficiências de preços e oportunidades de arbitragem;

Previsão de séries econômicas: Com a abundância de dados e a utilização de modelos de aprendizado de máquina, como o uso de dados alternativos e análise de sentimento, é possível melhorar a qualidade de previsão de modelos de séries econômicas.

Saúde e Farmacêutica

Jornada do paciente e tratamentos: Compreender a progressão de doenças em pacientes e tratamento ou resultados de uma terapia é um dos principais exemplos de ciência de dados na área farmacêutica;

Análise de biomarcadores: Ciência de dados é utilizada para identificar biomarcadores e a sua importância e/ou relevância para a doenças, como estudos relacionados ao câncer;

Pesquisa e desenvolvimento: A Ciência de dados é utilizada para criar estudos com o objetivo de tratar doenças, criar novos remédios e melhorar sua eficiência. 

Indústria e varejo

Otimização de preço: Geralmente relacionado ao domínio da programação linear, a otimização de preços/precificação de produtos, também pode ser abordado com a ajuda de Ciências de Dados através da Ciência de Dados. Preços dinâmicos com base nas condições de mercado, preferências do usuário e outros fatores são usados ​​como insumos para avaliar a precificação ótima dos produtos;

Vendas no varejo: Os varejistas usam algoritmos para determinar as previsões de vendas, descontos de preços e e impacto de promoções;

Capacidade de produção e manutenção: Na fabricação, a Ciência de Dados é utilizada para determinar a manutenção do dispositivos, a eficácia do equipamento e a otimização da produção.

Governamental

A ciência de dados é usada por governos estaduais e nacionais para uma ampla gama de usos. Isso inclui tópicos sobre segurança cibernética, mudanças climáticas, causas sociais e outros casos de uso semelhantes que são voltado para políticas públicas e benefícios públicos. Alguns exemplos incluem:

Mudanças climáticas: Há uma extenso trabalho relacionado à aplicação de Ciência de Dados que está sendo realizado para detectar e compreender as causas das mudanças climáticas;

Segurança cibernética: Algoritmos criados a partir da Ciência de Dados podem ser aplicados na área.

___________________

Em geral, como a Ciência de Dados não é específica para qualquer indústria/área em particular, é perfeitamente possível aplicar algoritmos para diversos casos e negócios com objetivo de obter resultado rentáveis para uma empresa ou melhorar o bem-estar dos consumidores.

Análise de performance com Tidyquant

By | mercado financeiro

O pacote Tidyquant foi criado com o objetivo de reunir os principais pacotes de análise quantitativa financeira do R em um formato tidy.  No post de hoje, apresentamos o pacote e realizamos um exemplo de análise com ações da Ibovespa.

Introdução ao Tidyquant

O pacote {tidyquant} funciona como um wrapper das funções do principais pacotes do R para análises quantitativas, isto é, ele reutiliza as funções já prontas, realizando mudanças no output para o formato do tidyverse.

Dentre os pacotes que são reunidos, encontram-se:

  • zoo: pacote criado com a finalidade de criar objetos indexados ao tempo, além de fornecer funções para a manipulação de séries no tempo.
  • xts: pacote que funciona como uma extensão do objeto 'ts' do R e também do zoo. Oferece funções para facilitar a manipulação de dados.
  • quantmod: oferece funções para coleta, tratamento e modelagem de séries financeiras. Criado com base nos objetos zoo e xts.
  • TTR: Acrônimo de "Technical Trading Rules". Criado com o objetivo de criar indicadores técnicos e facilitar a criação de janelas móveis. Também criado com base em objetos zoo e xts.
  • PerformanceAnalytics: criado para facilitar a utilização de ferramentas análises econométricas e de performance em séries financeiras. Também utiliza de objetos zoo e xts.
  • Entre outros pacotes que podem ser checados na documentação do pacote.

Todos os pacotes acima foram criados no formato zoo/xts, portanto, apesar de integráveis entre eles, não são diretamente integráveis com o universo do tidyverse, dessa forma, funções como select(), filter(), group_by(), entre outras, não podem ser utilizadas com os objetos criados/utilizados por esses pacotes.

Por isso, criou-se em torno do tidyquant, uma série de funções que possibilitou utilizar todas as funções dos universo zoo/xts, em conjunto com o tidyverse. Dentre as principais funções wrapers do tidyquant, podemos citar:

  • tq_get(): wrapers das funções de coleta de dados financeiros e econômicos - quantmod (Yahoo) , quandl (Nasdaq Data Link), alphavantager (Alpha Vantage), riing (Tiingo) e Rblpapi (Bloomberg).
  • tq_transmute e tq_mutate(): Cria e transforma as colunas já existentes de um data frame com base em uma função dos pacotes utilizados para cálculos e manipulação de dados do formato zoo e xts. O resultado é sempre um objeto tbl/data.frame.
  • tq_performance() e tq_portfolio(): Baseadas nas funções de cálculos de performance e criação de portfolio de ativos financeiros.

Abaixo, iremos seguir um workflow contendo todas essas funções, utilizando os pacotes reunidos no tidyquant.

Coleta de dados de preços

Para a coleta de preços, é possível utilizar o tq_get() para obter dados dos preços de ações e de índices através do yahoo finance, bem como também de informações disponibilizadas pelo Nasdaq Link, como por exemplo taxas de juros.

No código abaixo, capturamos os dados de três ações do Ibovespa, do próprio índice, e também da taxa de retorno do CDI mensal.

Cálculo e Manipulação

Para transformar as colunas, utilizamos a função tq_transmute() como wraper de diversas funções, podemos utilizar a função tq_mutate_fun_options() para obter uma lista de quais funções podemos utilizar.

Para conhecer sobre todas as funções, é recomendado utilizar o helper do Rstudio com ? na função.

Uma vez que tenhamos compreendido as funções, calculamos os excessos de retornos mensais das ações selecionadas e da Ibovespa, isto é, subtraímos os retornos dos ativos pelo retorno da taxa de juros livre de risco.

No código abaixo, utilizamos group_by() para juntar os tickers das ações (visto que estamos lidando com um data frame em formato long) e aplicar o cálculo de função periodReturn() do {quantmod} dentro do argumento mutate_fun. Veja que os argumentos da função podem ser utilizados dentro de tq_transmute(), como por exemplo, period = "monthly", referenciando que a função deve transformar os dados em mensais.

Quando não há mais de uma categoria do data frame, como no caso do objeto ibov_price, não é necessário a utilização de group_by().

Análise de Performance

Para realizar uma analise de performance dos dados, utilizamos a função tq_performance(). Assim, como as funções anteriores, é possível saber os wrapers dessa função através de tq_performance_fun_options().

Como exemplo, é possível calcular uma tabela de valores anualizados dos ativos.

Bem como os valores do CAPM das ações.

Com tq_portfolio(), podemos construir os retornos de um portfolio das três ações acima. Escolhemos os pesos dentro do objeto w para cada ativo.

Com a função tq_portfolio(), selecionamos as colunas de retornos, ativos e o vetor de pesos, e escolhemos wealth.index = TRUE, para que seja retornado o gross returns (retorno bruto acumulado) para obter a riqueza criada pelo portfolio no período.

Em seguida, plotamos os valores do portfolio.

_____________________________________

Se interessou? Veja mais nos nossos cursos de Finanças Quantitativas

Coletando dados do SICONFI com R e Python

By | Indicadores

O Sistema de Informações Contábeis e Fiscais do Setor Público Brasileiro - Siconfi é uma ferramenta criada com o objetivo de receber informações contábeis, financeiras e de estatísticas fiscais oriundas dos municípios, estados e da união. O Siconfi também compartilha esses dados através de sua API e é possível acessá-la através do R e do Python.

Introdução

O site da API do Siconfi pode ser acessado no seguinte link: https://apidatalake.tesouro.gov.br/docs/siconfi/. Nele é possível obter os anexos relatórios, o RREO, o RGF e o DCA, além de outros dados de relatórios contábeis. Através do link, é possível construir um código para acessar a API de informações, entretanto, há pacotes e bibliotecas que oferecem funções prontas para importar os dados, e no qual as utilizaremos aqui.

SICONFI com o R

Com o R é possível acessar os dados do Siconfi com o pacote {siconfir}, criado por Pedro Castro.

Abaixo, com o pacote já instalado via CRAN, utilizou-se a função find_cod para buscar o código IBGE do município. Esse código é necessário para ser utilizado como chave para realizar a busca das informações dos relatórios em cada função do pacote que realiza a importação dos dados. O código IBGE encontrado pela função para o município de Varginha é o 3170701.

Com a função get_fiscal, foi importados os dados do relatório de gestão fiscal do primeiro trimestre (period = 1), do ano de 2020 (year = 2020)  do munícipio de Varginha (cod = 3170701).

Com o pacote é possível obter dados de mais relatórios do Siconfi executando o mesmo procedimento da função acima.

SICONFI com o Python

Para o Python, existe a biblioteca siconfipy, criada pelo mesmo autor de {sincofir}, com o mesmo objetivo. Entretanto, no presente momento da finalização desse post, não foi possível utilizar a biblioteca para acessar a API.

Outra forma de acesso (além de uma construção manual de acesso a API) pode ser feito através do site e da biblioteca do Base de Dados.

Abaixo no código, utiliza-se a tabela do site disponível no link acima, em conjunto com a biblioteca basedosdados. Para obter os dados do Siconfi com a Base de Dados, é necessário criar uma conta e um projeto no Google Cloud, e inserir no argumento billing_project_id da função bd.read_table().

Diferente da função do R, será importado todas as informações disponíveis de todos os entes do país, o que pode resultar em uma demora de carregamento.

Coleta e tratamento de dados eleitorais

By | Data Science

Hoje inauguramos uma série de exercícios temáticos sobre as Eleições de 2022, trazendo dados, análises e códigos sobre esse tema polêmico. De início, exploramos os dados disponíveis, verificando formas de acesso e análises que podem ser feitas, utilizando a linguagem R. Como exemplo, hoje analisamos a estratégia de redes sociais dos candidatos/partidos com os dados do TSE.

Aviso: dados e análises aqui apresentadas não refletem apoio político do autor ou da empresa Análise Macro.

Dados

Existem vários conjuntos de dados disponíveis, estruturados ou não, sobre a temática eleição e política aqui no Brasil. Para colocar em números, somente no TSE existem mais de 130 datasets até a data de hoje. Em geral, você encontra estruturas de dados do tipo microdados e séries temporais. Abaixo listamos alguns exemplos de datasets disponíveis, por fonte:

  • Portal de Dados Abertos do TSE:
    • Candidatos: informações sobre os candidatos nas eleições (desde 1933), como perfil, cargo concorrido, partido, declarações de bens, etc;
    • Resultados: informações sobre os resultados das eleições (desde 1933), em termos de votação, boletim da urna, da seção eleitoral, etc;
    • Pesquisas eleitorais: informações sobre pesquisas eleitorais (desde 2012), como questionários, notas fiscais, plano amostral, metodologia, etc;
    • Eleitorado: informações sobre os eleitores nas eleições (desde 1994), como perfil, domicílio eleitoral, grau de escolaridade, gênero, etc.
  • Poder 360: pesquisas eleitorais da empresa Poder360;
  • CEPESP Data: dados do TSE tratados e disponibilizados de forma integrada, com indicadores analíticos e aplicativos web para consulta e interação.

Formas de acesso

O acesso aos conjuntos de dados sobre a temática de eleições pode ser feito por diferentes meios, a depender da forma de disponibilização (arquivos de download, API, etc.). Usando as linguagens R ou Python destacam-se algumas opções:

  • Base dos Dados: projeto colaborativo que disponibiliza um banco de dados estruturado com tabelas tratadas, podendo ser consultadas através de pacotes/bibliotecas no R, Python, SQL, etc;
  • Portal de Dados Abertos do TSE: arquivos brutos (geralmente compactados como .zip), organizados por tema e ano, podendo ser importados e tratados em um ambiente de programação através de links de download;
  • Pacote {electionsBR} no R: oferece funções para coleta e tratamento automatizado dos dados do TSE, simplificando e economizando várias linhas de código.

Neste exercício vamos mostrar como "beber diretamente da fonte", ou seja, vamos coletar e tratar os dados brutos do TSE diretamente de seu Portal. Essa opção tem como vantagem a maior flexibilidade de escolha de quais dados serão alvo de análise, assim como quais tratamentos serão aplicados, possibilitando analisar dados novos/recém lançados ou que ainda não estão disponíveis nas outras opções.

Exemplo no R

Como exemplo didático, neste exercício vamos mostrar como acessar os dados eleitorais do TSE limitando o escopo a apenas dois conjuntos de dados:

  • Candidatos: traz informações sobre o cargo do candidato, nome, número, partido, coligação, situação do registro de candidatura, gênero, escolaridade, a unidade eleitoral (abrangência territorial), prestação de contas, chave para cruzamento com outras tabelas do TSE e etc;
  • Redes sociais dos candidatos: traz informações da chave de identificação do candidato para cruzamento com outras tabelas do TSE e sobre as redes sociais (links) de campanha declaradas pelo candidato.

Conforme mencionado, os conjuntos de dados são organizados por ano da eleição, portanto focaremos na eleição deste ano (2022). Por ser a eleição atual, vale dizer que a maioria dos cadastros dos candidatos ainda está em situação de "cadastro" na data de hoje (10 de agosto de 2022), ainda esperando o julgamento da Justiça Eleitoral para serem alterados para "apto" ou "inapto". Portanto, recomendamos cuidado e atenção ao analisar os dados, além de sempre consultar a documentação das tabelas no arquivo de "LEIA ME" que é disponibilizado em conjunto aos dados.

O Portal de Dados do TSE pode ser acessado pelo link: https://dadosabertos.tse.jus.br/

Agora vamos aos códigos!

primeiro passo é localizar no Portal do TSE o(s) link(s) para o(s) conjunto(s) de dados de interesse. Em nosso exemplo, as tabelas de Candidatos e de Redes sociais estão organizadas dentro do dataset "Candidatos - 2022", onde encontramos os links abaixo para os arquivos compactados (.zip) que possuem os CSVs para importação. Partindo do princípio de que você não gosta de procedimentos manuais, o segundo passo é utilizar uma função de download apontando os links identificados para automatizar a extração dos dados, conforme abaixo:

Com o código acima nós utilizamos o poder do R para facilmente acessar o Portal do TSE e baixar os arquivos dos conjuntos de dados de interesse para o computador. Note que o código salva tudo em uma pasta "data" no diretório atual de trabalho do R. Em seguida, o terceiro passo é descompactar os arquivos .zip baixados para disponibilizar os arquivos CSV para importação (quarto passo). Para importar os dados é necessário especificar a codificação de caracteres do arquivo, que neste caso é "Latin-1". O código abaixo faz isso de maneira automatizada:

Por fim, cruzamos as duas tabelas utilizando a chave interna do TSE — variável SQ_CANDIDATO, não é o número de campanha do candidato —, de modo a possibilitar a análise dos dados em uma única tabela com as variáveis de interesse:

Análises

A parte (nem tanto) difícil já passou e agora que você tem os dados em mãos fica mais fácil analisá-los, ainda mais ao utilizar os pacotes do {tidyverse} no R. Diversas análises podem ser feitas com estes dados: no exemplo abaixo relacionamos as principais redes sociais cadastradas pelos candidatos, apresentando o quantitativo de candidatos em cada rede (note que um mesmo candidato pode cadastrar mais de uma rede social para campanha política):

Códigos de replicação deste exercício estão disponíveis para membros do Clube AM.

Podemos notar que a maioria dos candidatos tem como estratégia de campanha o uso de redes sociais "consagradas", como o Facebook e Instagram. Podemos fazer essa mesma análise em termos mais desagregados, olhando no nível estadual:

O mapa mostra um padrão interessante e, ao mesmo tempo, curioso: as redes sociais Facebook e Instagram predominam na estratégia de campanha da maioria dos candidatos e "dividem" o país meio a meio. Por fim, apresentamos dados sumarizados sobre as redes sociais dos candidatos a nível de partido na tabela abaixo:

Saiba mais

Para saber mais sobre dados eleitorais, R, programação e análise de dados faça parte do Clube AM e confira o curso de Microdados Brasileiros, onde tratamos de dados eleitorais e vários outros.

Códigos de replicação deste exercício estão disponíveis para membros do Clube AM.

Na próxima semana analisaremos o efeito das eleições sobre os preços de ações de empresas estatais brasileiras, não perca!

Tipos de Modelos

By | Hackeando o R, Python

Modelos são simplificações ou interpretações da realidade, expressas em fórmulas matemáticas. A montagem de um modelo é útil para estudar determinado fenômeno complexo, seja qual for a área de estudo. No post de hoje, iremos descrever os tipos de modelos e os seus usos e propósitos em Data Science.

A taxonomia apresentada para os tipos de modelo a seguir visam informar como a categoria do modelo é utilizada e os diversos aspectos de com o modelo pode ser criado ou avaliado. A seguir, apresentamos três tipos de categorias.

Modelo descritivo

O propósito de um modelo descritivo é descrever ou ilustrar as características de um conjunto de dados. O foco principal dessa análise é enxergar padrões, tendências ou qualquer qualidade e atributo de uma variável.

Exemplo

Como exemplo, podemos averiguar o gráfico a seguir. Ele representa uma série temporal, no qual as observações são o preços diários de fechamento de uma ação. É possível construir um modelo descritivo para estimar a tendência da série ao longo do tempo. Na linha azul, é construído uma regressão local do tipo LOESS, que é basicamente uma regressão móvel suavizada e flexível. Através do gráfico é possível perceber a tendência não linear, significando que há uma relação não linear entre o preço da ação e o tempo.

Modelos inferenciais

O objetivo dos modelos inferenciais é produzir uma decisão de uma questão de pesquisa ou explorar uma hipótese especifica, similar ao que é alcançado por testes estatísticos.  Um modelo inferencial inicia com um ideia predefinida sobre uma população e produz uma conclusão estatística tal como um intervalo de estimação ou a rejeição de uma hipótese.

Modelagem inferencial produz resultados probabilísticos tal como p-valor, intervalos de confiança, ou probabilidade posterior. Geralmente, é necessário suposições probabilísticas sobre os dados (tal como a normalidade), portanto, a qualidade destes modelos dependem fortemente do quão alinhado as suposição estão dos dados.

Exemplo

Por exemplo, através do dataset house, que contém dados sobre as características e preços de casas a vendas na cidade de Windsor, é possível construir um modelo inferencial que buscaria saber, através da amostra, a pergunta: casas com ar condicionado possuem maiores preços de venda em comparação aquelas que não possuem?

Com isso, é definido a hipótese nula (H0) e a hipótese alternativa (H1). Em seguida, através de uma análise do conjunto de dados, poderíamos supor que os dados são normalmente distribuídos e aplicar o teste t para responder a pergunta acima. Com o resultado do teste, obtém-se o p-valor verificando se de fato há uma diferença no preço de venda de casas que possuem ar condicionado ou não.

O exemplo acima é trabalhado no post O que é Inferência Estatística?, onde também é introduzido o conceito de inferência.

Modelos preditivos

Modelos podem ser construídos com o objetivo de produzir a previsão mais exata possível para novos dados. Em modelos preditivos, o principal objetivo é que os valores previstos tenham maiores possibilidades de serem próximos o suficiente do valor verdadeiro dos novos dados.

Um exemplo óbvio é o que economistas geralmente fazem: previsões sobre o PIB, inflação, desemprego e outras variáveis. Se um economista realiza uma previsão acima do valores reais, então houve um otimismo, e se a informação projetada é utilizada por vários agentes, possivelmente esses agentes erraram em suas decisões. O contrário, uma previsão abaixo dos valores reais, também causa desconforto.

Para esse tipo de modelo, o problema não é a preocupação com um tipo de pergunta ou a resposta dela, tal como o propósito dos modelos inferenciais, e sim o valor exato de quanto será o PIB no próximo trimestre. Portanto, não se está diretamente preocupado com o que afeta o PIB e quais variáveis se relacionam, e sim com o seu valor futuro (o mais exato possível).

Existem inúmeros modelos e métodos para construir um modelo preditivos, e a parte mais importante desses modelos é como ele é desenvolvido.

Um modelo mecanicista é construído partindo do principio de suposições construídas anterior a exploração de dados. Essas suposições são construídas a partir do conhecimento teórico e na construção de uma equação matemática do modelo, antes mesmo de realizar uma análise dos dados, ou mesmo obtê-los.  Uma vez especificado modelo, os dados são utilizado para estimar os parâmetro desconhecidos para que as previsões possam ser feitas. Esse tipo de modelo preditivo possui certas similaridades com um modelo inferencial, entretanto, é possível tomar conhecimento dos dados previstos com facilidade, ocasionando um ciclo de feedback dos resultados. Outro ponto positivo é que os resultados desse tipo de modelo preditivo são bastante simples de avaliar.

Outro tipo de modelo é conhecido como modelos empíricos, que são criado com suposições mais vagas. Esse modelos são muito utilizado na categoria de machine learning. Esse modelo é definido apenas pela estrutura da previsão, sem qualquer suposição teórica ou probabilística. A avaliação desse modelo é feita apenas com base na acurácia do dados. Se a estrutura desse modelo escolhido for o ideal para o conjunto de dados, então a previsão estarão próximas do valores reais.

Exemplo

Através de um modelo preditivo, é possível construir a previsão mensal da Produção Industrial (PIM-PF/IBGE). Abaixo, na imagem, está o dashboard do modelo preditivo do indicador construído pela Análise Macro e ensinado aos alunos do curso Modelos Preditivos (de Machine Learning) aplicados à Macroeconomia.

Conexões entre os tipos de modelos

Veja que abordamos as três categorias de modelos, entretanto, não especificamos quais as equações devem utilizadas em cada tipo. Na realidade, é possível que uma equação pode ser implemente em qualquer um dos três tipos. Por exemplo, um modelo de regressão pode ser utilizado no modelo descritivo, inferencial e preditivo.

Entretanto, é possível que outros modelos possam não ser mutuamente utilizado em diferentes tipos. É comum que modelos da categoria de previsão sejam difíceis de se utilizar na área de inferência devido a sua forma de descrever os dados. Apesar disto, ainda sim os resultados de um modelo preditivo podem ser úteis para obter informações sobre os modelos descritivos e inferenciais.

Com isso, concluímos que o conhecimento de modelagem deve abranger essas três categoriais. Aqui na Análise Macro, ensinamos nossos alunos todo o processo através das nossas trilhas de

Econometria e Machine Learning e Macroeconomia Aplicada.

____________

Referência

Silge, J., Kuhn, M. Tidy Modeling with R, O'Reilly Media, 2022.

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais
e conteúdos exclusivos sobre Análise de Dados!

Assinar Gratuitamente