Nova Formação: Produção de Trabalhos Empíricos usando o R

Tá no final da graduação e precisa entregar um TCC? Lutando no mestrado para ter uma ideia para a dissertação? No Doutorado, se torturando com bases de dados? É professor e escreve papers, mas quer migrar para o R? Tá no mercado, mas também escreve artigos científicos? Se você respondeu sim para alguma dessas perguntas, leia as próximas linhas, porque temos uma nova Formação que pode ser do seu interesse!


Ao longo dos últimos anos, temos ajudado uma porção de gente em uma dessas situações aqui na Análise Macro. Seja através dos nossos Cursos Aplicados de R, seja através de consultorias customizadas, que atendem necessidades específicas. Já atendemos médicos em doutoramento, engenheiros enrolados com a dissertação de mestrado, economistas em busca de uma ideia de pesquisa, etc, etc. Nossa proposta para esse ano foi, então, construir uma Formação que integrasse os conhecimentos necessários para pessoas interessadas em lidar com bases de dados, cumprindo as quatro etapas necessárias para qualquer trabalho empírico: coleta de dados, tratamento, análise e apresentação de resultados. O programa completo da Formação envolverá seis módulos e, importante, não irá supor nenhum conhecimento dos alunos. Isso mesmo, a Formação não terá pré-requisitos. Listamos a seguir cada um dos módulos:

 

  • Introdução ao R;
  • Análise Exploratória de Dados;
  • Modelagem 1;
  • Modelagem 2;
  • Modelagem 3;
  • Construindo apresentações e relatórios usando RMarkdown.

 

Vamos começar do zero, com a instalação dos programas necessários e uma introdução ao R e ao RStudio. Depois disso, vamos aprender a coletar e tratar dados com os pacotes do tidyverse. Feito isso, passamos à exploração dos dados. Com os dados coletados, tratados e já com alguma hipótese na cabeça, passamos à etapa de modelagem propriamente dita. Nessa fase, vamos cobrir as três principais estruturas de dados: dados cross-section (corte transversal), séries temporais dados em painel. Por fim, com nosso modelo construído, podemos apresentar os resultados utilizando o Rmarkdown, uma poderosa ferramenta de produção de relatórios e apresentações.

Além dos seis módulos, como grande diferencial da Formação, os alunos também terão acesso à seis mentorias, realizadas via appear.in, com o professor. Nessas mentorias, os alunos poderão tirar dúvidas sobre a hipótese de trabalho, problemas específicos de bases de dados, onde encontrar dados, qual seria o melhor modelo, etc.

Todos os módulos ficarão disponíveis desde o início da Formação e poderão ser acessadas durante 1 ano pelos alunos. Por fim, todos os alunos da Formação também terão acesso a mais de 50 exercícios de análise de dados do Clube do Código, onde poderão ver na prática como coletar, tratar, analisar e apresentar dados!

Nós abriremos as inscrições no final de abril. Quem tiver interesse e quiser colocar o nome na lista, mande e-mail para comercial@analisemacro.com.br e garanta a sua vaga desde já! Para quem se antecipar, daremos desconto de 20%!

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

FED Speeches: Quantificando a Incerteza da Política Monetária com IA e Python

Os discursos dos membros do FED podem dar indicativos relevantes sobre a condução da política monetária, como a percepção de incerteza na fala e na escolha das palavras. Sendo assim, monitorar e interpretar não é suficiente, é necessário quantificar a incerteza nos discursos. Neste exercício mostramos o caminho para construir um indicador de incerteza da política monetária, usando métodos inovadores de IA com o Python.

Medindo o Hiato do Produto do Brasil usando Python

Uma medida extremamente importante para a avaliação econômica de um país é o Hiato do Produto. Neste post, realizamos uma comparação das diferentes formas de estimação dessa variável não observável utilizando o Python como ferramenta de análise de dados.

Como analisar a contribuição para a Volatilidade de uma carteira de ações usando Python

A contribuição para a volatilidade fornece uma decomposição ponderada da contribuição de cada elemento do portfólio para o desvio padrão de todo o portfólio. Em termos formais, é definida pelo nome de contribuição marginal, que é basicamente a derivada parcial do desvio padrão do portfólio em relação aos pesos dos ativos. A interpretação da fórmula da contribuição marginal, entretanto, não é tão intuitiva, portanto, é necessário obter medidas que possibilitem analisar os componentes. Veremos portanto como calcular os componentes da contribuição e a porcentagem da contribuição. Vamos criar as respectivas medidas usando a linguagem de programação Python.

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.