Curso online
Em qualquer nova área do conhecimento que você for desbravar é importante conhecer as bases, os fundamentos. Este curso te fornecerá o conteúdo necessário para que você entenda e inicie o processo de aplicação de ciência de dados em seu dia-a-dia.
01
Projetar e construir pipelines de dados completos, do início ao fim — da coleta à entrega.
02
Automatizar fluxos de dados que antes dependiam de execução manual em planilhas ou notebooks.
03
Coletar dados de APIs, bancos e arquivos externos, integrando múltiplas fontes em um único sistema.
04
Transformar, limpar e armazenar dados em bases relacionais e estruturas analíticas bem definidas.
05
Agendar e orquestrar tarefas com Apache Airflow, garantindo que tudo rode automaticamente.
06
Gerenciar versões e histórico de código com Git e GitHub, aplicando boas práticas de engenharia.
07
Documentar, monitorar e validar a qualidade dos seus dados, criando pipelines confiáveis e reproduzíveis.
08
Disponibilizar dados prontos para consumo, alimentando dashboards, relatórios e modelos de machine learning.
09
Pensar como um engenheiro de dados entendendo não apenas como analisar, mas como fazer a análise acontecer todos os dias, sozinha.
Este curso foi criado para profissionais que já dominam a análise de dados e querem dar o próximo passo: colocar seus modelos e relatórios em produção.
Você vai aprender de forma prática e progressiva, construindo ao longo das aulas um pipeline completo de dados econômicos e financeiros — desde a coleta em APIs públicas até a entrega automatizada em bases prontas para análise.
Cada módulo combina teoria, prática e projeto: você aprende o conceito, vê o código funcionando e aplica imediatamente no seu ambiente.
O curso foi pensado para ser leve e eficiente:
Ao final, você terá construído o seu próprio Data Lake Automatizado de Dados Econômicos e Financeiros, que poderá servir de base para dashboards, modelos e análises reais.
Este módulo abre o curso com a mudança de mentalidade que separa engenheiros de outros profissionais da área de dados. Você entenderá o ciclo de vida da informação — da coleta à entrega — e por que a automação é o pilar da análise moderna.
Criação do esqueleto da Bloomberg aberta: você vai estruturar a base do seu Data Lake Econômico-Financeiro, definindo as camadas raw, silver e gold, e preparando o ambiente (pastas, banco e scripts iniciais) que sustentará toda a coleta e automação de dados ao longo do curso.
Você aprenderá a representar o mundo em dados. Vamos trabalhar com modelagem relacional e dimensional, construindo bases organizadas e consistentes, preparadas para alimentar qualquer tipo de análise.
Construção da camada bruta e modelagem do Data Lake.
Você criará o primeiro banco relacional do projeto e modelará tabelas como dim_indicador, dim_fonte e fact_valores.
Ao final, seu sistema estará pronto para receber dados de múltiplas fontes e armazená-los de forma consistente e escalável — o alicerce da sua “Bloomberg pessoal”.
Aqui o curso se torna prático. Você vai aprender a integrar diferentes fontes — APIs, arquivos e bancos — e consolidar tudo em pipelines limpos e confiáveis.
Primeira coleta de dados da sua Bloomberg aberta.
Você construirá pipelines de ingestão que acessam dados reais de APIs públicas — como Bacen, IBGE, FRED e B3 — e armazenam essas informações em sua camada raw.
Em seguida, aplicará transformações com pandas para consolidar e padronizar os dados na camada silver, deixando tudo pronto para uso analítico.
Você vai transformar seu pipeline em um sistema que funciona por conta própria.
Aprenderá a orquestrar tarefas, criar agendamentos automáticos e lidar com falhas e dependências.
Pipeline automatizado de atualização diária.
Você criará uma DAG no Apache Airflow que coleta, transforma e armazena os dados de forma automática — atualizando indicadores como PIB, inflação, juros e câmbio todos os dias.
Ao final deste módulo, sua “Bloomberg aberta” será um sistema vivo, com pipelines que rodam e se atualizam sozinhos.
Com o pipeline rodando, é hora de garantir qualidade, rastreabilidade e entrega.
Você vai aprender a testar, documentar e disponibilizar dados para diferentes consumidores: analistas, cientistas e gestores.
Servindo dados da sua Bloomberg pessoal.
Você vai criar uma camada gold consolidada, documentar seus pipelines e publicar uma base de dados pronta para consumo — seja por dashboards (Metabase, Power BI, Streamlit) ou APIs simples.
Seu sistema agora fornecerá dados atualizados automaticamente para outros usuários, como se fosse um serviço de dados em tempo real.
Chegou a hora de integrar tudo. Você aplicará os conceitos aprendidos para construir um pipeline completo e automatizado — com ingestão, transformação, armazenamento e entrega de dados reais. O contexto será econômico-financeiro, mas a estrutura e as ferramentas poderão ser aplicadas a qualquer área de dados.
Entrega da sua Bloomberg automatizada.
Você integrará todos os módulos em um pipeline completo e reprodutível, capaz de coletar, processar e entregar dados econômicos e financeiros em tempo real.
O sistema final funcionará como um hub automatizado de dados abertos, atualizado diariamente e pronto para uso em análises, modelos e dashboards — sua prova prática de domínio em Engenharia de Dados.
Cada módulo conta com videoaulas curtas e objetivas, que alternam explicação conceitual e demonstração prática. Você verá o código sendo escrito e executado, compreenderá a lógica por trás de cada decisão e aplicará imediatamente no seu projeto.
Todos os códigos apresentados nas aulas estarão disponíveis para download — organizados em notebooks e scripts comentados. Você poderá rodar tudo localmente ou no VS Code Web/Google Colab, acompanhando cada etapa da construção do seu pipeline.
O curso oferece modelos prontos para documentar seus pipelines: diagramas de arquitetura, estrutura de pastas, planilhas de acompanhamento e arquivos README padronizados para publicação no GitHub.
Você trabalhará com dados reais de fontes como Banco Central, IBGE, FRED e B3, construindo uma base sólida e confiável para seus testes e experimentos. Essas fontes são exemplos de APIs e sistemas que você poderá adaptar para qualquer área de atuação.
Todos os exemplos são executados com ferramentas amplamente usadas no mercado — Python, SQL, Airflow, Git, VS Code e Colab — simulando um ambiente de trabalho moderno e reprodutível.
Aprender sozinho pode ser desafiador, mas você não precisa enfrentar essa jornada sem apoio. No universo dos nossos cursos, dúvidas são sinais de progresso. Elas indicam que você está avançando, processando o conteúdo e buscando dominar os conceitos e ferramentas.
Nosso suporte personalizado preenche a lacuna entre o aprendizado teórico e a prática aplicada, guiando você passo a passo em cada etapa. Não se trata apenas de responder perguntas; é um acompanhamento que transforma sua experiência de aprendizado.
Em qualquer nova área do conhecimento que você for desbravar é importante conhecer as bases, os fundamentos. Este curso te fornecerá o conteúdo necessário para que você entenda e inicie o processo de aplicação de ciência de dados em seu dia-a-dia.
Nosso suporte é como o professor que está sempre por perto, pronto para ajudar você a superar os obstáculos e alcançar seus objetivos.
Para você:
Com a Análise Macro, você não está aprendendo sozinho.
Está construindo um futuro sólido, com a certeza de que terá as respostas e o apoio que precisa para evoluir.
Ao final do curso você receberá o certificado da Análise Macro de “Fundamentos de rngenharia de dados“ – 30 horas.
Este certificado comprova que você domina os fundamentos técnicos e práticos da engenharia de dados moderna — da coleta e modelagem à automação e entrega de sistemas analíticos.
Mais do que um documento, ele representa um portfólio vivo, já que o seu projeto final — o Data Lake Automatizado de Dados Econômicos e Financeiros — poderá ser publicado no GitHub como prova concreta da sua capacidade de construir pipelines reais de dados.
Você sairá deste curso com:
Vítor Wilher
(Mestre em Economia e Cientista-Chefe da Análise Macro)
Especialista em ciência de dados. Dá aulas e presta consultoria há 7 anos na área de dados, já tendo ajudado milhares de alunos no Brasil a darem o primeiro passo em análise de dados envolvendo R e Python.
Luiz Henrique
(Cientista de Dados)
Especializado em coleta, tratamento, modelagem e apresentação de dados financeiros e econômicos em R e Python.
R$ 997,00
À vista no PIX ou boleto bancário
Ou em até 10× de R$ 99,70 no cartão de crédito.
Esse valor inclui:
comercial@analisemacro.com.br – Rua Visconde de Pirajá, 414, Sala 718
Ipanema, Rio de Janeiro – RJ – CEP: 22410-002