Oferta Válida até 28/02/2026 às 23h59 –
Curso online
Curso online
Em qualquer nova área do conhecimento que você for desbravar é importante conhecer as bases, os fundamentos. Este curso te fornecerá o conteúdo necessário para que você entenda e inicie o processo de aplicação de ciência de dados em seu dia-a-dia.
01
Projetar e construir pipelines de dados completos, do início ao fim — da coleta à entrega.
02
Automatizar fluxos de dados que antes dependiam de execução manual em planilhas ou notebooks.
03
Coletar dados de APIs, bancos e arquivos externos, integrando múltiplas fontes em um único sistema.
04
Transformar, limpar e armazenar dados em bases relacionais e estruturas analíticas bem definidas.
05
Agendar e orquestrar tarefas com Apache Airflow, garantindo que tudo rode automaticamente.
06
Gerenciar versões e histórico de código com Git e GitHub, aplicando boas práticas de engenharia.
07
Documentar, monitorar e validar a qualidade dos seus dados, criando pipelines confiáveis e reproduzíveis.
08
Disponibilizar dados prontos para consumo, alimentando dashboards, relatórios e modelos de machine learning.
09
Pensar como um engenheiro de dados entendendo não apenas como analisar, mas como fazer a análise acontecer todos os dias, sozinha.
Este curso foi criado para profissionais que já dominam a análise de dados e querem dar o próximo passo: colocar seus modelos e relatórios em produção.
Você vai aprender de forma prática e progressiva, construindo ao longo das aulas um pipeline completo de dados econômicos e financeiros — desde a coleta em APIs públicas até a entrega automatizada em bases prontas para análise.
Cada módulo combina teoria, prática e projeto: você aprende o conceito, vê o código funcionando e aplica imediatamente no seu ambiente.
O curso foi pensado para ser leve e eficiente:
Ao final, você terá construído o seu próprio Data Lake Automatizado de Dados Econômicos e Financeiros, que poderá servir de base para dashboards, modelos e análises reais.
Este módulo abre o curso com a mudança de mentalidade que separa engenheiros de outros profissionais da área de dados. Você entenderá o ciclo de vida da informação — da coleta à entrega — e por que a automação é o pilar da análise moderna.
Criação do esqueleto da Bloomberg aberta: você vai estruturar a base do seu Data Lake Econômico-Financeiro, definindo as camadas raw, silver e gold, e preparando o ambiente (pastas, banco e scripts iniciais) que sustentará toda a coleta e automação de dados ao longo do curso.
Você aprenderá a representar o mundo em dados. Vamos trabalhar com modelagem relacional e dimensional, construindo bases organizadas e consistentes, preparadas para alimentar qualquer tipo de análise.
Construção da camada bruta e modelagem do Data Lake.
Você criará o primeiro banco relacional do projeto e modelará tabelas como dim_indicador, dim_fonte e fact_valores.
Ao final, seu sistema estará pronto para receber dados de múltiplas fontes e armazená-los de forma consistente e escalável — o alicerce da sua “Bloomberg pessoal”.
Aqui o curso se torna prático. Você vai aprender a integrar diferentes fontes — APIs, arquivos e bancos — e consolidar tudo em pipelines limpos e confiáveis.
Primeira coleta de dados da sua Bloomberg aberta.
Você construirá pipelines de ingestão que acessam dados reais de APIs públicas — como Bacen, IBGE, FRED e B3 — e armazenam essas informações em sua camada raw.
Em seguida, aplicará transformações com pandas para consolidar e padronizar os dados na camada silver, deixando tudo pronto para uso analítico.
Você vai transformar seu pipeline em um sistema que funciona por conta própria.
Aprenderá a orquestrar tarefas, criar agendamentos automáticos e lidar com falhas e dependências.
Pipeline automatizado de atualização diária.
Você criará uma DAG no Apache Airflow que coleta, transforma e armazena os dados de forma automática — atualizando indicadores como PIB, inflação, juros e câmbio todos os dias.
Ao final deste módulo, sua “Bloomberg aberta” será um sistema vivo, com pipelines que rodam e se atualizam sozinhos.
Com o pipeline rodando, é hora de garantir qualidade, rastreabilidade e entrega.
Você vai aprender a testar, documentar e disponibilizar dados para diferentes consumidores: analistas, cientistas e gestores.
Servindo dados da sua Bloomberg pessoal.
Você vai criar uma camada gold consolidada, documentar seus pipelines e publicar uma base de dados pronta para consumo — seja por dashboards (Metabase, Power BI, Streamlit) ou APIs simples.
Seu sistema agora fornecerá dados atualizados automaticamente para outros usuários, como se fosse um serviço de dados em tempo real.
Chegou a hora de integrar tudo. Você aplicará os conceitos aprendidos para construir um pipeline completo e automatizado — com ingestão, transformação, armazenamento e entrega de dados reais. O contexto será econômico-financeiro, mas a estrutura e as ferramentas poderão ser aplicadas a qualquer área de dados.
Entrega da sua Bloomberg automatizada.
Você integrará todos os módulos em um pipeline completo e reprodutível, capaz de coletar, processar e entregar dados econômicos e financeiros em tempo real.
O sistema final funcionará como um hub automatizado de dados abertos, atualizado diariamente e pronto para uso em análises, modelos e dashboards — sua prova prática de domínio em Engenharia de Dados.
Cada módulo conta com videoaulas curtas e objetivas, que alternam explicação conceitual e demonstração prática. Você verá o código sendo escrito e executado, compreenderá a lógica por trás de cada decisão e aplicará imediatamente no seu projeto.
Todos os códigos apresentados nas aulas estarão disponíveis para download — organizados em notebooks e scripts comentados. Você poderá rodar tudo localmente ou no VS Code Web/Google Colab, acompanhando cada etapa da construção do seu pipeline.
O curso oferece modelos prontos para documentar seus pipelines: diagramas de arquitetura, estrutura de pastas, planilhas de acompanhamento e arquivos README padronizados para publicação no GitHub.
Você trabalhará com dados reais de fontes como Banco Central, IBGE, FRED e B3, construindo uma base sólida e confiável para seus testes e experimentos. Essas fontes são exemplos de APIs e sistemas que você poderá adaptar para qualquer área de atuação.
Todos os exemplos são executados com ferramentas amplamente usadas no mercado — Python, SQL, Airflow, Git, VS Code e Colab — simulando um ambiente de trabalho moderno e reprodutível.
A IA de suporte da Análise Macro
Enquanto na maioria das plataformas o suporte ainda é feito por fóruns mortos, FAQs genéricas e grupos que não ajudam, na Análise Macro você estuda com o Jobs — uma IA de verdade, treinada com nosso material exclusivo e preparada para te acompanhar do início ao fim do seu aprendizado.
O Jobs é o seu parceiro de estudos:
Menos espera.
Menos frustração.
Mais aprendizado real.
O melhor? Funciona 24 horas, 7 dias por semana. Estude no seu tempo, conte com o Jobs para lhe ajudar a qualquer momento.
Ao final do curso você receberá o certificado da Análise Macro de “Fundamentos de Engenharia de Dados“ – 30 horas.
Este certificado comprova que você domina os fundamentos técnicos e práticos da engenharia de dados moderna — da coleta e modelagem à automação e entrega de sistemas analíticos.
Mais do que um documento, ele representa um portfólio vivo, já que o seu projeto final — o Data Lake Automatizado de Dados Econômicos e Financeiros — poderá ser publicado no GitHub como prova concreta da sua capacidade de construir pipelines reais de dados.
Você sairá deste curso com:
Vítor Wilher
Vítor Wilher é bacharel e mestre em economia, especialista em dados. É o fundador da Análise Macro, a principal plataforma de análise de dados econômicos e financeiros do país. Ao longo dos últimos 10 anos, ensinou programação e análise de dados para economistas e analistas dos principais bancos, corretoras, gestoras e demais instituições do mercado financeiro. Leitor voraz, compartilha livros e dicas de leitura para seus alunos através das redes sociais e da sua newsletter diária.
Fernando da Silva
(Bacharel em Economia e Cientista de Dados)
Especializado em economia e finanças. Trabalha com modelagem e previsão de séries temporais, análise e visualização de dados e automatização de relatórios e dashboards.
Luiz Henrique
(Cientista de Dados)
Especializado em coleta, tratamento, modelagem e apresentação de dados financeiros e econômicos em R e Python.
De R$ 1.997,00 por
R$ 997,00
À vista no PIX ou boleto bancário
Ou em até 10× de R$ 99,70 no cartão de crédito.
Oferta Válida até 08/02/2026 às 23h59h para aproveitar essa oferta!
Esse valor inclui:
comercial@analisemacro.com.br – Rua Visconde de Pirajá, 414, Sala 718
Ipanema, Rio de Janeiro – RJ – CEP: 22410-002
Criação e Suporte Kronos da Kamus