Começando a programar com Python

Ontem, publiquei nesse espaço sobre como começar a programar com o R. O texto faz parte de uma série de textos que quero organizar ao longo das próximas semanas, com foco no público que ainda tem dúvidas sobre se deve mesmo embarcar na programação e, óbvio, no pessoal que está começando a programar. Meu foco nesses textos será programar em R, porque eu acabei adotando a linguagem como sendo a minha linguagem principal. Mas acho importante saber navegar por outros universos, por isso hoje vou falar um pouco sobre python.

Há uma briga boba entre alguns cientistas de dados sobre qual seria a "melhor" linguagem para análise de dados. Acho isso besteira porque sempre vai ter um "componente emocional" na resposta. Para os propósitos dessa série, voltada para gente iniciante, eu recomendo fortemente que você invista tempo em se tornar fluente em uma delas, a que lhe deixa mais confortável. Quando chegar em um nível de fluência, vá aos poucos incorporando a outra, de modo que com o tempo você irá programar nas duas com tranquilidade.

Controlado pelo "componente emocional", eu considero que você deva começar pelo R e só depois avançar para o Python. Por quê? Bom, acho mais simples aprender R para quem não teve nenhum treinamento formal em computação. Isto é, aprendeu informática no ambiente Windows, nunca usou Linux ou nem tem ideia onde fica o prompt de comando. Minha experiência como professor ao longo desses anos mostra que isso é uma barreira à entrada muito pertinente. E que pode abortar muitas aventuras no ramo da programação.

Isso dito, comece pelo R. À medida que você for se tornando fluente na linguagem, adquirindo maior experiência com o que está "por trás das cortinas", comece lentamente a aprender Python. E aqui você pode perguntar: há necessidade de saber as duas? A resposta é depende. Depende do seu objetivo de carreira. Se você quer trabalhar com equipes de ciência de dados, é razoável que você consiga ler e escrever scripts nas duas linguagem em um nível decente. Equipes de ciências de dados utilizam várias plataformas, mas em geral, a equipe "adota" uma linguagem para chamar de sua nos projetos de análise de dados.

Dou como exemplo aqui minha própria experiência. Como acho que já é claro a essa altura, eu sou #teamR, mas em certos momentos acabei prestando consultoria para empresas onde a equipe de dados "adota" python. Nesses casos, não tem jeito: eu tinha que entregar o trabalho em python. Além disso, como professor, acabei recebendo demandas de treinamento em python, então, não teve jeito, tive que jogar no #teamPython vez ou outra. O importante é entregar o projeto, em qualquer uma das linguagens. O "tesão" aqui não é pela sintaxe ou pelo purismo, mas pelo problema de análise de dados. E, cá entre nós, isso é que motiva a gente a conhecer diversas linguagens, de modo a atacar cada vez mais problemas...

Filosofia ao lado, se você quer começar a programar em Python também, eu recomendo que você instale já o Anaconda, de modo a ter acesso ao python propriamente dito e ao Jupyter, uma IDE bastante utilizada por quem lida com análise de dados.

Bom, se você chegou até aqui e seguiu o que eu recomendei, você já tem o R, o Python, o RStudio, o Miktex e o Jupyter instalados na sua máquina. Agora é começar, né? Como eu disse no post anterior, na próxima semana, eu falo de estruturas de dados, algo válido para qualquer linguagem. Até lá!

_________________________

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Tratamento e transformação de séries temporais macroeconômicas para modelagem

"Garbage in, garbage out" é a regra de ouro na previsão macroeconômica. Antes de aplicar qualquer modelo de IA ou econometria para prever indicadores como o IPCA ou o PIB, existe um trabalho crucial de tratamento de dados. Neste post, abrimos os bastidores do nosso dashboard de previsões e mostramos o passo a passo para transformar dados brutos de múltiplas fontes (como BCB, IBGE e FRED) em séries prontas para modelagem. Veja como lidamos com diferentes frequências, aplicamos transformações e usamos metadados para criar um pipeline de dados robusto e automatizado.

Como planejar um pipeline de previsão macroeconômica: da coleta ao dashboard

Montar um pipeline de previsão macroeconômica não é apenas uma tarefa técnica — é um exercício de integração entre dados, modelos e automação. Neste post, apresento uma visão geral de como estruturar esse processo de ponta a ponta, da coleta de dados até a construção de um dashboard interativo, que exibe previsões automatizadas de inflação, câmbio, PIB e taxa Selic.

Coletando e integrando dados do BCB, IBGE e IPEA de forma automatizada

Quem trabalha com modelagem e previsão macroeconômica sabe o quanto é demorado reunir dados de diferentes fontes — Banco Central, IBGE, IPEA, FRED, IFI... Cada um com sua API, formato, frequência e estrutura. Esse gargalo de coleta e padronização consome tempo que poderia estar sendo usado na análise, nos modelos ou na comunicação dos resultados.

Foi exatamente por isso que criamos uma rotina de coleta automatizada, que busca, trata e organiza séries temporais econômicas diretamente das APIs oficiais, pronta para ser integrada a pipelines de previsão, dashboards ou agentes de IA econometristas.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.