Começando a programar com Python

Ontem, publiquei nesse espaço sobre como começar a programar com o R. O texto faz parte de uma série de textos que quero organizar ao longo das próximas semanas, com foco no público que ainda tem dúvidas sobre se deve mesmo embarcar na programação e, óbvio, no pessoal que está começando a programar. Meu foco nesses textos será programar em R, porque eu acabei adotando a linguagem como sendo a minha linguagem principal. Mas acho importante saber navegar por outros universos, por isso hoje vou falar um pouco sobre python.

Há uma briga boba entre alguns cientistas de dados sobre qual seria a "melhor" linguagem para análise de dados. Acho isso besteira porque sempre vai ter um "componente emocional" na resposta. Para os propósitos dessa série, voltada para gente iniciante, eu recomendo fortemente que você invista tempo em se tornar fluente em uma delas, a que lhe deixa mais confortável. Quando chegar em um nível de fluência, vá aos poucos incorporando a outra, de modo que com o tempo você irá programar nas duas com tranquilidade.

Controlado pelo "componente emocional", eu considero que você deva começar pelo R e só depois avançar para o Python. Por quê? Bom, acho mais simples aprender R para quem não teve nenhum treinamento formal em computação. Isto é, aprendeu informática no ambiente Windows, nunca usou Linux ou nem tem ideia onde fica o prompt de comando. Minha experiência como professor ao longo desses anos mostra que isso é uma barreira à entrada muito pertinente. E que pode abortar muitas aventuras no ramo da programação.

Isso dito, comece pelo R. À medida que você for se tornando fluente na linguagem, adquirindo maior experiência com o que está "por trás das cortinas", comece lentamente a aprender Python. E aqui você pode perguntar: há necessidade de saber as duas? A resposta é depende. Depende do seu objetivo de carreira. Se você quer trabalhar com equipes de ciência de dados, é razoável que você consiga ler e escrever scripts nas duas linguagem em um nível decente. Equipes de ciências de dados utilizam várias plataformas, mas em geral, a equipe "adota" uma linguagem para chamar de sua nos projetos de análise de dados.

Dou como exemplo aqui minha própria experiência. Como acho que já é claro a essa altura, eu sou #teamR, mas em certos momentos acabei prestando consultoria para empresas onde a equipe de dados "adota" python. Nesses casos, não tem jeito: eu tinha que entregar o trabalho em python. Além disso, como professor, acabei recebendo demandas de treinamento em python, então, não teve jeito, tive que jogar no #teamPython vez ou outra. O importante é entregar o projeto, em qualquer uma das linguagens. O "tesão" aqui não é pela sintaxe ou pelo purismo, mas pelo problema de análise de dados. E, cá entre nós, isso é que motiva a gente a conhecer diversas linguagens, de modo a atacar cada vez mais problemas...

Filosofia ao lado, se você quer começar a programar em Python também, eu recomendo que você instale já o Anaconda, de modo a ter acesso ao python propriamente dito e ao Jupyter, uma IDE bastante utilizada por quem lida com análise de dados.

Bom, se você chegou até aqui e seguiu o que eu recomendei, você já tem o R, o Python, o RStudio, o Miktex e o Jupyter instalados na sua máquina. Agora é começar, né? Como eu disse no post anterior, na próxima semana, eu falo de estruturas de dados, algo válido para qualquer linguagem. Até lá!

_________________________

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Como planejar um pipeline de previsão macroeconômica: da coleta ao dashboard

Montar um pipeline de previsão macroeconômica não é apenas uma tarefa técnica — é um exercício de integração entre dados, modelos e automação. Neste post, apresento uma visão geral de como estruturar esse processo de ponta a ponta, da coleta de dados até a construção de um dashboard interativo, que exibe previsões automatizadas de inflação, câmbio, PIB e taxa Selic.

Coletando e integrando dados do BCB, IBGE e IPEA de forma automatizada

Quem trabalha com modelagem e previsão macroeconômica sabe o quanto é demorado reunir dados de diferentes fontes — Banco Central, IBGE, IPEA, FRED, IFI... Cada um com sua API, formato, frequência e estrutura. Esse gargalo de coleta e padronização consome tempo que poderia estar sendo usado na análise, nos modelos ou na comunicação dos resultados.

Foi exatamente por isso que criamos uma rotina de coleta automatizada, que busca, trata e organiza séries temporais econômicas diretamente das APIs oficiais, pronta para ser integrada a pipelines de previsão, dashboards ou agentes de IA econometristas.

Criando operações SQL com IA Generativa no R com querychat

No universo da análise de dados, a velocidade para obter respostas é um diferencial competitivo. Frequentemente, uma simples pergunta de negócio — “Qual foi nosso produto mais vendido no último trimestre na região Nordeste?” — inicia um processo que envolve abrir o RStudio, escrever código dplyr ou SQL, executar e, finalmente, obter a resposta. E se pudéssemos simplesmente perguntar isso aos nossos dados em português, diretamente no nosso dashboard Shiny?

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.