A aplicação de IA em análise de dados econômicos usando Python

Desde o começo do boom da Inteligência Artificial nos anos recentes, muitas aplicações e ferramentas interessantes surgiram, o que ajudou a democratizar o acesso a tecnologias de ponta que só estavam disponíveis para pequenos grupos. Isso fez com que comunidades de programadores, analistas de dados, cientistas de dados e outros se beneficiassem com o uso destas ferramentas no dia a dia de trabalho. Ao mesmo tempo, isso criou uma dificuldade em filtrar as ferramentas que são realmente úteis diante da grande variedade de opções que aumenta diariamente.Neste artigo mostramos 3 ferramentas que podem ajudar analistas a resolver tarefas do dia a dia de forma mais rápida, agregando inteligência artificial na análise de dados. Seja para completar código ou para análises de dados descritivas e preditivas avançadas, estas ferramentas são simples de usar e se integram com o Python.Aprenda a coletar, processar e analisar dados no Workshop Do Zero à Análise de Dados Econômicos e Financeiros usando Python, se inscreva aqui!

Colab AI

O Colab AI é um novo recurso disponível no Google Colab que permite programar com o auxílio de inteligência artificial. O usuário pode digitar um simples prompt como “Gere um gráfico de série temporal”, preferencialmente em inglês, e a inteligência artificial gera um código para realizar a tarefa solicitada.

Para utilizar o recurso você deve estar logado na sua conta do Google e seguir estes passos:

  1. Acessar/criar um notebook do Google Colab em https://colab.new/
  2. Navegar por Tools > Settings > Colab AI
  3. Marcar a caixa “Consented to use generative AI features”
  4. Ler as políticas associados ao recurso e clicar em Next 
  5. Ler os termos associados ao recurso, marcar a caixa de concordância e clicar em Finish
  6. Criar um célula de código clicando em “+ Code”
  7. Clicar em “generate” dentro da célula de código
  8. Digitar o prompt de instrução para o modelo gerar um código e pressionar Enter

O código gerado pela inteligência artificial será inserido automaticamente na célula de código. Basta executar para ver o resultado e fazer ajustes para melhorias ou para resolver erros!

Para obter o código e o tutorial deste exercício faça parte do Clube AM e receba toda semana os códigos em R/Python, vídeos, tutoriais e suporte completo para dúvidas.

GitHub Copilot

O Github Copilot é um recurso pago disponível para usuários da plataforma GitHub que permite progamar com a ajuda de um “assistente” fornecendo sugestões de código. O usuário pode digitar uma simples instrução na forma de um comentário e o recurso sugere o código que realiza a tarefa.

Para testar a utilização do recurso você deve estar logado na sua conta do GitHub e seguir estes passos:

  1. Acessar a página de teste do recurso em https://resources.github.com/copilot-demo/
  2. Clicar em Test in browser
  3. Clicar em Create new codespace e aguardar a tela do VS Code ser carregada
  4. Clicar em Explorer > New file, digite meu_script.py e pressioner Enter
  5. Abrir o arquivo meu_script.py recém criado
  6. Inserir um comentário com a instrução desejada para o Copilot gerar o código

Pressione Enter ao finalizar o comentário, aguarde a sugestão aparecer na tela e, caso concorde com a sugestão, pressioner Tab para completar com o código.

PandasAI

A biblioteca PandasAI foi lançada recentemente para possibilitar que usuários de Python possam rapidamente fazer análises de dados tabulares (DataFrames) utilizando inteligência artificial de modelos de linguagem grande (LLMs). O usuário pode utilizar vários modelos, como ChatGPT, Google PaLM, LangChain e outros, como fonte de análise dos dados, o que possibilita criar gráficos, extrair informação, prever valores, etc. sem precisar escrever código.

Para testar a utilização da biblioteca você deve seguir estes passos:

  1. Acesse seu ambiente de programação Python, como, por exemplo, o Colab https://colab.new/
  2. Instale a biblioteca usando as instruções da documentação https://docs.pandas-ai.com/en/latest/
  3. Importe o que for relevante da biblioteca (aqui exemplificares o uso com o modelo Google PaLM)
  4. Importe seus dados
  5. Verifique na documentação da biblioteca como obter a chave de API do modelo e, usando a mesma, faça a autenticação
  6. Escreva seu prompt de análise de dados (veja técnicas de Prompt Engineering para otimizar resultados)

Nota: a biblioteca está em fase inicial de desenvolvimento, problemas de instalação e outros podem acontecer. Para dúvidas, acesse a documentação, repositório e/ou código fonte.

Conclusão

Neste artigo mostramos 3 ferramentas que podem ajudar analistas a resolver tarefas do dia a dia de forma mais rápida, agregando inteligência artificial na análise de dados. Seja para completar código ou para análises de dados descritivas e preditivas avançadas, estas ferramentas são simples de usar e se integram com o Python.

Quer aprender mais?

Clique aqui para fazer seu cadastro no Boletim AM e baixar o código que produziu este exercício, além de receber novos exercícios com exemplos reais de análise de dados envolvendo as áreas de Data Science, Econometria, Machine Learning, Macroeconomia Aplicada, Finanças Quantitativas e Políticas Públicas diretamente em seu e-mail.

Notas de rodapé

  1. Atualmente disponível para contas que não sejam do Google Workspace.↩︎

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Qual o efeito de um choque de juros sobre a inadimplência?

Neste exercício, exploramos a relação dinâmica entre o custo do crédito (juros na ponta) e o risco realizado (taxa de inadimplência) através de uma análise exploratória de dados e modelagem econométrica utilizando a linguagem de programação R.

Qual a relação entre benefícios sociais e a taxa de participação do mercado de trabalho?

Este exercício apresenta uma investigação econométrica sobre a persistente estagnação da taxa de participação no mercado de trabalho brasileiro no período pós-pandemia. Utilizando a linguagem R e dados públicos do IBGE e Banco Central, construímos um modelo de regressão linear múltipla com correção de erros robustos (Newey-West). A análise testa a hipótese de que o aumento real das transferências de renda (Bolsa Família/Auxílio Brasil) elevou o salário de reserva, desincentivando o retorno à força de trabalho.

Estamos em pleno emprego no mercado de trabalho?

Este artigo investiga se o mercado de trabalho brasileiro atingiu o nível de pleno emprego, utilizando uma estimativa da NAIRU (Non-Accelerating Inflation Rate of Unemployment) baseada na metodologia de Ball e Mankiw (1997). Através de uma modelagem em Python que unifica dados históricos da PME e PNAD Contínua com as expectativas do Boletim Focus, comparamos a taxa de desocupação corrente com a taxa neutra estrutural. A análise visual e quantitativa sugere o fechamento do hiato de desemprego, sinalizando potenciais pressões inflacionárias. O texto detalha o tratamento de dados, a aplicação do Filtro Hodrick-Prescott e discute as vantagens e limitações da metodologia econométrica adotada.

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

Boletim AM

Receba diretamente em seu e-mail gratuitamente nossas promoções especiais e conteúdos exclusivos sobre Análise de Dados!

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.