A aplicação de IA em análise de dados econômicos usando Python

Desde o começo do boom da Inteligência Artificial nos anos recentes, muitas aplicações e ferramentas interessantes surgiram, o que ajudou a democratizar o acesso a tecnologias de ponta que só estavam disponíveis para pequenos grupos. Isso fez com que comunidades de programadores, analistas de dados, cientistas de dados e outros se beneficiassem com o uso destas ferramentas no dia a dia de trabalho. Ao mesmo tempo, isso criou uma dificuldade em filtrar as ferramentas que são realmente úteis diante da grande variedade de opções que aumenta diariamente.Neste artigo mostramos 3 ferramentas que podem ajudar analistas a resolver tarefas do dia a dia de forma mais rápida, agregando inteligência artificial na análise de dados. Seja para completar código ou para análises de dados descritivas e preditivas avançadas, estas ferramentas são simples de usar e se integram com o Python.Aprenda a coletar, processar e analisar dados no Workshop Do Zero à Análise de Dados Econômicos e Financeiros usando Python, se inscreva aqui!

Colab AI

O Colab AI é um novo recurso disponível no Google Colab que permite programar com o auxílio de inteligência artificial. O usuário pode digitar um simples prompt como “Gere um gráfico de série temporal”, preferencialmente em inglês, e a inteligência artificial gera um código para realizar a tarefa solicitada.

Para utilizar o recurso você deve estar logado na sua conta do Google e seguir estes passos:

  1. Acessar/criar um notebook do Google Colab em https://colab.new/
  2. Navegar por Tools > Settings > Colab AI
  3. Marcar a caixa “Consented to use generative AI features”
  4. Ler as políticas associados ao recurso e clicar em Next 
  5. Ler os termos associados ao recurso, marcar a caixa de concordância e clicar em Finish
  6. Criar um célula de código clicando em “+ Code”
  7. Clicar em “generate” dentro da célula de código
  8. Digitar o prompt de instrução para o modelo gerar um código e pressionar Enter

O código gerado pela inteligência artificial será inserido automaticamente na célula de código. Basta executar para ver o resultado e fazer ajustes para melhorias ou para resolver erros!

Para obter o código e o tutorial deste exercício faça parte do Clube AM e receba toda semana os códigos em R/Python, vídeos, tutoriais e suporte completo para dúvidas.

GitHub Copilot

O Github Copilot é um recurso pago disponível para usuários da plataforma GitHub que permite progamar com a ajuda de um “assistente” fornecendo sugestões de código. O usuário pode digitar uma simples instrução na forma de um comentário e o recurso sugere o código que realiza a tarefa.

Para testar a utilização do recurso você deve estar logado na sua conta do GitHub e seguir estes passos:

  1. Acessar a página de teste do recurso em https://resources.github.com/copilot-demo/
  2. Clicar em Test in browser
  3. Clicar em Create new codespace e aguardar a tela do VS Code ser carregada
  4. Clicar em Explorer > New file, digite meu_script.py e pressioner Enter
  5. Abrir o arquivo meu_script.py recém criado
  6. Inserir um comentário com a instrução desejada para o Copilot gerar o código

Pressione Enter ao finalizar o comentário, aguarde a sugestão aparecer na tela e, caso concorde com a sugestão, pressioner Tab para completar com o código.

PandasAI

A biblioteca PandasAI foi lançada recentemente para possibilitar que usuários de Python possam rapidamente fazer análises de dados tabulares (DataFrames) utilizando inteligência artificial de modelos de linguagem grande (LLMs). O usuário pode utilizar vários modelos, como ChatGPT, Google PaLM, LangChain e outros, como fonte de análise dos dados, o que possibilita criar gráficos, extrair informação, prever valores, etc. sem precisar escrever código.

Para testar a utilização da biblioteca você deve seguir estes passos:

  1. Acesse seu ambiente de programação Python, como, por exemplo, o Colab https://colab.new/
  2. Instale a biblioteca usando as instruções da documentação https://docs.pandas-ai.com/en/latest/
  3. Importe o que for relevante da biblioteca (aqui exemplificares o uso com o modelo Google PaLM)
  4. Importe seus dados
  5. Verifique na documentação da biblioteca como obter a chave de API do modelo e, usando a mesma, faça a autenticação
  6. Escreva seu prompt de análise de dados (veja técnicas de Prompt Engineering para otimizar resultados)

Nota: a biblioteca está em fase inicial de desenvolvimento, problemas de instalação e outros podem acontecer. Para dúvidas, acesse a documentação, repositório e/ou código fonte.

Conclusão

Neste artigo mostramos 3 ferramentas que podem ajudar analistas a resolver tarefas do dia a dia de forma mais rápida, agregando inteligência artificial na análise de dados. Seja para completar código ou para análises de dados descritivas e preditivas avançadas, estas ferramentas são simples de usar e se integram com o Python.

Quer aprender mais?

Clique aqui para fazer seu cadastro no Boletim AM e baixar o código que produziu este exercício, além de receber novos exercícios com exemplos reais de análise de dados envolvendo as áreas de Data Science, Econometria, Machine Learning, Macroeconomia Aplicada, Finanças Quantitativas e Políticas Públicas diretamente em seu e-mail.

Notas de rodapé

  1. Atualmente disponível para contas que não sejam do Google Workspace.↩︎

Compartilhe esse artigo

Facebook
Twitter
LinkedIn
WhatsApp
Telegram
Email
Print

Comente o que achou desse artigo

Outros artigos relacionados

Como analisar o Núcleo de Inflação no Brasil usando Python?

O Python se destaca como uma ferramenta robusta para análise de dados, permitindo a aplicação de uma ampla gama de técnicas em dados econômico-financeiros. Neste exercício, destacamos como a linguagem oferece uma facilidade muito grande na coleta de dados dos núcleos do IPCA diretamente do site do Banco Central, na manipulação eficiente desses dados e na construção de gráficos que facilitam a compreensão dos indicadores.

Propensity Score com Múltiplas Variáveis no R

O escore de propensão é provavelmente a maneira mais comum de agregar múltiplas variáveis de correspondência em um único valor que pode ser correspondido, ou seja, muito útil para a realização de pareamento.

O escore de propensão é a probabilidade estimada de que uma determinada observação teria sido tratada. A correspondência de escore de propensão muitas vezes significa selecionar um conjunto de observações de controle correspondidas com valores semelhantes do escore de propensão.

Análise regional da inflação com dados do IBGE usando Python

Os dados desagregados do IPCA fornecem informações detalhadas sobre o comportamento de preços no Brasil a nível de região metropolitana e município, possibilitando ricas análises regionais de dados. Neste artigo mostramos como acessar, processar e analisar estes dados utilizando o Python.

como podemos ajudar?

Preencha os seus dados abaixo e fale conosco no WhatsApp

Boletim AM

Preencha o formulário abaixo para receber nossos boletins semanais diretamente em seu e-mail.