Currículo
Abaixo apresento um breve resumo de minhas habilidades e trajetória técnica, educacional, profissional e docente. A seguir, se desejar, você pode ler uma breve história da minha jornada profissional.
Skills
Timeline
Breve Histórico
Fui “treinado” na cultura da modelagem de dados. Não creio que poderia ter sido de outra forma, pois o conceito era ser um pesquisador em finanças desde cedo, com o objetivo de extrair conhecimento sobre a natureza da relação entre variáveis.
Assim, ao longo das últimas duas décadas, avaliei centenas de bancos de dados usando abordagens estatísticas clássicas, como Análise Descritiva, Análise Bivariada, ANOVA, Análise de Regressão, Análise Multivariada, Modelo Linear Generalizado, Equação de Estimativa Generalizada, Modelo Misto Generalizado, Análise de Séries Temporais, Modelagem de Equações Estruturais, Análise Espacial, Teoria de Resposta ao Item e Simulação Computacional.
A disciplina de Econometria foi minha base nos primeiros 15 anos; no entanto, nos últimos anos, foquei na disciplina de Psicometria, devido a uma alta demanda para trabalhar com variáveis latentes e validar instrumentos de medida e, claro, porque me apaixonei pelas técnicas psicométricas. De qualquer forma, sempre trabalhei com especialistas da saúde durante esse tempo, por isso sinto-me confortável com seus procedimentos e linguagem. Nesse contexto, busquei dominar uma variedade de softwares proprietários, incluindo Excel, SPSS, Stata, Eviews, Amos e SmartPLS, bem como softwares de código aberto, incluindo R, JASP, jamovi, GPower e GeoDa.
No entanto, nos últimos anos, especialmente após 2020, concentrei meus esforços na cultura da modelagem algorítmica para trabalhar com bancos de dados massivos e focar em predição. Como resultado, tenho trabalhado para aprimorar minha compreensão das seguintes técnicas de machine learning: Regressões Lasso e Ridge, KNN, Random Forests, Bagging, Boosting, Redes Neurais e Support Vector Machines (SVM). Outros assuntos nesta cultura (Regressão Linear, Logística e Stepwise, Árvores de Decisão, Análise Discriminante, Análise de Cluster e Análise de Componentes Principais) me são familiares porque já são amplamente utilizados na cultura de modelagem de dados, e trabalhei neles em dezenas de situações.
Nesse contexto, busquei estudar as ferramentas de Ciência de Dados mais populares, incluindo SQL, R, Python (numpy, pandas, matplotlib, seaborn, statsmodels, scipy, scikit-learn, etc.), PowerBi e Tableau. Tenho usado RStudio e VSCode como IDEs, e o Antigravity integrado com modelos/agentes de IA.
Mas essa é menos importante das informações, correto? Como costumo enfatizar, as ferramentas são efêmeras! Frequentemente conto esta história… Passei anos usando um software proprietário de modelagem de equações estruturais que começou a não me servir mais. Realizei muitas pesquisas e decidi por um gratuito, que inicialmente me atenderia. Levei uma tarde para dominar este novo software: eu sabia todos os pequenos botões (escolhas) que precisava apertar (fazer). Primeiro e mais importante, compreenda as técnicas!