O DataLab Ă© a unidade de pesquisa e inovação do grupo Experian na AmĂ©rica Latina junto com a Serasa Experian no Brasil. Temos o objetivo de ser propositivo, antecipando o futuro, e consultivo, identificando oportunidades de evolução no mercado, por meio de tĂ©cnicas de InteligĂȘncia Artificial e Machine Learning combinada com uso de novas fontes de dados.
Criamos soluçÔes inovadoras avançadas, que ajudam clientes e mercado a se prepararem hoje para o amanhĂŁ de decisĂ”es mais assertivas. AlĂ©m de termos um olhar 360Âș para trocar com o que hĂĄ de melhor no Ăąmbito global, considerando o todo e produzindo soluçÔes capazes de alcançar grande escalabilidade.
Estamos em busca de uma mente analĂtica e experiente para liderar a evolução da nossa infraestrutura de dados. VocĂȘ serĂĄ a peça-chave na construção de arquiteturas escalĂĄveis, garantindo que nossos dados nĂŁo sejam apenas armazenados, mas transformados em vantagem competitiva.
Principais Responsabilidades
- Arquitetura de Data Lake: Desenhar, implementar e sustentar arquiteturas modernas de Data Lake e Lakehouse, garantindo escalabilidade, resiliĂȘncia e custo-benefĂcio.
- Pipeline de Dados (ETL/ELT): Construir e otimizar fluxos de ingestĂŁo de dados em tempo real (streaming) e em batch, assegurando a integridade e a baixa latĂȘncia das informaçÔes.
- Governança e Qualidade: Estabelecer padrĂ”es de Data Quality, linhagem de dados e polĂticas de segurança/privacidade (LGPD) em todo o ecossistema.
- Mentoria TĂ©cnica: Atuar como referĂȘncia para o time, disseminando boas prĂĄticas de desenvolvimento (Clean Code, CI/CD) e auxiliando na resolução de problemas complexos.
- Otimização de Performance: Identificar gargalos em processamentos de grandes volumes de dados e propor melhorias estruturais para ganho de performance em queries e jobs.
Requisitos e QualificaçÔes
- ExperiĂȘncia Comprovada: MĂnimo de 7 anos de experiĂȘncia atuando diretamente em Engenharia de Dados, com histĂłrico em ambientes de alta complexidade e larga escala em ambientes de nuvem (preferencialmente na AWS).
- DomĂnio de Ferramentas: ExperiĂȘncia avançada com Apache Spark (PySpark/Scala) e orquestradores de fluxo (como Airflow, Prefect ou Dagster).
- Linguagens de Programação: FluĂȘncia em Python ou Scala, alĂ©m de domĂnio de SQL para manipulação e anĂĄlise de dados.
- Modelagem de Dados: Conhecimento em técnicas de modelagem dimensional.
- Infraestrutura como CĂłdigo (IaC): Conhecimento em Terraform ou ferramentas similares para provisionamento de recursos de dados.
- Mindset Ăgil: Familiaridade com metodologias ĂĄgeis e cultura DevOps aplicada a dados (DataOps).