Estamos em busca de um(a) Engenheiro(a) de Dados SĂȘnior, atuação como analytics engineer para fortalecer nosso time de dados, com foco na estrutura da PagueVeloz, instituição de pagamento que compoem o ecossistema Serasa Experian tanto com soluçÔes B2B como em iniciativas B2C.
Essa pessoa serĂĄ responsĂĄvel tanto por necessidades de ingestĂŁo de dados como construção da camada analĂtica e semĂąntica, transformando dados brutos dados confiĂĄveis e prontos para consumo, habilitando insights acionĂĄveis, mĂ©tricas consistentes e produtos de dados escalĂĄveis.
Trabalhamos com Databricks/Lakehouse e buscamos alguĂ©m que goste de unir engenharia + modelagem + regras de negĂłcio, com atenção a governança, qualidade e experiĂȘncia do usuĂĄrio analĂtico (BI/consumo). Em um cenĂĄrio moderno, isso conecta diretamente com governança (Unity Catalog) e com a âtraduçãoâ do dado em conceitos de negĂłcio.
Responsabilidades
- Desenhar e evoluir modelos de dados analĂticos (fatos, dimensĂ”es, agregaçÔes, mĂ©tricas/KPIs), com foco em camadas Gold e SemĂąntica, garantindo consistĂȘncia e reuso.
- Implementar padrĂ”es de modelagem (ex.: arquitetura medalhĂŁo) e boas prĂĄticas de entrega de dados para consumo analĂtico, com atenção a contratos, granularidade, conformidade e rastreabilidade.
- Atuar como ponte entre negócio e engenharia, traduzindo necessidades em modelos e datasets bem definidos (definiçÔes de métricas, regras, hierarquias, dimensÔes conformadas).
- Garantir qualidade e confiabilidade dos dados (testes, validaçÔes, controles, consistĂȘncia entre camadas), reduzindo retrabalho e aumentando confiança.
- Otimizar performance dos modelos e consultas (Databricks SQL/Delta), incluindo desenho fĂsico e escolhas que melhorem custo/latĂȘncia para consumo.
- Colaborar na evolução da arquitetura analĂtica e do ecossistema de dados (governança, catĂĄlogo, observabilidade e padrĂ”es de desenvolvimento).
- Apoiar stakeholders e times de analytics/BI no uso correto dos dados (documentação, data discovery, enablement e melhoria contĂnua).
Requisitos
- ExperiĂȘncia sĂłlida com SQL e Python aplicados a pipelines e modelagem analĂtica.
- ExperiĂȘncia prĂĄtica de desenvolvimento com Databricks (notebooks, jobs/workflows e/ou Databricks SQL).
- VivĂȘncia com modelagem de dados para analytics, especialmente em Gold e camada semĂąntica (mĂ©tricas, dimensĂ”es, tabelas fato, conformidade).
- Familiaridade com ambientes de cloud (AWS, Azure ou GCP).
- Boas pråticas de engenharia: versionamento (Git), documentação e colaboração (ex.: Confluence, padrÔes de PR).
- Comunicação clara e capacidade de explicar conceitos e mĂ©tricas para pĂșblicos tĂ©cnicos e nĂŁo tĂ©cnicos.
Diferenciais
- Power BI: experiĂȘncia com modelagem dimensional, camada semĂąntica, e principalmente performance (ex.: desenho de modelo, cardinalidade, relaçÔes, boas prĂĄticas para consultas e consumo).
- ExperiĂȘncia com dbt, Airflow ou ferramentas de orquestração/transformação (alĂ©m do nativo do Databricks).
- VivĂȘncia com observabilidade/qualidade (testes, expectativas, alertas, SLAs).
- Conhecimentos de arquitetura data mesh e tratamento de dados como produto, com governança federada e autonomia para os domĂnios.
- ExperiĂȘncia na industria financeira, em times de Dados que constroem soluçÔes para produtos, negĂłcios, operaçÔes, regulatĂłrio entre outros