馃搷 Ubicaci贸n: Reus, Granada, M谩laga o Sevilla.
Responsabilidades:
- Dise帽ar, desarrollar y mantener pipelines de datos ETL/ELT para la ingesta, transformaci贸n y disponibilidad de datos desde m煤ltiples fuentes.
- Implementar procesos de procesamiento y transformaci贸n de datos utilizando Spark / PySpark, Python y SQL.
- Participar en el dise帽o y evoluci贸n de arquitecturas, modelos de datos y procesos ETL en soluciones basadas en Data Lake, Data Warehouse o Lakehouse.
- Garantizar la calidad, consistencia y fiabilidad del dato mediante validaciones, controles y buenas pr谩cticas de ingenier铆a.
- Colaborar con equipos de anal铆tica, BI y ciencia de datos para facilitar el consumo de datos y modelos anal铆ticos.
- Optimizar el rendimiento de pipelines y consultas sobre grandes vol煤menes de datos.
- Integrar datos procedentes de diferentes or铆genes: bases de datos relacionales, sistemas cloud, ficheros, APIs y fuentes externas.
- Participar en la automatizaci贸n de despliegues y en la gesti贸n del ciclo de vida de los desarrollos mediante CI/CD.
- Documentar los procesos, flujos de datos y desarrollos t茅cnicos.
- Trabajar en entornos 谩giles, participando activamente en ceremonias y mejora continua del equipo.