Encargado de diseñar, construir y optimizar pipelines de datos a gran escala, integrando diversas fuentes internas y externas (API, base de datos esto es de copilot). Debe trabajar con tecnologías de procesamiento distribuido y almacenamiento masivo para habilitar análisis en tiempo real y batch. Habilidades clave: Experiencia con Spark, Hadoop, Kafka o herramientas similares. Dominio de SQL avanzado y manejo de bases de datos relacionales y NoSQL. Conocimiento en Python o Scala para desarrollo de ETL/ELT. Experiencia en entornos de nube (Azure, AWS o GCP).