1 day ago Be among the first 25 applicants Get AI-powered advice on this job and more exclusive features. ¡Trabaja en DaCodes! Somos una firma de expertos en software y transformación digital de alto impacto. Durante 10 años hemos desarrollado soluciones innovadoras y tecnológicas gracias a nuestro equipo de +220 talentosos #DaCoders , quienes colaboran en proyectos con clientes en LATAM y Estados Unidos , logrando resultados sobresalientes. En DaCodes , tendrás la oportunidad de impulsar tu desarrollo profesional trabajando con tecnologías de punta y participando en proyectos desafiantes que impactan a grandes empresas globales. Nuestros DaCoders son parte fundamental del éxito de la empresa y de nuestros clientes. Podrás trabajar con startups disruptivas y marcas globales, aportando tu experiencia y conocimiento. Requirements Ingeniero de Datos Descripción del puesto Buscamos un Ingeniero de Datos con experiencia en ingesta y orquestación nativa en AWS , modelado de Data Lakes y Data Warehouses , procesamiento de datos a gran escala, aseguramiento de la calidad y gobernanza de datos. El candidato ideal debe tener conocimientos en la construcción y automatización de pipelines para ingesta de datos, modelado de datos en formatos open-table, procesamiento con Spark y Lambda, y experiencia en CI/CD y observabilidad para ambientes de datos. Requisitos Experiencia comprobada en arquitecturas nativas de AWS para ingesta y orquestación de datos. Manejo avanzado de herramientas y servicios para procesamiento de datos a gran escala (Spark, Lambda, Kinesis). Conocimientos sólidos en modelado de datos open-table y arquitecturas de Data Lake y Data Warehouse. Dominio de programación en Python o Scala para ETL/ELT y transformaciones. Experiencia en aseguramiento de calidad de datos y monitoreo continuo (Great Expectations, Datadog). Conocimiento de seguridad en la nube, cifrado y gobernanza de datos. Inglés preferente, para comunicación técnica efectiva con equipos internacionales (no excluyente) Habilidades Deseables Generación automática de pipelines mediante plantillas en Terraform o CDK para despliegues parametrizados. Experiencia con sistemas de feature serving en tiempo real como SageMaker Feature Store, DynamoDB o Redis. Competencia en FinOps, optimizando costos en infraestructura serverless o con escalado inteligente. Diseño de esquemas para gamification y ad-tech, manejando eventos a alta velocidad (10k eventos/seg). Conocimiento en frameworks de experimentación como A/B testing, medición de incrementalidad o aprendizaje por refuerzo para juegos personalizados Responsabilidades Construir pipelines batch o micro-batch (SLA ≤ 24 horas) para ingesta de eventos y perfiles desde S3/Kinesis hacia almacenes de datos (Data Warehouse). Automatizar DAGs específicos de campañas con AWS Step Functions o Managed Airflow, que se provisionan al inicio y se eliminan tras finalizar la campaña. Modelar datos en formatos open-table particionados en S3 usando tecnologías como Iceberg, Hudi o Delta, con versionado por campaña. Realizar cargas ELT a Redshift Serverless o consultas en Athena/Trino usando patrones de snapshot e incrementales. Desarrollar transformaciones de datos con Glue Spark jobs o EMR en EKS para procesos pesados, y usar Lambda o Kinesis Data Analytics para enriquecimientos ligeros. Programar en Python (PySpark, Pandas, boto3) o Scala para procesamiento de datos. Implementar pruebas declarativas de calidad de datos con herramientas como Great Expectations o Deequ que se ejecutan diariamente durante campañas activas. Gestionar pipelines de infraestructura y código mediante GitHub Actions o CodePipeline, con alertas configuradas en CloudWatch o Datadog. Asegurar seguridad y gobernanza de datos con Lake Formation, cifrado a nivel de columna y cumplimiento de normativas como GDPR/CCPA. Gestionar roles IAM con principio de mínimo privilegio para pipelines de campañas temporales. Exponer modelos semánticos en Redshift/Athena para herramientas BI como Looker (LookML, PDTs) o conectados a Trino. Benefits Beneficios de trabajar en DaCodes Trabaja con marcas globales y startups disruptivas . Trabajo remoto/Home office . Si se requiere modalidad híbrida o presencial, se te informará desde la primera sesión. Horario ajustado a la célula de trabajo/proyecto asignado . Trabajo de lunes a viernes . ️ Beneficios legales (aplican para México). Día off en tu cumpleaños . Seguro de gastos médicos mayores (aplica para México). ️ Seguro de vida (aplica para México). Equipos de trabajo multiculturales . Acceso a cursos y certificaciones . Meetups con invitados especiales del área de IT . Eventos virtuales de integración y grupos de interés . Clases de inglés . Oportunidades dentro de nuestras diferentes líneas de negocio . Orgullosamente certificados como Great Place to Work . Seniority level Seniority level Mid-Senior level Employment type Employment type Full-time Job function Job function Other Industries IT Services and IT Consulting Referrals increase your chances of interviewing at DaCodes. by 2x Sign in to set job alerts for “Senior Data Engineer” roles. Bogota, D.C., Capital District, Colombia 4 days ago Bogota, D.C., Capital District, Colombia 2 weeks ago Bogota, D.C., Capital District, Colombia 3 days ago Bogota, D.C., Capital District, Colombia 1 week ago Sr. Data Engineer (@Remote, Chile and Colombia) We’re unlocking community knowledge in a new way. Experts add insights directly into each article, started with the help of AI. #J-18808-Ljbffr