Nuestra Empresa Habi es la empresa con presencia en Colombia y México que ha llegado para revolucionar la industria de los bienes raíces. Funcionamos de manera distinta a una inmobiliaria, no buscamos quién compre tu casa, sino que nosotros somos los compradores. Compramos los inmuebles en 10 días, de contado, los remodelamos y los sacamos a la venta a precio competitivo. En Habi puedes vender tu casa para comprar otra, obtener la liquidez que necesitas, encontrar el hogar de tus sueños y tener grandes oportunidades de inversión en bienes raíces. Requisitos: Profesional graduado en ingeniería de sistemas, electrónica, mecatrónica, o ciencias de la computación. Experiencia previa de al menos 2 años como Data Engineer Conocimiento y experiencia avanzada en Python y SQL Experiencia con servicios en la nube (GCP, AWS, Azure). ¿Qué harás en Habi? El Ingeniero de Datos MID es un profesional que ha demostrado habilidades técnicas sólidas en modelado, integración y calidad de datos, alineados a las políticas de gobierno de datos de la organización. Además, han adquirido conocimientos avanzados en el desarrollo de pipelines de datos bajo una supervisión moderada. Recopilar requerimientos y definir las mejores prácticas de arquitectura, modelado e integración de datos siguiendo metodologías y buenas prácticas en gestión de datos e información que sean de beneficio para el negocio Crear y mantener Pipelines de datos/flujo ETL entre sistemas de datos, fuentes de datos heterogéneas como sistemas AWS S3, ODS, Redshift, entre otros. Optimizar y solucionar problemas de flujos de trabajo de datos para garantizar el rendimiento y la confiabilidad. Diseñar y desarrollar modelos de datos utilizando DBT (modelado) Proporcionar orientación técnica y de negocio a ingenieros de datos junior, a su cargo, asegurando la ejecución correcta de la metodología establecida desde el capítulo. Integración de Datos de diversas fuentes (API’s, Archivos planos, Excel, MySQL / Snowflake / Hana / ERPs / CRMs) (Datos Estructurados / Datos No Estructurados). Entendimiento de herramientas de orquestación como DAGs: Airflow o Dagster, servicios de orquestación en la nube. Programación en Python, SQL, GIT. Manejo de servicios en mínimo una nube AWS, GCP, Azure (deseable GCP): ETL o ELT, conocimientos en despliegue de modelos de ML. Entendimiento del paradigma de Big Data: NoSQL, Lago de datos, conceptos de Hadoop o Spark