Resumen del puesto Revolucionar la forma en que las empresas gestionan sus cadenas de suministro a través de nuestra plataforma SaaS impulsada por inteligencia artificial. Responsabilidades - Implementar y mantener la infraestructura cloud de Datup sobre AWS en un entorno multi-cuenta. - Crear módulos reutilizables de Terraform que permitan escalar nuestros microservicios de forma segura y eficiente. - Diseñar y mantener pipelines de CI/CD híbridos usando GitHub Actions, GitLab CI y AWS CodePipeline. - Construir y mejorar la observabilidad de la plataforma (CloudWatch, X-Ray, Logs estructurados). - Habilitar la integración entre AWS y Google Cloud (BigQuery) para facilitar pipelines de datos seguros y eficientes. - Brindar soporte y mentoría técnica a los equipos de desarrollo. - Liderar la estandarización de la infraestructura como producto interno (plantillas, convenciones, mejores prácticas). - Proponer soluciones de automatización para procesos manuales, con foco en reutilización y eficiencia. Calificaciones - Conocimiento avanzado de AWS Organizations, Control Tower o arquitecturas equivalentes. - Experiencia en diseño de VPC, subredes, peering, NAT, Security Groups, NACLs en arquitecturas seguras y escalables. - Experticia en IAM y políticas de mínimo privilegio, especialmente para escenarios cross-account y CI/CD. Infraestructura como Código (IaC) - Experiencia avanzada con Terraform (módulos reutilizables, workspaces, state remoto en S3/DynamoDB). - Conocimiento de Terragrunt (deseable). - Capacidad de diseño de infra como producto: permitir que otros equipos reutilicen tu trabajo fácilmente. AWS Copilot + ECS/Fargate - Experiencia con AWS Copilot, incluyendo configuración de y uso de add-ons. - Profundo conocimiento de ECS/Fargate, desde configuración de tareas hasta auto-scaling y optimización de costos. - Gestión del ciclo de vida de imágenes en ECR. CI/CD Híbrido - Dominio de GitHub Actions, GitLab CI y AWS CodePipeline. - Capacidad para integrar pipelines (build/test en GitLab → deploy en CodePipeline, por ejemplo). - Diseño de pipelines genéricos y parametrizables para que otros equipos los adopten fácilmente. Observabilidad - CloudWatch Logs y Metrics: estructuración, custom metrics, queries con Logs Insights. - Alarmas efectivas con SNS, Slack, email. - Conocimiento de AWS X-Ray para tracing distribuido. - Familiaridad con OpenTelemetry (plus). Integración AWS GCP - Experiencia con pipelines de datos entre AWS y BigQuery (usualmente vía S3 → GCS → BQ). - Conocimiento en federación de identidades entre nubes, autenticación segura y patrones de ingesta. Soft Skills y Mindset - Pensamiento como Descripción del trabajo Lorem ipsum dolor sit amet , consectetur adipiscing elit. Nullam tempor vestibulum ex, eget consequat quam pellentesque vel. Etiam congue sed elit nec elementum. Morbi diam metus, rutrum id eleifend ac, porta in lectus. Sed scelerisque a augue et ornare. Donec lacinia nisi nec odio ultricies imperdiet. Morbi a dolor dignissim, tristique enim et, semper lacus. Morbi laoreet sollicitudin justo eget eleifend. Donec felis augue, accumsan in dapibus a, mattis sed ligula. Vestibulum at aliquet erat. Curabitur rhoncus urna vitae quam suscipit , at pulvinar turpis lacinia. Mauris magna sem, dignissim finibus fermentum ac, placerat at ex. Pellentesque aliquet, lorem pulvinar mollis ornare, orci turpis fermentum urna, non ullamcorper ligula enim a ante. Duis dolor est, consectetur ut sapien lacinia, tempor condimentum purus. Obtén acceso completo Accede a todos los puestos de alto nivel y consigue el trabajo de tus sueños. Inscríbete ahora