Ingénierie des données Senior // Senior Data Engineering
Plusgrade
Ingénierie des données Senior
À propos de nous
Voyager, ce n’est pas seulement atteindre une destination — c’est aussi profiter des expériences créées en chemin. Nous collaborons avec plus de 200 compagnies aériennes, entreprises d’hôtellerie, croisières, chemins de fer et services financiers pour transformer le voyage quotidien en expériences extraordinaires. Guidés par nos valeurs d’ambition, d’innovation et de collaboration, nous repoussons constamment les limites et croyons que nous sommes meilleurs ensemble.
Rejoins-nous pour façonner l’avenir du voyage en libérant le potentiel des données.
À propos du rôle
Nous recherchons un.e Ingénierie des données Senior pour jouer un rôle clé dans l’évolution de notre plateforme de données. Au sein de notre équipe Data Engineering, tu concevras et mettras en œuvre des pipelines et des plateformes de données évolutifs, fiables et performants qui soutiennent l’analytics, l’IA/ML et les applications orientées client.
Dans ce rôle, tu seras un leader technique : mentorant des ingénieurs intermédiaires, guidant la conception des solutions et veillant à ce que les meilleures pratiques soient appliquées. Tu travailleras en étroite collaboration avec un Staff Engineer et un Data Architect, participant aux décisions d’architecture tout en prenant en charge des implémentations et livraisons complexes.
Ce que tu feras
Diriger la conception, le développement et la mise en œuvre de pipelines de données scalables, résilients et rentables pour les systèmes batch et streaming
Collaborer avec les Staff Engineers et Data Architects pour traduire l’architecture globale en solutions techniques concrètes
Promouvoir l’adoption des meilleures pratiques pour le data modeling, la conception de pipelines, la qualité du code et les tests
Mettre en place et faire évoluer la surveillance automatisée, les alertes et les frameworks de qualité des données pour les pipelines critiques
Prendre en charge des projets de data engineering complexes et à fort impact de bout en bout, de la conception au déploiement et à la surveillance
Guider l’équipe dans la conception de flux de données orientés événements, temps réel et microservices
Optimiser l’infrastructure de données existante pour la performance, la scalabilité et l’efficacité des coûts dans le cloud
Encadrer et coacher les ingénieurs intermédiaires, effectuer des revues et fournir du feedback pour renforcer les compétences de l’équipe
Collaborer avec les analystes, data scientists et équipes produit pour co-concevoir des produits de données qui alimentent des modèles avancés d’analytics et de ML
Contribuer à l’évolution de la gouvernance des données, de la sécurité et des pratiques de conformité
Évaluer et introduire de nouveaux outils, frameworks et techniques pour maintenir notre stack moderne et efficace
Promouvoir une culture « data-first », en garantissant que les parties prenantes peuvent faire confiance aux données et agir en conséquence
Ce que tu apportes
Diplôme de Bachelor ou Master en Informatique, Ingénierie ou domaine similaire
5–7+ ans d’expérience professionnelle en data engineering, avec un historique de succès dans la livraison de solutions de données à grande échelle
Maîtrise avancée de Python, SQL et d’au moins un langage supplémentaire (ex. Java ou Scala)
Expertise approfondie des bases de données SQL et NoSQL, modélisation des données et optimisation des requêtes
Expérience pratique significative avec Snowflake et les concepts modernes de data warehouse (data lakes, lakehouse, streaming)
Expertise avec les frameworks d’orchestration (Airflow, Dagster) et CI/CD pour les pipelines de données
Bonne compréhension des architectures temps réel/streaming (Kafka, Kinesis)
Historique prouvé dans la mise en œuvre de frameworks de qualité des données, observabilité et monitoring
Solide connaissance de l’écosystème AWS pour les données (S3, Glue, Lambda, EMR, ECS) ou services cloud équivalents (Azure, GCP)
Expérience avec l’infrastructure as code (Terraform, CloudFormation)
Maîtrise des pratiques de software engineering : tests, revues de code, gestion de version et design patterns
Excellentes compétences en communication et collaboration, avec la capacité d’influencer les décisions techniques et de guider les parties prenantes interfonctionnelles
Esprit orienté client, focalisé sur la création de valeur et l’efficacité grâce à des produits de données robustes et efficaces
Atouts supplémentaires
Expérience avec les outils de gouvernance, catalogage et traçabilité des données (ex. Collibra, Alation, Atlan)
Exposition aux pipelines de features ML ou workflows MLOps
Familiarité avec les pratiques DataOps et les plateformes avancées de monitoring/alerting
Connaissance du développement et intégration d’API RESTful
Expérience pratique avec Docker, Kubernetes et les workloads de données conteneurisés
Familiarité avec les plateformes BI et de visualisation (Tableau, Looker)
Expérience avec des systèmes à haut débit ou faible latence
About Us
Travel is more than reaching a destination—it’s about the experiences created along the way. We partner with over 200 airline, hospitality, cruise, passenger rail, and financial services companies to transform everyday travel into extraordinary journeys. Guided by our values of ambition, innovation, and collaboration, we continuously raise the bar and believe we are better together.
Join us in shaping the future of travel by unlocking the power of data.
About the Role
We are seeking a Senior Data Engineer to play a key role in the evolution of our data platform. As part of our Data Engineering team, you will design and implement scalable, reliable, and high-performing data pipelines and platforms that support analytics, AI/ML, and customer-facing applications.
In this role, you’ll act as a technical leader: mentoring intermediate engineers, guiding solution design, and ensuring best practices are applied. You’ll work closely with a Staff Engineer and Data Architect, collaborating on architecture decisions while owning complex implementation and delivery.
What You’ll Do
Lead the design, development and implementation of scalable, resilient, and cost-efficient data pipelines across batch and streaming systems
Partner with Staff Engineers and Data Architects to translate high-level architecture into actionable engineering solutions.
Drive adoption of best practices for data modeling, pipeline design, code quality, and testing
Implement and scale automated monitoring, alerting, and data quality frameworks for mission-critical pipelines
Own complex, high-impact data engineering projects end-to-end, from design through deployment and monitoring
Guide the team in designing event-driven, real-time, and microservices-oriented data flows
Optimize existing data infrastructure for performance, scalability, and cost efficiency in the cloud
Mentor and coach intermediate engineers, conducting reviews and providing feedback to grow team capability
Collaborate with analysts, data scientists, and product teams to co-design data products that power advanced analytics and ML models
Contribute to the evolution of data governance, security, and compliance practices
Evaluate and introduce new tools, frameworks, and techniques to keep our stack modern and efficient
Champion a data-first culture, ensuring stakeholders can trust and act on the data we provide
What You Bring
Bachelor’s or Master’s degree in Computer Science, Engineering, or related field
5–7+ years of professional experience in data engineering, with proven success delivering large-scale data solutions
Advanced proficiency with Python, SQL, and at least one additional language (e.g., Java or Scala)
Deep expertise in SQL and NoSQL databases, data modeling, and query optimization
Strong hands-on experience with Snowflake and modern data warehouse concepts (data lakes, lakehouse, streaming)
Expertise with orchestration frameworks (Airflow, Dagster) and CI/CD for data pipelines
Solid understanding of real-time/streaming architectures (Kafka, Kinesis)
Proven track record of implementing data quality, observability, and monitoring frameworks
Strong understanding of AWS data ecosystem (S3, Glue, Lambda, EMR, ECS) or equivalent cloud services (Azure, GCP)
Experience with infrastructure as code (Terraform, CloudFormation)
Strong grounding in software engineering practices: testing, code reviews, version control, and design patterns
Excellent communication and collaboration skills, with the ability to influence technical decisions and guide cross-functional stakeholders
A customer-first mindset, focused on driving value and efficiency through robust and effective data products.
Nice to Have
Experience with data governance, cataloging, and lineage tools (e.g., Collibra, Alation, Atlan)
Exposure to machine learning feature pipelines or MLOps workflows
Familiarity with DataOps practices and advanced monitoring/alerting platforms
Knowledge of RESTful API development and integration
Hands-on experience with Docker, Kubernetes, and containerized data workloads
Familiarity with BI and visualization platforms (Tableau, Looker)
Background in high-throughput or low-latency systems
