Job Description
Missions:
Concevoir, développer et maintenir des pipelines ETL/ELT sur GCP (Dataflow, Dataproc, Data Fusion, etc.).Modéliser et optimiser des data warehouses et data lakes sur BigQuery.Implémenter des solutions de traitement batch et temps réel (Pub/Sub, Kafka, Dataflow).Assurer la qualité, la fiabilité et la performance des flux de données.Collaborer avec les équipes Data Science, BI et métier pour répondre aux besoins analytiques.Automatiser et industrialiser les déploiements via des outils CI/CD (GitLab, Jenkins, Terraform…).Mettre en place des bonnes pratiques de sécurité et de gouvernance des données. Profil recherché :
Expérience confirmée (4 à 8 ans) en ingénierie de données, dont au moins 2 ans sur GCP.Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc.Solide expérience en Python et/ou Java pour le traiteme...
Ready to Apply?
Take the next step in your AI career. Submit your application to RED TIC today.
Submit Application