Job Description

Missions:

  • Concevoir, développer et maintenir des pipelines ETL/ELT sur GCP (Dataflow, Dataproc, Data Fusion, etc.).

  • Modéliser et optimiser des data warehouses et data lakes sur BigQuery.

  • Implémenter des solutions de traitement batch et temps réel (Pub/Sub, Kafka, Dataflow).

  • Assurer la qualité, la fiabilité et la performance des flux de données.

  • Collaborer avec les équipes Data Science, BI et métier pour répondre aux besoins analytiques.

  • Automatiser et industrialiser les déploiements via des outils CI/CD (GitLab, Jenkins, Terraform…).

  • Mettre en place des bonnes pratiques de sécurité et de gouvernance des données.
  • Profil recherché :

  • Expérience confirmée (4 à 8 ans) en ingénierie de données, dont au moins 2 ans sur GCP.

  • Maîtrise des services GCP : BigQuery, Dataflow, Pub/Sub, Cloud Storage, Dataproc.

  • Solide expérience en Python et/ou Java pour le traiteme...
  • Ready to Apply?

    Take the next step in your AI career. Submit your application to RED TIC today.

    Submit Application