Job Description

Missions :


  • Concevoir et développer des pipelines ETL pour l’alimentation des entrepôts de données.




  • Intégrer et transformer des données issues de sources variées (bases SQL/NoSQL, fichiers plats, API…).




  • Assurer la qualité, la cohérence et la traçabilité des données manipulées.




  • Collaborer avec les Data Analysts, Data Scientists et les métiers pour comprendre les besoins et livrer des données prêtes à l’usage.




  • Optimiser les performances des traitements et automatiser les workflows de données.




  • Participer à la migration et à la modernisation des solutions vers des architectures cloud (ex. : Azure Data Factory, AWS Glue, GCP Dataflow).




  • Mettre en place des solutions de monitoring et de gestion des incidents liés aux traitements.


  • Profil recherché :


  • Bac+3 à Bac+5 en informat...

  • Ready to Apply?

    Take the next step in your AI career. Submit your application to RED TIC today.

    Submit Application