Job Description
Missions :
Concevoir et développer des pipelines ETL pour l’alimentation des entrepôts de données.
Intégrer et transformer des données issues de sources variées (bases SQL/NoSQL, fichiers plats, API…).
Assurer la qualité, la cohérence et la traçabilité des données manipulées.
Collaborer avec les Data Analysts, Data Scientists et les métiers pour comprendre les besoins et livrer des données prêtes à l’usage.
Optimiser les performances des traitements et automatiser les workflows de données.
Participer à la migration et à la modernisation des solutions vers des architectures cloud (ex. : Azure Data Factory, AWS Glue, GCP Dataflow).
Mettre en place des solutions de monitoring et de gestion des incidents liés aux traitements.
Profil recherché :
Bac+3 à Bac+5 en informat...
Ready to Apply?
Take the next step in your AI career. Submit your application to RED TIC today.
Submit Application