Concevoir, développer et optimiser des pipelines de données en Python.
Implémenter des solutions d'extraction, de transformation et de chargement (ETL).
Assurer la qualité et la fiabilité des données traitées.
Automatiser les processus de collecte et de traitement de données.
Participer à la mise en place et à l'optimisation des architectures Big Data.
Collaborer avec les équipes Data Science et IT pour intégrer les solutions d'analyse et de machine learning.
Rédiger la documentation technique et assurer une veille technologique.
Diplômé(e) d'une formation en informatique, data science ou domaine connexe.
Minimum 5 ans d'expérience en développement Python appliqué à la gestion et au traitement des données.
Maitrise des frameworks et bibliothèques Python tels que Pandas, NumPy, PySpark, Dask.
Expérience avec les systèmes de gestion de bases de données SQL et NoSQL (PostgreSQL, MongoDB, Cassandra, etc.).
Connaissance des outils ETL et des plateformes Cloud (AWS, GCP, Azure).
Expérience avec les architectures distribuées et le traitement de gros volumes de données (Hadoop, Spark).
Bonne capacité à travailler en équipe et à collaborer avec des profils techniques et fonctionnels.
Esprit analytique, rigueur et autonomie.
Avantages: