Compétences technologiques indispensables :
Maîtrise de l'API Scala Spark (principalement pour les traitements batch).
Expertise dans l'optimisation des performances Spark, avec une expérience avérée dans le traitement de volumétries importantes et complexes.
Solide expérience en développement Scala et bonnes pratiques de codage.
Compétences en build Maven et gestion des dépendances.
Expérience de travail dans un environnement cloud (idéalement sur Azure ou AWS).
Compétences appréciées :
Connaissance d'IBM Datastage et de son écosystème.
Expérience avec Databricks, ses outils et ses services.
Compétences transverses :
Aisance relationnelle et capacité à travailler efficacement avec différentes parties prenantes.
Esprit d'équipe et forte capacité d'adaptation aux évolutions des projets.
Rigueur, sens de l?analyse et capacité à faire preuve d?une synthèse pertinente.
Autonomie dans la gestion des tâches et des projets.
Force de proposition pour améliorer les processus et l?efficacité des projets.
Sens des priorités et gestion rigoureuse des délais dans un environnement dynamique.
Capacité à travailler en mode multi-projets, tout en maintenant une vision globale des enjeux.
Appétence pour comprendre les besoins clients et fonctionnels, et capacité à transformer ces besoins en solutions techniques pertinentes.
Compétences en mentorat et partage de connaissances au sein de l'équipe.
Profil candidat:
Expériences et Formations :
Bac+3 à Bac+5 en Informatique, idéalement dans un domaine lié aux technologies des données.
Un bon niveau d'anglais technique est requis pour collaborer avec les équipes internationales.
Minimum de 5 ans d'expérience solide en tant que Data Engineer dans des environnements similaires.
Go to job list