Je recherche pour un de mes clients un TechLead Data :
Missions principales :
? Accompagner les Data Engineers sur les bonnes pratiques, les choix d?architecture et dans leur travail au quotidien
? Effectuer les audits et les contrôles des développements réalisés : Sécurité,
Maintenabilité, Robustesse et Performance
? Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale
? Participer aux analyses, études d?impacts et cadrage techniques
? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement
? Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d?assurer la qualité des développements réalisés par l?équipe
? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
? Rédiger la documentation technique des data products
? Assurer un support aux testeurs
? Reporter l?activité à la Squad et travailler dans une démarche d?efficacité collective
Livrables principaux :
? Études d?impact technique
? Faire des propositions techniques
? Schéma de solution des flux, modèle de données
? Fournir des chiffrages détaillés des futures réalisations
? Relecture de code technique
? Rédaction de SFD, STD, Manuel d?installation
? Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l?ordonnancements
Compétences techniques :
Langages de programmation : Python, SQL, Scripts Shell
? Services de streaming data : Kafka
? Services d?ingestion des données : Kafka Connect, SFTP
? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
? Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)
? Outils de collaboration et de CI/CD : GitLab, Flamingo
? Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
? Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Profil candidat:
1) Missions principales :
? Accompagner les Data Engineers sur les bonnes pratiques, les choix d?architecture et dans leur travail au quotidien
? Effectuer les audits et les contrôles des développements réalisés : Sécurité,
Maintenabilité, Robustesse et Performance
? Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale
? Participer aux analyses, études d?impacts et cadrage techniques
? Concevoir des solutions en respectant les bonnes pratiques d?architecture data et développement
? Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d?assurer la qualité des développements réalisés par l?équipe
? Réaliser le développement de nouveaux data products et assurer la maintenance évolutive et corrective des data products existants
? Rédiger la documentation technique des data products
? Assurer un support aux testeurs
? Reporter l?activité à la Squad et travailler dans une démarche d?efficacité collective
2) Livrables principaux :
? Études d?impact technique
? Faire des propositions techniques
? Schéma de solution des flux, modèle de données
? Fournir des chiffrages détaillés des futures réalisations
? Relecture de code technique
? Rédaction de SFD, STD, Manuel d?installation
? Réaliser du code applicatif à l?état de l?art sur notre Data Platform GCP
? Rédiger les documentations techniques liés à ta solution, incluant le modèle de
données, les procédures, l?ordonnancements
3) Compétences techniques :
Langages de programmation : Python, SQL, Scripts Shell
? Services de streaming data : Kafka
? Services d?ingestion des données : Kafka Connect, SFTP
? Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint
? Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow
? Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel)
? Outils de collaboration et de CI/CD : GitLab, Flamingo
? Utilisation de plateformes pour le développement et le déploiement : Docker,
Kubernetes, Kustomize, Helm, Terraform
? Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA.
? Manipulation des formats de fichiers : CSV, JSON, Avro, XML
Go to job list