MISSIONS
❖ Coordonner la mise en place de l’architecture data, conçue par le data architect : infrastructures et logiciels.
❖ Participer à la mise en œuvre des use cases analytiques
❖ Intégrer de grands volumes de données, structurées et non structurées, à partir de diverses sources au sein d’un datalake
❖ Industrialiser les algorithmes de récupération et de traitement des données et les modèles d’intelligence artificielle.
❖ Effectuer une veille sur les nouvelles technologies et solutions matérielles/logicielles de transport, de traitement et de stockage des données.
❖ Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille
ACTIVITES PRINCIÄLES
❖ Identifier avec le data architecte les sources de données pertinentes pour les uses case data
❖ Développer les chaines d'ingestion en tenant compte des aspects techniques et des exigences non fonctionnelles
❖ Automatiser les processus d'ingestion de données
❖ Mettre en œuvre les chaines de traitements de données batch et temps réels
❖ Industrialiser et optimiser les modèles de ML développés par les data scientist
❖ Cartographier les sources de données qui alimentent le datalake
❖ Garantir la cohérence et la fiabilité des données du datalake
❖ Faire le suivi capacitaire des environnements data et mettre en œuvre la politique de gourvernance des données
❖ Traduire les règles de gestion business en KPIs analytiques
❖ Mettre en œuvre des dispositifs d'alertes en cas d'indisponibilité des données
❖ Garantir la cohérence dans la nomenclature des données business et techniques
❖ Assurer l'interopérabilité du datalake avec l'écosystéme data de Sonatel
❖ Réaliser une veille sur les sources d’informations type open-data.
❖ Mettre en oeuvre les politiques de sécurité en vigueur des données
COMPETENCES REQUISES
SAVOIR
❖ Connaissance des distributions Hadoop du marché : Hortonworks et/ou Cloudera : niveau 3
❖ Fortes aptitudes en développement / programmation avec une excellente maîtrise des langages de programmation suivant : Python, Scala, Java, Shell Unix. Niveau 3
❖ Connaissance de l’environnement cloud : GCP / AWS, … : niveau 3
❖ Connaissance des technologies de transports de données : Apache NiFi et Kafka niveau 3
❖ Excellente maitrise de l’écosystème Hadoop : HDFS, Yarn, Oozie, Hive niveau 3
❖ Excellente maitrise du framework Spark niveau 3
❖ Maitrise des techniques de gestion de projet du cahier des charges à la recette utilisateur et son déploiement
❖ Bonne compréhension des enjeux business impliquant le traitement des données.
SAVOIR FAIRE
❖ Avoir une capacité d’analyse et de synthèse
❖ Avoir une capacité d’adaptation d’organisation et de gestion des priorités
❖ Avoir une facilité d’adaptation aux nouveaux environnements, un sens de l’autonomie et de l’initiative
SAVOIR ETRE
❖ Avoir une capacité relationnelle et un esprit d’équipe
❖ Intégrité et transparence
❖ Exemplarité et engagement vis-à-vis de l’entreprise
❖ S’approprier les principes d’actions de l’entreprise : au service du client, entre nous, entre managers, avec les collaborateurs pour la création de richesses et vis-à-vis de l’environnement
Partagez via
Email