Description de l’offre

MISSIONS 

❖ Coordonner la mise en place de l’architecture data, conçue par le data architect : infrastructures et logiciels.
❖ Participer à la mise en œuvre des use cases analytiques
❖ Intégrer de grands volumes de données, structurées et non structurées, à partir de diverses sources au sein d’un datalake
❖ Industrialiser les algorithmes de récupération et de traitement des données et les modèles d’intelligence artificielle.
❖ Effectuer une veille sur les nouvelles technologies et solutions matérielles/logicielles de transport, de traitement et de stockage des données.
❖ Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille

ACTIVITES PRINCIÄLES

❖  Identifier avec le data architecte les sources de données pertinentes pour les uses case data
❖  Développer les chaines d'ingestion en tenant compte des aspects techniques et des exigences non fonctionnelles
❖  Automatiser les processus d'ingestion de données
❖  Mettre en œuvre les chaines de traitements de données batch et temps réels
❖  Industrialiser et optimiser les modèles de ML développés par les data scientist
❖  Cartographier les sources de données qui alimentent le datalake 
❖  Garantir la cohérence et la fiabilité des données du datalake
❖  Faire le suivi capacitaire des environnements data et mettre en œuvre la politique de gourvernance des données
❖  Traduire les règles de gestion business en KPIs analytiques
❖  Mettre en œuvre des dispositifs d'alertes en cas d'indisponibilité des données
❖  Garantir la cohérence dans la nomenclature des données business et techniques
❖  Assurer l'interopérabilité du datalake avec l'écosystéme data de Sonatel
❖  Réaliser une veille sur les sources d’informations type open-data.
❖  Mettre en oeuvre les politiques de sécurité en vigueur des données

COMPETENCES REQUISES

SAVOIR

❖   Connaissance des distributions Hadoop du marché : Hortonworks et/ou Cloudera : niveau 3
❖  Fortes aptitudes en développement / programmation avec une excellente maîtrise des langages de programmation suivant : Python, Scala, Java, Shell Unix. Niveau 3
❖  Connaissance de l’environnement cloud : GCP / AWS, … : niveau 3
❖  Connaissance des technologies de transports de données : Apache NiFi et Kafka niveau 3
❖  Excellente maitrise de l’écosystème Hadoop : HDFS, Yarn, Oozie, Hive niveau 3

❖  Excellente maitrise du framework Spark niveau 3
❖  Maitrise des techniques de gestion de projet du cahier des charges à la recette utilisateur et son déploiement
❖  Bonne compréhension des enjeux business impliquant le traitement des données.

SAVOIR FAIRE

❖ Avoir une capacité d’analyse et de synthèse
❖ Avoir une capacité d’adaptation d’organisation et de gestion des priorités 
❖ Avoir une facilité d’adaptation aux nouveaux environnements, un sens de l’autonomie et de l’initiative

SAVOIR ETRE

❖ Avoir une capacité relationnelle et un esprit d’équipe 
❖ Intégrité et transparence 
❖ Exemplarité et engagement vis-à-vis de l’entreprise
❖ S’approprier les principes d’actions de l’entreprise : au service du client, entre nous, entre managers, avec les collaborateurs pour la création de richesses et vis-à-vis de l’environnement

Processus de recrutement

Etape 1
Postulez à l’offre d’emploi en vous munissant de votre CV.
Etape 2
Un recruteur examine les candidatures reçues et effectue une
présélection des profils correspondant aux critères du poste à pourvoir
Etape 3
Votre profil est présélectionné, un recruteur vous recontactera pour échanger
sur votre parcours professionnel, vos compétences et votre motivation pour le poste.
Si le poste le demande, vous pourrez être évalué à travers des tests.
Etape 4
Votre candidature est retenue ? Votre agence vous fournira les informations
nécessaires pour votre mission et rédigera votre contrat de mission !

Emplois suggérés