Job Description
<h3>📋 Description</h3> • En tant que Développeur Flux Informatica, vous serez en charge de la conception, du développement, de l’intégration et du maintien des flux de données au sein de notre infrastructure Informatica.
• Vous interviendrez à toutes les étapes des projets liés à l’intégration de données, de l’analyse des besoins jusqu'à la mise en production.
• Vos missions incluent : Développement et maintenance des flux de données : Créer, optimiser et maintenir les flux de données (ETL) à l’aide de l’outil Informatica PowerCenter.
• Analyse des besoins métiers : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins en matière de flux de données et proposer des solutions adaptées.
• Conception et architecture des flux : Rédiger les spécifications techniques et proposer des solutions efficaces et évolutives pour les flux de données.
• Suivi des performances : Analyser les performances des flux de données et effectuer des optimisations pour garantir leur efficacité et leur fiabilité.
• Tests et validation : Réaliser des tests unitaires et fonctionnels pour assurer la qualité des développements avant leur mise en production.
• Support et maintenance : Fournir un support technique pour la résolution des incidents en production et assurer la maintenance corrective et évolutive des flux.
• Documentation : Rédiger et maintenir à jour la documentation technique liée aux flux de données, aux processus d'intégration et aux interfaces. <h3>🎯 Requirements</h3> • Diplôme en informatique ou équivalent (Bac +3/5).
• Minimum 7 ans d’expérience dans le développement de flux de données avec Informatica.
• Une expérience préalable dans un environnement similaire (gestion de données massives, Data Warehouse, Big Data, etc.) est un plus.
• Capacité à travailler dans un environnement agile et à gérer plusieurs projets en parallèle.
• Un bon niveau d’anglais est un atout.
• Compétences techniques : Maîtrise d’Informatica PowerCenter et/ou d’Informatica Cloud.
• Bonne connaissance des bases de données SQL (Oracle, SQL Server, MySQL, etc.).
• Connaissance en gestion de processus d'intégration de données et d’ETL.
• Expérience dans l’optimisation des performances des flux de données.
• Connaissance des outils de gestion de version (Git, SVN).
• Bonne compréhension des concepts de gestion des erreurs et des logs dans les flux de données.
• Compétence en scripting (Shell, Python, etc.) est un plus. <h3>🏖️ Benefits</h3> • Un environnement dynamique et innovant, au sein d’une équipe passionnée par les technologies de données.
• La possibilité de travailler sur des projets d’envergure, à la pointe des technologies cloud et Big Data.
• Des opportunités d’évolution et de formation continue pour développer vos compétences.
• Un cadre de travail flexible et des avantages attractifs.