À propos de l’entreprise
Service Informatique du groupe Farinia, nous cherchons à révolutionner les opérations industrielles et à faire l’Industrie 4.0 disponible pour tout nos collaborateurs. Avec la synergie des compétences IT de SAFIR, nous pilotons la transformation digitale de nos clients.
Grâce à notre compréhension approfondie de ce secteur d'activité spécifique, nous bâtissons un pont entre le savoir-faire industriel du fabricant et les compétences techniques du développeur informatique. Notre équipe a déjà réussi à optimiser les processus opérationnels internes de base de plus de dix entreprises du groupe à travers SAP.
Afin de faciliter la circulation d’un flux d'informations parfait à l’intérieur de l'organisation, Safir aide les fabricants à améliorer et à définir leurs processus internes de la meilleure façon. Une fois que toutes les fonctions internes ont été caractérisées, notre équipe développe et met en place le système de planification des ressources d'entreprise le plus approprié.
Voir la fiche de l'entreprise
Description Des Activités Significatives De L'emploi
Conception et architecture des pipelines de données
Concevoir, développer et maintenir des pipelines ETL (Extract, Transform, Load) pour collecter, transformer et charger des données provenant de différentes sources.
Utiliser Microsoft Fabric Data Factory pour orchestrer les flux de données et automatiser les processus de gestion des données.
- Gestion des données dans le cloud (Azure)
Mettre en place des solutions de stockage de données à grande échelle, comme Azure Data Lake ou Azure Synapse Analytics, pour gérer des volumes massifs de données.
Configurer les entrepôts de données dans Microsoft Fabric pour centraliser et organiser les données de l’entreprise.
- Transformation et préparation des données
Créer des modèles de données robustes en nettoyant, transformant et enrichissant les données pour les rendre prêtes à l’analyse.
Utiliser Power Query et d’autres outils de Microsoft Fabric pour manipuler les données.
- Optimisation des performances des flux de données
Surveiller et optimiser les flux de données pour garantir des performances élevées et une faible latence.
Utiliser des techniques de partitionnement, de parallélisme et de gestion intelligente des ressources.
- Sécurité et conformité des données
Implémenter des politiques de gouvernance et de sécurité pour protéger les données sensibles en conformité avec les réglementations.
Utiliser des fonctionnalités comme Azure Active Directory pour gérer l’accès aux données et les rôles d’utilisateurs.
- Collaboration avec les équipes BI et Data Science
Travailler en collaboration avec les équipes d’analystes, de scientifiques des données et les parties prenantes pour comprendre les besoins en matière de données.
Faciliter l’accès aux données en construisant des environnements analytiques prêts pour les utilisateurs.
- Développement de solutions analytiques avancées
Développer des rapports et des tableaux de bord interactifs avec Power BI intégrés dans Microsoft Fabric pour visualiser les données de manière efficace.
Mettre en place des systèmes de prédiction ou des analyses avancées via des modèles de machine learning (intégration avec Azure Machine Learning).
- Automatisation des processus de gestion des données
Automatiser la gestion et la mise à jour des données avec des flux de travail sur Microsoft Fabric et Azure Logic Apps.
Implémenter des solutions de data streaming pour des besoins en temps réel.
- Veille technologique et optimisation continue
Rester à jour sur les nouvelles fonctionnalités de Microsoft Fabric et des outils associés pour améliorer en continu les performances et l’efficacité des solutions de gestion des données.
Mettre en œuvre des solutions innovantes en utilisant des services comme Microsoft Power Automate ou Azure Functions pour automatiser et améliorer les processus.
Ce rôle requiert des compétences techniques pointues sur l'écosystème Microsoft Azure, Power BI, ainsi que des notions fortes de gestion de données et d'architecture cloud.
Profil
Diplôme en informatique, en ingénierie, en statistiques, en data science ou dans un domaine connexe.
Maîtrise des outils de l’écosystème Microsoft, notamment :Microsoft Fabric (incluant Power BI, Azure Synapse Analytics, Data Factory).
Power Query et Power BI pour la préparation et la visualisation des données.
Azure Data Lake ou Azure SQL Database pour la gestion et le stockage des données.
Expertise dans les pipelines ETL (Extract, Transform, Load) : conception, optimisation et maintenance.
Connaissance des langages de programmation comme SQL, Python ou Scala, utilisés dans la gestion des données et l’ingénierie.
Ce profil doit être à l’aise avec l’utilisation des outils de Microsoft pour créer des solutions robustes de gestion et d’analyse des données, tout en assurant la sécurité et la gouvernance des informations. Une capacité à évoluer dans des environnements complexes et à automatiser les processus est également attendue.