Helvetia Environnement

Helvetia environnement
001

Construire une approche centrée data dans un programme de transformation digitale.

Le client

Héritière d’entreprises familiales suisses, Helvetia Environnement a été créée en 2005 pour apporter une réponse globale à la gestion des déchets en Suisse. La société est active dans la Collecte des déchets pour les collectivités, les commerces et industries, dans le Tri et la Valorisation des déchets, et dans le domaine de la création d’énergie à partir de déchets (Waste to Energy). Helvetia Environnement est présente en Suisse avec plus de 500 employés répartis dans les cantons de Genève, Vaud, Fribourg, Bâle et Soleure.

Helvetia-environnement-présentation-entreprise
002

Le projet

Le secteur suisse du traitement et de la gestion des déchets accélère sa transformation, impulsée par la numérisation des processus, l’innovation, l’exploitation des données et du potentiel des nouvelles technologies (AI, IoT, Big Data, Blockchain, etc).

Pour répondre aux nouveaux enjeux du secteur, Helvetia Environnement lance en 2019 un programme de transformation visant à répondre aux objectifs suivants :

  • Affiner le pilotage de la performance globale du groupe, de ses entités et de ses activités

  • Informatiser la totalité des flux de données métier (collecte – tri – transformation – négoce – service)

  • Dématérialiser, puis digitaliser certaines fonctions de l’entreprise

  • Simplifier et déployer les processus métier

  • Mettre en place un système d’informations avec une architecture propice aux futurs développements

  • Mettre la gouvernance des données au cœur des processus

Dans ce contexte, nous accompagnons Helvetia Environnement pour :

  • Comprendre l’état actuel et futur des principaux domaines de données de Helvetia Environnement afin de définir la stratégie « Data Centric » du groupe

  • Designer l’architecture data qui soutiendra le programme et ses objectifs

  • Accompagner les équipes dans la mise en place du data mangement

  • Mettre en œuvre le programme, en assurant sa direction et en apportant des ressources projet

le-projet-illustration
003

La réalisation

Pour mener à bien cette mission, nous avons décomposé notre intervention en plusieurs phases.

La première phase est une phase organisationnelle, qui a permis de passer d’une vision projet, à une vision programme, en construisant les streams qui allaient le composer. Dans cette vision, le prisme de la data comme support à la transformation digitale, est apparu comme primordial et a permis de poser les premières briques des fondations data, qu’elles soient techniques ou fonctionnelles.

La deuxième est une phase d’analyse du paysage IT d’Helvetia Environnement. Cela nous a permis d’aligner les buildings blocks d’une plateforme data avec les contraintes techniques et les enjeux métier, et ainsi de dessiner et apporter une véritable stratégie data à notre client.

Cette analyse a forgé une conviction, celle de proposer, au-delà des architectures classiques de Data Lake ou de Data warehouse, une architecture s'inspirant des architectures distribuées. Pour cela nous avons considéré les domaines de données comme une priorité et appliqué notre méthodologie « Data Thinking » pour créer une infrastructure de données en libre-service et traiter les données comme un produit.

La troisième phase est celle de l’instanciation du programme. Cross pilote le programme avec les différents intervenants, réalise la conception technique du datahub, pose les principes de data management et défini avec Helvetia Environnement, la mise en place de l’organisation data centric.

Les bénéfices clients

L’objectif de notre approche a été de s’assurer de l’alignement des 4 piliers des fondations “data”, afin qu’ils puissent supporter efficacement et de manière durable le programme, les projets et les besoins en données d’Helvetia Environnement.

vision stratégie et objectifs
004

Nous avons donc construit une architecture avec une vision pour le long-terme qui intégrera tous les challenges futurs à adresser pour Helvetia Environnement. De plus, la réalisation agile de ce projet permet de construire une solution en accord avec les besoins du moment.

Cette approche a permis de basculer d’une approche d’intégration dite point à point, à une architecture data centralisée, que nous appellerons DataHub.

Une approche DataHub permet de proposer un service centralisé qui relie tous les systèmes, qu'il s'agisse d'applications web, de capteurs IoT, de solutions SaaS ou de solutions plus opérationnelles, comme un CRM ou un ERP.

Aussi, cette brique de l’architecture data gère les connexions entre les systèmes et orchestre le flux de données entre eux. Nous avons donc une architecture flexible et évolutive au fil du temps.

Avec un Datahub, les connexions sont établies avec chaque système ou composant qui seront intégrées dans le futur. Cette connexion est partagée avec tous les autres systèmes qui doivent interagir avec ce DataHub. Les services de données peuvent être exposés et publiés de manière cohérente, ce qui permet une meilleure intégration des données entre les systèmes et réduit le besoin de réplication des données.

Cette approche DataHub simplifie également la mise en œuvre d’une politique de gouvernance des données, car elles sont conservées et centralisées. Ces dernières peuvent être transformées et distribuées facilement vers d'autres points, tels que les Datawarehouse, les DataLake (Cloud ou On Premise), et les outils de restitution de données (outils BI, d’analyse avancée, ou de data science).

C’est ce qui fait la différence avec les architectures classiques des plateformes de données. Le DataHub est une brique de médiation, de stockage et d'échange de données cohérentes. C’est un composant de l’architecture data et non un point final comme un Datawarehouse ou un Data Lake.

La valeur ajoutée de cette architecture est qu’elle donne, à chaque composant, un rôle bien défini.

  • Le datawarehouse, pour structurer la donnée à des fins analytiques ;

  • Le datalake, pour collecter les données du Big Data à des fins d’analyse exploratoire ;

  • Le DataHub, pour faire la médiation sémantique entre les systèmes.

Pour CROSS le Datahub est l’architecture la plus mature permettant de répondre aux besoins data de notre client. De plus elle est totalement compatible avec des architectures émergentes type datamesh, qui permettrons d’absorber l’explosion des périmètres métiers de nouveaux domaines fonctionnels qui vont voir le jour chez notre client.

Pour faire face aux enjeux de demain, où la donnée reste un élément critique, l’architecture data de demain doit être dynamique, flexible, pour permettre aux entreprises d’évoluer au rythme de leur environnement, et proposer rapidement de l’innovation.

Pierre-Olivier SPINELLI, Directeur Conseil chez CROSS
Seulement 0.35g de CO2 est produit chaque fois qu'un utilisateur visite cette page web. En savoir plusbox icon
box icon

Créez votre projet avec nous !