Nos références

Des missions co-développées avec les directions métiers de nos clients

Depuis sa création en 2013, DataStorm a mené de nombreuses missions d’expertise et de conseil pour des donneurs d’ordre privés et publics.
Notre volonté de développer des algorithmes maîtrisés grâce à la compréhension de leurs mécanismes et de leur domaine de validité, notre fierté à leur donner du sens, est une marque forte de DataStorm et du Groupe ENSAE. Nous la défendons avec conviction.
Toutes ces missions ont ainsi été co-développées avec les directions métiers de nos clients pour les accompagner dans leur compréhension et l’utilisation de leurs données.
Les conditions sont alors créées pour permettre à l’entreprise de bâtir ses propres équipes et devenir autonome sur sa stratégie data.

Air Liquide

Scores de churn

Au sein de la direction digitale d’Air Liquide, nous avons accompagné les équipes de la Data Factory pour mettre en oeuvre des scores de churn sur la population des clients achetant des gaz de l’air conditionnés en bouteilles. La difficulté vient ici de la faiblesse du signal de churn puisque la majorité des clients ne commandent que peu souvent des bouteilles pour rétablir leur stock au plus juste en fonction de leur propre activité. Les algorithmes mis en oeuvre ont permis de cibler des populations à risque de churn sur lesquelles les campagnes tests d’appel visant à décourager le churn ont démontré la pertinence de l’apport data de manière opérationnelle.

Edenred

Modèles économétriques et algorithmes par graphe

Inventeur de Ticket Restaurant®, Edenred est le leader mondial des services prépayés aux entreprises. Depuis avril 2014, les titres-restaurant peuvent être émis sur support papier ou sous forme dématérialisée : carte à puce rechargeable ou application sur smartphone. Les équipes d’Edenred souhaitent savoir si l’exploitation des données issues de la digitalisation pouvait augmenter la proposition de valeur que l’entreprise propose à ses différents interlocuteurs, affiliés et bénéficiaires. Les modèles économétriques développés par Datastorm ont permis de mesurer parfaitement l’impact de la digitalisation sur l’activité d’Edenred. La mise en place d’algorithmes par graphe a permis de détecter des communautés bénéficiaires et d’identifier des « leaders » semblant drainer avec eux des populations. Le projet a permis de conclure que la digitalisation de Ticket Restaurant® est bénéfique pour Edenred et lui permet d’ouvrir de nouvelles perspectives.

GRTgaz

Création d’un DataLab

Depuis 2016, GRTgaz, opérateur gérant la majorité du réseau de transport de gaz en France, a monté un DataLab avec pour objectif de mesurer l’apport des approches « data » pour les différents métiers. Datastorm a été sélectionné comme partenaire de ce DataLab et a pu réaliser différents projets sur des sujets aussi divers que la modélisation de la consommation par très grand froid, que la prévision à très court terme de la qualité du gaz en sortie des points livrant les industriels ou encore la simulation des flux réseaux à moyen terme pour le dimensionnement du réseau. Parmi ces sujets, Datastorm a travaillé avec la direction technique de GRTgaz sur des modèles prédictifs de la corrosion ou des atteintes au métal en vue d’optimiser la politique de maintenance opérationnelle (excavations pour rechercher des défauts sur les conduites et procéder à des réparations ou remplacements préventifs). L’approche mise en oeuvre repose sur des algorithmes de machine learning exploitant de manière géospatiale les données des différents systèmes d’information et des données externes (éléments influençant potentiellement l’équilibre cathodique des réseaux). Elle a permis d’augmenter sensiblement le taux de découverte. Au delà du POC mis en oeuvre, nous avons accompagné les équipes de GRTgaz pour l’industrialisation de ces algorithmes qui sont désormais utilisés en production pour la préparation des plans de fouille.

Enedis

Partenariat Scientifique

Après un audit mené par Datastorm en 2013, Enedis a souhaité conclure un partenariat scientifique de long terme pour bénéficier de l’expertise des chercheurs du groupe. Ce partenariat s’articule autour des problématiques de modélisation des courbes de charges des clients résidentiels, notamment dans le cadre de la mise en place de NEBEF et des marchés de capacités.

RTE

Projet Datalab

Dans le cadre de son projet SMARTLAB, RTE a souhaité bénéficier de l’infrastructure Big Data sécurisée mise en œuvre par le CASD pour expérimenter les solutions de gestion massive de données afin de croiser l’ensemble de ses données patrimoniales (ensemble des équipements du réseau haute tension), l’ensemble de ses données systèmes (ensemble des signaux de tension et puissance et des données externes (météo, sols, réseaux routiers et ferrés, etc.) pour mesurer l’apport en vue des programmes de maintenance prédictive. Le système mis en place a permis de développer un prototype exploitant un volume important de données (plus de 3 années d’historique) sous les technologies Hadoop, HBASE, R, Shiny, QGIS. Ce prototype est accessible à distance de manière ultra sécurisée au travers des SD-BOX fournies par le CASD, ce qui permet à des consultants et chercheurs externes à RTE d’y accéder.

Crédit Immobilier de France

Recouvrement de créances grâce au machine learning

Datastorm a développé un package complet pour optimiser la gestion du recouvrement de créances grâce au machine learning. Les collaborateurs du CIF utilisent un instrument de pilotage associé à un logiciel d’aide à la décision qui, ensemble, permettent de déterminer les meilleures options de recouvrement. Sur la base de cette première collaboration réussie avec Datastorm, le CIF envisage déjà les prochaines applications issues de l’utilisation d’algorithmes d’intelligence artificielle.

Generali

Appréhension des risques et des incertitudes

En partenariat avec Actuaris, Generali a demandé à DataStorm de formaliser les champs de pertinence des outils d’appréhension des risques utilisés par le secteur de l’assurance. Trois champs d’impact sont concernés : l’allocation stratégique d’actifs, où le nouveau contexte de taux bas pourrait limiter la pertinence des méthodes stochastiques usuelles ; le pilotage prudentiel, où la porosité entre risque de modèle et modèle de risque nécessite de mieux caractériser la marge d’erreur des outils réglementaires ; et les solutions d’assurance et de prévention, où la transposition d’une vision assureur à une vision assuré pourrait exiger un changement de paradigme.

Dans ce cadre, DataStorm participe à la chaire PARI.

BNP Paribas

Nouvelles techniques de machine learning pour le scoring

Les institutions bancaires ont toujours été précurseurs dans l’exploitation des données, en particulier pour le contrôle de leurs risques. Depuis les années 90, elles utilisent des modèles de scoring du risque, très souvent basés sur des régressions logistiques s’appuyant sur des agrégats bancaires (en-cours moyen mensuel, total des dépenses, etc.). BNP Paribas a demandé à Datastorm d’évaluer l’apport des nouvelles techniques de machine learning (random forest, algorithmes de boosting, réseaux de neurons profonds, etc.) pour cette activité de scoring. Partant du cas pratique d’un score de risque de défaut à court terme des ménages débiteurs, nous avons exploité le détail de l’ensemble des transactions bancaires d’un portefeuille de 800 000 comptes pour mesurer non seulement l’apport de ces méthodes, mais également l’apport procuré par les données détaillées en lieu et place d’agrégats. Nous avons pour cela utilisé le CASD qui a permis de monter un cluster de calcul intensif parfaitement sécurisé pour manipuler de telles données et nos équipes d’ingénieurs et de chercheurs ont pu mesurer l’apport de tels modèles et des données concernant la performance des scores. L’étude a mis en évidence un apport très significatif des nouveaux algorithmes qui est pour moitié du à leur capacité à travailler en très grande dimension et donc à pouvoir exploiter des données très détaillées, et pour moitié à leur gain de performance par rapport aux méthodes probabilistes. La question de l’interprétabilité des modèles et donc de leur acceptabilité par les organismes de contrôle a également fait l’objet d’une étude spécifique à cette occasion.

RATP

Approches Big Data pour la régulation

Mise en place d’un POC pour l’analyse des données de géolocalisation des bus et la détermination de nouveaux modèles de régulation. Etudes des impacts de la météo, des événements spéciaux, etc. sur la vitesse de progression et sur les temps de parcours. Mise en place d’une solution de détection automatique des parcours et des points de contention du trafic.

Le fil

Suivez notre actualité et nos projets

« Aujourd’hui, l’Intelligence Artificielle nous emmène sur des terrains plus complexes »

Titouan ROBERT est Data Scientist chez DataStorm depuis 2016. Féru de data projects liés au secteur de l’énergie, dopé à la R&D, il partage sa jeune expérience et jette déjà un regard sur demain. Titouan, un mot sur ton parcours. Et bien j’ai suivi mes études en Bretagne : DUT Statistique et Informatique Décisionnelle à […]

Méthodes de Clustering : quand les Travaux de DataStorm servent la Recherche Académique

Si la recherche fondamentale passe par la mise en œuvre de données produites sous hypothèse bien maîtrisée, il faut ensuite inscrire la méthode dans un périmètre de fonctionnement réel. C’est ce que DataStorm peut offrir aux chercheurs. Un exemple : afin de travailler sur le contrôle des effacements diffus dans la distribution d’énergie, DataStorm a […]

#03 Prévision de l’Impact Climatique sur les Ventes en Magasin

Une appli web développée par DataStorm permet à chaque point de vente de cette enseigne d’optimiser son activité commerciale en associant notamment les prévisions météorologiques locales à l’historique des transactions. Plus de 1000 modèles de prévision reposant sur des algorithmes de Machine Learning sont ainsi calculés quotidiennement.

#02 Le Machine Learning pour Optimiser le Recouvrement des Créances Immobilières

Dans un contexte réglementaire et économique contraignant – taux bas et marge d’intérêt sous forte contrainte – l’efficacité opérationnelle est devenue une priorité des acteurs bancaires. Des techniques innovantes d’intelligence artificielle permettent le développement d’outils qui optimisent les processus dans un objectif de maximisation du couple rendement/risques.

R&D
Matinée R&D avec Eric Matzner-Lober et Nick Hengartner

Les équipes de DataStorm ont présenté leurs travaux de R&D interne à Eric Matzner-Lober et Nick Hengartner, deux chercheurs reconnus bien au-delà de leur communauté. Deep learning, réseaux antagonistes, NLP, interprétabilité des algorithmes de machine learning… ces regards croisés vont alimenter le plan R&D 2019 de DataStorm. Exigeante, riche et réciproque. Voilà comment qualifier la […]

#01 Approche Big Data pour la Régulation des Bus

Le département Bus de notre client coordonne environ 350 lignes de bus sur la région. Pour permettre la régulation du trafic en temps réel, les bus sont équipés de systèmes embarqués émettant leurs localisations brutes horodatées. Notre client souhaitait explorer la pertinence de ces données pour différents aspects métiers du service, allant de la conception à la régulation.

Toute l'expertise du groupe ENSAE

Plateau de Saclay
5 Avenue Henry-Le-Chatelier
91120 PALAISEAU - FRANCE

Paris
24 rue Barbès
92120 MONTROUGE - FRANCE