Le fil

« Tous les projets data ne trouvent pas leurs solutions dans les réseaux de neurones »

Team - 16 mars 2021

Benoit Thieurmel est le Directeur des opérations de Datastorm. Son mantra : partage de connaissance, rigueur, méthode… et vigilance quand on croise une boite noire.

Benoit Thieurmel, DatastormBenoit, comment devient-on Directeur des opérations dans un bureau d’expertise et de conseil comme Datastorm ?
Benoit Thieurmel : c’est vrai qu’il n’y a pas de formation dédiée (rire). Mais en regardant un peu dans le rétro, je vois le résultat de choix conscients et assumés. D’abord celui de la dimension humaine : j’ai fait le choix d’évoluer dans des structures à taille humaine où l’on peut construire de vrais échanges avec les équipes et les clients. Pour moi, la proximité génère de la confiance et nous sommes sur un métier de confiance. Ensuite, j’ai besoin d’explorer de nouveaux terrains de jeu, en permanence. Et chaque nouveau projet démarre par un ensemble de questions nouvelles et stimulantes pour lesquelles je dois organiser et coordonner des réponses opérationnelles. Cette combinaison entre relations humaines et exploration correspond à l’idée que je me faisais d’un job épanouissant, voilà pourquoi je suis là aujourd’hui.

C’est aussi un job stressant…
B.T. : ça le devient si vous êtes mal entouré. J’ai la chance de travailler avec des personnes qui aiment sortir de leur zone de confort, de ce qu’elles connaissent, de ce qu’elles maîtrisent parfaitement. La contrepartie, c’est d’être en capacité de leur proposer des projets et des méthodes de travail qui nourrissent leur appétit de nouvelles compétences.

 

Notre expertise doit être explicite et les modèles doivent être acceptables. C’est cette nécessaire acceptabilité qui nous oblige à rendre les choses interprétables et explicables.

 

Tu veux parler des matinées R&D de Datastorm ?
B.T. : oui, notamment. Une fois par mois, nous partageons nos connaissances scientifiques et opérationnelles autour d’un petit-déjeuner. Dernièrement, nous nous sommes intéressés à l’état de l’art et aux applications des travaux de recherche sur les données fonctionnelles, nous avons aussi parlé contrôle synthétique au service des politiques publiques, analyse de sensibilité pour la fiabilité industrielle… Nous invitons systématiquement des chercheurs et des experts du sujet pour alimenter notre propre R&D. A l’inverse, eux se nourrissent des cas d’application que nous développons dans l’économie réelle. Toutes les présentations sont indexées dans un outil collaboratif, avec des canaux de discussion thématiques et une bibliothèque scientifique que nous sommes en train de bâtir. C’est une culture et une organisation qui nous permettent de challenger les projets qui nous sont confiés.

Challenger un projet, c’est lui injecter une dose d’innovation ?
B.T. : oui, innovation dans les méthodes utilisées ou dans les outils déployés. Mais c’est aussi parfois rebâtir la réflexion sur des fondamentaux rigoureux et solides.

C’est-à-dire ?
B.T. : il y a une telle frénésie dans la data science et l’intelligence artificielle que les entreprises en oublient parfois les bases : aider les métiers à accéder aux données, à les comprendre, à identifier ce que l’on peut en faire pour créer réellement de la valeur d’un point de vue commercial, industriel ou organisationnel. Tous les projets devraient démarrer par cette question : comment la statistique, la data science, voire l’intelligence artificielle, vont pouvoir aider notre métier à prendre les bonnes décisions ? Et tous les projets ne trouvent pas leurs réponses dans les réseaux de neurones ou le framework Hadoop…

Tu revendiques une forme de résistance à « tout ce qui brille » ?
B.T. : pas de résistance, mais de la vigilance. Car ce qui brille… est souvent enfermé dans des boites noires. Notre expertise doit être explicite et les modèles doivent être acceptables. C’est cette nécessaire acceptabilité qui nous oblige à rendre les choses interprétables et explicables. C’est le contrat de confiance de notre métier. Et puis la multiplication des projets data et des algorithmes expose les entreprises à un risque aujourd’hui clairement identifié : la baisse de performance des modèles de machine learning. Il faut savoir anticiper les dérives de ses modèles en faisant appel au MLOps auquel nous venons d’ailleurs de consacrer un webinaire.

Tu animais récemment un autre webinaire sur les solutions R Shiny au service des métiers.
B.T. : oui, nous avons développé une série de packages R Shiny chez Datastorm. Plusieurs d’entre eux ont été déployés au sein des équipes métiers du Crédit Immobilier de France et nous trouvions intéressant de montrer comment ces outils relativement simples, mais structurés, documentés et testés, permettent de monitorer une activité. Je me retrouve dans la philosophie de l’open source qui permet le prototypage et l’innovation ouverte.

Un gimmick qui rythme ton métier ?
B.T. : n’oublie jamais de comprendre ce que tu fais, et pourquoi tu le fais.

 

Benoit Thieurmel en 5 dates

2009 : licence de Mathématiques-Informatique (Université de Bretagne Occidentale)
2011 : master de Statistiques appliquées aux Sciences agronomiques (AgroCampus Rennes)
2014 : co-fondateur de DataKnowledge, société de conseil
2016 : rejoint Datastorm en tant que Responsable R&D
2018 : Directeur des opérations de Datastorm

 

Open source

R pour la Statistique et la Science des Données Grand défenseur de l’open source et contributeur actif de la communauté R, Benoit Thieurmel est l’un des co-auteurs de l’ouvrage « R pour la Statistique et la Science des Données » sous la direction de François Husson (Pur Editions, 2018).

Retrouvez également le webinaire animé par Benoit Thieurmel « Solutions R Shiny au service des métiers » avec le Crédit Immobilier de France :
https://www.datastorm.fr/replay-webinar-solutions-r-shiny-au-service-des-metiers-lexemple-du-credit-immobilier-de-france/

 

 

« Avec le Département du Nord, nous sommes dans une vraie démarche expérimentale »

Data scientist curieux et peu enclin à la routine, Lyès Boucherai nourrit sa jeune expérience des projets qu’il mène pour les clients de Datastorm. Sa récente collaboration avec le Département du Nord sur l’optimisation du service public territorial l’a particulièrement marqué. Interview.

R&D
Explorer rapidement un set de données avec Shinymodules

Shinymodules est constitué de 4 modules permettant d’explorer rapidement un set de données. Filtrer, résumer, télécharger, analyser les performances d’un modèle de régression et monitorer : on trouve dans Shinymodules des fonctionnalités très utiles au quotidien. Bref, un must have !

Compteurs intelligents et tarification dynamique de l’électricité : l’analyse de Datastorm

Dans sa réponse à la consultation de la Commission de régulation de l’énergie, Datastorm partage son analyse sur la mise en place d’une tarification dynamique de l’électricité liée au déploiement des compteurs intelligents.

Toute l'expertise du Groupe ENSAE-ENSAI

Plateau de Saclay
5 Avenue Henry-Le-Chatelier
91120 PALAISEAU - FRANCE

Paris
24 rue Barbès
92120 MONTROUGE - FRANCE