NewsRoom

La data au service de l’action publique territoriale

Projets 6 juillet 2021

Comme les entreprises, les collectivités territoriales prennent à leur tour le virage de la data. Les enjeux de cette transformation amorcée ? Assurer un meilleur service public pour les usagers, améliorer les conditions d’exercice du métier des agents publics et optimiser la dépense publique pour les contribuables. Exemple avec le Département du Nord qui a mené avec Datastorm un projet expérimental sur le Revenu de Solidarité Active (RSA).

Matthieu Barbier, Directeur des finances et du conseil en gestion du Département du Nord.

« Nous avons lancé ces derniers mois quatre recrutements sur un profil data analyst. Nous avons besoin de fixer ces compétences dans notre organisation pour faire vivre et pérenniser ce qui a été par exemple initié sur le sujet le RSA ». Dans son bureau du Conseil départemental du Nord, Matthieu Barbier mesure le chemin qu’il reste à parcourir. Pour autant, le Directeur des finances et du conseil en gestion du plus peuplé des départements de France est confiant. Le projet expérimental mené avec Datastorm sur le Revenu de Solidarité Active s’est avéré pertinent et ouvre de nouvelles perspectives sur la mesure et l’optimisation de la dépense publique.

Retour en 2019. La Direction des finances s’engage dans une analyse quantitative sur le RSA afin d’identifier de nouvelles méthodes de diagnostic et de prospective. Le RSA représente en effet entre 660 et 690 millions d’euros par an pour le département, c’est le poste d’allocation le plus important de la collectivité, un quart de son budget de fonctionnement. Matthieu Barbier et ses équipes se fixent alors trois objectifs opérationnels :

1/ Mieux comprendre les mécanismes du RSA

Il s’agissait dans un premier temps de faire émerger des indicateurs structurels et temporels afin d’aider le Conseil départemental du Nord à mieux connaître sa population de bénéficiaires. Via une application interactive qui traite les flux de données mensuels fournis par la Caisse d’allocations familiales, les services chargés du RSA peuvent désormais analyser les données en mode dynamique. L’exploitation statistique des données sur le RSA permet au département d’analyser les populations bénéficiaires sur différents axes issus des référentiels des systèmes d’information internes. Au-delà des analyses statiques, l’application permet de visualiser et donc de mieux comprendre les dynamiques du RSA : flux d’entrée et de sortie des allocataires, évolutions des montants en lien avec l’évolution des structures de population, etc. Cette connaissance augmentée permettre d’identifier, de cartographier et d’analyser tous les éléments qui induisent la dépense.

Via une application interactive qui traite les flux de données mensuels fournis par la Caisse d’allocations familiales, les services chargés du RSA peuvent désormais analyser les données en mode dynamique.

2/ Prévoir les flux financiers

Des méthodes assez rudimentaires, typiquement la reproduction des mouvements historiques constatés, étaient jusqu’ici utilisées par les contrôleurs de gestion pour anticiper les dépenses budgétaires liées au RSA. Mais du fait même de leur simplicité, elles ne fournissent pas d’évaluation satisfaisante et conduisent à des écarts qui peuvent être importants lors des atterrissages budgétaires. La maîtrise de cette dépense et notamment sa planification sont pourtant un enjeu majeur pour un département qui évolue dans un contexte budgétaire tendu. Le Département a donc souhaité disposer de méthodes de projections de la dépense en intégrant les évolutions démographiques et sociologiques. Les équipes de Datastorm ont ainsi généré des modèles prédictifs qui objectivent les analyses et la prospective.

3/ Identifier les leviers d’action du Département

Sans aller, à ce stade, jusqu’à permettre des analyses d’impact des politiques publiques mises en œuvre par le Département, le croisement de ces études statistiques avec les mesures sociales de la collectivité permet d’avoir une idée des corrélations entre politiques territoriales et évolutions du régime. Par exemple, les dispositifs de retour à l’emploi mis en place directement par les Maisons Départementales Insertion et Emploi (MDIE) du Nord auprès des bénéficiaires du RSA. Les effets de la réforme de l’assurance chômage sur la dépense RSA sont également dans le spectre d’analyse de la Direction des finances. Au-delà, la disponibilité d’analyses statistiques fiables et robustes constitue un outil puissant pour aider le Département dans ses échanges avec ses partenaires en vue de l’élaboration de politiques ou de dispositifs de retour à l’emploi.

Optimisation ou transformation de l’action publique ?

Pour Matthieu Barbier, la réponse est claire : piloter et évaluer l’action publique en utilisant la donnée relève clairement de la transformation. « Les élus et les services opérationnels sont demandeurs de ces analyses objectivées grâce à des outils adaptés et performants. Mais cela nécessite une certaine culture de la donnée : comprendre les chiffres, les rétroactions, les corrélations… il y a donc tout un travail de formation et de pédagogie à mener parallèlement au déploiement de solutions méthodologiques et techniques ». Un avis partagé par Benoit Ravel, le CEO de Datastorm, qui parle de data literacy pour évoquer la nécessaire acculturation des organisations aux enjeux de la data.

Les élus et les services opérationnels sont demandeurs de ces analyses objectivées grâce à des outils adaptés et performants.

La question du coût

Si le virage est pris, les collectivités territoriales restent encore timides devant les projets data. Difficulté pour identifier des cas d’usages, gouvernance complexe, infrastructure informatique inadaptée : les obstacles peuvent sembler encore nombreux. Sans parler du coût de collecte et de traitement des données. « Une entreprise cherchera à identifier le retour sur investissement, une collectivité territoriale cherchera plutôt à évaluer, c’est dans sa culture résume Benoit Ravel. Et évaluer, c’est regarder ce que j’appelle ”le coût à ne pas faire”. La démarche expérimentale du Département du Nord sur le RSA est en cela intéressante : aucune analyse statique et prospective de ce sujet n’avait été poussée aussi loin, avec des outils aussi robustes. Ne pas faire ce travail, c’est prendre le risque de ne pas identifier des leviers d’action financiers indétectables en temps normal ». Pour Matthieu Barbier, le projet a effectivement permis de de démontrer que l’analytique et la data science peuvent éclairer la décision publique. « Le RSA n’est pas l’allocation sur laquelle nous avons le plus de maîtrise, mais je pense à des politiques pleinement assumées par les départements, comme le secteur de l’enfance, où ce type d’analyse pourrait avoir un impact plus important ».

Les Facteurs Clés de Succès

Humilité et pragmatisme. La science des données ne peut pas tout faire, tout résoudre. « Sur ce point, les équipes de Datastorm ont été franches et transparentes avec nous. Une relation de confiance s’instaure naturellement » souligne Matthieu Barbier. Corollaire de l’humilité exploratoire, une démarche progressive sera préférable au big bang mal maîtrisé. Mieux vaut démarrer avec un cas d’usage simple qui aura un impact facile à identifier pour prouver l’intérêt de la démarche.

Transversalité et dialogue interne. Chaque métier fonctionne sur des usages et des a priori puissants. L’approche par la donnée est une approche fédératrice qui doit générer du dialogue, lui-même créateur d’une valeur supérieure à l’habitude. « Sans ce dialogue, on ne dégage pas de valeur » estime Benoit Ravel. Dans un projet data qui va mobiliser une forte expertise technique, l’appui de la Direction des Systèmes d’Information est évidemment indispensable, ne serait-ce que pour assurer la stabilité des outils déployés.

Open data, shared data. La loi pour une République Numérique – cinq ans déjà – a placé l’open data au rang des principaux leviers de transformation des politiques publiques. Elle contribue au décloisonnement et à une meilleure circulation de l’information. « Aujourd’hui, la question est effectivement de savoir comment intégrer des données d’organismes tiers pour les croiser avec les nôtres. C’est un enjeu majeur pour la pérennité de nos projets » confirme Matthieu Barbier. Pour Benoit Ravel, la vague de l’open data est extrêmement bénéfique et on ne peut que louer de voir comment les collectivités s’en emparent sur des enjeux de santé, de solidarité, d’aménagement du territoire. « Mais il faut aller encore plus loin sur la co-production de données pour réduire les coûts ». L’open data pose bien sûr la question des données à caractère personnel. Comment garantir une utilisation conforme au RGPD et éviter les abus ou tout simplement les dérapages ? « Il y a aujourd’hui des méthodes éprouvées d’anonymisation qui permettent de trouver le point d’équilibre entre la maîtrise des risques d’identification et la conservation des capacités d’analyse et de valorisation des données, nous avons d’ailleurs récemment publié un Livre Blanc sur ce sujet ».

Les perspectives

La Direction des finances et du conseil en gestion envisage d’élargir la réflexion aux deux autres dépenses d’allocations majeures pour le Département : l’Allocation Personnalisée d’Autonomie (APA) et la Prestation de Compensation du Handicap (PCH). Mais de cette approche visant à objectiver les projections et analyses en les appuyant sur des méthodes scientifiques robustes, Matthieu Barbier attend également des gains plus transverses. « L’objectif est également de faire monter les équipes en compétence sur cette question de la dépense d’allocation mais aussi de travailler plus étroitement avec nos partenaires de la CAF et de Pôle Emploi sur cette question. Plus largement, cette démarche expérimentale nous a permis de réfléchir à l’utilisation du big data sur d’autres compétences départementales ».


Grâce à la data, le SDIS 59 optimise, lui aussi, son activité opérationnelle

Le Service départemental d’incendie et de secours du Nord (SDIS 59) est chargé d’assurer la sécurité des personnes et des biens du département le plus peuplé de France avec 2,6 millions d’habitants. Le SDIS 59 est également le plus important service d’incendie et de secours de France par ses effectifs de sapeurs-pompiers professionnels et volontaires avec 6 333 agents. Son activité opérationnelle s’exerce sur un territoire de 5 743 km² qui comporte des secteurs à très forte urbanisation et des zones rurales éloignées des centres urbains : des caractéristiques territoriales hors normes.

Le règlement opérationnel demande de respecter un délai de réponse de moins de 15 minutes pour les risques courants. C’est un enjeu majeur pour le service public de secours qui doit aussi maîtriser ses coûts de fonctionnement.

Le projet mené par Datastorm a démarré par une exploration et une analyse dynamique des données d’intervention des 116 centres de secours du Nord sur les 5 dernières années. Objectif : modéliser l’activité du SDIS 59 à partir de lois d’occurrence de sinistres et définir ainsi des indicateurs de performance robustes.

Les ingénieurs de Datastorm ont ensuite conçu un algorithme permettant d’associer des règles d’engagement de moyens humains et matériels en fonction des caractéristiques du sinistre.

Pour la 3e phase du projet, Datastorm a développé deux applications. Une première application interactive pour visualiser l’activité des 116 centres de secours. C’est un outil de pilotage qui permet notamment de mesurer la couverture opérationnelle du SDIS au regard de ses objectifs règlementaires. Une seconde application web interactive permet de générer et de comparer des scénarios d’engagement des moyens de secours, c’est un outil d’aide à la décision pour le centre opérationnel. La modélisation, le développement d’algorithmes et la création d’applications de pilotage dédiées ont apporté au SDIS 59 une connaissance réelle des indicateurs de performance allant au-delà des chiffres bruts.

Le SDIS 59 peut désormais optimiser l’engagement des moyens humains et matériels sur ses 116 centres de secours. Une autre une illustration concrète de ce que la science des données peut apporter à l’amélioration du service public de proximité.