Anticiper le nombre d'élèves dans les écoles - Noisy-le-Grand

Un enjeu de territoire

La ville de Noisy-le-Grand a engagé de nombreux programmes d’aménagement et de nouveaux logements, entraînant une augmentation de la population et surtout une évolution de sa structure. La rentrée scolaire 2023 a vu une hausse de 30% des demandes d’accueil en périscolaire, occasionnant un décalage entre l’offre et la demande de places. 

La commune veut pouvoir prédire et anticiper le nombre d’élèves par quartier pour les écoles qui dépendent de la ville, et suivre au plus près l’évolution de la typologie de population sur son territoire. Dans ce but, elle souhaite disposer d’un outil s’appuyant sur l’Intelligence Artificielle (IA) permettant de modéliser et de construire des scénarios d’anticipation sur les besoins en équipements scolaires et périscolaires.

Avec cet outil la ville veut pouvoir ajuster régulièrement ses prévisions en fonction de l’évolution du contexte local, en intégrant au fur et à mesure les nouvelles données disponibles pour disposer d’une vision fine infra annuelle et des perspectives ajustées en pluri annuel.

Le projet

La mission s’est organisée autour de 2 axes :

  1. L’analyse des capacités d’accueil de la Ville et de leur mise en adéquation avec les besoins d’accueil ;
  2. L’élaboration de l’outil de modélisation et son expérimentation sur la Ville de Noisy-le-Grand

L’outil est conçu dans une logique d’ouverture, d’interopérabilité et de sobriété. Le CEREMA a travaillé avec le bureau d’étude spécialisé en programmation scolaire le cabinet FORS-RS. Le projet se déroule en plusieurs étapes :

  1. Prestation classique de prévision scolaire :

Le bureau d'étude a déroulé sa méthodologie habituelle pour construire ses prévisions, en s’appuyant sur l’élaboration d’une matrice tableur, à partir de calculs de ratios pour estimer l’évolution annuelle du nombre d’élèves par niveau de classe (en prenant en compte un certain nombre de paramètres comme les fratries, les modifications de la carte scolaire, les tendances démographiques et les projets immobiliers …).

Un premier tableau de bord est réalisé afin d’estimer l’évolution des effectifs scolaires et de comparer l’adéquation avec la capacité des équipements et la carte scolaire.

  1. Construction du modèle sur la plateforme de prototypage :

Le CEREMA a ensuite récupéré les données et la méthodologie du bureau d'étude (sa matrice) pour construire son modèle en utilisant la plateforme de prototypage. Le principe est de reconstituer à l’identique la méthode dans l’environnement de la plateforme et donc de passer d’un fichier tableur à un context broker, puis de vérifier la fiabilité des résultats produits par le modèle (en les comparant à ceux du BET) afin de caler le modèle.

  1. Intégration de nouveaux jeux de données et automatisation des calculs 

Une fois le modèle calé, il est enrichi avec de nouveaux jeux de données (par ex résultats études FORS, données collectées par API...). Différents paramètres sont testés pour intégrer des données externes et on ajuste les coefficients de chacun afin de stabiliser le modèle : c’est la phase d’optimisation.

La plateforme permet également de travailler sur la visualisation des résultats, pour aider à la décision. Par exemple, pour produire une carte de la densité bâtimentaire en 3D pour une visualisation du potentiel de population (d’élèves).

On peut ensuite commencer à exploiter différentes hypothèses (évolution démographique, mutualisation des équipements, mobilisation des personnels d’animation en péri scolaire, évolution du prix du foncier, des droits de préemption, contraintes d’organisation des chantiers…) et tester les possibilités d’automatisation des calculs actuellement faits à la main par la BET.

  1. Tests de la valeur ajoutée de l’IA :

L’utilisation de l’IA doit permettre d’améliorer les process d’analyse en comblant les données d’entrée manquantes et en facilitant les croisements avec d’autres outils ou bases de données. Elle permet de tester un choix plus large de scénarios (références, comparaison, positionnement…). L’IA permet également de croiser différentes dimensions et sur différentes échelles :  démographie, foncier, urbanisme, économie locale, équipements publics …), effets directs ou indirects (conséquences d’une évolution sur les territoires autour, effets rebonds..)

Plusieurs pistes d’utilisation de l’IA sont évoquées et devront être testées pour vérifier leur pertinence tant pour la ville que pour le BET. Par ex : corriger automatiquement les taux de passage des élèves en intégrant des facteurs extérieurs dans une série rétrospective (par ex retard de livraison d’un programme immobilier), ou construire des ratios sur l’impact d’un type de programme immobilier sur le nombre d’élèves ou affiner les modèles de projection des courbes de natalité et donc les besoins en crèche, en s’appuyant sur des éléments de contexte (locaux, nationaux, internationaux), ou encore modéliser des profils de territoire à moyen et long terme en s’appuyant sur les documents de planification (PLU, SCOT, schéma logement…) et les courbes de prévisions démographiques,

  1. Installation dans l’environnement data de la ville

L’outil sera installé dans la plateforme open source de la ville, et les services de la ville seront formés pour pouvoir l’exploiter de façon autonome et tester directement les scénarios dans la durée. Avec l’outil seront fournis également le modèle de données liable au méta-modèle de la PF de Noisy-le-Grand, le modèle d’analyse des données validé (Algorithme) et la documentation de l’API.

L’outil sera également mis à disposition de FORS pour tester la qualité du modèle.

Cette phase permettra d’adapter l’outil au plus près des besoins des futurs utilisateurs et de prioriser les fonctionnalités (indicateurs, visualisation des scénarios…), de garantir l’évolutivité de l’outil (intégrer de nouveaux jeux de données, produire de nouveaux indicateurs, mettre à jour des données existantes…), d’articuler/interfacer l’outil avec les autres outils de la Ville,

  1. Réplicabilité

Le modèle est conçu dans une logique open source et dans le respect des normes et des règlements en vigueur. Le modèle de données et son API seront accessibles en mode fiabilisé, testés avec d’autres territoires intéressés, afin de valider l'intérêt de l'industrialisation de la solution (utilisateurs, modalités d'hébergement et d'abonnement, versement de l'algorithme en open-data sur schema.data.gouv).

En cas de confirmation de la pertinence de ce modèle utilisant l’IA, testé sur plusieurs rentrées scolaires et plusieurs communes, il est prévu de poursuivre la démarche par une phase de déploiement puis d’industrialisation.

Abonnez-vous à notre lettre d’information

Restez informé des dernières nouveautés sur la plateforme

Stay informed - subscribe to our newsletter.
L'adresse mail de l'abonné.