aide à la décision ia dans les collectivités

Aide à la décision IA dans les collectivités

Dans de nombreuses collectivités territoriales, l’intelligence artificielle est déjà utilisée au quotidien… sans décision formelle, sans cadre clair, et parfois sans que la direction n’en ait pleinement conscience.

Par manque d’information, des agents utilisent des outils grand public comme ChatGPT pour répondre plus vite et plus précisément aux administrés. Ces usages sont souvent efficaces, mais ils peuvent engager la responsabilité juridique de la collectivité, notamment en matière de confidentialité des données et de RGPD.

À partir d’un cas concret inspiré du terrain, cet article fait le point sur les risques réels, le cadre européen (AI Act) et surtout les solutions concrètes déjà mises en œuvre par certaines collectivités pour intégrer l’IA de manière sécurisée.

Objectif : montrer comment l’IA peut devenir une véritable aide à la décision pour les collectivités, sans mettre en péril la confiance des citoyens.

 

1 • Comment utiliser l’IA sans mettre en danger les données des administrés ?

 

2 • Un cas concret : quand un usage “utile” devient un risque invisible

Dans une commune de taille moyenne, une agente du service urbanisme reçoit chaque jour des demandes d’administrés concernant le PLU, les règles de constructibilité ou les démarches à suivre.

Pour répondre plus vite et plus précisément, elle a pris l’habitude d’utiliser ChatGPT (version gratuite).
Sa méthode :

  • Elle copie-colle les questions reçues par mail,
  • Elle ajoute des extraits du PLU ou de documents internes,
  • Elle demande à Chat GPT d’écrire la réponse.
  • Elle copie-colle la réponse de chat GPT dans le mail réponse.
  • Elle vérifie systématiquement les réponses avant de les envoyer.

Sur le plan du service rendu, tout fonctionne :

  • Les réponses sont exactes,

  • Les délais raccourcissent,

  • Les administrés sont satisfaits.

Mais le risque n’est pas là !

Sans le savoir, cette agente transmet à un outil externe :

  • Des documents d’urbanisme détaillés,
  • Des éléments contextuels propres à la commune,
  • Les données confidentielles des administrés (copie-colle le mail de l’administré avec la ou les questions)
  • Parfois des données indirectement personnelles (adresses, parcelles, situations individuelles).

Elle n’a pas conscience de faire sortir ces données hors du périmètre de la collectivité.

Ce cas, loin d’être isolé, illustre un phénomène largement répandu :

l’IA est utilisée avant même que la collectivité ait décidé comment, où et à quelles conditions elle peut l’être.

3 • Aide à la décision dans les collectivités : de quoi parle-t-on vraiment ?

Avant de parler d’outils ou de solutions, il faut clarifier un point essentiel.

Dans une collectivité, l’aide à la décision ne consiste pas à laisser une IA décider à la place des élus ou de l’administration.

Elle consiste à :

  • Éclairer les choix,

  • Structurer l’analyse,

  • Préparer les arbitrages,

  • Sécuriser les décisions politiques et administratives.

L’IA peut être un outil d’aide à la décision pour les collectivités, mais uniquement si son usage est pensé, encadré et gouverné.

Sans cela, elle devient un facteur de risque.

4 • Pourquoi l’IA pose d’abord un problème de données dans le secteur public

Dans les collectivités territoriales, les données manipulées sont par nature sensibles :

  • Données d’urbanisme,

  • Données sociales,

  • Données liées à l’état civil,

  • Informations sur les administrés,

  • Documents internes à portée réglementaire.

Lorsque ces données sont introduites dans un outil d’IA grand public :

  • La collectivité perd la maîtrise du lieu de traitement,

  • La traçabilité devient floue,

  • La conformité RGPD peut être remise en cause.

Le problème n’est pas l’intention des agents. Il est organisationnel et décisionnel.

5 • Le cadre européen : l’IA Act comme élément de sécurisation

L’entrée en vigueur progressive du AI Act européen apporte un cadre structurant et rassurant pour les acteurs publics.

Ce texte :

  • Classe les usages de l’IA selon leur niveau de risque,

  • Impose des obligations de transparence,

  • Renforce les exigences de gouvernance pour les usages sensibles,

  • Rappelle que la responsabilité reste humaine et institutionnelle.

Pour les collectivités, l’IA Act n’est pas un frein.

C’est un levier pour reprendre la main sur les usages, à condition de l’intégrer dans une démarche globale d’audit IA stratégique et de gouvernance.

6 • Ce qu’il est possible de faire concrètement dans une collectivité territoriale

Contrairement à une idée répandue, les collectivités ne sont pas condamnées à interdire l’IA ou à prendre des risques inconsidérés.

Plusieurs modèles existent déjà.

Exemple principal — le Département de la Drôme

 

Le Département de la Drôme a mis en place un chatbot d’information destiné aux administrés, avec un périmètre fonctionnel clairement défini.

  • Les usages sont limités à l’information générale,

  • Les données sensibles sont exclues,

  • Le dispositif est encadré contractuellement,

  • La gouvernance est assumée au niveau de la collectivité.

Ce type de mise en œuvre montre qu’il est possible d’utiliser l’IA sans exposer les données à des usages non maîtrisés.

Le département de la Drôme utilise un Chat Bot pour répondre aux question de ses administrés
Le département de la Drôme utilise un Chat Bot pour répondre aux question de ses administrés voir le site du département de la Drôme

Sous-exemples : des approches différentes, un même objectif

 

  • Issy-les-Moulineaux a développé Issy GPT, un outil dédié, intégré dans un cadre maîtrisé, illustrant une approche plus internalisée.

issy gpt - aide à la décision collectivités IA
Le chat GPT privé (et isolé du web) de la Mairie d’Issy Les Moulineaux
  • Suresnes a mis en place un chatbot assorti d’avertissements clairs invitant les administrés à ne pas transmettre de données personnelles.

suresne chat bot - IA aide à la décision collectivités
Le Chat Bot de la ville de Suresnes
  • Limoges explore également des usages encadrés de l’IA pour améliorer la relation usagers sans exposer les données sensibles.

chat bot de la ville de limoges - IA aide à la décision collectivités
chat bot de la ville de Limoges

Ces exemples montrent une chose essentielle :


• Il n’existe pas une seule bonne solution, mais plusieurs modèles possibles, dès lors que la décision est prise en amont.

Comment fonctionne réellement un chatbot IA dans une collectivité ?

Avant de déployer un chatbot, il est essentiel de comprendre son fonctionnement.
Un chatbot d’intelligence artificielle ne “sait” rien par lui-même. Il fonctionne à partir de deux éléments principaux : un modèle d’IA (le moteur de langage) et une base de connaissances que la collectivité choisit de lui fournir.

Concrètement :

  • Le moteur d’IA génère des réponses en langage naturel,

  • La base documentaire (site web, FAQ, règlements, PLU, délibérations publiques…) constitue la matière à partir de laquelle il répond,

  • Un système de filtrage détermine ce qu’il a le droit ou non d’utiliser.

Dans une collectivité territoriale, cela suppose :

  • De sélectionner les documents exploitables (et d’exclure les données sensibles),

  • De structurer ces documents pour qu’ils soient compréhensibles par la machine,

  • De définir un périmètre d’usage clair (information générale, orientation, prise de rendez-vous…),

  • De prévoir une mise à jour régulière de la base.

Un chatbot bien configuré ne transmet pas les bases internes à l’extérieur : il interroge une copie sécurisée et limitée des contenus autorisés.
La sécurité dépend donc moins de l’outil que de l’architecture choisie et des règles fixées en amont.

Autrement dit : ce n’est pas le chatbot qui est risqué, c’est l’absence de cadrage technique et documentaire.

7 • IA interne, cloud sécurisé ou outil grand public : comment choisir ?

Les collectivités disposent aujourd’hui de plusieurs options :

  • Outils grand public : à réserver aux usages non sensibles, avec règles strictes,

  • Solutions cloud professionnelles : sous réserve de contrats clairs et de garanties RGPD,

  • IA hébergée en interne : modèle le plus protecteur, mais plus exigeant techniquement.

Développer les enjeux et implications concrètes

Le choix entre un outil grand public, une solution cloud professionnelle ou une IA hébergée en interne n’est pas seulement technique. Il engage la maîtrise des données, la responsabilité juridique et la capacité d’évolution dans le temps.

1. Outil grand public (ex. version gratuite de ChatGPT)

    • Données traitées hors de l’environnement de la collectivité.

    • Paramétrage limité.

    • Pas de contrôle sur l’architecture.

    • Adapté uniquement aux usages non sensibles.

 C’est rapide, simple, efficace… mais difficilement compatible avec des données territoriales dès qu’elles concernent des administrés. 

2. Solution cloud professionnelle

    • Hébergement chez un prestataire identifié.

    • Contrat encadrant le traitement des données.

    • Possibilité de limiter les usages et d’exclure l’entraînement des modèles.

    • Traçabilité renforcée.

 Le cloud sécurisé est souvent un bon compromis : il permet de bénéficier de la puissance des modèles tout en encadrant juridiquement le traitement des données. 

3. IA hébergée en interne

 

 C’est le modèle le plus protecteur… mais aussi le plus exigeant. 

Concrètement, cela implique de :

    • Disposer de serveurs capables de faire fonctionner le modèle,

    • Assurer la maintenance technique,

    • Gérer les mises à jour de sécurité,

    • Former les équipes à l’administration de l’outil,

    • Prévoir un budget matériel et humain dédié.

Ce n’est pas nécessairement hors de portée, mais cela suppose :

    • Une DSI structurée,

    • Un pilotage stratégique clair,

    • Une anticipation budgétaire.

En résumé : plus la collectivité veut maîtriser totalement ses données, plus elle doit investir en compétences et en infrastructure.

Le bon choix dépend donc :

  • Du volume de données,

  • Du niveau de sensibilité,

  • Des moyens disponibles,

  • Et surtout de la stratégie définie en amont dans une démarche d’aide à la décision collectivités.

C’est précisément là qu’intervient l’aide à la décision collectivités : faire les bons choix avant d’outiller.

8 • Mode d’emploi : je suis DGS, par quoi commencer ?

 

Si vous êtes directeur général des services ou cadre dirigeant dans une collectivité et que vous vous reconnaissez dans les situations décrites, la démarche peut être simple et progressive :

  1. Reconnaître que l’IA est déjà utilisée, parfois sans cadre.

  2. Lancer une session de cadrage stratégique IA pour :

    • Identifier les usages existants,

    • Qualifier les risques,

    • Clarifier les responsabilités.

  3. Sur cette base, engager un audit IA stratégique pour décider :

    • Ce qui peut être autorisé,

    • Ce qui doit être encadré,

    • Ce qui doit être exclu.

  4. Ensuite seulement, choisir les solutions techniques adaptées.

L’IA peut améliorer la vie des agents et la qualité du service public, mais uniquement si elle est décidée avant d’être déployée.

9 • Synthèse

Dans les collectivités territoriales, l’IA n’est pas d’abord une affaire de technologie.
C’est une question de décision, de gouvernance et de responsabilité.

Faire de l’IA une aide à la décision pour les collectivités, c’est accepter de poser un cadre clair — avant que les usages ne s’imposent d’eux-mêmes.

L’intelligence artificielle offre aujourd’hui aux collectivités territoriales des leviers concrets pour améliorer le service public et alléger la charge de travail des agents.

Elle peut :

  • Faciliter le traitement des mails des administrés,

  • Orienter automatiquement vers le bon service,

  • Générer des réponses claires à partir d’une base documentaire validée,

  • Envoyer un message interne au bon interlocuteur sans exposer les adresses personnelles,

  • Fonctionner 24h/24 sans divulguer d’informations confidentielles.

À condition que trois principes soient respectés :

  1. Les usages doivent être définis avant le déploiement.

  2. Les données exploitées doivent être sélectionnées et mises à jour régulièrement.

  3. Les outils choisis doivent correspondre au niveau de sensibilité des informations traitées.

Un chatbot correctement configuré ne “livre” pas les données à la masse. Il s’appuie sur une base contrôlée, sécurisée et limitée à ce que la collectivité autorise.

Dans ce cadre, l’IA ne remplace pas les agents. Elle les soulage sur les tâches répétitives et leur permet de se concentrer sur les situations complexes.

La clé n’est pas technologique. Elle est stratégique.

Une collectivité qui engage une session de cadrage stratégique IA, suivie d’un audit IA stratégique, peut transformer l’IA en véritable outil d’IA décision collectivités.

Ce n’est pas une question d’innovation à tout prix.
C’est une question de méthode.

Article rédigé avec la contribution de Chat GPT sous le haut patronage de Frédéric Bénot (à votre service).

Retour en haut