Le Conseil départemental a adopté le 14 novembre 2025 une Charte de l’usage de l’intelligence artificielle générative à destination des agents et élus du Département de l’Isère. L’occasion pour le groupe UGES de revenir sur les limites et les dangers de l’IA générative.
La charte adoptée à destination des agents et élus du Département de l’Isère est intéressante et plutôt bien construite. Elle cible ainsi les différents usages et limites de l’utilisation de l’IA « Iris » dans la collectivité départementale. A travers ce sujet, le groupe UGES a proposé de réfléchir à ce que ce changement de fond implique en ayant une une réflexion plus philosophique et politique.
La première crainte de l’utilisation de l’IA est celle du remplacement de l’humain par l’outil numérique. Lors du Comité Technique du 20 octobre dernier, les organisations syndicales du Département de l’Isère ont d’ailleurs bien insisté sur le fait que l’IA ne devait pas remplacer les agents. C’est une crainte légitime que nous partageons. Mais nous pointons d’autres impacts à l’utilisation de l’IA :
- Les impacts environnementaux par exemple, préoccupants à bien des égards. Les émissions de gaz à effets de serre dus au numérique ont plus que doublé ces 10 dernières années Les déchets physiques, le besoin en eau (refroidissement des centres de données) sont autant de sujets inhérents au développement du numérique.
- La production d’électricité n’est pas infinie et celle que l’on consacre aux infrastructures du numérique n’est par conséquent pas utilisable ailleurs. La promesse des grandes entreprises de la tech’ d’alimenter leurs infrastructures numériques uniquement avec de l’énergie verte, même si elle se réalise, ne les absout nullement de leurs impacts environnementaux.
La première raison invoquée par les utilisateurs de l’IA est le gain de temps et l’efficacité, pour moins d’efforts. C’est aujourd’hui ce qui semble compter le plus, dans une société qui va vite, très vite. Et cela doit nous questionner : avec le développement de l’industrie numérique et de son utilisation de plus en plus large quel que soit le domaine, saurons-nous toujours réfléchir par nous-mêmes, développer notre esprit critique, maîtriser le langage et exprimer nos positions ? Rien n’est moins sûr, parce que l’IA ne fera pour nous.
C’est de cette capacité à prendre le temps de la réflexion qu’il s’agit, à faire des recherches, à croiser et comparer les sources, bref à construire notre pensée, vectrice de liberté et de démocratie.
Parce que céder à l’immédiateté, c’est renoncer à utiliser nos facultés. Progressivement, insidieusement.
Lorsqu’il s’agit de rendre possible à grande échelle l’analyse de radios de santé par exemple, cela peut-être effectivement un progrès intéressant. Avec quelques réserves tout de même sur les cas particuliers. Mais concernant l’IA générative, car c’est de cela qu’il s’agit dans le rapport départemental qui nous a été soumis, c’est confier à des systèmes des tâches qui jusque là mobilisaient nos facultés intellectuelles et créatives.
Des études démontrent déjà que, avec l’utilisation grandissante des réseaux sociaux, certaines zones du cerveau ne sont plus ou très peu utilisées. Le MIT (Massachussetts Institute of Technology) a par exemple publié une étude en juin 2025 en comparant deux groupes d’étudiants : un ayant utilisé l’IA générative pendant 4 mois et l’autre pas. Le groupe ayant utilisé l’IA générative a obtenu de moins bons résultats que l’autre. Et le MIT estime à deux mois de sevrage le temps nécessaire pour retrouver les facultés cérébrales éteintes. Les contenus « tous cuits », produits finis, nous ne les analysons plus, nous les consommons.
Il est précisé dans la charte départementale qu’il faut garder notre esprit critique. Nous pouvons nous interroger : qui, dans quelques années lorsque l’utilisation de l’IA générative sera massive, sera encore en capacité de prendre ce temps de recul pourtant nécessaire, de croiser les informations et vérifier les sources ? Ce chemin de pensée si précieux. En aurons-nous encore la capacité et le temps ? Douterons-nous d’un outil déjà très péremptoire, qui, nous le savons, répond quelque chose même s’il ne sait pas, même s’il ne connaît pas le sujet ? Tout cela dans le but d’aller plus vite et de céder à l’immédiateté. En 1946 déjà, Albert Camus dénonçait les dangers de l’instantanéité de l’information. Il mettait en garde contre les fausses informations et la dictature de l’audimat : « L’important n’est pas d’être le premier, mais le meilleur » disait-il.
Outre les impacts environnementaux et les impacts sur le cerveau, nous pointons également les impacts sociaux. Derrière les technologies d’IA génératives, il y a bien souvent des salariés sous-payés, une industrie des « travailleurs du clic », dans des pays africains, au Kenya notamment.
Alors bien sûr, des usages utiles de l’IA peuvent exister mais ils doivent précisément être analysés. Il est effectivement possible que l’IA soit capable de générer une partie du travail d’un employé « junior » par exemple, mais pas la vision globale d’un employé « senior ». Or, comment former des employés « senior », sinon en les faisant travailler sur des postes « junior » pendant un certain temps ?
Toujours en matière sociale, le numérique étant vendu comme un moyen de gagner du temps, comment résister à la pression du temps et ne pas se brûler les ailes? A l’heure où la France est en 36ème position concernant les conditions de travail, dernière aux côtés de l’Albanie, prenons tout de même le temps de nous interroger. Quid de l’accélération de la fracture numérique dans une société qui ne prend plus le temps de ralentir pour expliquer et accompagner le changement. On le voit clairement avec les bus et agences France Service du fait d’une numérisation à marche forcée.
Enfin, il est important d’aborder les impacts surréalistes sur la santé mentale que nous constatons déjà : avec le développement des super-assistants IA, le risque est d’évacuer Autrui. Cet autre dont nous avons tant besoin, car nous sommes des êtres sociaux. L’IA suscite ainsi des dépendances émotionnelles : des personnes considèrent leur IA comme leur ami, se confient à elle et sont fatalement frustrées lorsqu’elles reçoivent une réponse froide en retour. Cela semble relever de la fiction mais c’est pourtant bien réel et remet sur la table la question de la santé mentale. Ce sont des situations inédites qui doivent nous conduire à la plus grande des précautions.
L’IA est politique, avec un grand P. Son poids économique est écrasant et c’est pourquoi il est si difficile et mal perçu de prendre du recul et de la distance sur ce sujet. Pourtant, aucune technologie n’est jamais neutre. La configuration politico-financière extrêmement concentrée dans laquelle se déploient ces outils est particulièrement préoccupante et devrait nous conduire à une prise de conscience. Même si l’on est impressionné par les capacités de ces outils et tenté par ses promesses.
L’IA entame un véritable changement de société et c’est en cela que nous devons avancer avec prudence. Quitte à ne pas être le premier. Car vous connaissez la fable : ce n’est pas toujours celui qui court le plus vite…qui gagne.
