Intelligence Artificielle Générative (IAG) : quelles conséquences pour l’emploi public ?

Publié le

L’arrivée massive de l’intelligence artificielle générative (IAG) bouleverse déjà de nombreux secteurs, et le service public n’échappe pas à cette transformation. Depuis le lancement de ChatGPT fin 2022, les usages se multiplient, tout comme les interrogations : quelles tâches pourront être automatisées ? Quels métiers seront renforcés ? Et, surtout, quel impact sur les emplois dans la fonction publique ?

Un secteur public particulièrement exposé

Selon l’étude réalisée par Roland Berger en 2023, l’administration publique se trouvait déjà “en première ligne”, avec 37 % d’emplois exposés à l’IA générative — un niveau plus élevé que dans le secteur privé (32 %). La mise à jour publiée en octobre 2025 confirme et accentue ce constat : l’impact atteindrait désormais 38 %, soit 2,1 à 2,2 millions d’agents concernés .

Sur l’ensemble des 5,7 millions d’agents publics français, l’étude estime que :

  • 8 % des emplois pourraient être automatisés, soit environ 430 000 postes menacés ;
  • 22 % pourraient être “augmentés”, c’est-à-dire améliorés ou transformés grâce à l’IA, soit 1,25 million de postes ;
  • 8 % seraient faiblement exposés, environ 400 000 emplois.
Quels métiers sont les plus menacés ?

Les emplois administratifs apparaissent clairement comme les plus vulnérables. Les agents d’accueil, secrétaires, assistants administratifs, personnels chargés de l’enregistrement ou du traitement documentaire présentent un potentiel d’automatisation compris entre 56 % et 70 % au niveau mondial. Au total, cela pourrait toucher près de 26 millions d’agents publics dans le monde .

Ces fonctions sont caractérisées par des tâches répétitives, fortement standardisées et reposant sur du traitement d’information — un terrain particulièrement favorable à l’IA générative.

Des gains potentiels… surtout pour les métiers qualifiés

À l’inverse, l’IAG pourrait renforcer les métiers à dominante intellectuelle ou scientifique : experts, enseignants, chercheurs, médecins, juristes, ingénieurs publics, cadres dirigeants, forces de sécurité…
Entre 21 % et 40 % de ces professionnels pourraient voir leur travail enrichi, avec des gains de temps, une meilleure qualité d’analyse ou encore un appui à la décision .

Quelques exemples concrets :

  • Santé : aide au diagnostic et au tri administratif
  • Éducation : préparation de cours, corrections, suivi individualisé
  • Sécurité / défense : analyse prédictive, scénarios de formation
  • Finances publiques : détection automatisée des fraudes
  • Services d’accueil du public : traitement intelligent des demandes des usagers
Un risque réel sur les effectifs

À l’échelle mondiale, le cabinet Roland Berger estime que 7,5 % des agents publics pourraient voir leur poste supprimé grâce à l’automatisation — soit 26 millions de personnes .

En France, le potentiel d’automatisation représente près de 430 000 emplois, principalement dans les fonctions supports. Les métiers à faible exposition — maintenance, transports, nettoyage, collecte des déchets, etc. — seraient moins touchés, sauf en cas de robotisation conjointe.

Un enjeu syndical majeur

Les chiffres montrent que les effets de l’IA générative ne se répartiront pas de manière uniforme entre les catégories professionnelles.
Ils posent plusieurs défis majeurs pour la fonction publique :

  • l’anticipation des suppressions de postes dans les métiers administratifs ;
  • l’accompagnement de la transformation des missions ;
  • la garantie d’un développement des compétences lié aux nouveaux outils ;
  • la préservation de la qualité du service public, qui repose sur l’humain.

Pour la CFDT, et en particulier l’UFETAM, la question n’est pas d’empêcher l’arrivée de l’IA — elle est déjà là — mais de s’assurer que son déploiement se fasse avec les agents, et non contre eux.

Former, accompagner, donner du sens, anticiper les mobilités professionnelles : voilà les véritables enjeux pour éviter que l’innovation technologique ne devienne synonyme de casse sociale.

– – –

Pour mémoire :

 – – – – – – – –