Intelligence Artificielle, que fait l’Union Européenne ?

Publié le

Depuis l’apparition de robots conversationnels type ChatGPT version 3 et 4 et d’outils pour la création d’images type « midjourney » ou « DALL-E » l’Intelligence Artificielle démontre des capacités nouvelles qui impressionnent. La révolution numérique qu’on comparait déjà à la révolution industrielle par son ampleur et ses conséquences transformatrices se matérialise un peu plus.

L’intelligence artificielle inquiète jusqu’à ses concepteurs et de nombreuses organisations internationales quant aux usages malveillants et aux risques pour les libertés fondamentales. Les impacts sur l’emploi s’en trouveraient considérablement accrus.

L’Union Européenne ne reste pas inerte. Il est urgent d’encadrer ces usages au travail et le dialogue social doit s’en emparer.

Ils sont nombreux à tirer sur le signal d’alarme

En février le haut-commissaire de l’ONU au droit de l’homme Volker Türk à communiqué sur le trouble profond causé par le potentiel de nuisance de l’intelligence artificielle (IA)  qui menace gravement la dignité humaine et tous les droits humains. II appelle les états  à mettre en place des garde- fous. https://www.ohchr.org/fr/statements/2023/02/comment-un-high-commissioner-human-rights-volker-turk-advances-artificial

Les questions relatives à la sphère publique sont nombreuses, citons par exemple l’usage des données des élèves dans l’enseignement  ou encore les conditions d’accès aux services publics (pour vérifier l’éligibilité aux prestations sociales, l’accès à l’eau ou aux urgences à l’hôpital…), ou encore l’utilisation de la reconnaissance faciale dans la rue, la protection des enfants sur les réseaux sociaux…

C’est aussi EUROPOL l’agence européenne de police criminelle qui s’inquiète  de l’utilisation de ChatGPT pour créer des arnaques sur internet ou de sa capacité à produire des textes de désinformation comme le relate EURACTIV. https://www.euractiv.fr/section/economie/news/les-criminels-sont-prets-a-abuser-de-chatgpt-avertit-europol/

En mars, c’est une centaine de spécialistes de l’IA qui cosignent  une lettre ouverte publiée par « Future of Life Institute » pour alerter le monde sur les dérives. Ces personnalités éminentes (fondateurs de Skype ou d’Apple et même Elon Musk…) lancent : « Nous appelons tous les laboratoires d’IA à suspendre immédiatement pendant au moins six mois la formation des systèmes d’IA plus puissants que GPT-4″…. « Les systèmes d’IA puissants ne devraient être développés qu’une fois que nous serons certains que leurs effets seront positifs et que leurs risques seront gérables « , disent-ils encore.

L’Italie a même bloqué fin mars  ChatGPT pour ne pas suffisamment renseigner ses utilisateurs sur son usage de leurs données. C’est un débat européen qui s’est enclenché  depuis : en Allemagne et en France (plusieurs plaintes ont été déposées auprès de la CNIL). Les deux gouvernements ne semblent cependant pas décider au moins pour l’instant à suivre l’Italie sur la voie de l’interdiction.

https://www.euractiv.fr/section/economie/news/chatgpt-suscite-un-debat-sur-la-protection-des-donnees-en-europe/

Des conséquences sur les métiers et l’emploi démultipliées ?

La prudence est de mise car les  emballements ont été nombreux ces dernières années et pas toujours suivis d’effets réels (par exemple les voitures autonomes  devaient  rapidement  remplacer les conducteurs et ont fait pschitt….).  Et on ne peut laisser de côté que  ces outils peuvent aider les travailleurs et être des formidables opportunités plutôt que des menaces.  Mais c’est une avalanche d’articles qui se consacrent aux disparitions potentielles d’emplois qui s’est abattue sur la presse ces dernières semaines. Globalement, les craintes concernent des emplois dits «intelligents » et à forte rémunération. Pour une fois ce ne sont donc pas les métiers dits manuels qui seraient les plus concernés ou menacés.

Ces  technologies auraient  un impact significatif sur de nombreux métiers. La liste des secteurs et postes concernés est déjà très longue puisque, sommairement, une bonne partie des tâches que les salariés réalisent  à l’aide d’un logiciel informatique peuvent être réalisées par ces  outils d’IA.  Sont cités  les métiers du marketing, de l’éducation, de la santé, de la finance, du codage informatique, de l’immobilier, du journalisme, de la création graphique…. D’évidence la myriade de métiers exercés au sein des fonctions publiques est éminemment concernée.

Une étude de Goldman Sachs début avril donne le chiffre de 300 millions d’emplois menacés dans le monde. Open AI la société mère de ChatGPT dans une étude estime  qu’environ 80% de la main d’œuvre américaine pourraient voir au moins 10% de ses tâches réalisées par une IA, et pour environ 20% des travailleurs ce serait au moins 50 %.  https://www.01net.com/actualites/chatgpt-quels-metiers-touches-revolution-ia.html.

Que fait l’Union Européenne ? Un encadrement de l’IA basé sur le risque

L’Europe est loin d’être inerte en matière de nouvelles technologies et de leurs usages. Le Règlement général sur la Protection des Données  (RGPD) est devenu un outil de référence envié dans le monde entier pour la protection des citoyens et il date déjà de 2018.

En fait et quand bien même l’Union ne dispose pas à proprement parler de compétences directes de par les traités pour légiférer sur les TIC, elle a adopté dès 2010 une stratégie numérique pour l’Europe. Plusieurs fois révisée depuis, la dernière mouture date de 2021. « La boussole numérique » pour l’Europe balise le chemin jusqu’en 2030. Si l’on reste concentré sur l’IA et ses usages, nous retiendrons principalement sa proposition de règlement sur l’intelligence artificielle [COM(2021)0206].

Le texte ne réglemente pas l’IA en tant que technologie, mais se concentre sur les systèmes d’IA mis sur le marché ou mis en service. Il propose une approche à quatre niveaux fondée sur le risque. Les IA qui créent un risque inacceptable sont interdites; Celles qui créent un risque élevé sont autorisées lorsque des exigences spécifiques sont satisfaites; et celles qui présentent un risque minimal ou faible sont autorisées, la plupart du temps sans condition.

https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai

En matière d’emploi la catégorie à haut risque a été élargie pour inclure les algorithmes qui prennent ou aident à prendre des décisions liées à la mise en place, l’établissement, la mise en œuvre ou la fin d’une relation de travail. Cela concerne notamment la répartition des tâches personnalisées ou le contrôle du respect des règles sur le lieu de travail.

Le calendrier prévoit que le Parlement finalise sa position d’ici fin mai. Dans le meilleur des cas le règlement sera voté en 2023 et ne devrait donc pas s’imposer aux législations des pays membres avant fin 2024.  Si l’on compte un an de plus pour la mise en place dans les législations nationales, on voit bien avec les évolutions technologiques récentes que le temps du politique est soumis à un risque important de décrochage si d’autres avancées surviennent.  Cela illustre bien qu’en matière d’IA, il est sans doute  illusoire de penser arriver à un état de régulation définitif. Ce sujet plus qu’aucun autre nécessite un suivi  et des adaptations rapides.

Revendications syndicales Européennes et négociations sur l’IA

La Confédération Européenne des Syndicats (CES) a souligné dès sa parution que le projet de règlement sur l’IA était notoirement indigent en matière de travail et ce quand bien même ce domaine se trouve inclus dans le niveau à haut risque. Elle réclame une directive spécifique aux systèmes algorithmiques dans le cadre du  travail.

La CES entend préserver la dignité des travailleurs et contrer la déshumanisation au travail. L’implication des syndicats doit débuter avant la mise en place des systèmes d’IA. Il faut  s’assurer  de façon permanente que les IA sont  soumises à une évaluation indépendante.  Les travailleurs doivent être informés sur les données collectées et pouvoir bénéficier de recours. Il faut faire appliquer l’interdiction faite aux employeurs de collecter certaines données et proscrire la surveillance abusive.  L’interdiction vise aussi les systèmes de prédiction pour la gestion des carrières. Si ce genre de système peut aider à la prise de décision RH ils ne doivent en aucun cas se substituer à la décision humaine. La directive devra prévoir des sanctions en cas de manquements de la part des employeurs.  Il faut  former les salariés et leurs représentants pour qu’ils soient à l’aise avec l’IA et ainsi lutter contre la fracture numérique qui est un vrai sujet (en France près de 39 % des citoyens seraient concernés)….

L’IA  au regard de ses impacts  est  un sujet à négocier avant sa mise en place parce qu’après c’est souvent irrémédiable. Il n’est pas simple d’amener les employeurs à la négociation. Parfois disons-le tout net, ils sont bien contents  de mener des projets IA sans être ne serait-ce que  questionnés par les représentants des salariés. Ceci dit même si c’est difficile d’entrer en négociation  et que le numérique est déjà mis en place, il vaut quand même mieux prendre un train en marche que ne pas le prendre du tout…..  D’où la nécessité de prendre «le taureau par les cornes». Les forces syndicales ont tout intérêt à former leurs mandants et à demander l’ouverture de négociations sans délai dans les entreprises, dans les branches professionnelles et dans toutes les fonctions publiques. Le sujet par définition demandant un suivi et des adaptations constantes comme on l’a vu prudemment, il sera toujours possible de modifier les accords en fonction des évolutions de la législation.

Signalons à cet égard l’aide que peut apporter aux négociateurs le « Digital Bargaining Hub » mis en place par l’ISP (fédération internationale des services publics) qui met à disposition (en Français) des accords déjà négociés en matière de digital avec un chapitre spécifique à l’IA.   https://publicservices.international/digitalbargaininghub

– – – – – – – –
D’après l’article initialement publié par L’UFFA-CFDT
 – – – – – – – –