Aída Ponce del Castillo, chercheuse : « La loi européenne sur l’intelligence artificielle n’est pas destinée au monde du travail »

Aída Ponce del Castillo, chercheuse : « La loi européenne sur l'intelligence artificielle n'est pas destinée au monde du travail »

“The current industrial revolution is invisible, immaterial and is taking place at a much faster rate. The risks of certain software are not readily apparent. Trade unions and workers have to keep a critical eye on all emerging technologies. We need to know how to ask concrete and useful questions,” says Aída Ponce del Castillo, pictured here.

(Marta Checa/Equal Times)

Le pouvoir disruptif de toute nouvelle technologie constitue une constante de notre histoire. La différence marquante du moment présent par rapport à d’autres moments décisifs réside toutefois dans la rapidité de sa mise en œuvre (l’intelligence artificielle ou IA, en particulier) et dans l’incapacité de la comprendre (à moins de l’étudier), ce qui entraîne un déséquilibre abyssal entre ceux qui développent ces nouvelles technologies et le reste du monde. En Europe, où le législateur européen s’est engagé dans la régulation de l’IA, comment ce dernier compte-t-il protéger le citoyen, et plus particulièrement le travailleur, l’emploi et l’environnement ?

Equal Times s’est entretenu avec Aída Ponce del Castillo, avocate spécialisée dans les sciences et les technologies, docteure en droit et chercheuse à l’Unité prospective de l’Institut syndical européen (ETUI), afin de comprendre si la proposition législative actuelle dispose des moyens nécessaires pour répondre aux défis posés par l’IA, sans parler des technologies qui lui succéderont.

Afin de dissiper les incertitudes, parmi les lignes directrices éthiques, l’autorégulation et l’élaboration d’une législation spécifique, quel est le point sur lequel nous devrions insister lorsque nous traitons de la numérisation et, plus particulièrement, de l’intelligence artificielle ?

Une loi ou un règlement spécifique est le résultat d’un processus législatif et démocratique au cours duquel des droits et des obligations spécifiques sont établis pour les personnes auxquelles cette loi s’applique, à savoir les citoyens de l’UE. Les lignes directrices éthiques ne sont pas des lois, mais des documents volontaires fondés sur des « valeurs » convenues : les différents groupes composant la société peuvent être d’accord ou non et ces valeurs peuvent être interprétées de différentes manières. L’autorégulation est également volontaire et s’élabore de manière unilatérale.

Dans le domaine du travail, ni l’autorégulation ni les codes d’éthique ne fonctionnent. Dans une entreprise, lorsque les données d’un travailleur sont collectées, par exemple son expression faciale, ses caractéristiques physiques ou ses données biométriques, et que ces données personnelles sont utilisées à d’autres fins ne correspondant pas à celles du contrat de travail (pour l’espionner par exemple), aucun guide éthique ne vous donnera la possibilité de vous élever contre ces pratiques ou d’exercer un droit, uniquement conféré par une loi. Ni les lignes directrices éthiques ni l’autorégulation n’ont de force exécutoire.

En Europe, depuis le début du mois de juin, la Commission européenne [le régulateur] promeut d’une certaine manière des codes de conduite pour l’IA fondés sur des engagements qu’elle prend à l’égard des acteurs auxquels ce code est destiné. En attendant que la réglementation européenne sur l’intelligence artificielle soit prête, ce sont les industries spécifiques qui proposent une série d’engagements — à la manière d’un « gentleman’s agreement » — basés sur la politique industrielle ; et non éthique. Mais à quoi ces engagements les obligent-ils ou les engagent-ils ? Nous ne le savons pas.

Entre le Règlement général sur la protection des données (RGPD), déjà en vigueur, et la loi européenne sur l’intelligence artificielle (qui vient de faire un grand pas en avant avec l’adoption de la position finale du Parlement européen et qui permet d’entamer les discussions avec les États membres et la Commission, c.-à-d. les trilogues), qui pourrait entrer en vigueur en 2025, et au plus tard en 2026, comment protéger les personnes face au présent de la numérisation ? Une « touche sociale » se fait-elle sentir quelque part ?

Non. L’objectif du règlement est de promouvoir et d’étendre le marché unique. Telle est sa portée – en tenant compte du respect des droits fondamentaux des personnes vivant en Europe. L’idée de la Commission européenne consiste à proposer un cadre juridique pour l’achat, la mise en œuvre et le développement de systèmes d’intelligence artificielle, idéalement en Europe, afin d’accroître le potentiel en tant que producteur et pas seulement consommateur d’intelligence artificielle issue d’autres acteurs internationaux, tels que les États-Unis et d’autres juridictions.

Pour promouvoir ce marché numérique, les entreprises européennes doivent pouvoir prospérer et se développer tout en permettant à d’autres entreprises étrangères d’investir en toute sécurité économique sur le marché numérique européen. Thierry Breton [commissaire européen chargé pour le marché intérieur et des services] est responsable de la promotion de ce marché numérique unique qui, à mon avis, s’est transformé avec la loi sur l’IA en un véritable marché unique des données. En d’autres termes, ce sont les données qui donnent une orientation à l’économie.

La nouvelle législation protège-t-elle ou prévoit-elle de protéger le travailleur sur son lieu de travail (l’article 22 du RGPD prévoit le droit de contester les décisions fondées sur un traitement automatisé des données) ?

La loi européenne sur l’intelligence artificielle n’est pas destinée au monde du travail. Il ne s’agit pas d’une loi s’appliquant directement à l’employeur ou au travailleur dans le cadre de leur relation de travail. Cette loi s’applique aux prestataires ou « déployeurs » et aux importateurs de systèmes d’intelligence artificielle. La loi ne mentionne même pas les travailleurs.

Ce que nous nous devons d’élucider, c’est le rôle de l’employeur, qu’il s’agisse d’un producteur d’intelligence artificielle, d’un importateur ou d’un déployeur. Selon la catégorie dans laquelle il se trouve, ses obligations au titre de la loi sont différentes. Plus précisément, il s’agit de la manière dont il met en œuvre le système d’intelligence artificielle, mais pas de la manière dont il le met en œuvre auprès de ses travailleurs ou des consommateurs. C’est là que le bât blesse, car aucune disposition ne stipule que « vous devez mettre en œuvre le système en tenant compte de la relation de travail ou en tenant compte de vos travailleurs ». Il n’est précisé nulle part « voici vos obligations, tant auprès des consommateurs qu’auprès des patients, etc. » Bien que le Parlement ait proposé des amendements stipulant que le travailleur doit être informé et consulté avant la mise en œuvre d’un système d’IA dans l’entreprise, ces amendements ne précisent pas la procédure à suivre.

Cependant, la loi européenne sur l’intelligence artificielle fait référence au fait que cette mise en œuvre de systèmes doit se faire dans le respect des obligations du droit existant, outre les obligations des réglementations sectorielles : par exemple, la directive sur la santé et la sécurité, le règlement sur les machines, etc., c.-à-d. les questions et les réglementations qui ont trait au droit du travail. [Le Parlement a proposé d’interdire l’utilisation] des systèmes d’intelligence artificielle qui calculent ou prédisent les émotions et le comportement humains, y compris sur les lieux de travail. [Si cette proposition venait à être acceptée en trilogue, elle constituerait] un moyen de protéger le citoyen en général et le travailleur en particulier.

D’autre part, les systèmes à haut risque sont soumis à des obligations légales qui seront matérialisées par des normes. Ce sont ces normes qui donneront des détails concrets sur la manière dont un déployeur peut mettre en œuvre un système d’intelligence artificielle, de sorte que le déployeur respecte les obligations de la réglementation, qu’il ait une meilleure connaissance de ce qu’il met en œuvre et que le consommateur/travailleur soit protégé. Le problème cependant est que ces obligations seront concrétisées par des normes, qui sont élaborées par des comités fermés réservés aux membres, et qui font l’objet d’évaluations d’autoconformité de la part du déployeur lui-même. En d’autres termes, c’est le déployeur lui-même qui décide s’il s’est conformé aux obligations et c’est aussi lui qui les certifie.

En guise de prospective, le Parlement a ajouté que la Commission ne devrait pas se voir privée de proposer une législation spécifique sur les droits et libertés des travailleurs affectés par les systèmes d’IA, ce qui démontre la nécessité d’établir des normes juridiques concrètes pour la protection au travail.

La protection du travail a-t-elle fait l’objet d’une réflexion ? Je n’entends pas par là de mettre un frein à l’optimisation dans le monde du travail, mais de trouver le nécessaire équilibre entre l’optimisation et l’impact social. Autrement dit, que cet impact, qui a un coût (en termes de formation continue pour le travailleur, d’allocations de chômage pour ceux qui perdent leur emploi, mais aussi environnementales, etc.) soit pris en compte dans l’équation (afin que ceux qui en sont la cause paient leur part).

La philosophie du législateur est de « dynamiser et consolider le marché intérieur sur l’intelligence artificielle ». Un point c’est tout. Il n’y a aucune volonté d’établir un lien entre l’agenda numérique et le Pacte vert. Il n’y a aucune intention de se pencher sur des questions telles que : « Comment l’intelligence artificielle est-elle créée ? Qui se cache derrière l’entraînement de ChatGPT ? Combien d’eau les serveurs consomment-ils ? Quelles sont les émissions de CO2, etc. » Le législateur n’a pas l’intention de comprendre, de réglementer et de limiter la chaîne d’approvisionnement qui sous-tend l’ensemble de la production et de la distribution de l’intelligence artificielle.

Le règlement européen sur l’intelligence artificielle ne vise qu’à réglementer les risques élevés des systèmes d’intelligence artificielle. La liste est en cours de négociation avec le Parlement européen et comprend les systèmes biométriques (à savoir s’ils peuvent être présents dans les lieux publics), les systèmes de notation sociale, etc.

Lorsque les PDG de grandes entreprises technologiques se présentent devant le Congrès des États-Unis et proposent la feuille de route à suivre aux législateurs étasuniens (comme Sam Altman, fondateur d’OpenAI), devons-nous nous inquiéter ailleurs dans le monde ?

Cela ne fait aucun doute. [Les chefs d’entreprise comme M. Altman] rajoutent une nouvelle couche à la gouvernance de l’IA en convenant avec la Commission européenne d’établir un « Pacte de l’IA », un pacte volontaire entre les principaux acteurs européens et non européens. Ils ne se contentent pas de faire du lobbying pour exercer leur influence. Eux-mêmes, en tant qu’industriels et producteurs, négocient des compromis ad hoc avec les législateurs. Ils ont la capacité et le pouvoir de poser des limites aux réglementations et de fixer des orientations très précises. Ils sont à même de négocier avec un État comme s’ils étaient eux-mêmes un État. Dès lors, quelles sont les conséquences pour la gouvernance démocratique ?

Deux exemples : le magazine Time nous a appris que Sam Altman a insisté auprès des législateurs européens pour que les systèmes d’intelligence artificielle des modèles fondateurs [tels que ChatGPT] ne soient pas interdits ou réglementés dans la catégorie « à haut risque ». Et il y est parvenu. Le Parlement l’a déjà incorporé dans sa position. En outre, M. Altman s’est entretenu avec Margrethe Vestager, commissaire européenne à la concurrence, afin de convenir d’un code de conduite avec le secteur de l’IA générative sur la manière de se comporter sur le marché européen.

Comment élaborer des lois démocratiques face à des acteurs aussi puissants ?

Vu sous cet angle, il semble que les grandes entreprises technologiques n’essaient même plus de profiter d’accords commerciaux pour empêcher les États de réglementer dans l’intérêt public en ce qui concerne la gestion des données et la transparence algorithmique.

Elles le font également, mais elles franchissent maintenant une étape supplémentaire [qui se résume à] : « Concluons un accord entre vous et moi, et c’est vous et moi qui fixerons les règles du jeu ».

Concernant la maîtrise du numérique et de l’IA, comment construire un rempart, comment défendre nos droits lorsque la maîtrise de la technologie est très limitée ou inexistante ?

Dans le monde du travail, il n’est pas nécessaire que les syndicalistes deviennent des ingénieurs informaticiens. Bien sûr, si le syndicat acquiert plus de compétences en informatique et en intelligence artificielle, cela représente toujours une valeur ajoutée. Mais n’oublions pas que dès leur naissance, les syndicats ont été confrontés à des transformations technologiques. C’est la raison même de leur naissance, en réponse à la transformation industrielle.

La transformation industrielle d’aujourd’hui est invisible, immatérielle et de plus en plus rapide. Les risques que les logiciels peuvent engendrer ne sont pas visibles parce qu’ils sont occultés du regard humain. Cela équivaut à travailler avec de très, très petites particules. Vous devez donc mettre en place un système permettant d’identifier les risques éventuels, à quel niveau et de quelle manière ils peuvent avoir un impact sur l’être humain.

À mon avis, les syndicats, mais aussi les travailleurs, doivent avoir un esprit critique à l’égard de toute technologie émergente (parce qu’aujourd’hui, c’est l’intelligence artificielle, mais demain, ce seront les neurotechnologies et celles-ci me semblent extrêmement plus dangereuses). Il convient de savoir poser des questions concrètes et utiles : à quoi sert cette technologie ? Entretient-elle un rapport concret et direct avec l’humain ? Utilise-t-elle les données personnelles d’un travailleur ? Auquel cas, de quelle manière ? Comment puis-je en savoir plus sur ce type d’utilisation ? Voici les questions à poser.

Le fait de poser des questions est déjà un très grand pas, car ce faisant, un travailleur ou un syndicaliste ne se sent plus impuissant. S’abstenir et ne pas poser de questions parce qu’on ne connaît pas un sujet ne peut pas constituer une excuse. Toutefois, la situation se complique lorsque l’employeur joue la carte du droit d’auteur ou du secret industriel.

Nous abordons ici un autre point crucial : les droits humains et les droits du travail sont-ils un frein à l’innovation et au développement technologique ?

Je vous réponds par une autre question : comment les produits pharmaceutiques sont-ils développés ? La loi sur les produits pharmaceutiques obéit aux droits humains et les respecte. Dans le même ordre d’idées, une loi sur l’intelligence artificielle, qui est fondamentalement une loi sur les logiciels, doit les protéger. Quelle différence y a-t-il entre les deux ? Pourquoi les produits pharmaceutiques devraient-ils être soumis à un cadre juridique spécifique qui respecte également les droits humains ? Pourquoi pas d’autres produits chimiques, biologiques ou artificiels ? C’est exactement la même chose.

Les droits humains sont un cadre dont les autres droits doivent émaner ou découler, et ils constituent un cadre de référence pour que la législation d’une société démocratique puisse fonctionner de manière respectueuse.

Est-il possible de légiférer sur la numérisation et l’IA, de protéger les droits humains et en même temps d’être un leader dans le domaine de l’intelligence artificielle – ou du moins de ne pas se laisser distancer dans la course ? Ou est-ce que cela va dépendre en quelque sorte de l’existence d’un minimum de consensus international ?

Je pense que oui. Une harmonisation des lignes directrices internationales s’impose. Revenons aux questions pharmaceutiques : lorsque vous achetez de l’aspirine en Europe, les ingrédients, les risques pour la santé et les interdictions figurent sur la boîte. Ici et en Chine, les instructions sont les mêmes. Si nous avons réussi à faire cela pour des millions de produits pharmaceutiques, pourquoi n’avons-nous pas fait quelque chose de similaire avec les questions d’intelligence artificielle, avec les algorithmes ?

Le problème est que nous allons maintenant voir — lorsque le règlement européen entrera en vigueur — l’effet du manque de transparence, de l’absence d’une réglementation réelle et non fictive. En d’autres termes, le règlement européen est intéressant, mais il a apporté une sorte de protection fictive. Aujourd’hui, l’intelligence artificielle est entre les mains de tout le monde, que [les utilisateurs] en connaissent ou non les conséquences, qu’ils sachent ou non comment l’utiliser, qu’ils sachent ou non si elle est interdite ; tout le monde l’utilise.

Il en sera de même pour la prochaine technologie qui nous arrivera : universelle et instantanée (mais aussi disruptive, comme toute technologie) parce que nous nous sommes mis à utiliser ChatGPT du jour au lendemain, et je ne pense pas que la législation sur l’intelligence artificielle soit en mesure de réglementer quelque chose de nouveau dont nous n’avons pas connaissance aujourd’hui. C’est pour cette raison que je dis que la protection est quelque peu fictive.

This article has been translated from Spanish by Charles Katsidonis