LES TRAVERS DE L’IA | Les syndicats doivent agir face à l’intelligence artificielle (IA) au travail

Rory O’Neill, conseiller sur les normes de santé et de sécurité au travail pour la CSI, alerte sur le fait que le contrôle par la machine est déjà à pied d’œuvre, et qu’il faudra une véritable intelligence syndicale pour dompter l’intelligence artificielle.

C’est une très sérieuse mise en garde. D’après la confédération syndicale britannique Trades Union Congress (TUC), si rien n’est fait, les technologies intrusives de surveillance des travailleurs et l’intelligence artificielle (IA) au travail pourraient rapidement conduire à la discrimination, à l’intensification du travail et à un traitement injuste. Les résultats du sondage du TUC publiés en février 2022 ont révélé qu’une nette majorité de travailleurs (60 %) pensent avoir fait l’objet d’une forme de surveillance et de contrôle dans leur emploi actuel ou le plus récemment occupé.

MOUCHARD À BORD
En 2021, Amazon a annoncé le déploiement de « camionnettes équipées d’IA », dotées de caméras embarquées et d’une application téléphonique de suivi du conducteur. Ce système fonctionne comme un « mouchard » qui transmet des données sur le comportement du conducteur directement aux dirigeants, et génère des remontrances automatiques de routine pendant la conduite, ce qui pourrait se traduire par une perte des primes ou par des mesures disciplinaires.

La surveillance peut consister à contrôler les courriels, les fichiers et les webcams sur les ordinateurs de travail, à détecter à quel moment et à quelle fréquence un travailleur tape sur son clavier, passe des appels et effectue des mouvements, à l’aide de caméras et de dispositifs de suivi.

Le TUC a constaté une augmentation sensible du nombre de travailleurs qui ont signalé des cas de surveillance et de contrôle – jusqu’à 60 % en 2021, contre 53 % en 2020.

L’ancienne secrétaire générale du TUC, Frances O’Grady, a déclaré que la surveillance des travailleurs « risque maintenant d’échapper à tout contrôle », ajoutant : « Les employeurs délèguent des décisions importantes à des algorithmes, notamment le recrutement, les promotions et parfois même les licenciements. Les travailleurs et les syndicats doivent être consultés comme il se doit en ce qui concerne l’utilisation de l’IA et doivent être protégés contre ses méthodes de travail punitives. »

Et le pouvoir punitif de l’IA pourrait coûter bien plus que leur emploi aux travailleurs – la santé, par exemple
(Hazards 156).

L’IA EST MAUVAISE POUR LA SANTE
Si l’IA peut avoir des applications positives au travail, « les logiciels de gestion algorithmique au travail ont prouvé qu’ils avaient des effets négatifs sur la santé et la sécurité des travailleurs », comme l’ont noté les universitaires Miriam Kullmann et Aude Cefaliello – cette dernière étant également spécialiste du droit de la sécurité de l’Institut syndical européen (ETUI) – dans un article publié en janvier 2022 dans la revue Global Workplace Law and Policy.

« La surveillance continuelle, par le biais de dispositifs portables connectés, par exemple, augmente le stress au travail et porte préjudice à la productivité. La manière dont l’algorithme attribue les tâches et suit les travailleurs nuit à l’organisation du travail et prive les travailleurs du droit à des temps de pause appropriés, ce qui entraîne un grave stress physique et psychologique. »

Miriam Kullman et Aude Cefaliello soulignent que même des interventions et des technologies bien intentionnées peuvent être utilisées de manière néfaste et produire des effets indésirables, en citant l’exemple des chauffeurs-livreurs. « Il existe déjà des exemples de technologies d’IA conçues spécifiquement pour améliorer la sécurité des chauffeurs et qui sont utilisées pour surveiller les travailleurs une fois qu’elles sont mises en œuvre sur le lieu de travail», précisent-elles.

Un autre exemple est le recours aux caméras, initialement destinées à créer un environnement de travail positif, mais certaines entreprises installent des caméras qui n’autorisent les travailleurs à entrer dans les locaux que s’ils sourient à l’appareil.

À Beijing, le bureau des technologies de l’information de Canon est allé encore plus loin, en mettant en place des caméras intelligentes qui empêchent une personne d’effectuer toute opération tant qu’un sourire n’a pas été détecté sur son visage. Non seulement cette pratique est intrusive, mais elle peut être gravement préjudiciable à la santé.

Des chercheurs de l’université de Buffalo et de l’université de Pennsylvanie, ont publié leurs conclusions en 2019 dans le Journal of Occupational Psychology, selon lesquelles les travailleurs qui ont l’impression d’être obligés de sourire sont plus susceptibles de boire d’importantes quantités d’alcool dès qu’ils ne sont plus en service.

AMAZON POINTÉE DU DOIGT
Selon une enquête du syndicat britannique GMB, des chiffres « honteux » révèlent que plus d’un millier de blessures graves survenues sur les sites d’Amazon au Royaume-Uni ont été signalées aux autorités de santé et de sécurité depuis 2016. pour en savoir plus

Amazon a annoncé en 2021 qu’elle allait mettre en place des « camionnettes équipées d’IA » comprenant des caméras de surveillance, et qu’elle allait demander aux livreurs de télécharger et d’exécuter en continu le programme « Mentor » sur leur téléphone – présenté comme une « application numérique de sécurité pour les conducteurs » affirmant que ce système allait « améliorer la sécurité » des chauffeurs.

Or, cet ensemble caméras-application fonctionne comme un mouchard à bord, qui transmet des données sur le comportement du conducteur directement aux dirigeants, et génère des remontrances automatiques de routine pendant la conduite, ce qui pourrait entraîner une perte des primes.

Ces risques peuvent être visibles dans de nombreux emplois, mais les emplois qui font appel à l’IA sont souvent délibérément hors de vue et précaires.

Un rapport publié en 2021 par l’Agence européenne pour la sécurité et la santé au travail (EU-OSHA), intitulé Le travail sur plateformes numériques et la santé et la sécurité au travail: analyse, note que les emplois gérés par l’IA sont souvent « concentrés dans des secteurs qui sont généralement considérés comme plus dangereux, avec des taux d’incidence plus élevés d’accidents du travail (graves), de blessures et de maladies professionnelles. En outre, le travail via une plateforme implique souvent des tâches supplémentaires et/ou une combinaison de tâches différentes de celles des travailleurs occupant des emplois similaires sur le marché du travail traditionnel. »

En Australie, une série de décès de livreurs de repas survenus dans des accidents de la route en 2021 a conduit le gouvernement à diligenter une enquête. C’est ainsi qu’un comité sénatorial australien a publié en février 2022 un rapport sur l’insécurité de l’emploi, qui soulevait le problème de la pression exercée sur ces travailleurs et sur d’autres travailleurs des plateformes. Le rapport attirait également l’attention sur les risques qu’encouraient les travailleurs des sociétés de covoiturage et mettait en garde contre une « ubérisation » préjudiciable du travail.

Le rapport précisait par ailleurs: « Les conducteurs de véhicules de covoiturage ont indiqué que les questions de sécurité liées à la pandémie n’étaient pas nécessairement prises en compte dans la pratique et que l’utilisation d’une application pour gérer les problèmes et les litiges pouvait mettre en danger les conducteurs et les passagers. »

Le rapport, qui comporte un chapitre sur le problème de l’ubérisation et de l’effet Amazon, recommande notamment de rendre l’indemnisation accessible à tous les travailleurs, quel que soit leur emploi ou leur catégorie de visa, de renforcer la surveillance des accidents du travail « en vue d’obtenir des informations spécifiques sur le nombre et les types de blessures et de décès de travailleurs dans le secteur des plateformes à la demande », et de veiller à ce que l’agence fédérale de santé et de sécurité au travail, Safe Work Australia, améliore son processus de collecte de données nationales « en vue d’obtenir des informations spécifiques sur le nombre et les types de blessures et de décès de travailleurs dans le secteur des plateformes à la demande. »

QUI CONTROLE LA SITUATION?
Les implications pour la sécurité des travailleurs – intentionnelles ou non – doivent être prises en compte dès le stade de la conception du logiciel.

Selon Miriam Kullman et Aude Cefaliello, « si le système d’IA est destiné à être utilisé sur le lieu de travail, le fournisseur ne peut en ignorer les répercussions sur la santé et la sécurité des travailleurs. Il doit également prendre en considération le fait que l’IA doit être conçue de sorte à atténuer le travail monotone et le travail cadencé et à réduire les effets de ceux-ci sur la santé. »

Les deux universitaires expliquent que l’impact des applications de surveillance physiologique et environnementale – qui vérifient les fonctions corporelles d’un travailleur, par exemple son rythme cardiaque, la température de sa peau et ses mouvements – dépend des motivations des personnes qui procèdent à la surveillance.

Un travailleur qui fait des efforts excessifs ou qui montre des signes de fatigue pourrait recevoir un message lui conseillant de ralentir son rythme de travail ou de prendre une pause. Mais il pourrait aussi être licencié ou avoir une déduction de salaire parce qu’il travaille trop lentement.

En mars 2021, le TUC a diffusé son manifeste, Dignité au travail et révolution de l’IA, pour une utilisation équitable et transparente de l’IA au travail. Le TUC souhaite que le gouvernement britannique suive l’exemple de l’Union européenne, qui a publié un projet de législation le 9 décembre 2021 afin de donner aux travailleurs des droits sur les algorithmes et d’en finir avec le contrôle de l’IA sur les nominations, les heures de travail, voire les licenciements.

Au lieu de cela, les travailleurs auraient le droit de recevoir des explications sur les décisions automatisées et de les contester, tandis que les entreprises devraient garantir l’accès des travailleurs à un responsable humain pour les décisions d’une incidence significative.

En novembre 2021, le groupe parlementaire britannique sur l’avenir du travail a demandé l’adoption d’une nouvelle loi sur la responsabilité des algorithmes, Accountability for Algorithms Act: « Les technologies omniprésentes de surveillance et de fixation d’objectifs, en particulier, sont associées à des effets négatifs considérables sur le bien-être mental et physique, dans la mesure où les travailleurs subissent la pression extrême d’une microgestion constante en temps réel et d’une évaluation automatisée »
(Hazards 156).

LA SECURITE DES LE DEBUT
Miriam Kullman et Aude Cefaliello affirment que les applications négatives de l’IA sont prévisibles et peuvent être éliminées; ainsi, « l’impact sur les processus de travail opérationnels ou sur la santé et la sécurité au travail doit être explicitement pris en compte dans le ‘système de gestion des risques’ requis pour les systèmes d’IA à haut risque. »

« Les fournisseurs peuvent contribuer à une application meilleure et plus équitable de l’IA au travail lorsqu’ils élaborent le logiciel. Par exemple, quand ils programment une IA pour attribuer des tâches, ils devraient s’assurer que les objectifs sont réalistes – sans nécessairement viser une optimisation économique. Ils devraient également concevoir des systèmes qui permettent d’adapter ces objectifs aux capacités individuelles en évitant par ailleurs les risques de représailles. »

La volonté d’augmenter la production et les profits peut cependant reléguer la sécurité et les droits du travail
au second plan. Dans une note d’orientation du 10 mars 2022, l’Agence européenne pour la sécurité et la santé au travail (EU-OSHA) a déclaré que le retard pris dans l’adoption de mesures de sécurité était dû au fait que « certaines voix » affirmaient que ces mesures « mettraient un coup d’arrêt à l’innovation et conduiraient l’UE à passer à côté de l’économie numérique » voir la section].

Une analyse réalisée en 2021 par le syndicat britannique GMB sur les appels sollicitant une ambulance dans les entrepôts d’Amazon met en évidence une forte augmentation des blessures juste avant le Prime Day, le Black Friday et Noël (Hazards 154).

L’EU-OSHA estime que l’absence de syndicats est un facteur d’excès de risque en ce qui concerne l’IA, notant que « à quelques exceptions près, les travailleurs des plateformes numériques sont rarement organisés collectivement, ce qui empêche une participation effective des travailleurs (par le biais de l’information et de la consultation) à l’élaboration d’un système de gestion efficace de la sécurité et de la santé au travail. »

L’Agence européenne souligne que « la résistance active de certaines plateformes numériques à l’organisation collective fait obstacle à la mise en place d’un tel système. »

Attendre que la technologie soit conçue, sélectionnée et installée demande trop de temps.
Quel que soit l’objectif de sa conception, l’IA pourrait donner à l’employeur la possibilité de surveiller, de contrôler et de licencier un travailleur, parce que la machine dit qu’il faut le faire. La menace est réelle, et bien actuelle, pour les travailleurs.

Les syndicats ne doivent pas être une option. Dans un monde de haute technologie, ils doivent plus que jamais être la première ligne de défense des travailleurs.

PLUS D’UN MILLIER DE BLESSURES GRAVES SUR LES SITES D’AMAZON
Selon une enquête du syndicat britannique GMB, des chiffres « honteux » révèlent que plus d’un millier de blessures graves survenues sur les sites d’Amazon au Royaume-Uni ont été signalées aux autorités de santé et de sécurité depuis 2016.

Le syndicat se dit préoccupé par la forte augmentation du nombre de blessures communiquées aux organismes de santé et de sécurité, avec 294 signalements pour l’exercice financier 2020-21, contre 231 l’année précédente, soit une augmentation de 27 %, alors que ce chiffre s’élevait à 139 en 2016-17.

Le chiffre réel pourrait être beaucoup plus élevé, d’après le GMB, car toutes les autorités locales n’ont pas
répondu à ses questions relevant de la liberté de l’information.

Les conclusions du syndicat ont été publiées le 4 janvier 2022. Les rapports d’inspection des autorités locales obtenus par le GMB font apparaître de nombreux sujets de préoccupation, notamment les accidents du travail, les conditions de travail dangereuses, les problèmes liés à la COVID-19, la mauvaise tenue des registres de santé et de sécurité ou le non-respect des mesures préconisées par les inspecteurs.

Le syndicat a obtenu d’autres chiffres séparément, qui montrent que plus d’un millier d’appels d’urgence ont également été passés au cours de la même période, et que les appels ont augmenté de 56 % pendant la pandémie, entre 2019-20 et 2020-21.

Mick Rix, responsable national du GMB, a déclaré : « Plus d’un millier de blessures graves sur les sites d’Amazon, c’est une statistique scandaleuse à laquelle l’entreprise doit remédier de toute urgence – et la réalité est sans doute pire encore.

« Les enquêtes du GMB ont désormais accumulé des années de preuves et il est indéniable que les entrepôts d’Amazon sont actuellement des lieux de travail dangereux et déshumanisants. »

Il a ajouté: « Nous allons écrire à l’autorité nationale de santé et de sécurité [Health and Safety Executive] pour exposer nos conclusions – il est temps de procéder à un véritable audit externe et à une enquête sur les conditions de travail dans cette entreprise très rentable.

« Amazon doit cesser sa politique de l’autruche. Elle doit rencontrer le GMB et réfléchir à la manière dont elle peut offrir un lieu de travail agréable et sans danger. »

Exemples de campagnes syndicales menées au Royaume-Uni:

LES RISQUES LIES A LA SECURITE NE SONT PAS PRIS EN CONSIDERATION
Dans une note d’orientation du 10 mars 2022, l’Agence européenne pour la sécurité et la santé au travail (EU-OSHA) a déclaré que le retard pris dans l’adoption de mesures de sécurité était dû au fait que « certaines voix » affirmaient que ces mesures « mettraient un coup d’arrêt à l’innovation et conduiraient l’UE à passer à côté de l’économie numérique. »

La note mentionnait en outre: « Très peu des premières réponses au travail sur les plateformes numériques concernaient les conditions de travail et la sécurité et la santé au travail (SST). »

L’Agence a recensé quatre points principaux pour les responsables et décideurs politiques:

  • Malgré l’attention accrue portée récemment aux conditions de travail et d’emploi dans le cadre du travail sur les plateformes numériques, les risques en matière de SST auxquels les travailleurs de plateformes numériques sont confrontés sont largement négligés et restent sans réponse (suffisante). Cela inclut tous les aspects, de la prévention à la gestion;
  • Il convient de sensibiliser les plateformes numériques et leurs travailleurs à la sécurité et à la santé au travail;
  • Les bonnes pratiques en ce qui concerne la prévention et la gestion des risques en matière de SST devraient être partagées de manière plus proactive, tant au niveau national qu’international, afin de favoriser l’apprentissage entre les parties prenantes;
  • Il convient de renforcer les efforts visant à développer les connaissances et à recueillir des données sur les défis et les opportunités en matière de SST ainsi que sur la prévention et la gestion des risques de SST dans le cadre du travail sur les plateformes numériques.

SOURCES PRINCIPALES:
En anglais:

(Cet article a été initialement publié dans le numéro 157 de Hazards, 2022.)