Recrutés et licenciés par algorithme

Prenez un instant pour réfléchir, et répondez à la question : croyez-vous que vous auriez été recruté si un algorithme avait été chargé de votre embauche ? Pensez-y bien : relevés de banque, dossier médical, amis sur les réseaux sociaux… Et puis : avez-vous adhéré à un syndicat ? Avez-vous un Fitbit [coach électronique] ? Quel est votre comportement d’achat, que faites-vous de votre temps libre ?

Ensuite, demandez-vous dans quelle mesure ces aspects peuvent affecter votre vie professionnelle. Seriez-vous embauché ? Licencié ? Sanctionné ? Auriez-vous une promotion ?

Cette série de questions vous semble peut-être saugrenue. Or, nous devons tous nous la poser, y réfléchir, y réagir. En effet, la « gestion par algorithme » se propage, les processus des ressources humaines recourent de plus en plus à des données provenant de sources variées. Il existe dans le monde très peu de réglementations (hormis, dans une certaine mesure, en Europe) protégeant les données personnelles des travailleurs contre toute utilisation abusive au sein de l’entreprise ou par celle-ci. Il incombe aux syndicats de combler cette lacune et d’inscrire les droits relatifs aux données de travailleurs à l’ordre du jour de leurs négociations, pour que les directions des entreprises et les pouvoirs publics soient responsables et rendent des comptes en la matière.

Le récent scandale Facebook/Cambridge Analytica n’a montré que trop clairement la valeur des données (personnelles). Elles ont une telle importance pour la publicité, le profilage et le marketing, qu’elles sont vendues et achetées chaque année, pour un montant que l’on ignore. En 2014, l’on estimait la valeur des flux de données à 2,8 billions de dollars US. Ce montant, déjà aberrant en soi, mettez-le en relation avec l’estimation présentée trois ans plus tard, en 2017, par le Forum économique mondial : 90 % de toutes les données du moment avaient été produites depuis 2015 ! On ne peut qu’imaginer la valeur actuelle des flux de données.

Nous laissons un sillage de données derrière nous, constamment, qu’il s’agisse de nos profils sur les réseaux sociaux, de nos likes et de ce que nous publions, ou bien de nos appels aux service clientèle, de nos rendez-vous chez le médecin ou encore de comment nous utilisons notre téléphone portable ou de la fréquence de nos retraits aux guichet automatiques bancaires… Nous communiquons librement notre nom et notre adresse électronique dès que nous nous connectons à un hotspot Wi-Fi gratuit dans les cafés, aéroports ou gares, et nous nous sommes tellement habitués aux services numériques « gratuits » que nous frôlons l’irritation lorsqu’une application mobile nous coûte de l’argent. Cela dit, rien n’est gratuit.

Ce que nous avons fait jusqu’à présent et continuons de faire, c’est de transmettre librement, souvent sciemment, notre localisation, nos habitudes, nos activités et nos opinions. En d’autres termes, nous payons avec nos données.

Mais qui sont ceux qui achètent réellement, lisent, analysent et vendent ces données ? En fait nous n’en savons rien, et il nous est même impossible de le savoir. La fédération syndicale UNI a parlé à des experts en la matière, qui estiment que les grandes sociétés du numérique, telles que Google, Amazon, Facebook, Apple, Microsoft et Alibaba détiennent plus de 70 % des données de toute la planète. Cette concentration d’un actif si précieux place ces entreprises dans une posture de puissance économique, numérique, sociale et même politique inacceptable.

Les travailleurs du monde entier ont très peu de droits, voire aucun, qui leur permettraient d’exiger à voir et exercer une influence sur l’utilisation de leurs données personnelles. Nous connaissons l’existence de ceux que l’on appelle les courtiers de données, des sociétés qui gagnent leur vie avec l’achat et la vente de données. Nous savons que des entreprises extraient les données concernant les travailleurs. Est-ce qu’elles les vendent ? Si oui, à qui ? Qui finit par savoir ce qui figure dans votre dossier médical, ou bien ce qu’un algorithme ou une entreprise pensent de votre productivité ? Et comment ces données, apparemment facilement accessibles pour quiconque est en mesure de les payer, sont-elles utilisées par les entreprises pour gérer leurs ressources humaines ?

Surveillance, manipulation et contrôle algorithmique

Si nous avons commencé à ouvrir les yeux grâce aux révélations concernant la manière dont les données ont été utilisées pour cibler et manipuler les électeurs, par exemple lors des élections aux États-Unis et avec le résultat du Brexit, les politiciens et les experts n’accordent que très peu d’attention à la manière dont les données sont utilisées, voire abusivement utilisées, dans le monde du travail. Il y a une augmentation en flèche du recours aux algorithmes, aux données et à l’intelligence artificielle (IA) dans la planification des ressources humaines et de la productivité.

Des sociétés proposent des solutions relevant de l’IA en vue de réduire les coûts de la gestion des personnes. Cela va du filtrage autonome des candidats et des dossiers de candidature pour un emploi à l’utilisation de données extensives chargées de mesurer la productivité, en passant par les analyses d’humeur des salariés ou par les manières de déterminer automatiquement ce qui les motive, et j’en passe…

Certes, une partie de ce traitement des données peut avoir des répercussions positives, mais les risques l’emportent, de porter atteinte à la vie privée des salariés ou de finir par juger les personnes à l’aune d’une norme numérisée. Pourriez-vous ne pas avoir de promotion à cause de votre dossier médical ? Pourriez-vous ne pas être embauché parce que vous avez adhéré à un syndicat, ou parce que vous avez des amis particuliers, ou des traits de caractère que l’algorithme a eu pour ordre de rejeter ?

Scénario fantaisiste, me direz-vous. Cela n’est malheureusement que trop réel. Chez UNI Global Union nous commençons déjà à voir l’effet pernicieux de ces systèmes autonomes sur les travailleurs. En particulier dans les lieux de travail non syndiqués, où il n’existe ni système de contrôle exercé par les organisations syndicales ni aucune manière de tomber d’accord sur la manière de rectifier les comportements abusifs.

En guise d’exemple, un centre d’appels du service à la clientèle d’une banque. Les salariés y sont soumis à un système qui mesure le ton de la voix et l’humeur convoyée, tant pour le client que pour le salarié.

Le système indique ensuite aux travailleurs ce qu’ils devraient dire, vendre, faire, puis contrôle qu’ils aient bien fait ce qu’ils avaient à faire. Pour ces travailleurs non syndiqués, le système s’est révélé catastrophique.

L’évaluation était liée à la performance, mais le système ne reconnaissait pas aussi bien les voix féminines que les masculines, et donnait un score inférieur aux accents des minorités ethniques par rapport aux voix masculines avec une élocution de blancs.

Même si les travailleurs avaient le droit de faire réécouter l’enregistrement en présence de leurs supérieurs hiérarchiques, les erreurs du système n’ont que très rarement donné lieu à une correction. Tout cela pesait en outre sur l’empreinte numérique de chacun des travailleurs, leur causant du tort non seulement dans leur emploi actuel, mais leur faisant aussi courir le risque de ne pas trouver un autre emploi par la suite.

Les exemples abondent : une entreprise a fourni un FitBit (bracelet connecté) à tous ses salariés afin de prendre part à un concours des entreprises aux effectifs en meilleure santé, mais elle a ensuite utilisé les données pour donner un avertissement à un travailleur en surpoids, qui apparemment ne faisait pas beaucoup d’exercice durant son temps libre, lui disant qu’il risquait de devenir une charge pour l’entreprise. Des ouvriers dans des entrepôts voient chaque mouvement de leur main et de leur bras analysé pour calculer leur efficience dans l’emballage des marchandises, des travailleurs des soins à la personne se voient réprimandés s’ils passent trop de temps avec un client, des travailleurs sont licenciés parce qu’un algorithme est arrivé à cette conclusion.

La riposte syndicale

Il ne fait pas le moindre doute que c’est dès maintenant que les syndicats doivent agir. Nous devons organiser, organiser, organiser. Nous devons édifier des alliances avec d’autres organisations partageant notre vision du monde, exiger une part de la richesse engendrée par les données, et nous devons faire en sorte que les lacunes de réglementation soient comblées et exiger le respect des droits des travailleurs. Tout cela doit se faire à tous les niveaux : des conventions collectives aux droits et accords internationaux en passant par la législation nationale. Il convient de mobiliser l’Organisation internationale du travail (OIT), le Conseil des droits de l’Homme des Nations Unies, les gouvernements nationaux, les partenaires sociaux et les entreprises elles-mêmes.

UNI Global Union travaille sur ces questions partout dans le monde. Nous débattons de la manière dont nous, syndicats, pouvons exploiter l’importance de ces ensembles de données et bénéficier du savoir qu’ils renferment. Nous élevons notre voix contre la monopolisation de la détention des données et demandons s’il conviendrait que les données deviennent un bien public, auquel nous pourrions tous accéder.

C’est une chose que de protéger nos droits fondamentaux, c’en est une autre que de faire un pas supplémentaire et d’exiger que les données soient détenues collectivement. Ces deux aspects étant de la même importance.

Nous avons aussi publié deux documents clé, à savoir : Top Ten Principles of Workers’ Data Privacy and Protection (Les dix principaux principes de la confidentialité des données des travailleurs et de leur protection), et Top Ten Principles of Ethical AI (Les dix principaux principes de la déontologie de l’IA). Ces documents, reliés entre eux, recensent les principales revendications que nous devons présenter si nous voulons échapper à un avenir où les travailleurs seront soumis à des décisions algorithmiques sans aucune intervention et contrôle humains.

Ces principes englobent les questions essentielles du droit d’accès, d’influence et de consultation. Pour l’essentiel, ils stipulent que les travailleurs doivent :

  • être informés au préalable de comment leurs données vont être traitées ;
  • avoir le droit de recevoir des explications relatives à la prise de décisions algorithmiques ;
  • pouvoir exercer le droit à la portabilité des données (c’est-à-dire que les travailleurs doivent être autorisés à récupérer leurs données lorsqu’ils quittent une entreprise) ;
  • et avoir le droit de contester et de révoquer le traitement de leurs données.

En outre, les entreprises doivent s’engager à appliquer le principe de la minimisation des données et, très important, à être transparentes et responsables de leur utilisation des données. Ce dernier point est crucial, et pourtant notoirement absent du Règlement général sur la protection des données (RGPD) de l’UE.

L’éthique de l’IA

L’expression « intelligence artificielle » recouvre ici tous les systèmes automatisés ou semi-automatisés, y compris la prise de décision algorithmique. Nos principes regroupent à cet égard des questions fondamentales telles que la transparence, la responsabilité et le contrôle. En premier lieu, nous devons exiger la traçabilité des systèmes autonomes, ce qui signifie que les ensembles de données utilisés dans l’algorithme doivent pouvoir être identifiés.

Vous entendrez bien trop souvent les experts des données dire qu’il est impossible de décomposer l’algorithme. Cela est complètement inacceptable. Imaginez ce que cela implique : que ni la direction de l’entreprise, ni les travailleurs ne peuvent exiger de savoir sur quelle base un résultat algorithmique a été obtenu. Ce qui pourrait à son tour mener à une situation dans laquelle la direction, délibérément ou pas, finirait par subordonner son pouvoir de contrôle et sa responsabilité à un algorithme, avec tous les risques et les dangers que cela comporte, non seulement pour les travailleurs mais aussi pour la société dans son ensemble.

Nous ne devons pas atteindre la situation où un directeur se contenterait de hausser les épaules en disant « c’est l’algorithme qui m’a dit de vous licencier, j’ignore pourquoi ».

Ce sont toujours les êtres humains qui doivent avoir le contrôle du système, pas l’inverse. Nous ne devons jamais céder à la notion qu’un système autonome (robot, algorithme) peut être rendu responsable. Les robots sont des choses ; ce sont des produits, il ne faut jamais leur attribuer une responsabilité juridique.

Il existe une véritable urgence en ce moment. Les syndicats du monde entier doivent absolument traiter de cette question fondamentale. Nous ne pouvons pas simplement compter sur d’autres pour ce faire. Les technologies numériques se développement très rapidement, et nos revendications éthiques à leur encontre doivent être exprimées clairement. Nous ne pouvons pas courir le risque que des personnes, se voient empêchées de travailler ou de s’épanouir sur le marché du travail à cause d’un algorithme que personne ne dit contrôler et que personne ne peut corriger.

UNI Global Union estime que la détention collective des données, que l’IA éthique et que les droits des travailleurs concernant leurs données sont des questions fondamentales pour les syndicats. Nous devons faire en sorte que les entreprises et les gouvernements s’acquittent de leurs responsabilités. Ce n’est qu’ainsi que nous garantirons un monde du travail numérique qui offre des possibilités à tous, qui profite à tous et qui soit ouvert à tous.

Cet article a paru pour la première fois dans le volume 25, dont le numéro 3 était centré sur le sujet de « l’industrie 4.0 » de l’International Union Rights Journal, publié par le Centre international sur les droits syndicaux (ICTUR) en octobre 2018.