Connaître les technologies pour connaître ses droits, un enjeu pour les travailleurs sur les lieux de travail numérisés

Connaître les technologies pour connaître ses droits, un enjeu pour les travailleurs sur les lieux de travail numérisés

A researcher works on a code in the AI Research Building at the University of Tübingen. Many workers report that they have never been informed about what digital technologies their employer is using to manage them. Equally concerning is the fact that managers are deploying technologies they have not properly understood.

(Sebastian Gollnow/dpa Picture-Alliance via AFP)

Dans tous les secteurs de l’économie mondiale, des systèmes de gestion automatisés et algorithmiques (AMS) de différents types sont déployés par les employeurs pour, à priori, augmenter la productivité et l’efficacité. Si cette démarche n’a rien de nouveau – depuis l’aube du capitalisme, les dirigeants d’entreprise ont procédé à des enquêtes sur les travailleurs et ont cherché à améliorer la productivité – ce qui a, en revanche, changé, c’est la portée et l’ampleur de l’impact de ces systèmes. Si certains AMS peuvent avoir une incidence positive sur les conditions de travail, ce n’est pas le cas de la plupart d’entre eux. De par le monde, les travailleurs ont fait état de toute une série d’impacts négatifs, dont notamment l’intensification du travail et des cadences, la discrimination et les préjugés, ainsi que la perte d’autonomie et de dignité.

Si ces effets font malheureusement partie des problèmes auxquels les travailleurs et leurs syndicats étaient déjà confrontés bien avant la numérisation du travail, les moyens d’y remédier sont différents. Pour éviter que de tels cas de figure ne surviennent sur les lieux de travail numérisés, il est important de comprendre quels sont les moyens à notre disposition. Dans le cas des systèmes (semi-) automatisés et des AMS, cela implique que nous comprenions en quoi consistent les données, les algorithmes, l’intelligence artificielle (IA)/l’apprentissage automatisé, les inférences et bien d’autres aspects, et en quoi ceux-ci sont susceptibles d’impacter les travailleurs.

Quels sont donc les AMS déjà en place ? La classification du Berkeley Labour Center est un outil particulièrement utile qui identifie trois types différents de systèmes :

  • L’analyse des ressources humaines, telles que l’embauche, l’évaluation des performances et la formation en cours d’emploi.
  • La gestion algorithmique, qui couvre notamment la planification et la coordination des effectifs, ainsi que la direction des activités des travailleurs.
  • L’automatisation des tâches, où une partie voire la totalité des tâches relevant d’un poste de travail sont automatisées à l’aide de technologies basées sur les données.

Ces trois types de systèmes ont pour points communs qu’ils : 1) délèguent des décisions de gestion à des systèmes (semi-) automatisés ; 2) utilisent et collectent des données provenant soit des travailleurs et de leurs activités, soit des clients (par exemple la manière dont ils évaluent un travailleur), et/ou de systèmes tiers (tels que dispositifs en ligne, systèmes de profilage, ensembles de données publics, employeurs précédents et/ou courtiers en données) ; et 3) ont été programmés pour répondre à un objectif précis. Certains ont reçu des instructions sur la manière de remplir une fonction donnée. Plutôt que de dépendre d’instructions concernant la manière de remplir leur fonction, les systèmes plus avancés comme, par exemple, l’apprentissage automatisé ou l’apprentissage profond reçoivent, lorsqu’ils sont sur la bonne voie, un retour d’information émanant d’un être humain.

Quel que soit le type de système, l’être humain intervient à un moment donné de son cycle de vie, depuis son développement jusqu’à son utilisation finale. Ce sont en effet des humains qui ont déterminé l’objectif, développé le système, éventuellement décidé de réutiliser un système conçu pour un usage particulier et de le modifier d’une manière ou d’une autre pour l’adapter à des fins différentes. Un être humain a défini les instructions, décidé des ensembles de données sur lesquels le système doit être formé et qu’il doit utiliser ultérieurement, et ainsi de suite.

La prévention des abus passe par le renforcement des capacités

Tout ce qui précède fait allusion à des aspects dont nous devons avoir connaissance et que nous devons comprendre afin de pouvoir défendre les droits des travailleurs sur les lieux de travail numérisés. En tout premier lieu, nous devons savoir quelles sont les technologies numériques utilisées sur nos lieux de travail. Il nous faut donc en maîtriser les caractéristiques fondamentales, telles que : qui les a mises au point, comment fonctionnent-elles, quelles données ont été utilisées pour former le système et si ces données sont représentatives de notre culture, de nos traditions et de nos institutions ?

Nous devons savoir en quoi consistent les inférences algorithmiques et quelles sont les inférences utilisées dans le système et/ou celles effectuées ultérieurement. Il s’agit de déterminer, d’une part, quelles ont été les instructions données aux systèmes et qui les a données, et, de l’autre, comment tous ces éléments, pris ensemble et indépendamment les uns des autres, peuvent avoir un impact sur les droits des travailleurs en amont et en aval des chaînes de valeur et d’approvisionnement, aujourd’hui comme à l’avenir.

Il s’agit certes d’un ensemble de tâches non négligeables. Savoir quelles questions poser et ce qu’il faut rechercher exige des compétences spécifiques et, pour beaucoup, nouvelles. Dans certains pays, la direction peut être tenue légalement de fournir une partie de ces informations aux travailleurs. Dans d’autres, la direction pourrait être intéressée par un dialogue avec les travailleurs et donc être disposée à partager l’information. Ailleurs, le management pourrait se montrer moins transparent, ne rien révéler, et refuser tout dialogue substantiel avec les employés.

Quoi qu’il en soit, les travailleurs et leurs représentants pourraient commencer par définir des principes généraux relatifs à l’utilisation des technologies numériques sur le lieu de travail (voir, par exemple, le rapport publié en 2021 par la confédération syndicale britannique Trades Union Congress (TUC) intitulé « When AI is the Boss »). Ils pourront ensuite cartographier, analyser et effectuer des recherches sur chaque système utilisé. À partir de ces informations, ils seront en mesure de négocier des garde-fous et des autorisations concernant à la fois les impacts actuels et futurs des systèmes sur les travailleurs.

Flou managérial

Les travailleurs ne sont cependant pas les seuls à devoir renforcer d’urgence leurs capacités, les employeurs qui déploient les technologies numériques doivent eux aussi s’y atteler. De fait, en examinant les rapports émanant de syndicats du monde entier, on se rend vite compte que les managers « ne savent pas non plus ce qu’ils devraient savoir ».

Il est possible que le département des ressources humaines se sert d’un outil de planification automatisé que le service informatique a acquis sur ordre de la direction générale. Dans ce cas, qui est responsable des impacts de cet outil ? Qui a été formé à l’identification et à la réparation des préjudices attribuables à cet outil ? Bien souvent, la répartition des responsabilités entre les différents managers pour ce qui est de la gestion de ces technologies n’a pas été clairement établie. Le flou managérial relève davantage de la règle que de l’exception. Qui a informé les employés au sujet du système ? Les systèmes en place remplissent-ils réellement leur fonction ? Comment et par qui doivent-ils être gérés en ce qui concerne les préjudices (non) intentionnels ? Qui évalue les résultats et prend la décision finale de suivre ou non les recommandations ou les résultats du système ? Quels sont les droits des personnes affectées ?

Il est pour le moins alarmant qu’un grand nombre de travailleurs déclarent n’avoir jamais été informés au sujet des technologies numériques auxquelles leur employeur a recours pour les gérer.

Il est tout aussi consternant de constater que les responsables déploient des technologies qu’eux-mêmes ne maîtrisent pas. Étant donné que la grande majorité des technologies numériques déployées sur les lieux de travail reposent sur des systèmes tiers, et que les employeurs ne maîtrisent pas les technologies conçues par des tiers mais néanmoins déployées sur leur lieu de travail, le contrôle et le pouvoir tendraient de plus en plus à échapper aux travailleurs pour se retrouver entre les mains des fournisseurs et/ou des développeurs.

Ainsi, la relation employeur-employé est en passe de se transformer en une relation à trois parties, et ce à l’insu de la majorité des personnes concernées. Le pouvoir croissant des fournisseurs et des développeurs tiers se fait au détriment de l’autonomie des travailleurs et des employeurs. Cette situation se répercutera indirectement, voire directement, sur le pouvoir des travailleurs.

Omissions des pouvoirs publics

De nombreux gouvernements à travers le monde ont déjà amélioré ou envisagent d’améliorer les réglementations en matière de protection des données ; d’aucuns envisagent également de réglementer l’IA. Un des volets de ces propositions de réglementation concerne les audits ou études d’impact obligatoires. Bien qu’il s’agisse là d’une évolution positive, certains aspects sont préoccupants.

Tout d’abord, aucun gouvernement ne discute du fait que ces audits ou analyses doivent être réalisés en concertation avec les travailleurs et/ou leurs représentants. Y compris au sein de l’Union européenne, pourtant présentée comme une région favorable au dialogue social. En second lieu, elles présupposent toutes que les développeurs informatiques et/ou le management possèdent les compétences nécessaires pour mener à bien ces audits et ces analyses d’impact.

Mais est-ce réellement le cas ? L’autoévaluation est-elle suffisante ? Est-il acceptable qu’ils décident à eux seuls (si tant est qu’ils le fassent activement) qu’un système est admissible dès lors qu’il est équitable pour 89 % des travailleurs ? Quid des 11 % restants ? Les travailleurs concernés ne devraient-ils pas avoir leur mot à dire ?

Un renforcement des capacités est un cours

Pour remédier à tous ces problèmes, il ne fait guère de doute qu’un renforcement des capacités est indispensable. Heureusement, de plus en plus de syndicats ont ces dernières années entrepris des efforts en ce sens.

La fédération syndicale internationale des services publics (ou ISP, pour Internationale des services publics), clôture cette année un projet de renforcement des capacités de trois ans intitulé Notre avenir numérique. Dans le cadre de cette initiative, l’ISP forme des groupes régionaux d’organisateurs, de dirigeants syndicaux et de négociateurs spécialisés dans les droits numériques, et leur fournit des outils et des guides pour les aider à franchir le fossé entre la théorie et la pratique, ainsi qu’à renforcer leurs négociations collectives.

Un cadre qui vise à aider les syndicats à exploiter le potentiel des technologies numériques, mais de façon responsable et dans le plein respect de la vie privée et des droits.

L’Internationale de l’Éducation a lancé sur sa plate-forme ALMA un cours en ligne en trois parties sur les défis que posent les technologies de l’éducation (EdTech) et les réponses possibles des syndicats.

La confédération britannique TUC vient de lancer une formation en ligne intitulée Managed by Artificial Intelligence: Interactive learning for union reps. Ce programme d’apprentissage qui, comme son nom l’indique, s’adresse aux représentants syndicaux, se base sur une approche pratique et guidée pour aider les syndicats à cartographier les technologies numériques utilisées et, à partir de là, à formuler des réponses critiques.

Aux États-Unis, la centrale syndicale AFL-CIO a mis sur pied le Technology Institute, que la présidente de l’AFL-CIO, Liz Shuler, a décrit comme « un carrefour de compétences et de savoirs destiné à aider les travailleurs à franchir la prochaine étape, à renforcer et à déployer notre pouvoir de négociation et à faire en sorte que les avantages de la technologie créent de la prospérité et de la sécurité pour tous, et pas seulement pour les plus riches et les plus puissants ».

En Norvège, trois syndicats – Nito, Finansforbundet et Negotia – ont collaboré à la création d’un cours en ligne à l’intention des délégués syndicaux. Outre une introduction générale aux systèmes d’intelligence artificielle sur les lieux de travail, ce programme offre aux délégués syndicaux un outil leur permettant de poser les questions nécessaires à la protection des droits des travailleurs et à la responsabilisation des dirigeants d’entreprise.

De nombreux autres syndicats nationaux, régionaux et internationaux s’attellent à ce travail de renforcement des capacités en organisant des ateliers et des conférences sur la numérisation du travail et de la main-d’œuvre. Ces événements les inspirent dans la poursuite de leurs efforts pour transformer leurs stratégies et présenter de nouvelles revendications dans le cadre des négociations collectives.

Les pressions exercées par les syndicats amèneront les employeurs à s’asseoir à la table des négociations et les inciteront à savoir tout ce qu’ils doivent savoir pour répondre aux demandes des syndicats. Compte tenu de la lenteur et des lacunes des discussions en cours autour d’une réglementation publique de l’IA, la négociation collective sera essentielle afin de permettre aux travailleurs et à leurs syndicats de repenser la numérisation du travail dans le sens du respect des droits fondamentaux, de la liberté et de l’autonomie des travailleurs.