
Explication
L’algorithme comme patron: comment l’IA transforme le monde du travail
Les systèmes de décision automatisée pilotent notre travail, aussi bien dans les entreprises que sur les plateformes de mise en relation. Grâce à eux, les entreprises espèrent accroître leur efficacité, mais ces procédés peuvent aussi intensifier de manière démesurée la surveillance des employé·e·s. En outre, ils camouflent souvent l’exploitation d'êtres humains et de l'environnement.

Les systèmes algorithmiques appartiennent à notre quotidien depuis longtemps déjà. Nombreuses sont les entreprises qui utilisent des logiciels afin d’accéder aux données de leurs collaborateur·trice·s dans le cadre de la gestion du personnel. De tels systèmes trient les CV lors des processus de recrutement; ils définissent également les horaires de travail et décident de l’avenir des employé·e·s dans l’entreprise.
La «gig economy» constitue un autre domaine d’application de ces systèmes. Dans cette partie du marché du travail, des travailleur·euse·s indépendant·e·s et des personnes exerçant des «mini-jobs» reçoivent de petits mandats ponctuels par le biais d’une plateforme. Cette dernière sert d’intermédiaire entre les client·e·s et les prestataires, une commission étant versée aux exploitant·e·s pour la mise en relation. Elle fixe également les conditions-cadres pour le déroulement du travail. Il s’agit d’un phénomène relativement nouveau: le terme est apparu en 2005, parallèlement à l’émergence de plateformes telles qu’Amazon Mechanical Turk et, plus tard, Uber. Dans la gig economy, les travailleur·euse·s de plateformes sont encadré·e·s par des algorithmes, sans aucun contact avec des supérieur·e·s humain·e·s.
Dans ces deux domaines d’applications, les systèmes algorithmiques sont principalement employés dans l’objectif d’accroître l’efficacité des processus. Une prise en charge des tâches routinières et lassantes par les algorithmes peut profiter aux employé·e·s. En revanche, si le système vise une productivité maximale, il peut augmenter le volume de travail, entraîner la surveillance des employé·e·s ou susciter du stress.
Gestion algorithmique
Lorsque la prise de décision automatisée est employée dans le cadre des ressources humaines (RH), elle peut bouleverser la vie des employé·e·s sur leur lieu de travail et creuser durablement l’écart de pouvoir entre les salarié·e·s et les employeur·euse·s. Elle peut par exemple être utilisée dans un objectif de rétention du personnel: les responsables des RH peuvent y recourir afin de déterminer qui pourrait démissionner prochainement. Lors de licenciements de masse, les employeur·euse·s peuvent également s’appuyer sur les recommandations des algorithmes afin de décider des personnes à congédier ou à maintenir en poste. Les systèmes algorithmiques analysent des données, sur la base desquelles ils repèrent des modèles, puis prennent des décisions et formulent des recommandations. La technologie progresse, et avec elle le nombre de données collectées. À cet égard, on peut citer l’exemple de Microsoft 365, un outil employé par de nombreuses entreprises. Ce logiciel offre la possibilité de mesurer la productivité des employé·e·s grâce à la fonction Microsoft Viva. Les employeur·euse·s peuvent en théorie analyser ces données.
Étant donné que ces informations, aussi appelées «people analytics», permettent de prendre des décisions au sujet des employé·e·s, il convient d’établir des règles claires qui les encadrent. Différentes lois, telles que la loi sur la protection des données, régissent les fins pour lesquelles les employeur·euse·s sont autorisé·e·s à traiter les données de leurs collaborateur·trice·s. Les entreprises sont, par exemple, tenues d’obtenir le consentement des salarié·e·s pour exploiter leurs données personnelles, ce qui doit être limité à un objectif précis.
Potentiel de discrimination
Le recours à des systèmes algorithmiques sur le lieu de travail, particulièrement lors des processus de recrutement, peut avoir des effets discriminatoires sur les employé·e·s. De nombreuses inégalités héritées du passé subsistent dans le monde du travail: la plus flagrante est probablement la différence salariale entre les hommes et les femmes. Les algorithmes peuvent reproduire ces disparités.
De plus, les systèmes algorithmiques peuvent engendrer de nouveaux types de discrimination. Il est impératif que les employeur·euse·s, qu’il s’agisse d’autorités ou d’entreprises privées, en tiennent compte. Ils peuvent, entre autres, réaliser systématiquement des analyses d’impact. Ces dernières leur permettraient de prévoir les effets potentiels d’un système sur les personnes concernées et leurs droits ainsi que d’évaluer les risques et de les prévenir.
Participation aux décisions
Les représentations des travailleur·euse·s ainsi que les entreprises et les employeur·euse·s qui emploient les systèmes algorithmiques dans le cadre professionnel doivent enrichir leurs compétences afin d’appréhender le fonctionnement des outils fondés sur l’IA. Pour beaucoup, il s’agit d’un territoire inconnu.
Il est primordial que les syndicats et les représentations des travailleur·euse·s fournissent aux employé·e·s des conseils pratiques sur la manière dont ils peuvent participer à la mise en place de systèmes algorithmiques et défendre leurs propres intérêts. Pour ce faire, les salarié·e·s doivent disposer de connaissances de base de la thématique.
Ces compétences permettent aussi d’assurer que le recours aux systèmes algorithmiques au sein de l’environnement de travail ne profite pas uniquement aux employeur·euse·s et aux supérieur·e·s hiérarchiques. Tous les collaborateur·trice·s doivent en tirer parti. En amont, il est nécessaire de les impliquer dans les décisions relatives à l’utilisation de systèmes algorithmiques dans la gestion du personnel, les processus opérationnels ou d’autres domaines d’activité pertinents. Les salarié·e·s doivent également disposer d’un droit d’opposition en cas de doute. Un avis de droit et des recommandations que nous avons élaborés dans le cadre d’un projet illustrent la manière dont cette participation peut être renforcée, en Suisse, sur le plan juridique.
«L’IA sait faire tout ça»: la gig economy dans l’ombre de la technologie
De manière générale, le travail effectué sur les plateformes de la gig economy fragilise la position des travailleur·euse·s qui y sont souvent observé·e·s continuellement et pilotés par la gestion algorithmique. Ces travailleur·euse·s devraient pourtant bénéficier des mêmes droits et de la même protection que les autres personnes exerçant en tant qu’indépendantes. Il y aurait également lieu que les exploitant·e·s des plateformes protègent les travailleur·euse·s contre les risques spécifiques qui les concernent liés au manque de transparence des plateformes. Par exemple, au travers de ces systèmes, il est impossible de vérifier le respect du principe «à travail égal, salaire égal». Les travailleur·euse·s manquent de moyens élémentaires de participation: les motifs des sanctions infligées sur les plateformes sont obscurs, et les personnes concernées peuvent difficilement se défendre contre des décisions automatisées.
Exploitation tout au long de la chaîne d’approvisionnement
Les travailleur·euse·s qui participent à l’élaboration des infrastructures techniques propres aux plateformes sont aussi confronté·e·s à des situations précaires. Au fil de la chaîne de production des logiciels et du matériel informatique, certains minéraux se révèlent essentiels. Ces composants, placés dans les batteries et microprocesseurs, sont extraits par des personnes dans des conditions de travail déplorable. C’est pourquoi ils sont aussi appelés «minerais du sang». Tel est aussi le cas des travailleur·euse·s traitant les données employées pour l’entraînement des systèmes fondés sur l’IA. Les jeux de données nécessaires à l’entraînement des systèmes d’IA doivent généralement d’abord être étiquetés, c’est-à-dire classés et décrits, par des «crowdworkers» ou «clickworkers». Ces personnes effectuent souvent de petites tâches sur ordinateur (par clic) dans des conditionsproblématiques, sans qu’elles bénéficient d’un poste fixe. Lors de l’élaboration et de la mise au point d’un système algorithmique, il convient de veiller à ce que les conditions de travail soient équitables tout au long de la chaîne de valeur de l’IA: une rémunération appropriée, des conditions de travail convenables et des possibilités de promotion et de formation continue s’avèrent capitales – également pour les clickworkers.
Au sein de l’UE, les premières lois qui visent à aider les travailleur·euse·s à faire valoir leurs droits sont entrées en vigueur. En Suisse, les débats autour des régulations des plateformes de travail en sont encore à leurs prémices.