⛔ L'IA au service du patronat


Les progrès techniques en matière d’intelligence artificielle offrent de nouveaux outils aux employeurs pour surveiller leurs salarié·es, au détriment de leur santé et de leurs conditions de travail.


L’intelligence artificielle est de plus en plus utilisée par les employeurs pour surveiller leurs salarié·es.

C’est notamment le cas dans les centres d’appels, où des algorithmes étudient les appels de tou·tes les salarié·es et rapportent les écarts à la hiérarchie.

Un récent article d’Alternatives économiques cite les exemples de TP (ex-Teleperformance) et Concentrix. Dans ces entreprises, la CGT dénonce des atteintes à la santé et à la sécurité des salarié·es à la suite de la mise en place d’un logiciel de surveillance par l’employeur.

Explosion des risques psychosociaux

Le périmètre de ces logiciels est opaque. Les salarié·es n’ont aucune certitude sur les éléments analysés par l’application : quels sont les mots surveillés ? Quelles attitudes sont sanctionnées ? D’autant que le développement de l’IA permet d’aller très loin dans le contrôle : stress, prononciation, hésitations, émotions… Désormais, le moindre détail peut être épluché par la machine.

Les conséquences néfastes de ce nouveau mode de surveillance sont nombreuses : augmentation des contraintes, dépersonnalisation de la relation managériale, augmentation du stress, augmentation du nombre de sanctions (parfois sur la base de prétextes)…

On ne peut pas faire ce qu’on veut avec l’IA

Il existe de nombreux garde-fous sur l’utilisation de l’intelligence artificielle.

Ainsi l’article 5 de la loi européenne sur l’intelligence artificielle interdit, entre autres, l’utilisation de systèmes d’IA :
  • « pour l’évaluation ou la classification de personnes physiques […] en fonction de leur comportement social […], la note sociale conduisant [à un] traitement préjudiciable ou défavorable […] injustifié ou disproportionné par rapport à leur comportement social » (art. 5, 1.c) ;
  • « pour inférer les émotions d’une personne physique sur le lieu de travail » (art. 5, 1.f).
Bien entendu, les employeurs prétendent ne pas utiliser ces systèmes à des fins de notation ou de contrôle, mais « pour améliorer la qualité de service »…

Dans tous les cas, ils sont bien souvent en dehors des clous : l’utilisation de systèmes d’IA doit donner lieu à une consultation du CSE – comme pour toute introduction de nouvelle technologie (art. L. 2312-8 4° du Code du travail), faute de quoi le CSE peut saisir le tribunal judiciaire pour contraindre l’employeur à le consulter.

L’employeur ne peut mettre en place le projet avant que le CSE n’ait rendu un avis, et le refus par l’employeur de consulter le CSE constitue un délit d’entrave, passible de 7 500 euros d’amende.

Chaque salarié·e doit également être informé·e de l’utilisation de ses données personnelles par un système d’IA, comme le précise l’article 13 du RGPD, et « aucune information concernant personnellement un salarié ne peut être collectée par un dispositif qui n’a pas préalablement porté à sa connaissance » (art. L. 1222-4 du Code du travail).

Enfin, les salarié·es doivent être informé·es des « méthodes et techniques d’évaluation professionnelles mises en œuvre à [leur] égard » (art. L. 1222-3 du Code du travail), et si l’employeur envisage de prendre une décision fondée exclusivement sur le traitement automatisé, il doit obtenir au préalable le consentement explicite de la personne concernée – sans cela, la décision pourrait être illicite (article 22 du RGPD)..