La CFDT met en garde contre l’introduction non concertée des nouvelles technologies dans le monde du travail, en particulier l’intelligence artificielle (IA).
Si ces technologies peuvent améliorer la productivité et alléger certaines tâches répétitives ou complexes, elles comportent également des risques importants qui ne doivent pas être négligés. Parmi ces dangers, la CFDT pointe du doigt la discrimination algorithmique, la surveillance excessive des travailleurs, ainsi que l’intensification des tâches les plus exigeantes. Ces problématiques mettent en lumière l’importance de garantir un contrôle humain rigoureux sur les décisions prises par les IA et de protéger les droits fondamentaux des salariés.
Les risques de l’intelligence artificielle en entreprise
L’IA, bien qu’utile pour automatiser des tâches fastidieuses, peut rapidement devenir un outil de contrôle et de gestion invasif si elle n’est pas bien encadrée. Par exemple, les systèmes de détection de fraudes utilisés par certaines administrations, comme les CAF, ont montré qu’ils pouvaient discriminer certains groupes de population en ciblant des modèles familiaux ou des territoires spécifiques.
De même, l’utilisation d’IA dans des entrepôts, comme cela s’est vu chez Amazon aux États-Unis, a conduit à une surveillance extrêmement intrusive des employés, portant atteinte à leur vie privée et à leur droit de se syndiquer.
L’IA peut aussi engendrer une intensification du travail, en automatisant les tâches simples et en laissant aux humains celles qui nécessitent plus de concentration et d’effort, augmentant ainsi la pression sur les travailleurs.
Dans des situations aussi délicates, la question de la responsabilité devient centrale. Si une IA préconise une décision, comme un licenciement, et qu’aucun humain ne peut expliquer ou justifier cette décision, alors la CFDT considère qu’elle ne doit pas être appliquée. Cette exigence d’explicabilité est fondamentale pour éviter que des décisions arbitraires ou injustes ne soient prises sans que personne ne puisse en assumer la responsabilité.
Une législation qui peine à suivre l’évolution des technologies
Bien que des outils juridiques existent en France pour réguler l’introduction des nouvelles technologies dans l’entreprise, la CFDT observe que la technologie avance plus rapidement que le droit. Le code du travail prévoit que lorsqu’une entreprise introduit une technologie nouvelle, comme l’IA, elle doit en informer et consulter le Comité Social et Economique (CSE). Cependant, dans la pratique, cette consultation est rarement effectuée. De plus, les entreprises de plus de 300 salariés peuvent demander une expertise externe pour évaluer les impacts de ces nouvelles technologies, mais cette possibilité est sous-utilisée.
Chez AXA IM, les spécialistes en IA ont joué le jeu en participant à trois Comités Sociaux et Économiques (CSE) pour échanger sur les enjeux et opportunités que représentent ces nouvelles technologies.
Cependant, cela ne soustrait pas l’entreprise à ses responsabilités concernant cette technologie émergente. En effet, il est crucial que les implications et les applications de l’intelligence artificielle soient clairement expliquées et enseignées auprès des salariés.
Il est d’autant plus important d’assurer que chacun puisse comprendre les enjeux éthiques et pratiques liés à l’IA, afin qu’ils se sentent à la fois inclus et préparés pour cette transformation numérique qui impacte déjà notre secteur.
Promouvoir une culture de la connaissance et de la formation continue est essentiel pour garantir que tous les employés soient armés des compétences nécessaires pour naviguer dans ce nouvel environnement technologique.
À l’échelle européenne, des progrès ont été réalisés avec l’adoption en avril 2024 d’un règlement sur l’intelligence artificielle. Ce règlement établit une échelle de risques pour les IA, interdisant celles qui catégorisent ou identifient des personnes via la biométrie ou attribuent des scores sociaux.
Les IA utilisées dans les ressources humaines, pour le recrutement, les promotions ou les licenciements, sont classées à haut risque et doivent être soumises à une évaluation rigoureuse avant leur mise en œuvre, puis réévaluées régulièrement.
La Confédération européenne des syndicats, dont fait partie la CFDT, considère ce cadre comme une avancée positive mais insuffisante. Elle plaide pour l’adoption d’une directive spécifique à l’utilisation de l’IA dans le monde du travail, afin de garantir que l’humain reste au cœur des décisions et que la transparence des systèmes d’IA soit assurée.
Le rôle clé des représentants du personnel
Dans le contexte actuel, la CFDT constate que l’introduction des IA dans les entreprises se fait souvent sans un dialogue social véritable. Les CSE sont rarement consultés, et les entreprises n’hésitent pas à aller de l’avant sans informer ni former les travailleurs sur les enjeux de ces technologies.
Pourtant, la CFDT insiste sur le fait que l’introduction d’une IA doit systématiquement faire l’objet d’une discussion approfondie avec les partenaires sociaux. Il est crucial de débattre de l’impact de ces technologies sur l’emploi, la redistribution des gains de productivité, et les risques psychosociaux associés.
La CFDT souligne également l’importance de former les travailleurs et leurs représentants aux enjeux liés à l’intelligence artificielle. En effet, ces technologies créent une asymétrie de pouvoir entre employeurs et employés, ce qui peut être particulièrement préjudiciable si les travailleurs ne sont pas bien outillés pour comprendre et répondre aux défis posés par l’IA.
Un véritable contre-pouvoir doit être mis en place pour garantir que les salariés ne soient pas laissés à la merci de décisions automatisées qui pourraient nuire à leurs droits et à leurs conditions de travail.
L’introduction de l’IA dans le monde du travail doit être soigneusement encadrée pour éviter les dérives. La CFDT appelle à une plus grande transparence et à un dialogue social renforcé pour que ces nouvelles technologies, loin d’aggraver les inégalités ou d’imposer des conditions de travail dégradées, puissent être utilisées au service du bien-être des salariés et de l’amélioration de leurs conditions de travail. Pour cela, il est impératif que les représentants du personnel soient impliqués dès le départ dans les décisions technologiques, et que des cadres réglementaires stricts soient mis en place pour garantir le contrôle humain sur les systèmes d’IA.
Lien vers la page CFDT : https://www.syndicalismehebdo.fr/article/les-ia-sont-introduites-sur-les-lieux-de-travail-sans-dialogue
Votre équipe CFDT (info@cfdt-axa-im.com )