Skip to content

Dans le privé et le public, un syndicalisme de lutte pour la transformation sociale

Catégories
Commerce Conditions de travail

Grâce à la justice, Foodora et ses méthodes esclavagistes se sont évités un procès…

Poursuivie pour avoir dissimulé l’emploi de plusieurs milliers de coursiers entre 2015 et 2018, la plateforme de livraison Foodora ne sera pas jugée. Une conciliation judiciaire en échange d’une reconnaissance de culpabilité lui a permis d’échapper au procès pénal et à toute sa mauvaise publicité. Son système fondé sur l’exploitation maximale d’êtres humains aura été évoqué une heure à peine au tribunal judiciaire de Paris le 25 mars alors que des centaines de livreur-ses qui ont laissé leur santé en travaillant pour Foodora attendaient ce procès pour pouvoir réclamer justice.

Particulièrement graves, les faits pouvaient difficilement être contestés. Ayant utilisé les services de milliers d’« auto-entrepreneurs » dont beaucoup de sans-papiers qui étaient en réalité des salarié·es exploité·es et sans droits, Foodora risquait de se voir lourdement condamnée comme l’a été Deliveroo. Le travail dissimulé pour un total estimé de près de 6,3 millions d’euros de fraude aux cotisations sociales, la facture promettait d’être très lourde. Alors qu’un procès de près de 9 jours était programmé à compter du 30 mars, la conciliation a permis à l’enseigne d’éviter un procès et de n’être condamnée qu’à hauteur de 200 000 € !

Au regard des bénéfices engrangés par la plateforme et des fraudes constatées, autant dire que c’est une insulte à toutes les victimes du système Foodora, voire une incitation à récidiver. D’autant qu’il n’y aura pas d’appel, le parquet de Paris et les dirigeants de l’entreprise s’étant « mis d’accord ». À croire que la justice entendait préserver l’honneur d’un système indigne promu et favorisé il est vrai par Emmanuel Macron lui-même. Même l’URSSAF n’entend visiblement pas recouvrer l’intégralité des sommes fraudées !

Il reste néanmoins aux ex-coursiers de Foodora la possibilité d’obtenir un dédommagement au civil en septembre prochain. L’Union syndicale Solidaires, organisation représentative des livreurs et livreuses des plate-formes, déplore profondément que par manque de courage (et certainement aussi de moyens) justice n’est pas été faite. Elle les soutiendra pour obtenir réparation. Solidaires considère enfin comme indispensable que soit mis un terme immédiat à ce système d’exploitation des travailleurs-euses de plateforme et que la directive européenne d’octobre 2024 présumant ceux-ci comme des salarié-es à part entière de ces entreprises soit transposée en droit français.

Non à Uber et à son monde, oui à la justice sociale !

Catégories
Conditions de travail Luttes antivalidistes Luttes contre la Lgtbqia+ - phobie Luttes contre les discriminations Luttes féministes

Transposition de la Directive Européenne sur la Transparence salariale : Pour le gouvernement, l’égalité femmes hommes attendra !

L’Union syndicale Solidaires a pris connaissance du projet de loi de transposition de la Directive Européenne 2023/970 visant à renforcer l’égalité salariale. Bien que adoptée par le parlement européen en mai 2023, elle devait être transposée dans le droit français au plus tard en juin 2026.

Le projet de loi a été mis sur la table seulement le 6 mars 2026, dans l’urgence, excluant la possibilité de tenir les délais !

Le constat est amer : sous couvert de “simplification”, le gouvernement vide la directive de sa substance et s’entête à maintenir un système d’Index qui a déjà prouvé son inefficacité.

L’oubli délibéré de l’Intersectionnalité

Alors que les articles 3 (paragraphe 2, point e) et 16 (paragraphe 2), de la Directive européenne consacrent pour la première fois la discrimination intersectionnelle, ce dont la Defenseure des Droits s’était félicitée, le projet de loi français l’ignore purement et simplement. En refusant de croiser les données de genre avec l’origine, le handicap ou l’âge, le gouvernement condamne les femmes les plus précaires à rester dans l’angle mort des statistiques. Sans l’outil de l’intersectionnalité, les barrières invisibles resteront intactes. On ne peut pas combattre les inégalités de salaire sans voir que les femmes racisées ou handicapées subissent une double, voire une triple peine salariale.

La “Valeur Égale” livrée à l’arbitraire patronal

L’article 5 du projet de loi français permet à l’employeur de définir seul, par décision unilatérale, les catégories de “travail de valeur égale”. Alors que la directive place les organisations syndicales au centre de l’élaboration des mesures notamment dans les moyens de comparer les métiers de “valeur” équivalente. En laissant au patronat la possibilité en cas d’échec de décider seul, le sexisme des grilles de classification qui dévaluent les métiers du soin, du lien et de l’humain perdurera. À titre d’exemple, on continuera d’accepter un écart de plusieurs centaines d’euros entre une sage-femme (Bac+5) et un ingénieur informatique (Bac+5) au sein d’un même établissement.

Un seuil de 5 % qui légalise l’inégalité salariale

Le projet de loi renvoie à un décret le soin de fixer le seuil d’écart toléré avant toute action correctrice. Or, quand le gouvernement communique sur un écart de salaire “inexpliqué” qui serait tombé à 4,5 %, il prépare le terrain : si le seuil légal est à 5 %, les entreprises n’auront plus rien à corriger ! Pour Solidaires, un écart de 4,9 % reste un vol du patronat aux travailleuses. Nous exigeons un seuil de déclenchement à 0 %. L’égalité ne se négocie pas à la marge.

Enfin, le projet de loi limite l’obligation de rendre les salaires publics aux seules entreprises de plus de 50 salarié·es. C’est abandonner des millions de travailleuses employées dans les TPE et PME à l’opacité la plus totale. Pour Solidaires, la transparence des données salariales doit s’appliquer à tous les employeurs, publics comme privés, dès le ou la premier·e salarié·e.

Solidaires revendique une transposition ambitieuse de la directive 2023/970 :

  • L’intégration immédiate de la notion de discrimination intersectionnelle dans le Code du Travail.
  • La transparence totale des rémunérations (primes et avantages inclus) accessible aux représentant·es du personnel (CSE dans le privé, Comités Sociaux dans le public)
  • La revalorisation immédiate des métiers majoritairement féminisés, en intégrant dans l’évaluation du “travail de valeur égale” des critères jusqu’ici invisibilisés comme la charge émotionnelle, la responsabilité humaine et la pénibilité nerveuse.
  • Des sanctions réellement dissuasives, inspirées du modèle islandais (amendes journalières jusqu’à mise en conformité).
L’égalité salariale n’est pas une option, c’est un droit.
Solidaires ne laissera pas le gouvernement transformer une avancée européenne majeure en termes de droit du travail et d’égalité en une simple opération de communication.

Le 13 mars 2026

Catégories
Accidents du travail Conditions de travail

Assises de la santé et la sécurité des travailleurs et des travailleuses 2026 : le programme complet !

Les Assises sont organisées par un ensemble de syndicats et d’associations : CGT, FSU, Solidaires, Andeva, ASD-Pro, Association des experts intervenant en santé au travail, Attac, Ateliers Travail et Démocratie, Cordistes en colère, Réseau féministe “Ruptures”, Association-Santé-Médecine-Travail, Réseau éco-syndicaliste.

Les Assises de 2024 et 2025 font suite à plusieurs rendez‐vous annuels organisés à l’occasion du 28 avril, journée mondiale de la santé et de la sécurité au travail.

Le 28 avril 2026 doit être un nouveau signal de notre engagement à rendre encore plus visibles les questions de santé et de sécurité au travail. Nous n’avons pas vocation à nous substituer aux organisations syndicales ou associatives, notre réseau veut favoriser la mise en mouvement collectif. Dans un maximum de lieux, d’entreprises, de villes, doivent pouvoir se faire à cette occasion des rassemblements, des réunions publiques ou même simplement un tract, pour rappeler l’importance de cet enjeu.

Notre réseau doit aussi être un support pour des initiatives communes à plus long terme. La tenue de nombreux ateliers sur des thématiques différentes peut en être l’opportunité. Nous sommes convaincu-es que chaque accident grave ou mortel doit faire l’objet d’un tract, d’un rassemblement, de l’expression d’une colère, comme le prévoit le protocole intersyndical des syndicalistes du Pays Basque qui prévoit des rassemblements systématiques lors d’un accident grave ou mortel. Il n’y a pas de fatalité. Il faut quitter les faits divers pour que cela devienne des faits de société qui rappellent à chaque fois la responsabilité des employeurs privés et publics.

Les mobilisations pour la santé et la sécurité au travail reposent sur des individus, souvent isolés, de différentes entreprises, services, syndicats, villes. Nous avons tenté de les mettre en relation (au niveau d’un département notamment) mais cela nécessite sans doute un peu plus de temps. Comme à Paris, des permanences Santé et sécurité au travail pourraient accueillir, dans les Bourses du Travail ou dans un maximum de lieux, les travailleur-ses et citoyen-es. Il serait utile de constituer des équipes locales en réseau entre syndicalistes, associations locales, avocats, médecins du travail, inspecteurs-trices du travail.

Autour des thèmes tels que les droits des femmes, les accidents et maladies professionnelles, l’environnement, l’organisation du travail, la solidarité internationale, nous avons préparé ces rencontres, mais les groupes de travail sont ouverts à toutes et tous pour approfondir ces sujets et mobiliser. Rejoignez-nous !

Les Assises sont un lieu d’enrichissement des pratiques pour la santé au travail et les conditions de travail. Le programme de cette 3ème édition cherche d’abord à répondre aux besoins dans vos interventions quotidiennes, concernant l’adaptation des postes de travail pour prévenir les licenciements, l’arrivée de l’intelligence artificielle et les tâches syndicales qui en découlent tout comme du réchauffement climatique, les enquêtes à mener sur le travail réel ou les poly‐expositions, sans oublier les atteintes spécifiques à la santé des femmes. Les ateliers ouvrent aussi à de nouvelles perspectives comme le devoir de vigilance ou la sous‐traitance des risques. Les sujets abordés ouvrent à des univers ignorés, le travail de l’eau ou des saisonnier-es, le lithium, ou les combats internationaux. Nous voulons aussi aider à impulser une campagne nationale sur les atteintes à la santé des jeunes.

Nous savons que seul le rapport de force permettra de gagner sur ces enjeux de santé et sécurité, avec des mobilisations dans le cadre du travail comme dans toute la société.

Catégories
Conditions de travail Ressources juridiques Souffrances au travail

L’actu santé-travail – N° 1 – Février 2026

La commission Santé et Conditions de travail de Solidaires publie en exclusivité, avant la parution de son bulletin Et voilà le travail, les rubriques Jurisprudences et Actualités juridiques, sous la forme d’une note à destination des équipes syndicales.

Jurisprudences Fonctionnement du CSE / Jurisprudences en matière d’accident du travail et de maladies professionnelles / Respect des préconisations médicales et obligation de sécurité de l’employeur / Certificats médicaux des médecins : une décision importante – mais pas suffisante – du Conseil d’État / Harcèlement, discrimination et enquête interne / Enquêtes internes réalisées à la suite de signalement pour discrimination/ Autres jurisprudences sur le harcèlement / En bref Sécurité sociale : arrêts maladie, formulaires, indemnités: des nouveautés réglementaires

Jurisprudences

Fonctionnement du CSE

Un accord peut prévoir que c’est la commission santé, sécurité et conditions de travail (CSSCT) qui sera réunie à la suite d’un accident ou évènement grave.

Cass. soc, 18 juin 2025, n° 23-10.857.

Jurisprudences en matière d’accident du travail et de maladies professionnelles

Audiogramme, rapport d’autopsie : des pièces relevant du secret médical

● Plusieurs arrêts de la Cour de cassation ont confirmé que l’audiogramme mentionné au tableau n° 42 des maladies professionnelles constitue un élément du diagnostic couvert par le secret médical et n’est donc pas transmissible à l’employeur.

Cass. 2e civ., 5 déc. 2024, no 22-23.310 ; Cass. 2e civ., 5 déc. 2024, n° 22-24.155 ; Cass. 2e civ., 5 déc. 2024, n° 22-23.067 ; Cass. 2e civ., 5 déc. 2024, n° 22-23.835).

● Un rapport d’autopsie n’est plus communicable.

En cas de déclaration d’accident du travail ayant entraîné le décès du salarié, la CPAM procède à une enquête et, dans ce cadre, l’employeur a accès au dossier. Toutefois, dans un revirement de jurisprudence, la Cour de cassation considère désormais que « le rapport d’autopsie constitue un élément couvert par le secret médical qui n’a pas à figurer dans les pièces du dossier constitué par les services de la caisse ».

Ce jugement ne prive pas pour autant l’employeur de son droit de contester un accident ou une maladie professionnelle et donc de solliciter auprès du juge la désignation d’un expert judiciaire à qui seront remises les pièces du dossier médical de la victime.

Cass. 2e civ., 3 avril 2025, n° 22-22.634.

Le décès soudain sur le lieu de travail est un accident du travail

Suite à la mort subite d’un salarié sur son lieu de travail et après enquête, la CPAM a pris en charge l’accident au titre de la législation professionnelle. L’employeur conteste cette décision et la Cour d’appel lui donne raison en s’appuyant sur l’expertise qui n’a pas mis en évidence la cause exacte du décès et en conclut que le décès doit être considéré comme exclusivement lié à un état pathologique antérieur.

La Cour de cassation rappelle que « l’accident survenu au temps et au lieu du travail est présumé être un accident du travail, sauf à établir que la lésion a une cause totalement étrangère au travail ». Les causes du décès étant inconnues, il n’est donc pas démontré qu’il a une cause étrangère au travail.

Cass. 2e civ., 27 février 2025, n° 22-23.919.

La chute survenue pendant une mission est un accident du travail

Selon une jurisprudence constante, l’accident survenu en mission, qu’il intervienne à l’occasion d’un acte professionnel ou de la vie courante, est un accident du travail, sauf s’il est démontré que le salarié avait interrompu sa mission pour un motif personnel, preuve qui peut être très difficile à apporter.

Deux arrêts viennent illustrer ces principes :

– la chute d’une salariée qui se rendait en skate-board de son hôtel au restaurant durant une escale(CA Amiens, 21 mai 2024, n° 22/02047)

– la chute d’une salariée au cours d’une sortie à la patinoire avec ses collègues durant une formation organisée par le CSE (CA Paris, 26 avril 2024, n° 21/0321).

Une société donneuse d’ordre condamnée au titre de son obligation de coordination générale

Dans cette affaire une société engage une autre société qui à son tour, fait appel à un sous-traitant pour réaliser des travaux au cours desquels un salarié décède par électrocution. La Cour d’appel condamne les deux sociétés pour homicide involontaire, ce que conteste la société donneuse d’ordre. La Cour de cassation rappelle que la coordination générale des mesures de prévention sur le chantier lui incombait et qu’elle ne pouvait invoquer avoir confié à une autre société la charge de réaliser les contrôles pour se dédouaner de sa responsabilité. L’arrêt est confirmé.

Cass. crim., 28 janvier 2025, n° 23-84.373.

Reconnaissance de la faute inexcusable : de nouvelles illustrations jurisprudentielles

● Alors que sa maladie avait été prise en charge implicitement par la CPAM au titre de la législation professionnelle, le salarié demande la reconnaissance de la faute inexcusable de son employeur. La Cour de cassation a cassé l’arrêt de la Cour d’appel qui a reconnu l’origine professionnelle de la maladie, au motif que le juge aurait dû au préalable recueillir l’avis du Comité régional de reconnaissance des maladies professionnelles (CRRMP) dès lors que la maladie est hors tableau.

Cass. 2e civ., 9 janvier 2025, n° 22-23.485.

● Un salarié ayant obtenu la reconnaissance de sa maladie au titre du tableau n° 16 bis après un avis favorable du CRRMP, demande la reconnaissance de la faute inexcusable de son employeur. La Cour d’appel refuse cette reconnaissance, estimant que l’origine professionnelle n’est pas rapportée, l’exposition habituelle au goudron n’étant pas démontrée. La Cour de cassation a cassé ce jugement, considérant que la contestation du caractère professionnel de la maladie aurait dû être précédée d’un second avis d’un CRRMP. Cass. 2e civ., 9 janvier 2025, no 22-24.443

● Un salarié victime d’un accident (chute de grande hauteur) pris en charge au titre de la législation professionnelle demande la reconnaissance de la faute inexcusable de son employeur. La Cour d’appel ne la reconnaît pas, au motif que le salarié a décidé de sa propre initiative d’emprunter une autre voie et d’utiliser l’échelle de la copropriété non conforme et qui s’est révélée être à l’origine directe de la chute. En conséquence, il ne peut être reproché à l’employeur de ne pas avoir prévu un tel comportement.

La Cour de cassation a cassé l’arrêt en constatant que le plan particulier de sécurité et de protection de la santé des travailleurs (PPSPS) ne prévoyait pas les modalités d’accès aux terrasses et les mesures de sécurité propres à garantir la sécurité de ces derniers. La Cour de cassation en a déduit que l’employeur n’a pas pris les mesures nécessaires pour préserver la victime du danger de chute de grande hauteur dont il ne pouvait pas ne pas avoir conscience. Cass. 2e civ., 9 janvier 2025, no 22-24.167

Respect des préconisations médicales et obligation de sécurité de l’employeur

Lors de sa reprise après un accident du travail, le salarié chauffeur routier avait fait l’objet de préconisations de la part du médecin du travail. De nouveau en arrêt de travail, le salarié a saisi le conseil des prud’hommes, considérant que l’employeur avait failli à son obligation de sécurité en ne respectant pas les recommandations médicales.

La Cour d’appel a débouté le salarié tout en relevant que l’employeur ne s’était pas assuré que les lieux de livraison attribués au salarié étaient bien tous équipés du matériel préconisé par le médecin du travail alors que six d’entre eux n’en disposaient pas.

La Cour de cassation a considéré que l’employeur avait manqué à son obligation de sécurité en n’allant pas vérifier que les lieux de travail étaient équipés du matériel préconisé. L’employeur doit donc s’assurer de l’effectivité des mesures.

Cass. Soc. 11 juin 2025, FB, n° 24-13.083

Certificats médicaux des médecins : une décision importante — mais pas suffisante — du Conseil d’État

Depuis plusieurs années, des employeurs poursuivent devant le Conseil de l’ordre des médecins qui rédigent des certificats médicaux ou des courriers établissant un lien entre les problèmes de santé (et notamment de souffrance psychique) et le travail. La plupart du temps, ce qui est invoqué est la violation des obligations déontologiques des médecins qui établiraient des « rapports tendancieux » ou des « certificats de complaisance ».

Dans une affaire opposant une médecin au Conseil de l’ordre qui l’avait sanctionnée pour avoir écrit la mention « burn out » dans son avis de prolongation d’arrêt de travail, le Conseil d’État a considéré que l’absence d’analyse des conditions de travail de l’intéressé, notamment du médecin du travail, ne saurait caractériser l’établissement d’un certificat tendancieux ou de complaisance.

C’est une décision importante qui peut protéger les médecins, mais il ne s’agit pas d’une protection absolue. Il faut donc continuer à s’attaquer à ces procédures d’exception et obtenir l’abrogation du décret de 2007 qui autorise les employeurs à engager des procédures devant le Conseil de l’ordre.

CE, 4e -1ère chambre réunies, 28 mai 2024, 469089.

Harcèlement, discrimination et enquête interne

L’employeur public ou privé est tenu à une obligation de sécurité, et, à ce titre, il doit prévenir tout acte de discrimination ou de harcèlement. Sa responsabilité ne peut être écartée que s’il a mis en œuvre toutes les mesures de prévention prévues par les articles L.4121-1 et L.4121-2 du Code du travail.

En cas de dénonciation de faits de harcèlement ou de discrimination, l’employeur doit prendre les mesures nécessaires et suffisantes pour les faire cesser et préserver la santé et la sécurité des salarié·es. Il peut diligenter une enquête interne pour déterminer l’effectivité des faits dénoncés, mais ce n’est pas une obligation.

Plusieurs jurisprudences sont venues confirmer qu’il appartient aux juges du fond d’apprécier la valeur probante d’une enquête interne au regard des éléments qu’elle contient et, le cas échéant, des autres éléments de preuve produits par les parties.

En voici quelques illustrations :

Dans une première affaire, l’employeur s’était limité à interroger les proches collègues de la victime et l’enquête avait été menée par la direction des ressources humaines (et non par le CSE/CHSCT). La Cour de cassation a considéré qu’au vu des éléments de l’enquête, le harcèlement était caractérisé et le licenciement justifié.

Cass. soc., 1er juin 2022, n° 20-22.058

Dans une deuxième affaire, la salariée reprochait à son employeur de ne pas avoir mené une enquête interne alors qu’elle avait dénoncé des faits de harcèlement moral à son encontre. La Cour de cassation partage l’appréciation de la Cour d’appel, qui a jugé que l’employeur avait pris les mesures suffisantes de nature à préserver la santé et la sécurité de la salariée et qu’il n’avait pas manqué à son obligation de sécurité, même en l’absence d’enquête interne. Cass. Soc. 12 juin 2024, n° 23-13.975

Dans une troisième affaire, l’employeur conteste l’arrêt de la Cour d’appel, qui a déclaré le licenciement d’un salarié comme dénué de cause réelle et sérieuse au motif que l’enquête interne ne permettait pas de prouver que l’intéressé avait commis des actes de harcèlement sexuel. Pour les juges, l’enquête n’apparaissait pas suffisamment probante pour plusieurs raisons : comptes rendus d’entretiens tronqués, témoignages manquants, faits décrits par une personne non confirmée par d’autres témoins, intégralité de l’enquête non versée aux débats… La Cour de cassation confirme que la Cour d’appel a bien évalué la valeur probante de l’enquête et constaté que celle-ci comme les autres éléments de preuve ne permettaient pas d’établir le harcèlement sexuel commit par le salarié licencié. Cass. Soc. 18 juin 2024, n° 23-19.022

À signaler un document qui peut être utile aux équipes syndicales : la Décision-cadre 2025-019 du 5 février 2025 de la Défenseure des droits relative à des recommandations générales destinées aux employeurs publics et privés concernant les enquêtes internes réalisées à la suite de signalement pour discrimination

https://juridique.defenseurdesdroits.fr/index.php?lvl=notice_display&id=53669

Autres jurisprudences sur le harcèlement

Peu importe de qualifier ou non les faits de harcèlement moral

Un salarié, licencié pour faute grave, saisit le Conseil de Prud’hommes afin notamment de dénoncer un harcèlement moral et le manquement de l’employeur à son obligation de sécurité. La Cour d’appel rejette ses demandes, estimant que le salarié n’avait jamais qualifié les faits dénoncés de harcèlement moral et qu’en conséquence, l’employeur n’avait aucune obligation d’agir.

La Cour de cassation en a jugé autrement, en s’appuyant sur les éléments fournis par le salarié, qui à plusieurs reprises a fait part à son employeur des problèmes rencontrés avec son supérieur hiérarchique (difficultés à travailler ensemble, sentiment de rejet et de découragement, anxiété induisant un mal-être au travail, reproches, attitude agressive et acharnement à son égard), et peu importe qu’il n’ait pas qualifié dans ses courriels de « harcèlement moral » les faits sur lesquels il alertait son employeur. En conséquence, dès lors qu’un salarié exprime un sentiment de souffrance ou un mal-être persistant, l’employeur doit enquêter et prendre des mesures appropriées.

À noter que la seule réaction de l’employeur a été de le convoquer à un entretien préalable en vue d’un licenciement pour faute grave.

Cass. Soc. 8 janvier 2025, n° 23-19.996

Constater une dégradation des conditions de travail ou de l’état de santé n’est pas nécessaire

Une salariée s’était vue objecter à sa demande de reconnaissance de harcèlement moral, au motif que les différents faits rapportés par l’intéressée n’avaient pas entraîné une dégradation de ses conditions de travail ni de son état de santé. La Cour de cassation n’est pas de cet avis, en constatant que l’employeur ne démontrait pas que les agissements dénoncés par la salariée, qui pourtant laissaient supposer un harcèlement moral, étaient étrangers à tout harcèlement.

Cette position rejoint celle de la Chambre criminelle de la Cour de cassation, pour qui la dégradation des conditions de travail ou de l’état de santé n’est pas une condition à la qualification de harcèlement moral. Les définitions du harcèlement moral en droit du travail ou en droit pénal étant la même, il est donc logique que les deux chambres alignent leurs positions. Cependant la dégradation des conditions de travail ou de l’état de santé reste un élément d’appréciation du préjudice subi par le ou la salariée.

Cass. Soc. 11 mars 2025, n° 23-16.415

Le harcèlement moral en lien avec l’exercice d’un mandat syndical

Un salarié saisit la juridiction prud’homale, invoquant principalement un harcèlement moral qui s’est aggravé depuis de sa désignation en qualité de membre au CHSCT. Estimant que ces faits portent atteinte à l’intérêt collectif de la profession, le syndicat du salarié intervient volontairement à l’instance.

La Cour d’appel condamne l’employeur à verser des dommages et intérêts au salarié ainsi qu’au syndicat en réparation du préjudice porté à l’intérêt collectif de la profession. L’employeur se pourvoit en cassation. Il soutient qu’une situation de harcèlement moral « au préjudice d’un salarié » ne porte pas atteinte à l’intérêt collectif de la profession, de sorte à justifier l’action du syndicat. Ce n’est pas l’avis de la Cour de cassation qui rappelle « qu’aux termes de l’article L.2132-3 du Code du travail, les syndicats professionnels ont le droit d’agir en justice. Ils peuvent, devant toutes les juridictions, exercer tous les droits réservés à la partie civile concernant les faits portant un préjudice direct ou indirect à l’intérêt collectif de la profession qu’ils représentent. Il en résulte qu’un syndicat, lorsque les éléments invoqués par un salarié titulaire d’un mandat syndical ou représentatif comme laissant supposer un harcèlement moral sont en lien avec l’exercice des fonctions syndicales ou représentatives de ce salarié, est recevable à agir en réparation du préjudice porté à l’intérêt collectif de la profession ». Et dans la situation jugée, ces conditions s’avèrent bien remplies.

Un syndicat est donc habilité à agir au nom de l’intérêt collectif de la profession, à condition que les faits de harcèlement allégués par le salarié soient en lien avec l’exercice de ses fonctions syndicales ou représentatives.

Cass., Soc., 10 juillet 2024, n° 22-22.803

Un management à l’origine de souffrance au travail est fautif

Responsable d’un service, un salarié se voit notifier un avertissement en raison d’un comportement excessivement autoritaire, qui dévalorise et qui exerce une pression importante sur certains salariés dont il n’était pas satisfait. Ce management, à l’origine d’une souffrance au travail pour près de la moitié des salarié·es de l’établissement, ayant persisté, le salarié est licencié neuf mois plus tard pour faute grave. 
Le salarié conteste son licenciement et obtient gain de cause devant la Cour d’appel. La Cour de cassation donne raison à l’employeur en rappelant :

– qu’aucun salarié ne doit subir des agissements répétés de harcèlement moral (article L.1152-1 du Code du travail),

– que l’employeur, tenu d’une obligation de sécurité, doit prendre les mesures nécessaires pour assurer la sécurité et protéger la santé physique et mentale des travailleurs (article L.4121-1 du Code du travail) et faire cesser notamment les risques liés au harcèlement moral,

– que les méthodes de management du salarié avaient continué à causer une situation de souffrance au travail, dénoncée par certains salariés et le médecin du travail, ce qui permettait de caractériser un comportement rendant impossible son maintien dans l’entreprise.

Cass., Soc., 6 mai 2025, n° 23-14.492

Introduction de l’intelligence artificielle (IA) et consultation du CSE

Le CSE central de France Télévisions a demandé à être consulté sur deux projets de nouveaux outils : la mise en place d’une plateforme d’accès aux outils d’IA générative (assistant personnalisé) et d’une nouvelle version d’un agent conversationnel (destiné à mieux répondre aux questions des salarié·es sur différents sujets RH et interagir de manière plus dynamique avec les salarié·es). Face au refus de l’employeur, qui estime que ces outils n’impactent pas les conditions de travail des salarié·es, le CSEC a porté le litige devant le tribunal judiciaire.

En s’appuyant sur les articles L.2312-14, L.2312-15 ainsi que sur l’article L.2312-8 du Code du travail qui prévoit que le CSE est informé et consulté sur « l’introduction de nouvelles technologies, tout aménagement important modifiant les conditions de santé et de sécurité ou les conditions de travail », les juges ont considéré qu’il y avait nécessité de consulter préalablement le CSE pour les motifs suivants :

– la rédaction de l’article L.2312-8 évoque l’introduction de nouvelles technologies, mais sans l’associer à une modification des conditions de santé et de sécurité ou des conditions de travail, contrairement au projet important ;

– ainsi, il n’y a aucune exigence d’importance ni d’impact sur les aspects ciblés de la relation de travail et il suffit que la mise en œuvre des nouvelles technologies soit susceptible d’avoir un impact sur la situation des travailleurs ;

– par ailleurs, il est manifeste qu’une technologie faisant appel à l’IA est une technologie nouvelle. Les juges précisent que si ces technologies peuvent tout à la fois être bénéfiques pour les salarié·es, en termes de gain de temps notamment, mais peuvent également avoir des impacts négatifs, tels que la perte d’autonomie, d’initiative ou de réflexion ou encore une intensification du travail.

Ensuite, le tribunal a examiné les éléments au regard de chacun des deux outils. Il a estimé que la nouvelle version du « chatbot » n’est qu’un changement de langage et n’introduit aucune technologie nouvelle. Comme par ailleurs, le CSE avait été consulté sur la version une de l’outil, les juges considèrent qu’il n’y avait pas lieu de le consulter de nouveau.

En revanche, les juges ont suspendu le déploiement de la plateforme dont l’objet est de permettre un accès sécurisé aux outils d’intelligence artificielle générative, ce qui constitue manifestement une technologie nouvelle. En effet, les documents de présentation laissaient supposer des impacts potentiels, notamment sur l’organisation du travail, et qu’en conséquence, le CSE devait être informé et consulté.

Il est à noter que dans une affaire similaire, le Tribunal judiciaire de Nanterre a enjoint à une entreprise, le 14 février 2025, de suspendre le déploiement d’outils d’intelligence artificielle tant que le CSE ne serait pas consulté.

S’agissant de référés, il faut attendre ce qu’en dira la Cour de cassation si les employeurs font appel.

TJ Paris, ord. réf., 2 septembre 2025, n° 25/53278

En bref

Sécurité sociale – arrêts maladie, formulaires, indemnités : des nouveautés réglementaires

1— De nouveaux formulaires

Pour les arrêts de travail

À compter du 1er septembre 2025, seuls les arrêts de travail transmis de façon dématérialisée ou sur formulaire Cerfa sécurisé ouvriront droit au versement des indemnités journalières de la Sécurité sociale.

Décret 2025-587 du 25 juin 2025

Pour les avis d’ (in)aptitude et d’attestation de suivi

De nouveaux modèles d’avis d’inaptitude ou d’aptitude, d’attestation de suivi individuel de l’état de santé et de propositions d’aménagement de postes de travail sont entrés en vigueur au 1er juillet 2025 pour tenir compte de la loi du 2 août 2021 et notamment des nouvelles délégations faites à d’autres professionnels de santé.

Arrêté du 3 mars 2025

2— Arrêts maladie : fin de la tolérance d’indemnisation des jours non prescrits (samedi, dimanche)

En cas de prolongation d’un arrêt de travail qui ne suit pas immédiatement un arrêt précédent (comme les jours de fin de semaine et le lundi), il n’y aura pas d’indemnité journalière ni complémentaire entre les deux périodes. Si l’interruption est supérieure ou égale à 3 jours calendaires, un nouveau délai de carence de 3 jours s’appliquera.

3— Baisse des indemnités journalières en cas d’arrêt de travail

Les indemnités journalières versées par la Sécurité sociale en cas d’arrêt de travail sont calculées en fonction du salaire journalier de base fixé sur la base des salaires des 3 mois précédant l’arrêt dans la limite d’un plafond égal à 1,8 SMIC. Ce plafond est abaissé à 1,4 SMIC pour les arrêts de travail prescrits depuis le 1er avril 2025.

Cette mesure a pour conséquence de réduire le montant de l’indemnisation pour les salarié·es qui ne peuvent pas bénéficier du complément de salaire employeur (condition d’un an d’ancienneté).

5— La durée d’indemnisation en cas d’AT/MP limitée à 4 ans

La période de versement des indemnités journalières pour les victimes d’AT/MP pour un même sinistre sera limitée à 4 ans (pas de limitation précédemment). Au-delà de cette durée, les assuré·es vont basculer en incapacité permanente. Décret à paraître

6— Contre visite des employeurs

En application de l’article L.1226-1 du Code du travail, l’employeur a le droit de procéder à une contre-visite au domicile du·de la salariée placée en arrêt de travail. Les modalités de cette contre-visite sont désormais fixées dans 4 nouveaux articles du Code du travail (R.1226-10 à R.1226-12) :

  • le·la salarié·e doit communiquer à l’employeur son lieu de repos s’il est différent de son domicile, les horaires possibles de la contre-visite si l’arrêt de travail mentionne « sortie libre »,
  • la contre-visite est effectuée par un médecin mandaté par l’employeur, qui se prononcera sur le caractère justifié et la durée de l’arrêt. La contre-visite s’effectue à tout moment soit au domicile du·de la salariée, soit au cabinet du médecin (sauf si impossibilité de se déplacer),
  • à l’issue de cette visite, le médecin informe de ses conclusions l’employeur qui à son tour transmet ces informations à la personne concernée. En cas d’arrêt injustifié ou d’impossibilité d’organiser le contrôle, l’employeur peut suspendre le versement des indemnités complémentaires.

Décret 2024-692 du 6 juillet 2024

7— Le passeport de prévention enfin alimenté !

Prévu par la loi santé au travail du 2 août 2021, le passeport de prévention entre enfin dans sa phase opérationnelle. Il a vocation à recenser « les attestations, certificats et diplômes obtenus par le travailleur dans le cadre des formations relatives à la santé et à la sécurité au travail », et il est intégré au passeport d’orientation, de formation et de compétences.

Ce nouveau document est rempli par les employeurs, les organismes de formation et les travailleur·euses ou demandeur·es d’emploi eux-mêmes lorsqu’iels ont suivi ces formations de leur propre initiative.

Un décret du 1er août 2025 précise les modalités de déclaration des formations en santé et sécurité au travail par les organismes de formation et les employeurs. La déclaration des formations éligibles est progressive : obligatoire à partir du 1er septembre 2025 jusqu’au 30 juin 2026 pour les organismes de formation ; au plus tard le 30 septembre 2026 pour les employeurs, puis au 4e trimestre 2026 pour les salarié·es.

Décret 2025-748 du 1er août 2025

8— Les cancers du larynx et de l’ovaire provoqués par l’inhalation de poussières d’amiante (tableau 30 ter des MP) peuvent désormais ouvrir droit à l’ACAATA (Allocation de Cessation Anticipée d’Activité des Travailleurs de l’Amiante)

Arrêté du 16 décembre 2024

9— Radon : clarification de la démarche de prévention

Le décret 2024-1238 du 30 décembre 2024 renforce la protection des travailleurs et travailleuses contre les risques dus aux rayonnements ionisants. Un des aspects du décret clarifie la démarche de prévention du risque radon lorsqu’il provient du sol. Ainsi, si la concentration d’activité du radon provenant du sol reste supérieure à 300 Bq/m3, l’employeur communique ces résultats à l’Autorité de sûreté nucléaire et de radioprotection (ASNR). L’employeur doit en outre identifier les zones où les travailleurs et travailleuses sont susceptibles d’être exposé·es à des niveaux dépassant ce seuil.

À signaler :

– la mise à disposition par l’INRS d’un outil d’évaluation en zone radon de la dose prévisionnelle des travailleurs. https://www.inrs.fr/publications/outils/Radon/outilRadon.html

– la publication par le ministère du Travail d’une nouvelle édition de son guide pour une meilleure prise en compte du risque radon : https://travail-emploi.gouv.fr/prevention-du-risque-radon-guide-pratique-et-questions-reponses

10— Des cancers reconnus comme maladies professionnelles des pompiers

Les tableaux 16 bis et 30 ont été complétés des expositions des sapeurs-pompiers (professionnels et volontaires) à la combustion de charbon et à l’inhalation d’amiante. JO du 26 décembre 2025.

Catégories
Conditions de travail

Des millionnaires qui ne payent pas d’impôt sur le revenu ? Il faut mettre fin à ce scandale !

Les documents communiqués par la Direction générale des Finances Publiques à la commission des finances du Sénat confirment ce que nous dénonçons depuis des années : ce sont les plus riches qui paient le moins d’impôts. Ainsi, 13 335 millionnaires ne paient aucun impôt sur le revenu (IR) de façon parfaitement légale !

Les lois fiscales adoptées ces dernières années n’ont cessé de privilégier les plus riches et les plus aisé·es. Depuis 2017, le taux réel d’imposition des plus riches n’a eu de cesse de baisser grâce notamment à la mise en place du Prélèvement Forfaitaire Unique (PFU) ou flat tax sur les revenus financiers imposés désormais à 30 %. Avant 2017, les revenus financiers étaient calculés sur le barème de l’impôt sur le revenu avec un taux maximal de 45 %. Le PFU a donc mécaniquement fait baisser l’IR pour les plus riches.

Parmi les 465 niches fiscales existantes pour un coût total de plus de 94 milliards d’euros en 2022, la majorité d’entre elles ne profitent qu’aux plus fortuné·es et leur permettent là aussi de minimiser leur impôt sur le revenu en affectant considérablement la progressivité de l’impôt. C’est pourquoi l’Union syndicale Solidaires revendique une véritable revue de l’ensemble des niches fiscales pour savoir ce qu’elles coûtent et à qui elles profitent pour ne garder que les plus redistributives et les plus justifiées.

Tout ce qui est légal n’est pas juste !

Cette optimisation fiscale agressive n’a qu’un seul but : éviter de payer l’impôt par tous les moyens. En agissant ainsi, ces millionnaires, mais aussi les milliardaires, refusent de participer à la solidarité nationale.

Alors que le gouvernement ne cesse d’aller chercher l’argent dans les poches des plus précaires, il y a urgence à mettre fin à ce scandale pour qu’enfin chacun contribue à hauteur de ses moyens.

Catégories
(re)Penser notre syndicalisme anti-validisme antiracisme Conditions de travail Informatique Luttes contre les discriminations Luttes féministes Précarité

L’intelligence artificielle, vecteur de discriminations

Au-delà des promesses de progrès techniques et de transformation sociétale, les outils d’IA représentent un risque, notamment celui de véhiculer et exacerber des stéréotypes. Ils reflètent les préjugés existants et renforcent les discriminations liées au genre, à l’orientation sexuelle, au handicap, à l’âge, à la nationalité, à la religion réelle ou supposée, mais aussi les discriminations racistes. En effets, les calculs et les données qui alimentent les algorithmes ne sont jamais neutres : « Les algorithmes sont des opinions encapsulées dans du code ».
On parle de biais, c’est-à-dire que les résultats sont biaisés, déviés en raison des préjugés humains qui faussent les données d’entraînement de l’algorithme. Les biais reflètent les discriminations quelles qu’elles soient et les amplifient. Celles et ceux qui construisent l’algorithme y embarquent leur vision du monde.

Note Biais IaLire plus de publications sur Calaméo

1.     L’IA au service du patriarcat 

Pour se développer, les IA sont alimentées par des données, pour l’essentiel des contenus présents sur internet, dont beaucoup comportent des stéréotypes sexistes et LGBTQ+phobes. L’IA apprend à partir de ces données, les restitue et en fait une vérité. Apparaissent fréquemment des biais liés à ces données, de sélection, cognitifs… Par exemple, les contenus engendrés participent à renforcer une vision hétéronormée des femmes soumises et sexualisées. 

Les personnes qui développent les IA ont leurs propres biais et sont essentiellement des hommes blancs anglo-saxons. On peut parler de « coded gaze », un terme créé par la chercheuse Joy Buolamwini, qui décrit comment « la technologie encode les discriminations ». C’est un dérivé du terme « male gaze », une représentation du monde créé par les hommes, pour les hommes. 

Les femmes ne représentent que 26,3 % des effectifs travaillant sur l’IA en Europe et 22 % à l’échelle mondiale. La parité dans ce domaine n’est pas à espérer avant 2100 ! Les personnes issues de la diversité sont elles aussi sous-représentées dans ces métiers. Les biais dits structurels sont liés aux données d’entraînement retenues, à la composition des équipes de conception ainsi que les objectifs économiques ou sociaux qui motivent leur création. 

Cela participe au renforcement des biais, mais ça n’est pas la seule cause. Une meilleure représentation des femmes – et plus largement des minorités – serait une avancée, mais qui ne produirait des effets qu’accompagnée d’une réelle politique de lutte contre toutes les formes de discriminations. Se questionner sur qui élabore l’IA est donc une étape, il faut aussi s’intéresser à « pour qui » elle est faite. Dans la majorité des cas, les donneurs d’ordre (entreprises, administrations…) commandent des systèmes dont le but est de maximiser les profits et/ou la productivité. La lutte contre les discriminations est donc généralement négligée. 

Une étude menée par l’UNESCO en 2024, axée principalement sur le genre, pointe les effets des biais de l’IA : « Ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel ». Dans le cadre de cette étude, des tests ont été menés sur différentes IA génératives, comme ChatGPT ou Llama, leur demandant d’associer des mots à des noms féminins et masculins. Les noms féminins sont majoritairement associés à des termes dévalorisés ou traditionnels, comme « domestique » ou « cuisinière ». Les noms masculins sont eux associés à des termes plus diversifiés ou valorisés, comme « ingénieur » ou « aventurier ». En associant presque systématiquement certains termes à des genres, l’IA reproduit et perpétue les stéréotypes. 

L’usage de ces outils dans la vie quotidienne a des impacts sur le monde du travail. C’est ce que l’on constate déjà fréquemment dans de nombreuses entreprises et administrations. 

L’usage de systèmes d’IA dans le recrutement (tri des CV, faire correspondre des offres d’emplois à des candidat·es…) ou la promotion de travailleur·euses est problématique. De manière générale, ils favorisent les candidatures d’hommes pour des fonctions associées à des termes comme « leardership » ou « compétitivité ». Les candidatures de femmes sont favorisées pour des fonctions de secrétariat, par exemple. 

On peut prendre un cas d’usage au sein du Groupe La Poste. Ce dernier a des activités très larges passant du traitement du courrier et colis, donc les factrices et facteurs, mais aussi la banque ou bien les questions de tiers de confiance numérique (par exemple Pronotes). 

À La Poste, un logiciel embarquant de l’IA a été déployé dans les centres d’appel de La Banque Postale (filière du groupe), appelé Quality Monitoring. Il est aussi utilisé dans des centres d’appel comme Téléperformance. Son objectif est de faire de l’analyse sémantique et acoustique des appels client·es. Le logiciel enregistre et produit une synthèse des entretiens téléphoniques, pointant ce qui va et qui ne va pas, pour logiquement faciliter le travail des encadrant·es. 

Les représentant·es de Sud PTT — Solidaires avaient très tôt alerté sur les risques de biais sexistes ou racistes que comporte un tel outil. Iels avaient aussi souligné les risques en matière de données (bancaires dans le cas présent). Tout ceci avait été balayé par la direction qui a déroulé son projet. Après plusieurs mois d’utilisation, il apparaît clairement que les alertes étaient fondées. Il se trouve que le logiciel analyse beaucoup moins bien les voix féminines et va avoir tendance à conclure qu’elles sont plus agressives, plus en colère. On retrouve là des stéréotypes sexistes et LGBTQ+phobes, renvoyant à des femmes qui seraient plus facilement en colère ou hystériques. 

Ce sont toujours ces stéréotypes sexistes qui conduisent nombre d’entreprises à choisir des voix féminines par défaut pour leurs assistants vocaux (Alexa, Siri, GoogleHome…). Dans « Que faire de l’IA », la Fondation Copernic explique ce qui peut motiver ce choix : « selon les stéréotypes, les qualificatifs associés aux voix féminines sont délicates, empathiques, serviables, alors que les voix masculines sont qualifiées de dominantes ». Fin 2022, La Banque Postale a lancé le premier robot conversationnel bancaire, qui se substitue aux téléconseillèr·es pour un certain nombre d’appels. Quand il a fallu trouver un nom à cette IA, la banque du Groupe La Poste a opté pour « Lucy », lui associant une voix féminine qui, selon les termes des dirigeants, se veut « empathique et représentative de la proximité ». Dans ce dernier exemple, en plus du nom et de la voix, La Banque Postale a choisi de personnifier son callbot, lui associant une image, celle d’une superhéroïne. Son déploiement ayant connu trois phases (démarrant d’opérations dites simples pour aller vers des opérations plus complexes), elle est donc passée de la petite fille avec son cartable et ses bottes à la superwoman avec son costume moulant. Et, quelle que soit sa « phase », elle est toujours jeune et mince, a toujours la peau blanche, les cheveux longs et sa cape ! 

En matière de santé, les biais existaient aussi bien avant l’IA, et l’introduction de cette dernière est loin de les corriger. Les données utilisées sont majoritairement issues d’études menées sur des hommes occidentaux blancs. Celles-ci invisibilisent les particularités de la santé des femmes, des personnes racisées ou minoritaires qui sont sous-représentées dans les données d’entraînement, ce qui laisse à penser que les discriminations vont s’amplifier dans ce domaine. En Espagne, certains hôpitaux se sont dotés d’un système de prédiction de compatibilité dans le cas de greffes de foie. Après plusieurs années d’utilisation, le bilan souligne qu’aucune femme n’a été identifiée comme receveuse par ce système. Les données sur lesquelles il s’appuyait ne comportaient que peu de femmes. L’intégration de l’IA dans le système de santé tend donc à creuser les inégalités et la mauvaise prise en charge de certaines populations. 

Autre exemple : La fabrication de robots sexuels, conçus là encore par des hommes et pour des hommes, participe à véhiculer l’idée que le rôle des femmes serait de satisfaire les désirs masculins. Cela pose aussi la question du consentement. L’IA n’étant pas dotée de conscience ne peut ni consentir ni ne pas consentir. Ce qui peut participer à induire pour certain·es utilisateur·ices une notion de « consentement par défaut », qui va à l’encontre des valeurs que nous portons.

2.     Biais racistes des systèmes d’IA…

Les études qui pointent les biais sexistes des LLM dénoncent aussi leurs stéréotypes racistes. Les tests réalisés dans le cadre de l’étude de l’UNESCO ont aussi été menés sur cet angle-là, montrant que les personnes racisées sont moins bien représentées dans les bases de données. Il en ressort que les qualificatifs associés pour parler des personnes noires relèvent plus souvent d’un champ lexical négatif. Les exemples de biais explicites sont nombreux. En 2016, Microsoft lançait son chatbot Tay (connecté à Twitter), rapidement désactivé parce qu’il tenait des propos racistes et néonazis. Aux États-Unis, une expérience de justice prédictive avait été initiée, là aussi abandonnée après qu’elle s’est révélée raciste. Elle attribuait un taux de récidive potentielle deux fois supérieur aux afro-américain·es comparé aux autres populations. Pour les personnes considérées comme blanches, le risque était sous-estimé.

Les technologies de reconnaissance faciale ont aussi recours à l’IA et sont plus performantes sur des visages à peau blanche que sur des visages à la peau plus sombre. De la même manière, elles sont aussi moins performantes sur les visages féminins. Ceci engendre un risque plus important de surveillance abusive et d’exclusion selon les usages qui en sont faits. 

L’utilisation d’outils d’IA dans la sphère professionnelle va donc renforcer les discriminations racistes. Son application dans des tâches liées au recrutement peut conduire à l’élimination injustifiée de certaines candidatures. Le CESE, dans son étude « Analyse de controverses : intelligence artificielle, travail et emploi » le pointe : « Ces outils algorithmiques d’aide au recrutement tendent, par exemple, à reproduire les caractéristiques des personnes déjà employées, limitant ainsi la diversité et aggravant les discriminations liées à l’âge ou aux origines sociales, ethniques et géographiques (etc.) ». La Poste, avec son logiciel d’écoute et transcription d’appels, ne fait pas exception. Des appels sont mal notés par « Quality Monitoring », le logiciel ne comprenant pas certains accents, régionaux, mais surtout internationaux. Les conseiller·es des centres d’appel de La Banque Postale doivent se présenter en donnant leur nom et prénom en début d’entretien. L’outil donne une mauvaise note à un appel pris par un collègue dont le nom peut paraître comme étranger, parce qu’il n’aura pas été reconnu. Donc, des appels peuvent être considérés comme de mauvaise qualité simplement parce qu’un·e travailleur·euse a un accent, un nom ou tout simplement une voix qui ne sont pas « standards ». Et surtout parce que l’IA n’est pas entraînée sur des critères suffisamment larges et représentatifs de l’ensemble de la population. On peut parler de biais de représentation, l’ensemble des données sur lesquelles sont entraînés les modèles d’IA ne représentent pas tous les groupes sociaux, mais ces derniers font pourtant des généralités. 

3.     Et validistes !

Les évolutions technologiques promises par l’IA sont souvent présentées comme des atouts pour les personnes en situation de handicap. En effet, l’intelligence artificielle peut apporter des améliorations à la vie des personnes en situation de handicap : outils de transcription des conversations pour les personnes sourdes ou malentendantes, logiciels de description d’images pour les personnes aveugles ou malvoyantes, aides à la rédaction pour les personnes neuroatypiques ou encore les exosquelettes… Pour autant, cela ne doit pas nous faire oublier les effets discriminants trop présents dans ces technologies, qui intègrent des préjugés validistes et âgistes. Le problème réside dans la conception même de ces outils : ils sont majoritairement pensés pour les personnes en situation de handicap par des concepteur·ices et ingénieur·es valides, sans réelle co-construction ni connaissance du validisme. Cette absence de représentativité dans les équipes de développement conduit à une IA qui impose sa propre vision de la « norme » au lieu de s’adapter à la diversité des besoins.

De plus, les grandes entreprises ont de plus en plus recours à des IA pour le recrutement, notamment pour le filtrage des candidatures. Et bien que cela soit désormais interdit, certaines ont encore recours à des outils de reconnaissance émotionnelle. Ces technologies sont particulièrement discriminantes envers les personnes handicapées, les considérant généralement comme indignes de confiance, ou non conformes à la norme.

Les différentes oppressions que l’IA alimente et exacerbe ne sont pas des phénomènes isolés, mais elles se combinent et se renforcent quand elles concernent une même personne. On peut donc parler de discriminations intersectionnelles.

4.     Biais de classes : des discriminations envers les plus précaires

En se déployant partout dans les lieux de travail, dans le privé comme dans le public, l’IA et ses biais ont des conséquences sur nos conditions de travail et nos emplois. Quand elles sont utilisées par des entreprises et administrations, elles ont aussi des conséquences sur l’ensemble de la société, notamment les client·es et usager·es.

En la matière, les exemples de discriminations sont nombreux. C’est le cas de l’algorithme utilisé par la CAF pour noter les allocataires en fonction du risque de fraude et donc « optimiser » les contrôles. Les critères retenus comme négatifs sont, par exemple, le fait de percevoir une allocation d’adulte handicapé, avoir été veuf·ve, divorcé·e ou séparé·e avec un changement depuis… Le fait d’avoir un haut revenu est un critère positif. Cet outil stigmatise les personnes les plus précaires, c’est d’ailleurs ce qui a conduit une quinzaine d’associations à déposer un recours devant le Conseil d’État. Dans son ouvrage « Les algorithmes contre la société », Hubert Guillaud constate que les contrôles s’exercent sur les populations les plus stigmatisées : bénéficiaires du Revenu de Solidarité Active (RSA), de l’Allocation Adulte Handicapé (AAH) ou de l’Allocation de Soutien Familial (ASF) destinée aux parents isolés. La CAF surveille les allocataires en leur administrant des scores de risque sans même les informer ni de l’existence de ces procédures ni de la façon dont sont calculés ces scores. Ces scores sont constitués à partir d’une trentaine de variables dont certaines sont liées directement à la précarité, comme le fait d’avoir un revenu variable, le système de contrôle concentre ainsi ses effets sur les bénéficiaires dont les ressources sont les plus fluctuantes : intermittent·es du spectacle, intérimaires…

Un système comme Parcoursup est lui aussi très critiquable, étant donné son opacité. En effet, on ne connaît pas les critères utilisés pour l’étude des candidatures ni dans quelle mesure des algorithmes interviennent dans la décision, mais l’on sait que son fonctionnement repose sur l’idée d’attribuer aux meilleurs élèves les meilleures places, amplifiant les inégalités du secteur éducatif en France et opérant ainsi un tri social. Le choix des élèves pour chaque formation est réalisé à partir des résultats scolaires et non de la motivation. Parcoursup est désormais classé comme un « système à haut risque » par l’AI Act et devra donc se conformer à des obligations accrues de transparence… mais pas avant août 2027 !

Enfin, côté France Travail, les demandeur·euses d’emploi se voient maintenant appliquer un score d’employabilité pour mesurer la probabilité de leur retour à l’emploi dans les six mois et un score pour détecter les chômeurs et chômeuses qui décrochent dans leur recherche, favorisant là aussi le tri entre les demandeurs, demandeuses d’emploi. On constate que les chômeurs et chômeuses qui n’ont pas travaillé depuis plus d’un an sont plus contrôlé·es que celles et ceux qui envisagent de créer leur entreprise.

Les outils de scoring intègrent désormais de l’IA de manière très courante, notamment dans les outils d’aide à la décision en matière de souscription de crédits ou d’assurances. Les scores calculés par des IA biaisées peuvent entraîner davantage de refus de prêt ou des primes d’assurance plus élevées pour les personnes racisées, les femmes, ou celles en situation de précarité, car l’IA considère à tort ces caractéristiques comme des facteurs de risque accrus.

C’est aussi le cas avec l’analyse de l’adresse postale. Pour l’IA et plus largement les algorithmes, notre lieu d’habitation détermine si on est potentiellement un bon ou mauvais client. Ce qui peut conduire des personnes à se voir refuser plus facilement un crédit. Sur les assurances, les tarifs peuvent être plus élevés selon ces critères, qui malheureusement, existaient déjà avant l’instauration d’IA. Cette dernière va les renforcer.

Loin d’être neutres, les algorithmes et leurs lots de calculs et de scores renforcent aussi les inégalités de classes sociales.main.original

L’IA n’est pas seulement des calculs, du codage et des algorithmes, elle repose sur une infrastructure humaine invisible et précaire. Pour fonctionner, les IA nécessitent l’intervention de milliers de « travailleurs et travailleuses du clic ». Ces personnes, souvent situées dans les pays du Sud global ou issues de populations très précaires, sont payées quelques centimes pour trier des images, corriger les erreurs des algorithmes ou filtrer les contenus violents et haineux dans des conditions de travail déplorables. Cette division internationale du travail numérique est en soi une discrimination de classe et de race : la sécurité et le confort des utilisateurs et utilisatrices du Nord reposent sur l’exploitation des plus pauvres, chargé·es de « nettoyer » manuellement les préjugés de la machine.

5.     Combattre les biais de l’IA partout !

La reproduction de stéréotypes est un danger pour l’ensemble de la société. En brassant des milliers de données, les systèmes d’intelligence artificielle agissement comme une loupe qui grossit les discriminations. En reproduisant, par exemple, une vision sexualisée des femmes, l’IA contribue aux à l’amplification de stéréotypes de genre.

Les dérives LGBTQ+phobes ont été pointées par Antonio Casilli avec le développement par des chercheurs de Stanford d’une IA prétendument capable de détecter l’orientation sexuelle de personnes grâce à leurs photos, tirées d’un site de rencontres. Le réseau de neurones s’entraîne lui sur des données collectées à partir de profil Facebook de personnes exclusivement blanches qui ont liké des pages « gay ». Pour Antonio Casilli : « L’étude traduit une vision hétéronormative, qui n’admet pas de situations intermédiaires de l’identité sexuelle ». Dans cette étude, tous les stéréotypes et discriminations y passent ! Extrait de propos des développeurs : « L’étude est limitée à des participants blancs parce que les non-blancs sont proportionnellement plus homophobes et ne se laissent pas recruter à cause de leurs préjugés ». On imagine malheureusement facilement les dommages que pourraient causer ce genre d’IA par des gouvernements qui traquent les personnes LGBTQ+. 

Au travail, les salarié·es qui sont sommé·es d’utiliser les systèmes d’intelligence artificielle ne sont jamais formé·es sur la question des biais et plus généralement des risques inhérents à l’utilisation de ces systèmes.

Ce sont les entreprises qui financent et conçoivent ces systèmes d’IA qui encodent/embarquent, parfois volontairement, nombre de stéréotypes et de préjugés racistes, liés au genre, au handicap, à l’âge, à la précarité, ou à toute autre caractéristique sociale, et qui, trop souvent, ne font rien pour corriger ces biais.

Catégories
Actu Solidaires 78 Automobile Conditions de travail

Uni·es pour des garanties. Non à la fermeture de Stellantis Poissy

A l’usine Stellantis de Poissy, les travailleur.euses et des sous-traitants s’organisent. Sud industrie et sa section de Stellantis ont pour objectif de mettre en avant des garanties nécessaires pour que chacun·e des salarié·es puissent continuer à faire vivre sa famille après la fabrication de l’Opel Mokka. Ici, comme ailleurs, les travailleurs et travailleuses doivent s’organiser pour contrer les plans de licenciements et les fermetures d’usines.

Nous n’aurons rien sans lutter !

Solidaires/Canal Marches Expression Directe 2026 n°1

Diffusion le Mardi 20 janvier 2026 vers 00h30 sur France 2

Rediffusion le Jeudi 22 janvier 2026 vers 09h25 sur France 5

Catégories
Banques - Assurances Conditions de travail Écologie Informatique

L’IA dans la banque, l’assurance et l’assistance : à qui profite-t-elle vraiment ?

L’intelligence artificielle percute de plein fouet nos vies, nos métiers et nos conditions de travail. Dans la bouche des gouvernements et des patrons, elle serait le remède à tout ! Les secteurs de la banque, de l’assurance et de l’assistance sont loin d’être épargnés. Toutes les entreprises de ces secteurs se sont lancées dans une course folle à son développement, au mépris de nos emplois et de nos conditions de travail. On vous propose de décrypter l’IA et ses conséquences.

L’IA, c’est un gain de temps… ou pas !

Le discours qui accompagne le déploiement de systèmes d’IA dans nos entreprises repose largement sur les bénéfices supposés pour les travailleurs et travailleuses. Gain de temps et suppression des tâches répétitives, sans valeur ajoutée. Dans les métiers de la banque, de l’assurance et de l’assistance comme dans toutes les professions, il existe des tâches rébarbatives, c’est un fait. Alors, quand le ou la patron·ne propose qu’une IA s’en charge à notre place, on peut être tenté·e ! En réalité, cela dissimule surtout une intensification du travail. Dans nos secteurs, on ne connaît pas de patron·nes qui cherchent à “soulager” les travailleur·euses. En revanche, on connaît bien celles et ceux qui sont engagé·es dans la course au toujours plus !

De plus, l’IA n’est pas totalement autonome et l’on demande aux salarié·es de contrôler son travail. C’est le cas, par exemple pour les outils de rédaction de mails aux client·es, ou les IA qui génèrent des plannings: il faut vérifier, corriger, reprendre ce qui a été produit. Cette charge de travail supplémentaire est largement invisibilisée. Elle pose aussi la question de la responsabilité. ! Si un mail généré par une IA, relu par un·e salarié·e, comporte des erreurs, ce qui n’est pas rare, qui en est responsable ? On n’a pas encore vu une IA sanctionnée ou passer en entretien préalable…

Quelles conséquences pour les emplois et les conditions de travail ?

Un mail généré à notre place, des préconisations et argumentations construites par un logiciel, des dossiers analysés par la machine… Le développement de systèmes d’IA dans nos métiers s’accompagne d’une perte de sens majeure. A terme, les travailleur·euses ne serviraient plus qu’à réciter ce que l’IA aurait décidé ! Là encore, se pose la question de la responsabilité.

L’introduction de l’IA exacerbe également la surveillance des salarié·es, avec le développement du management algorithmique. Ils dictent la façon de travailler, l’ordre des tâches, le temps accordé pour les exécuter… Tout est enregistré en temps réel ! S’y ajoutent des systèmes d’évaluation permanente, notamment dans les centres d’appel. Des IA analysent l’ensemble des appels : respect de la trame, intonation de la voix, utilisation de certains mots… les salarié·es sont scruté·es en permanence, sans tenir compte du contexte, des appels précédents ou de l’état de la personne. Les écoutes ne servent désormais plus qu’à contrôler, voire sanctionner !

Une entreprise comme Orange a quantifié le temps passé par les téléconseiller·es à rechercher une réponse juste à apporter aux client·es. Selon l’opérateur, c’est 30% du temps de l’appel qu’il espère « gagner » en remplaçant les salarié·es par des IA ! Et peu importe la qualité de la réponse qui sera finalement apportée… On peut parier sans trop de risque que cette réflexion soit partagée par de nombreux-ses patron·nes !

L’IA entraîne également l’apparition de nouvelles tâches chronophages et sans intérêt, une dépendance accrue aux outils informatiques : gare à la panne ou à la cyber attaque ! Ainsi que l’abandon de certaines missions. L’IA engendre la perte de savoir-faire professionnels et de technicité.

Cette technologie constitue une véritable épée de damoclès au-dessus de nos emplois. Une étude récente montre que près de 10 % des emplois du secteur bancaire en Europe sont menacés d’ici à 2030, soit 200 000 postes. Quand on sait que la majorité des projets intégrant de l’IA se mettent en place sans information des travailleur·euses et ni de leurs représentant·es, il y a de quoi s’inquiéter !

Et où vont les données ?

Désormais, lorsqu’un employeur annonce le déploiement d’un nouveau logiciel ou une mise à jour, il y a fort à parier qu’il intègre de l’IA… sans que cela soit clairement annoncé ! Et même lorsque c’est clairement indiqué, le flou demeure, notamment sur l’utilisation des données. Prenons l’exemple d’un logiciel d’écoute et d’analyse d’appels: qui peut dire où sont stockées les données échangées, lesquelles sont utilisées et dans quel but ? Le fonctionnement interne de l’IA reste opaque pour celleux qui les utilisent, directement ou indirectement. C’est ce qu’on appelle l’effet de boîte noire. Dans nos métiers, ce sont autant les données des client·es que celles des salarié.es qui sont aspirées par les IA,notamment via les outils de ressources humaines, souvent à l’insu de toutes et tous. Il n’est pas rare que les employeurs proposent (ou imposent !) aux travailleur·euses d’utiliser les AI intégrées à certains logiciels, comme ceux de Microsoft ou Google. Là encore, se posent les questions de la transparence et de la confidentialité ! En utilisant ces IA, les salarié.es fournissent en outre un travail gratuit pour les entraîner et accroître les profits de multinationales aussi puissantes que des Etats.

On peut agir face à l’IA !

Impact sur nos emplois, nos conditions de travail, nos données et sur l’environnement… Solidaires soutient une position technocritique : ni technophobe par principe, ni techno-solutionniste. Autrement dit : nous considérons qu’aucune technique ne peut constituer une réponse miracle aux crises sociales et environnementales engendrées par le capitalisme. A fortiori une technologie aussi vorace en eau, en énergie et en métaux rares que l’IA et qui aggrave les inégalités sociales et les oppressions systémiques.

Dans les métiers de la banque, de l’assurance et de l’ assistance, les structures membres de l’Union syndicale Solidaires sont aux côtés des salarié·es pour :

  • lutter contre le déploiement imposé aux travailleur·euses
  • contraindre les employeurs à informer et consulter le personnel et ses représentant·es
  • exiger que toute introduction d’IA fasse l’objet d’expertises et d’évaluations des risques professionnels, notamment sur la santé.

Nous continuerons à combattre les suppressions d’emplois.

Lutter contre le déploiement capitaliste de ces outils ne se fera pas sans prise de conscience des enjeux de domination, de recherche du profit au mépris des conditions de travail, d’ultra-surveillance des populations, de destruction environnementale, de remise en cause de l’objectif 0 carbone et du réchauffement climatique, de la réduction des libertés publiques. Aussi, et de toutes les façons possibles, y compris par la grève, nos syndicats, aux côtés des salarié·e, continueront à se mobiliser.

RSS
Follow by Email