Co-organisée avec la librairie la Nouvelle réserve et Solidaires 78
A partir de 19 h à la librairie La Nouvelle Réserve, Limay
Entrée libre et gratuite
Co-organisée avec la librairie la Nouvelle réserve et Solidaires 78
A partir de 19 h à la librairie La Nouvelle Réserve, Limay
Entrée libre et gratuite
L’Union syndicale Solidaires a pris connaissance du projet de loi de transposition de la Directive Européenne 2023/970 visant à renforcer l’égalité salariale. Bien que adoptée par le parlement européen en mai 2023, elle devait être transposée dans le droit français au plus tard en juin 2026.
Le projet de loi a été mis sur la table seulement le 6 mars 2026, dans l’urgence, excluant la possibilité de tenir les délais !
Le constat est amer : sous couvert de “simplification”, le gouvernement vide la directive de sa substance et s’entête à maintenir un système d’Index qui a déjà prouvé son inefficacité.
Alors que les articles 3 (paragraphe 2, point e) et 16 (paragraphe 2), de la Directive européenne consacrent pour la première fois la discrimination intersectionnelle, ce dont la Defenseure des Droits s’était félicitée, le projet de loi français l’ignore purement et simplement. En refusant de croiser les données de genre avec l’origine, le handicap ou l’âge, le gouvernement condamne les femmes les plus précaires à rester dans l’angle mort des statistiques. Sans l’outil de l’intersectionnalité, les barrières invisibles resteront intactes. On ne peut pas combattre les inégalités de salaire sans voir que les femmes racisées ou handicapées subissent une double, voire une triple peine salariale.
L’article 5 du projet de loi français permet à l’employeur de définir seul, par décision unilatérale, les catégories de “travail de valeur égale”. Alors que la directive place les organisations syndicales au centre de l’élaboration des mesures notamment dans les moyens de comparer les métiers de “valeur” équivalente. En laissant au patronat la possibilité en cas d’échec de décider seul, le sexisme des grilles de classification qui dévaluent les métiers du soin, du lien et de l’humain perdurera. À titre d’exemple, on continuera d’accepter un écart de plusieurs centaines d’euros entre une sage-femme (Bac+5) et un ingénieur informatique (Bac+5) au sein d’un même établissement.
Le projet de loi renvoie à un décret le soin de fixer le seuil d’écart toléré avant toute action correctrice. Or, quand le gouvernement communique sur un écart de salaire “inexpliqué” qui serait tombé à 4,5 %, il prépare le terrain : si le seuil légal est à 5 %, les entreprises n’auront plus rien à corriger ! Pour Solidaires, un écart de 4,9 % reste un vol du patronat aux travailleuses. Nous exigeons un seuil de déclenchement à 0 %. L’égalité ne se négocie pas à la marge.
Enfin, le projet de loi limite l’obligation de rendre les salaires publics aux seules entreprises de plus de 50 salarié·es. C’est abandonner des millions de travailleuses employées dans les TPE et PME à l’opacité la plus totale. Pour Solidaires, la transparence des données salariales doit s’appliquer à tous les employeurs, publics comme privés, dès le ou la premier·e salarié·e.
Le 13 mars 2026
L’émission commence à 5:24
Avec Anissa (SUD Santé Sociaux), Aude (SUD Education), Halima (SUD Santé Sociaux), Marie (secrétaire nationale de Solidaires) et Violette (Solidaires Paris) nous avons discuté de la grève féministe, des métiers féminisés, de précarité, d’intersectionnalité, de l’offensive de l’extrême droite contre nos droits, nos vies !
Emission diffusé en live sur notre chaîne Twitch le 3 mars 2026
Aujourd’hui encore la liberté des femmes, des trans et des non-binaires à disposer de leur corps est toujours attaquée par le système patriarcal : difficulté d’accès à l’IVG, incitation à réarmer démographiquement la France, volonté permanente de vouloir légiférer sur les corps des personnes trans. Les chiffres sont toujours aussi inquiétants : en 2025, 164 féminicides ont eu lieu ; un viol ou une tentative de viol a eu lieu toutes les 2 minutes 30, une femme sur deux a déjà subi des violences sexuelles. Être la cible de racisme, validisme, classisme et de LGBTIphobies rend encore plus vulnérables : 85% des personnes trans sont agressées au cours de leur vie, 75% des agressions islamophobes visent des femmes et les femmes handicapées sont encore deux fois plus victimes de violences sexuelles que les autres. N’oublions pas que les enfants sont les premières victimes des violences sexuelles (une fille sur cinq et un garçon sur treize).
En 2026, la progression de l’extrême droite partout dans le monde menace toujours plus les droits des femmes et des minorités de genre. En France, la banalisation des idées fascistes et fémonationalistes rend l’arrivée au pouvoir de l’extrême droite possible à l’Assemblée nationale ou à la présidence mais aussi demain dans nos mairies.
Au moins deux femmes sur cinq affirment avoir subi des violences sexistes ou sexuelles au travail (VSST) et une femme sur cinq déclare avoir subi des comportements à caractère sexuel sur son lieu de travail (enquête Genese 2021). Au sein du ministère de l’Éducation nationale et de l’Enseignement supérieur et de la Recherche (ESR), ces chiffres sont sans doute encore loin de l’ampleur des VSST : dans une enquête réalisée par SUD éducation en 2024, 60% des sondé·es affirmaient avoir déjà été victimes de VSST.
En septembre 2024, SUD éducation a proposé aux personnels de l’Education nationale de remplir un questionnaire sur les violences sexistes et sexuelles au travail. Cette fiche présente les principaux résultats.
Qu’est ce que la protection fonctionnelle ?
C’est une protection organisée par la collectivité publique dûe à l’agent·e public·que en raison de ses fonctions. Cette protection s’applique lorsque l’agent·e est victime de violences, d’agissements constitutifs de harcèlement, de menaces, d’injures, de diffamations ou d’outrages à l’occasion de l’exercice de ses fonctions.
Retrouvez sur cette page tout le matériel et toutes les infos pour les mobilisations du 8 mars. Faisons la grève au travail, la grève dans nos foyers (des tâches ménagères, des courses…), dans les écoles et les universités ! Interrompons toute activité productive et reproductive, formelle et informelle, rétribuée et gratuite. Participons partout aux actions et manifestations. Réapproprions-nous tous les espaces publics !
Livres et ressources vidéos : – Primaire : Mai Lan Chapiron, Le loup, La Martinière jeunesse, 2021, Paris Les vidéos disponibles sur le même ouvrage sur Youtube – Collège : Juliette Boutant et Thomas Mathieu, Les crocodiles sont toujours là : témoignages d’agressions et de harcèlement sexistes et sexuels, Casterman, 2019, Paris Pénélope Bagieu, Les Culottées, Gallimard, 2016, Paris
– Lycée : Margaret Atwood, La servante écarlate, Robert Laffont, 1985, Paris La série H24 disponible sur Arte Jeux :
Le jeu de rôle du consentement, “Sexploration” Un jeu coopératif pour aborder des situations de sexisme, “Moi c’est madame, la relève” Les expositions, campagnes, kits du Centre Hubertine Auclert.
Publié le 14 février 2026
Retrouvez sur cette page tout le matériel et toutes les infos pour les mobilisations du 8 mars. Faisons la grève au travail, la grève dans nos foyers (des tâches ménagères, des courses…), dans les écoles et les universités ! Interrompons toute activité productive et reproductive, formelle et informelle, rétribuée et gratuite. Participons partout aux actions et manifestations. Réapproprions-nous tous les espaces publics !
Le tract national Solidaires pour le 8 mars, avec une version personnalisable, est ici : https://solidaires.org/sinformer-et-agir/actualites-et-mobilisations/nationales/8-mars-si-on-sarrete-tout-sarrete/
Bulletin Solidaires et Egales Janvier/février 2026Lire plus de publications sur Calaméo
à venir
Le collectif #GrèveFéministe, regroupant des associations féministes et syndicats (dont l’Union syndicale Solidaires), avec le soutien d’organisations politiques, appelle à une grève féministe d’ampleur ce 8 mars et à des manifestations massives partout en France : https://www.grevefeministe.fr/8-mars-2026-journee-internationale-de-lutte-pour-les-droits-des-femmes/
N’hésitez pas à compléter la carte des événements : https://www.grevefeministe.fr/mobilisations/
à venir
à venir
Diverses vidéos de précédentes mobilisations sont aussi déjà disponible sur notre chaine Viméo et sur notre chaine Youtube.
Et de nouveaux visuels 🙂

La marche des femmes sur Versailles, le 5 octobre 1789
Solidaires revendique des mesures concrètes pour faire disparaître les écarts de salaires entre femmes et hommes avec des mesures collectives de rattrapage. Ces mesures doivent être définies en s’appuyant sur un bilan égalité salariale. (Extrait congrès Solidaires 2014 – l’Egalité femmes/hommes : un enjeu syndical)

Solidaires revendique un droit à un congé hormonal dont menstruel de 26 jours par an, extensible en fonction des besoins, sans préavis, sans justificatif médical, et inconditionnel. Rémunéré et sans jour de carence. Accessible à toutes et tous, quel que soit le genre ou la mention de genre à l’état civil. (Extrait congrès Solidaires 2024 – Enrichir, adapter et faire évoluer notre revendicatif)

Femme allongée, Henri Matisse, 1921
Solidaires milite pour la reconnaissance des maladies liées aux cycles menstruels, et préconise l’adaptation de postes de travail si nécessaire.
Solidaires revendique un recrutement massif de médecins du travail, formé·es en santé au travail et aux questions de genre
Solidaires revendique des financements supplémentaires pour la recherche publique sur ces sujets.(Extrait congrès Solidaires 2024 – Enrichir, adapter et faire évoluer notre revendicatif)

Le Madras rouge, Henri Matisse, 1907
La féminisation des textes est un élément parmi d’autres de la lutte contre le patriarcat. Le recours à la féminisation va de pair avec une réflexion de la part des femmes et des hommes sur la domination masculine. (Extrait congrès Solidaires 2014 – l’Egalité femmes/hommes : un enjeu syndical)
Note Biais IaLire plus de publications sur Calaméo
Pour se développer, les IA sont alimentées par des données, pour l’essentiel des contenus présents sur internet, dont beaucoup comportent des stéréotypes sexistes et LGBTQ+phobes. L’IA apprend à partir de ces données, les restitue et en fait une vérité. Apparaissent fréquemment des biais liés à ces données, de sélection, cognitifs… Par exemple, les contenus engendrés participent à renforcer une vision hétéronormée des femmes soumises et sexualisées.
Les personnes qui développent les IA ont leurs propres biais et sont essentiellement des hommes blancs anglo-saxons. On peut parler de « coded gaze », un terme créé par la chercheuse Joy Buolamwini, qui décrit comment « la technologie encode les discriminations ». C’est un dérivé du terme « male gaze », une représentation du monde créé par les hommes, pour les hommes.
Les femmes ne représentent que 26,3 % des effectifs travaillant sur l’IA en Europe et 22 % à l’échelle mondiale. La parité dans ce domaine n’est pas à espérer avant 2100 ! Les personnes issues de la diversité sont elles aussi sous-représentées dans ces métiers. Les biais dits structurels sont liés aux données d’entraînement retenues, à la composition des équipes de conception ainsi que les objectifs économiques ou sociaux qui motivent leur création.
Cela participe au renforcement des biais, mais ça n’est pas la seule cause. Une meilleure représentation des femmes – et plus largement des minorités – serait une avancée, mais qui ne produirait des effets qu’accompagnée d’une réelle politique de lutte contre toutes les formes de discriminations. Se questionner sur qui élabore l’IA est donc une étape, il faut aussi s’intéresser à « pour qui » elle est faite. Dans la majorité des cas, les donneurs d’ordre (entreprises, administrations…) commandent des systèmes dont le but est de maximiser les profits et/ou la productivité. La lutte contre les discriminations est donc généralement négligée.
Une étude menée par l’UNESCO en 2024, axée principalement sur le genre, pointe les effets des biais de l’IA : « Ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel ». Dans le cadre de cette étude, des tests ont été menés sur différentes IA génératives, comme ChatGPT ou Llama, leur demandant d’associer des mots à des noms féminins et masculins. Les noms féminins sont majoritairement associés à des termes dévalorisés ou traditionnels, comme « domestique » ou « cuisinière ». Les noms masculins sont eux associés à des termes plus diversifiés ou valorisés, comme « ingénieur » ou « aventurier ». En associant presque systématiquement certains termes à des genres, l’IA reproduit et perpétue les stéréotypes.
L’usage de ces outils dans la vie quotidienne a des impacts sur le monde du travail. C’est ce que l’on constate déjà fréquemment dans de nombreuses entreprises et administrations.
L’usage de systèmes d’IA dans le recrutement (tri des CV, faire correspondre des offres d’emplois à des candidat·es…) ou la promotion de travailleur·euses est problématique. De manière générale, ils favorisent les candidatures d’hommes pour des fonctions associées à des termes comme « leardership » ou « compétitivité ». Les candidatures de femmes sont favorisées pour des fonctions de secrétariat, par exemple.
On peut prendre un cas d’usage au sein du Groupe La Poste. Ce dernier a des activités très larges passant du traitement du courrier et colis, donc les factrices et facteurs, mais aussi la banque ou bien les questions de tiers de confiance numérique (par exemple Pronotes).
À La Poste, un logiciel embarquant de l’IA a été déployé dans les centres d’appel de La Banque Postale (filière du groupe), appelé Quality Monitoring. Il est aussi utilisé dans des centres d’appel comme Téléperformance. Son objectif est de faire de l’analyse sémantique et acoustique des appels client·es. Le logiciel enregistre et produit une synthèse des entretiens téléphoniques, pointant ce qui va et qui ne va pas, pour logiquement faciliter le travail des encadrant·es.
Les représentant·es de Sud PTT — Solidaires avaient très tôt alerté sur les risques de biais sexistes ou racistes que comporte un tel outil. Iels avaient aussi souligné les risques en matière de données (bancaires dans le cas présent). Tout ceci avait été balayé par la direction qui a déroulé son projet. Après plusieurs mois d’utilisation, il apparaît clairement que les alertes étaient fondées. Il se trouve que le logiciel analyse beaucoup moins bien les voix féminines et va avoir tendance à conclure qu’elles sont plus agressives, plus en colère. On retrouve là des stéréotypes sexistes et LGBTQ+phobes, renvoyant à des femmes qui seraient plus facilement en colère ou hystériques.
Ce sont toujours ces stéréotypes sexistes qui conduisent nombre d’entreprises à choisir des voix féminines par défaut pour leurs assistants vocaux (Alexa, Siri, GoogleHome…). Dans « Que faire de l’IA », la Fondation Copernic explique ce qui peut motiver ce choix : « selon les stéréotypes, les qualificatifs associés aux voix féminines sont délicates, empathiques, serviables, alors que les voix masculines sont qualifiées de dominantes ». Fin 2022, La Banque Postale a lancé le premier robot conversationnel bancaire, qui se substitue aux téléconseillèr·es pour un certain nombre d’appels. Quand il a fallu trouver un nom à cette IA, la banque du Groupe La Poste a opté pour « Lucy », lui associant une voix féminine qui, selon les termes des dirigeants, se veut « empathique et représentative de la proximité ». Dans ce dernier exemple, en plus du nom et de la voix, La Banque Postale a choisi de personnifier son callbot, lui associant une image, celle d’une superhéroïne. Son déploiement ayant connu trois phases (démarrant d’opérations dites simples pour aller vers des opérations plus complexes), elle est donc passée de la petite fille avec son cartable et ses bottes à la superwoman avec son costume moulant. Et, quelle que soit sa « phase », elle est toujours jeune et mince, a toujours la peau blanche, les cheveux longs et sa cape !
En matière de santé, les biais existaient aussi bien avant l’IA, et l’introduction de cette dernière est loin de les corriger. Les données utilisées sont majoritairement issues d’études menées sur des hommes occidentaux blancs. Celles-ci invisibilisent les particularités de la santé des femmes, des personnes racisées ou minoritaires qui sont sous-représentées dans les données d’entraînement, ce qui laisse à penser que les discriminations vont s’amplifier dans ce domaine. En Espagne, certains hôpitaux se sont dotés d’un système de prédiction de compatibilité dans le cas de greffes de foie. Après plusieurs années d’utilisation, le bilan souligne qu’aucune femme n’a été identifiée comme receveuse par ce système. Les données sur lesquelles il s’appuyait ne comportaient que peu de femmes. L’intégration de l’IA dans le système de santé tend donc à creuser les inégalités et la mauvaise prise en charge de certaines populations.
Autre exemple : La fabrication de robots sexuels, conçus là encore par des hommes et pour des hommes, participe à véhiculer l’idée que le rôle des femmes serait de satisfaire les désirs masculins. Cela pose aussi la question du consentement. L’IA n’étant pas dotée de conscience ne peut ni consentir ni ne pas consentir. Ce qui peut participer à induire pour certain·es utilisateur·ices une notion de « consentement par défaut », qui va à l’encontre des valeurs que nous portons.
Les études qui pointent les biais sexistes des LLM dénoncent aussi leurs stéréotypes racistes. Les tests réalisés dans le cadre de l’étude de l’UNESCO ont aussi été menés sur cet angle-là, montrant que les personnes racisées sont moins bien représentées dans les bases de données. Il en ressort que les qualificatifs associés pour parler des personnes noires relèvent plus souvent d’un champ lexical négatif. Les exemples de biais explicites sont nombreux. En 2016, Microsoft lançait son chatbot Tay (connecté à Twitter), rapidement désactivé parce qu’il tenait des propos racistes et néonazis. Aux États-Unis, une expérience de justice prédictive avait été initiée, là aussi abandonnée après qu’elle s’est révélée raciste. Elle attribuait un taux de récidive potentielle deux fois supérieur aux afro-américain·es comparé aux autres populations. Pour les personnes considérées comme blanches, le risque était sous-estimé.
Les technologies de reconnaissance faciale ont aussi recours à l’IA et sont plus performantes sur des visages à peau blanche que sur des visages à la peau plus sombre. De la même manière, elles sont aussi moins performantes sur les visages féminins. Ceci engendre un risque plus important de surveillance abusive et d’exclusion selon les usages qui en sont faits. 
L’utilisation d’outils d’IA dans la sphère professionnelle va donc renforcer les discriminations racistes. Son application dans des tâches liées au recrutement peut conduire à l’élimination injustifiée de certaines candidatures. Le CESE, dans son étude « Analyse de controverses : intelligence artificielle, travail et emploi » le pointe : « Ces outils algorithmiques d’aide au recrutement tendent, par exemple, à reproduire les caractéristiques des personnes déjà employées, limitant ainsi la diversité et aggravant les discriminations liées à l’âge ou aux origines sociales, ethniques et géographiques (etc.) ». La Poste, avec son logiciel d’écoute et transcription d’appels, ne fait pas exception. Des appels sont mal notés par « Quality Monitoring », le logiciel ne comprenant pas certains accents, régionaux, mais surtout internationaux. Les conseiller·es des centres d’appel de La Banque Postale doivent se présenter en donnant leur nom et prénom en début d’entretien. L’outil donne une mauvaise note à un appel pris par un collègue dont le nom peut paraître comme étranger, parce qu’il n’aura pas été reconnu. Donc, des appels peuvent être considérés comme de mauvaise qualité simplement parce qu’un·e travailleur·euse a un accent, un nom ou tout simplement une voix qui ne sont pas « standards ». Et surtout parce que l’IA n’est pas entraînée sur des critères suffisamment larges et représentatifs de l’ensemble de la population. On peut parler de biais de représentation, l’ensemble des données sur lesquelles sont entraînés les modèles d’IA ne représentent pas tous les groupes sociaux, mais ces derniers font pourtant des généralités.
Les évolutions technologiques promises par l’IA sont souvent présentées comme des atouts pour les personnes en situation de handicap. En effet, l’intelligence artificielle peut apporter des améliorations à la vie des personnes en situation de handicap : outils de transcription des conversations pour les personnes sourdes ou malentendantes, logiciels de description d’images pour les personnes aveugles ou malvoyantes, aides à la rédaction pour les personnes neuroatypiques ou encore les exosquelettes… Pour autant, cela ne doit pas nous faire oublier les effets discriminants trop présents dans ces technologies, qui intègrent des préjugés validistes et âgistes. Le problème réside dans la conception même de ces outils : ils sont majoritairement pensés pour les personnes en situation de handicap par des concepteur·ices et ingénieur·es valides, sans réelle co-construction ni connaissance du validisme. Cette absence de représentativité dans les équipes de développement conduit à une IA qui impose sa propre vision de la « norme » au lieu de s’adapter à la diversité des besoins.
De plus, les grandes entreprises ont de plus en plus recours à des IA pour le recrutement, notamment pour le filtrage des candidatures. Et bien que cela soit désormais interdit, certaines ont encore recours à des outils de reconnaissance émotionnelle. Ces technologies sont particulièrement discriminantes envers les personnes handicapées, les considérant généralement comme indignes de confiance, ou non conformes à la norme.
Les différentes oppressions que l’IA alimente et exacerbe ne sont pas des phénomènes isolés, mais elles se combinent et se renforcent quand elles concernent une même personne. On peut donc parler de discriminations intersectionnelles.
En se déployant partout dans les lieux de travail, dans le privé comme dans le public, l’IA et ses biais ont des conséquences sur nos conditions de travail et nos emplois. Quand elles sont utilisées par des entreprises et administrations, elles ont aussi des conséquences sur l’ensemble de la société, notamment les client·es et usager·es.
En la matière, les exemples de discriminations sont nombreux. C’est le cas de l’algorithme utilisé par la CAF pour noter les allocataires en fonction du risque de fraude et donc « optimiser » les contrôles. Les critères retenus comme négatifs sont, par exemple, le fait de percevoir une allocation d’adulte handicapé, avoir été veuf·ve, divorcé·e ou séparé·e avec un changement depuis… Le fait d’avoir un haut revenu est un critère positif. Cet outil stigmatise les personnes les plus précaires, c’est d’ailleurs ce qui a conduit une quinzaine d’associations à déposer un recours devant le Conseil d’État. Dans son ouvrage « Les algorithmes contre la société », Hubert Guillaud constate que les contrôles s’exercent sur les populations les plus stigmatisées : bénéficiaires du Revenu de Solidarité Active (RSA), de l’Allocation Adulte Handicapé (AAH) ou de l’Allocation de Soutien Familial (ASF) destinée aux parents isolés. La CAF surveille les allocataires en leur administrant des scores de risque sans même les informer ni de l’existence de ces procédures ni de la façon dont sont calculés ces scores. Ces scores sont constitués à partir d’une trentaine de variables dont certaines sont liées directement à la précarité, comme le fait d’avoir un revenu variable, le système de contrôle concentre ainsi ses effets sur les bénéficiaires dont les ressources sont les plus fluctuantes : intermittent·es du spectacle, intérimaires…
Un système comme Parcoursup est lui aussi très critiquable, étant donné son opacité. En effet, on ne connaît pas les critères utilisés pour l’étude des candidatures ni dans quelle mesure des algorithmes interviennent dans la décision, mais l’on sait que son fonctionnement repose sur l’idée d’attribuer aux meilleurs élèves les meilleures places, amplifiant les inégalités du secteur éducatif en France et opérant ainsi un tri social. Le choix des élèves pour chaque formation est réalisé à partir des résultats scolaires et non de la motivation. Parcoursup est désormais classé comme un « système à haut risque » par l’AI Act et devra donc se conformer à des obligations accrues de transparence… mais pas avant août 2027 !
Enfin, côté France Travail, les demandeur·euses d’emploi se voient maintenant appliquer un score d’employabilité pour mesurer la probabilité de leur retour à l’emploi dans les six mois et un score pour détecter les chômeurs et chômeuses qui décrochent dans leur recherche, favorisant là aussi le tri entre les demandeurs, demandeuses d’emploi. On constate que les chômeurs et chômeuses qui n’ont pas travaillé depuis plus d’un an sont plus contrôlé·es que celles et ceux qui envisagent de créer leur entreprise.
Les outils de scoring intègrent désormais de l’IA de manière très courante, notamment dans les outils d’aide à la décision en matière de souscription de crédits ou d’assurances. Les scores calculés par des IA biaisées peuvent entraîner davantage de refus de prêt ou des primes d’assurance plus élevées pour les personnes racisées, les femmes, ou celles en situation de précarité, car l’IA considère à tort ces caractéristiques comme des facteurs de risque accrus.
C’est aussi le cas avec l’analyse de l’adresse postale. Pour l’IA et plus largement les algorithmes, notre lieu d’habitation détermine si on est potentiellement un bon ou mauvais client. Ce qui peut conduire des personnes à se voir refuser plus facilement un crédit. Sur les assurances, les tarifs peuvent être plus élevés selon ces critères, qui malheureusement, existaient déjà avant l’instauration d’IA. Cette dernière va les renforcer.
Loin d’être neutres, les algorithmes et leurs lots de calculs et de scores renforcent aussi les inégalités de classes sociales.
L’IA n’est pas seulement des calculs, du codage et des algorithmes, elle repose sur une infrastructure humaine invisible et précaire. Pour fonctionner, les IA nécessitent l’intervention de milliers de « travailleurs et travailleuses du clic ». Ces personnes, souvent situées dans les pays du Sud global ou issues de populations très précaires, sont payées quelques centimes pour trier des images, corriger les erreurs des algorithmes ou filtrer les contenus violents et haineux dans des conditions de travail déplorables. Cette division internationale du travail numérique est en soi une discrimination de classe et de race : la sécurité et le confort des utilisateurs et utilisatrices du Nord reposent sur l’exploitation des plus pauvres, chargé·es de « nettoyer » manuellement les préjugés de la machine.
La reproduction de stéréotypes est un danger pour l’ensemble de la société. En brassant des milliers de données, les systèmes d’intelligence artificielle agissement comme une loupe qui grossit les discriminations. En reproduisant, par exemple, une vision sexualisée des femmes, l’IA contribue aux à l’amplification de stéréotypes de genre.
Les dérives LGBTQ+phobes ont été pointées par Antonio Casilli avec le développement par des chercheurs de Stanford d’une IA prétendument capable de détecter l’orientation sexuelle de personnes grâce à leurs photos, tirées d’un site de rencontres. Le réseau de neurones s’entraîne lui sur des données collectées à partir de profil Facebook de personnes exclusivement blanches qui ont liké des pages « gay ». Pour Antonio Casilli : « L’étude traduit une vision hétéronormative, qui n’admet pas de situations intermédiaires de l’identité sexuelle ». Dans cette étude, tous les stéréotypes et discriminations y passent ! Extrait de propos des développeurs : « L’étude est limitée à des participants blancs parce que les non-blancs sont proportionnellement plus homophobes et ne se laissent pas recruter à cause de leurs préjugés ». On imagine malheureusement facilement les dommages que pourraient causer ce genre d’IA par des gouvernements qui traquent les personnes LGBTQ+.
Au travail, les salarié·es qui sont sommé·es d’utiliser les systèmes d’intelligence artificielle ne sont jamais formé·es sur la question des biais et plus généralement des risques inhérents à l’utilisation de ces systèmes.
Ce sont les entreprises qui financent et conçoivent ces systèmes d’IA qui encodent/embarquent, parfois volontairement, nombre de stéréotypes et de préjugés racistes, liés au genre, au handicap, à l’âge, à la précarité, ou à toute autre caractéristique sociale, et qui, trop souvent, ne font rien pour corriger ces biais.
Cette motion d’actualité a été votée à la suite du 7e congrès du SUNDEP Solidaires qui s’est déroulé en décembre 2025 à Lille.
Nous appelons à ce que les droits des mineur·es non accompagné·es, sur tout le territoire français, soient respectés.
Nous continuerons à lutter partout où ce ne sera pas le cas.
VIEW ONLINE: sur le site du SUNDEP Solidaires
Des mineur·es non accompagné·es sur le territoire français n’ont toujours pas accès, de façon pérenne, au logement et à la scolarisation.
Leur minorité est systématiquement examinée et trop souvent remise en question par les autorités : département et/ou rectorat. Ils et elles vivent tout ou partie de l’année dans des conditions inacceptables pour des adolescent·es.
Le SUNDEP Solidaires demande que ces mineur·es non accompagné·es soient scolarisé·es, nourri·es, logé·es, soigné·es et que ces jeunes puissent circuler gratuitement. Nous demandons également que, pour cela, les conseils départementaux et les rectorats appliquent les lois relatives à la protection de l’enfance.
Le SUNDEP Solidaires soutient et soutiendra, dans chaque académie, toutes les actions en faveur de la défense de ces mineur·es non accompagné·es qui sont aussi nos élèves quand ils et elles échappent à la rue.
Nous appelons à ce que leurs droits soient respectés et continuerons à lutter partout où ce ne sera pas le cas.
Ce communiqué a été publié le 05/12/2025
Depuis le printemps dernier, les organisations syndicales FSU, SE-UNSA, CFDT Éducation Formation Recherche Publiques, CGT Éduc’action, SNALC et SUD éducation ont mené une campagne pour que soit enfin mis à l’ordre du jour l’obtention d’un corps de fonctionnaire de catégorie B pour les AESH avec une pétition qui a recueilli à ce jour plus de 83 000 signataires, ce qui démontre le soutien total de toute la communauté éducative et au-delà pour les AESH.
En effet, ces personnels exercent leur métier avec professionnalisme et sont devenu·es un maillon essentiel permettant l’inclusion d’élèves en situation de handicap. Le métier d’AESH est une profession à part entière et les missions pérennes qu’ils et elles exercent ne fait pas débat sur leur nécessité.
La situation à la rentrée 2025 a montré à quel point ce métier souffre d’un manque d’attractivité (multiplication des démissions, licenciements pour inaptitudes, ruptures conventionnelles) et le maintien dans la précarité de ces 140 000 agent·es n’est pas de nature à inverser la tendance.
Il est temps de donner un signal fort ! C’est pourquoi l’intersyndicale FSU, SE-UNSA, CFDT Éducation Formation Recherche Publiques, CGT Éduc’action, SNALC et SUD éducation poursuit la campagne pour la création d’un corps de fonctionnaire de catégorie B pour les AESH aussi bien au niveau national qu’au plus près des lieux de travail.
Une demande d’audience a été adressée aux ministres employeurs : le ministre de l’Éducation nationale et de l’agriculture, pour porter la pétition, et les parlementaires ont reçu un argumentaire sur la création d’un corps de fonctionnaire de catégorie B pour les AESH.
L’intersyndicale appelle l’ensemble des AESH et des personnels de l’éducation à se mobiliser dans les départements pendant la semaine du 15 au 19 décembre, et plus particulièrement le 16 décembre, jour du Comité Social d’Administration ministériel consacré au budget.
Ensemble, pour revendiquer la création d’un corps de fonctionnaire de catégorie B pour les AESH, chacun et chacune est invité à participer aux mobilisations décidées par les intersyndicales locales : rassemblements, heure d’information syndicale, grève…
Cet article a été publié le 10/10/2025Au moins deux femmes sur cinq affirment avoir subi des violences sexistes ou sexuelles au travail (VSST) et une femme sur cinq déclare avoir subi des comportements à caractère sexuel sur son lieu de travail (enquête Genese 2021). Au sein du ministère de l’Education nationale et de l’Enseignement Supérieur et de la Recherche (ESR), ces chiffres sont sans doute encore loin de l’ampleur des VSST : dans une enquête réalisée par SUD éducation en 2024, 60% des sondé·es affirmaient avoir déjà été victimes de VSST.
Qu’est ce que la protection fonctionnelle ?
C’est une protection organisée par la collectivité publique dûe à l’agent·e public·que en raison de ses fonctions. Cette protection s’applique lorsque l’agent·e est victime de violences, d’agissements constitutifs de harcèlement, de menaces, d’injures, de diffamations ou d’outrages à l’occasion de l’exercice de ses fonctions.
Livres et ressources vidéos : – Primaire : Mai Lan Chapiron, Le loup, La Martinière jeunesse, 2021, Paris Les vidéos disponibles sur le même ouvrage sur Youtube – Collège : Juliette Boutant et Thomas Mathieu, Les crocodiles sont toujours là : témoignages d’agressions et de harcèlement sexistes et sexuels, Casterman, 2019, Paris Pénélope Bagieu, Les Culottées, Gallimard, 2016, Paris
– Lycée : Margaret Atwood, La servante écarlate, Robert Laffont, 1985, Paris La série H24 disponible sur Arte Jeux :
Le jeu de rôle du consentement, “Sexploration” Un jeu coopératif pour aborder des situations de sexisme, “Moi c’est madame, la relève” Les expositions, campagnes, kits du Centre Hubertine Auclert.
Les femmes en situation de handicap sont deux fois plus souvent victimes de violences que les femmes valides. Alors que Macron déclarait tout aussi bien la cause des femmes que celle du handicap grandes causes du quinquennat, il n’en a rien été. Les grandes proclamations n’ont jamais été suivies d’actes, moyens budgétaires à l’appui, bien au contraire. Les plus précaires, les plus vulnérables sont laissé·es pour compte. Les violences des femmes en situation de handicap sont restées dans l’oubli.
Et la violence subie par les femmes en situation de handicap n’est pas uniquement physique. Elle peut prendre de multiples formes : violence verbale, sexuelle, psychologique, économique, conjugale ou institutionnelle, administrative, médicale, cyber-violence…
Les femmes en situation de handicap sont plus vulnérables face aux violences : très souvent elles dépendent de leur agresseur économiquement, mais aussi parce que celui-ci agit sous le statut d’aidant, créant une double emprise ! Si, de manière générale, les femmes connaissent leur agresseur, cette réalité est exacerbée pour les femmes en situation de handicap : les auteurs de violence sont, plus fréquemment encore qu’ailleurs, un proche ou un professionnel dont elles dépendent entièrement. La parole des femmes en situation de handicap est peu prise en compte et mise en doute : trois fois plus de refus de plainte ou d’écoute de l’entourage (proches ou institutions) par rapport à l’ensemble des femmes. Comme le déclare la Convention des Nations Unies relative aux droits des personnes handicapées de 2006, les droits des femmes en situation de handicap doivent être reconnus et des mesures prises pour prévenir et lutter contre toute forme de violence à leur encontre.
Ses conséquences sont graves aussi pour les femmes en situation de handicap : réduction des subventions aux associations, essentielles aux personnes en situation de handicap. C’est aussi moins d’aide aux femmes en situation de handicap qui subissent des violences, et moins de ressources pour leur rendre leur autonomie, avec le gel des prestations sociales dont l’AAH (allocation adulte handicapé) dont le montant est pourtant déjà inférieur au seuil de pauvreté. C’est sans compter la quasi-absence de financement de la branche autonomie de la sécurité sociale créée en 2020, véritable trompe l’œil.
