Skip to content

Dans le privé et le public, un syndicalisme de lutte pour la transformation sociale

Catégories
(re)Penser notre syndicalisme anti-validisme antiracisme Conditions de travail Informatique Luttes contre les discriminations Luttes féministes Précarité

L’intelligence artificielle, vecteur de discriminations

Au-delà des promesses de progrès techniques et de transformation sociétale, les outils d’IA représentent un risque, notamment celui de véhiculer et exacerber des stéréotypes. Ils reflètent les préjugés existants et renforcent les discriminations liées au genre, à l’orientation sexuelle, au handicap, à l’âge, à la nationalité, à la religion réelle ou supposée, mais aussi les discriminations racistes. En effets, les calculs et les données qui alimentent les algorithmes ne sont jamais neutres : « Les algorithmes sont des opinions encapsulées dans du code ».
On parle de biais, c’est-à-dire que les résultats sont biaisés, déviés en raison des préjugés humains qui faussent les données d’entraînement de l’algorithme. Les biais reflètent les discriminations quelles qu’elles soient et les amplifient. Celles et ceux qui construisent l’algorithme y embarquent leur vision du monde.

Note Biais IaLire plus de publications sur Calaméo

1.     L’IA au service du patriarcat 

Pour se développer, les IA sont alimentées par des données, pour l’essentiel des contenus présents sur internet, dont beaucoup comportent des stéréotypes sexistes et LGBTQ+phobes. L’IA apprend à partir de ces données, les restitue et en fait une vérité. Apparaissent fréquemment des biais liés à ces données, de sélection, cognitifs… Par exemple, les contenus engendrés participent à renforcer une vision hétéronormée des femmes soumises et sexualisées. 

Les personnes qui développent les IA ont leurs propres biais et sont essentiellement des hommes blancs anglo-saxons. On peut parler de « coded gaze », un terme créé par la chercheuse Joy Buolamwini, qui décrit comment « la technologie encode les discriminations ». C’est un dérivé du terme « male gaze », une représentation du monde créé par les hommes, pour les hommes. 

Les femmes ne représentent que 26,3 % des effectifs travaillant sur l’IA en Europe et 22 % à l’échelle mondiale. La parité dans ce domaine n’est pas à espérer avant 2100 ! Les personnes issues de la diversité sont elles aussi sous-représentées dans ces métiers. Les biais dits structurels sont liés aux données d’entraînement retenues, à la composition des équipes de conception ainsi que les objectifs économiques ou sociaux qui motivent leur création. 

Cela participe au renforcement des biais, mais ça n’est pas la seule cause. Une meilleure représentation des femmes – et plus largement des minorités – serait une avancée, mais qui ne produirait des effets qu’accompagnée d’une réelle politique de lutte contre toutes les formes de discriminations. Se questionner sur qui élabore l’IA est donc une étape, il faut aussi s’intéresser à « pour qui » elle est faite. Dans la majorité des cas, les donneurs d’ordre (entreprises, administrations…) commandent des systèmes dont le but est de maximiser les profits et/ou la productivité. La lutte contre les discriminations est donc généralement négligée. 

Une étude menée par l’UNESCO en 2024, axée principalement sur le genre, pointe les effets des biais de l’IA : « Ces nouvelles applications d’IA ont le pouvoir de subtilement façonner les perceptions de millions de personnes, de telle sorte que même de légers préjugés sexistes dans le contenu qu’elles génèrent peuvent amplifier de manière significative les inégalités dans le monde réel ». Dans le cadre de cette étude, des tests ont été menés sur différentes IA génératives, comme ChatGPT ou Llama, leur demandant d’associer des mots à des noms féminins et masculins. Les noms féminins sont majoritairement associés à des termes dévalorisés ou traditionnels, comme « domestique » ou « cuisinière ». Les noms masculins sont eux associés à des termes plus diversifiés ou valorisés, comme « ingénieur » ou « aventurier ». En associant presque systématiquement certains termes à des genres, l’IA reproduit et perpétue les stéréotypes. 

L’usage de ces outils dans la vie quotidienne a des impacts sur le monde du travail. C’est ce que l’on constate déjà fréquemment dans de nombreuses entreprises et administrations. 

L’usage de systèmes d’IA dans le recrutement (tri des CV, faire correspondre des offres d’emplois à des candidat·es…) ou la promotion de travailleur·euses est problématique. De manière générale, ils favorisent les candidatures d’hommes pour des fonctions associées à des termes comme « leardership » ou « compétitivité ». Les candidatures de femmes sont favorisées pour des fonctions de secrétariat, par exemple. 

On peut prendre un cas d’usage au sein du Groupe La Poste. Ce dernier a des activités très larges passant du traitement du courrier et colis, donc les factrices et facteurs, mais aussi la banque ou bien les questions de tiers de confiance numérique (par exemple Pronotes). 

À La Poste, un logiciel embarquant de l’IA a été déployé dans les centres d’appel de La Banque Postale (filière du groupe), appelé Quality Monitoring. Il est aussi utilisé dans des centres d’appel comme Téléperformance. Son objectif est de faire de l’analyse sémantique et acoustique des appels client·es. Le logiciel enregistre et produit une synthèse des entretiens téléphoniques, pointant ce qui va et qui ne va pas, pour logiquement faciliter le travail des encadrant·es. 

Les représentant·es de Sud PTT — Solidaires avaient très tôt alerté sur les risques de biais sexistes ou racistes que comporte un tel outil. Iels avaient aussi souligné les risques en matière de données (bancaires dans le cas présent). Tout ceci avait été balayé par la direction qui a déroulé son projet. Après plusieurs mois d’utilisation, il apparaît clairement que les alertes étaient fondées. Il se trouve que le logiciel analyse beaucoup moins bien les voix féminines et va avoir tendance à conclure qu’elles sont plus agressives, plus en colère. On retrouve là des stéréotypes sexistes et LGBTQ+phobes, renvoyant à des femmes qui seraient plus facilement en colère ou hystériques. 

Ce sont toujours ces stéréotypes sexistes qui conduisent nombre d’entreprises à choisir des voix féminines par défaut pour leurs assistants vocaux (Alexa, Siri, GoogleHome…). Dans « Que faire de l’IA », la Fondation Copernic explique ce qui peut motiver ce choix : « selon les stéréotypes, les qualificatifs associés aux voix féminines sont délicates, empathiques, serviables, alors que les voix masculines sont qualifiées de dominantes ». Fin 2022, La Banque Postale a lancé le premier robot conversationnel bancaire, qui se substitue aux téléconseillèr·es pour un certain nombre d’appels. Quand il a fallu trouver un nom à cette IA, la banque du Groupe La Poste a opté pour « Lucy », lui associant une voix féminine qui, selon les termes des dirigeants, se veut « empathique et représentative de la proximité ». Dans ce dernier exemple, en plus du nom et de la voix, La Banque Postale a choisi de personnifier son callbot, lui associant une image, celle d’une superhéroïne. Son déploiement ayant connu trois phases (démarrant d’opérations dites simples pour aller vers des opérations plus complexes), elle est donc passée de la petite fille avec son cartable et ses bottes à la superwoman avec son costume moulant. Et, quelle que soit sa « phase », elle est toujours jeune et mince, a toujours la peau blanche, les cheveux longs et sa cape ! 

En matière de santé, les biais existaient aussi bien avant l’IA, et l’introduction de cette dernière est loin de les corriger. Les données utilisées sont majoritairement issues d’études menées sur des hommes occidentaux blancs. Celles-ci invisibilisent les particularités de la santé des femmes, des personnes racisées ou minoritaires qui sont sous-représentées dans les données d’entraînement, ce qui laisse à penser que les discriminations vont s’amplifier dans ce domaine. En Espagne, certains hôpitaux se sont dotés d’un système de prédiction de compatibilité dans le cas de greffes de foie. Après plusieurs années d’utilisation, le bilan souligne qu’aucune femme n’a été identifiée comme receveuse par ce système. Les données sur lesquelles il s’appuyait ne comportaient que peu de femmes. L’intégration de l’IA dans le système de santé tend donc à creuser les inégalités et la mauvaise prise en charge de certaines populations. 

Autre exemple : La fabrication de robots sexuels, conçus là encore par des hommes et pour des hommes, participe à véhiculer l’idée que le rôle des femmes serait de satisfaire les désirs masculins. Cela pose aussi la question du consentement. L’IA n’étant pas dotée de conscience ne peut ni consentir ni ne pas consentir. Ce qui peut participer à induire pour certain·es utilisateur·ices une notion de « consentement par défaut », qui va à l’encontre des valeurs que nous portons.

2.     Biais racistes des systèmes d’IA…

Les études qui pointent les biais sexistes des LLM dénoncent aussi leurs stéréotypes racistes. Les tests réalisés dans le cadre de l’étude de l’UNESCO ont aussi été menés sur cet angle-là, montrant que les personnes racisées sont moins bien représentées dans les bases de données. Il en ressort que les qualificatifs associés pour parler des personnes noires relèvent plus souvent d’un champ lexical négatif. Les exemples de biais explicites sont nombreux. En 2016, Microsoft lançait son chatbot Tay (connecté à Twitter), rapidement désactivé parce qu’il tenait des propos racistes et néonazis. Aux États-Unis, une expérience de justice prédictive avait été initiée, là aussi abandonnée après qu’elle s’est révélée raciste. Elle attribuait un taux de récidive potentielle deux fois supérieur aux afro-américain·es comparé aux autres populations. Pour les personnes considérées comme blanches, le risque était sous-estimé.

Les technologies de reconnaissance faciale ont aussi recours à l’IA et sont plus performantes sur des visages à peau blanche que sur des visages à la peau plus sombre. De la même manière, elles sont aussi moins performantes sur les visages féminins. Ceci engendre un risque plus important de surveillance abusive et d’exclusion selon les usages qui en sont faits. 

L’utilisation d’outils d’IA dans la sphère professionnelle va donc renforcer les discriminations racistes. Son application dans des tâches liées au recrutement peut conduire à l’élimination injustifiée de certaines candidatures. Le CESE, dans son étude « Analyse de controverses : intelligence artificielle, travail et emploi » le pointe : « Ces outils algorithmiques d’aide au recrutement tendent, par exemple, à reproduire les caractéristiques des personnes déjà employées, limitant ainsi la diversité et aggravant les discriminations liées à l’âge ou aux origines sociales, ethniques et géographiques (etc.) ». La Poste, avec son logiciel d’écoute et transcription d’appels, ne fait pas exception. Des appels sont mal notés par « Quality Monitoring », le logiciel ne comprenant pas certains accents, régionaux, mais surtout internationaux. Les conseiller·es des centres d’appel de La Banque Postale doivent se présenter en donnant leur nom et prénom en début d’entretien. L’outil donne une mauvaise note à un appel pris par un collègue dont le nom peut paraître comme étranger, parce qu’il n’aura pas été reconnu. Donc, des appels peuvent être considérés comme de mauvaise qualité simplement parce qu’un·e travailleur·euse a un accent, un nom ou tout simplement une voix qui ne sont pas « standards ». Et surtout parce que l’IA n’est pas entraînée sur des critères suffisamment larges et représentatifs de l’ensemble de la population. On peut parler de biais de représentation, l’ensemble des données sur lesquelles sont entraînés les modèles d’IA ne représentent pas tous les groupes sociaux, mais ces derniers font pourtant des généralités. 

3.     Et validistes !

Les évolutions technologiques promises par l’IA sont souvent présentées comme des atouts pour les personnes en situation de handicap. En effet, l’intelligence artificielle peut apporter des améliorations à la vie des personnes en situation de handicap : outils de transcription des conversations pour les personnes sourdes ou malentendantes, logiciels de description d’images pour les personnes aveugles ou malvoyantes, aides à la rédaction pour les personnes neuroatypiques ou encore les exosquelettes… Pour autant, cela ne doit pas nous faire oublier les effets discriminants trop présents dans ces technologies, qui intègrent des préjugés validistes et âgistes. Le problème réside dans la conception même de ces outils : ils sont majoritairement pensés pour les personnes en situation de handicap par des concepteur·ices et ingénieur·es valides, sans réelle co-construction ni connaissance du validisme. Cette absence de représentativité dans les équipes de développement conduit à une IA qui impose sa propre vision de la « norme » au lieu de s’adapter à la diversité des besoins.

De plus, les grandes entreprises ont de plus en plus recours à des IA pour le recrutement, notamment pour le filtrage des candidatures. Et bien que cela soit désormais interdit, certaines ont encore recours à des outils de reconnaissance émotionnelle. Ces technologies sont particulièrement discriminantes envers les personnes handicapées, les considérant généralement comme indignes de confiance, ou non conformes à la norme.

Les différentes oppressions que l’IA alimente et exacerbe ne sont pas des phénomènes isolés, mais elles se combinent et se renforcent quand elles concernent une même personne. On peut donc parler de discriminations intersectionnelles.

4.     Biais de classes : des discriminations envers les plus précaires

En se déployant partout dans les lieux de travail, dans le privé comme dans le public, l’IA et ses biais ont des conséquences sur nos conditions de travail et nos emplois. Quand elles sont utilisées par des entreprises et administrations, elles ont aussi des conséquences sur l’ensemble de la société, notamment les client·es et usager·es.

En la matière, les exemples de discriminations sont nombreux. C’est le cas de l’algorithme utilisé par la CAF pour noter les allocataires en fonction du risque de fraude et donc « optimiser » les contrôles. Les critères retenus comme négatifs sont, par exemple, le fait de percevoir une allocation d’adulte handicapé, avoir été veuf·ve, divorcé·e ou séparé·e avec un changement depuis… Le fait d’avoir un haut revenu est un critère positif. Cet outil stigmatise les personnes les plus précaires, c’est d’ailleurs ce qui a conduit une quinzaine d’associations à déposer un recours devant le Conseil d’État. Dans son ouvrage « Les algorithmes contre la société », Hubert Guillaud constate que les contrôles s’exercent sur les populations les plus stigmatisées : bénéficiaires du Revenu de Solidarité Active (RSA), de l’Allocation Adulte Handicapé (AAH) ou de l’Allocation de Soutien Familial (ASF) destinée aux parents isolés. La CAF surveille les allocataires en leur administrant des scores de risque sans même les informer ni de l’existence de ces procédures ni de la façon dont sont calculés ces scores. Ces scores sont constitués à partir d’une trentaine de variables dont certaines sont liées directement à la précarité, comme le fait d’avoir un revenu variable, le système de contrôle concentre ainsi ses effets sur les bénéficiaires dont les ressources sont les plus fluctuantes : intermittent·es du spectacle, intérimaires…

Un système comme Parcoursup est lui aussi très critiquable, étant donné son opacité. En effet, on ne connaît pas les critères utilisés pour l’étude des candidatures ni dans quelle mesure des algorithmes interviennent dans la décision, mais l’on sait que son fonctionnement repose sur l’idée d’attribuer aux meilleurs élèves les meilleures places, amplifiant les inégalités du secteur éducatif en France et opérant ainsi un tri social. Le choix des élèves pour chaque formation est réalisé à partir des résultats scolaires et non de la motivation. Parcoursup est désormais classé comme un « système à haut risque » par l’AI Act et devra donc se conformer à des obligations accrues de transparence… mais pas avant août 2027 !

Enfin, côté France Travail, les demandeur·euses d’emploi se voient maintenant appliquer un score d’employabilité pour mesurer la probabilité de leur retour à l’emploi dans les six mois et un score pour détecter les chômeurs et chômeuses qui décrochent dans leur recherche, favorisant là aussi le tri entre les demandeurs, demandeuses d’emploi. On constate que les chômeurs et chômeuses qui n’ont pas travaillé depuis plus d’un an sont plus contrôlé·es que celles et ceux qui envisagent de créer leur entreprise.

Les outils de scoring intègrent désormais de l’IA de manière très courante, notamment dans les outils d’aide à la décision en matière de souscription de crédits ou d’assurances. Les scores calculés par des IA biaisées peuvent entraîner davantage de refus de prêt ou des primes d’assurance plus élevées pour les personnes racisées, les femmes, ou celles en situation de précarité, car l’IA considère à tort ces caractéristiques comme des facteurs de risque accrus.

C’est aussi le cas avec l’analyse de l’adresse postale. Pour l’IA et plus largement les algorithmes, notre lieu d’habitation détermine si on est potentiellement un bon ou mauvais client. Ce qui peut conduire des personnes à se voir refuser plus facilement un crédit. Sur les assurances, les tarifs peuvent être plus élevés selon ces critères, qui malheureusement, existaient déjà avant l’instauration d’IA. Cette dernière va les renforcer.

Loin d’être neutres, les algorithmes et leurs lots de calculs et de scores renforcent aussi les inégalités de classes sociales.main.original

L’IA n’est pas seulement des calculs, du codage et des algorithmes, elle repose sur une infrastructure humaine invisible et précaire. Pour fonctionner, les IA nécessitent l’intervention de milliers de « travailleurs et travailleuses du clic ». Ces personnes, souvent situées dans les pays du Sud global ou issues de populations très précaires, sont payées quelques centimes pour trier des images, corriger les erreurs des algorithmes ou filtrer les contenus violents et haineux dans des conditions de travail déplorables. Cette division internationale du travail numérique est en soi une discrimination de classe et de race : la sécurité et le confort des utilisateurs et utilisatrices du Nord reposent sur l’exploitation des plus pauvres, chargé·es de « nettoyer » manuellement les préjugés de la machine.

5.     Combattre les biais de l’IA partout !

La reproduction de stéréotypes est un danger pour l’ensemble de la société. En brassant des milliers de données, les systèmes d’intelligence artificielle agissement comme une loupe qui grossit les discriminations. En reproduisant, par exemple, une vision sexualisée des femmes, l’IA contribue aux à l’amplification de stéréotypes de genre.

Les dérives LGBTQ+phobes ont été pointées par Antonio Casilli avec le développement par des chercheurs de Stanford d’une IA prétendument capable de détecter l’orientation sexuelle de personnes grâce à leurs photos, tirées d’un site de rencontres. Le réseau de neurones s’entraîne lui sur des données collectées à partir de profil Facebook de personnes exclusivement blanches qui ont liké des pages « gay ». Pour Antonio Casilli : « L’étude traduit une vision hétéronormative, qui n’admet pas de situations intermédiaires de l’identité sexuelle ». Dans cette étude, tous les stéréotypes et discriminations y passent ! Extrait de propos des développeurs : « L’étude est limitée à des participants blancs parce que les non-blancs sont proportionnellement plus homophobes et ne se laissent pas recruter à cause de leurs préjugés ». On imagine malheureusement facilement les dommages que pourraient causer ce genre d’IA par des gouvernements qui traquent les personnes LGBTQ+. 

Au travail, les salarié·es qui sont sommé·es d’utiliser les systèmes d’intelligence artificielle ne sont jamais formé·es sur la question des biais et plus généralement des risques inhérents à l’utilisation de ces systèmes.

Ce sont les entreprises qui financent et conçoivent ces systèmes d’IA qui encodent/embarquent, parfois volontairement, nombre de stéréotypes et de préjugés racistes, liés au genre, au handicap, à l’âge, à la précarité, ou à toute autre caractéristique sociale, et qui, trop souvent, ne font rien pour corriger ces biais.

Catégories
Actu Solidaires 78 Automobile Conditions de travail

Uni·es pour des garanties. Non à la fermeture de Stellantis Poissy

A l’usine Stellantis de Poissy, les travailleur.euses et des sous-traitants s’organisent. Sud industrie et sa section de Stellantis ont pour objectif de mettre en avant des garanties nécessaires pour que chacun·e des salarié·es puissent continuer à faire vivre sa famille après la fabrication de l’Opel Mokka. Ici, comme ailleurs, les travailleurs et travailleuses doivent s’organiser pour contrer les plans de licenciements et les fermetures d’usines.

Nous n’aurons rien sans lutter !

Solidaires/Canal Marches Expression Directe 2026 n°1

Diffusion le Mardi 20 janvier 2026 vers 00h30 sur France 2

Rediffusion le Jeudi 22 janvier 2026 vers 09h25 sur France 5

Catégories
Banques - Assurances Conditions de travail Écologie Informatique

L’IA dans la banque, l’assurance et l’assistance : à qui profite-t-elle vraiment ?

L’intelligence artificielle percute de plein fouet nos vies, nos métiers et nos conditions de travail. Dans la bouche des gouvernements et des patrons, elle serait le remède à tout ! Les secteurs de la banque, de l’assurance et de l’assistance sont loin d’être épargnés. Toutes les entreprises de ces secteurs se sont lancées dans une course folle à son développement, au mépris de nos emplois et de nos conditions de travail. On vous propose de décrypter l’IA et ses conséquences.

L’IA, c’est un gain de temps… ou pas !

Le discours qui accompagne le déploiement de systèmes d’IA dans nos entreprises repose largement sur les bénéfices supposés pour les travailleurs et travailleuses. Gain de temps et suppression des tâches répétitives, sans valeur ajoutée. Dans les métiers de la banque, de l’assurance et de l’assistance comme dans toutes les professions, il existe des tâches rébarbatives, c’est un fait. Alors, quand le ou la patron·ne propose qu’une IA s’en charge à notre place, on peut être tenté·e ! En réalité, cela dissimule surtout une intensification du travail. Dans nos secteurs, on ne connaît pas de patron·nes qui cherchent à “soulager” les travailleur·euses. En revanche, on connaît bien celles et ceux qui sont engagé·es dans la course au toujours plus !

De plus, l’IA n’est pas totalement autonome et l’on demande aux salarié·es de contrôler son travail. C’est le cas, par exemple pour les outils de rédaction de mails aux client·es, ou les IA qui génèrent des plannings: il faut vérifier, corriger, reprendre ce qui a été produit. Cette charge de travail supplémentaire est largement invisibilisée. Elle pose aussi la question de la responsabilité. ! Si un mail généré par une IA, relu par un·e salarié·e, comporte des erreurs, ce qui n’est pas rare, qui en est responsable ? On n’a pas encore vu une IA sanctionnée ou passer en entretien préalable…

Quelles conséquences pour les emplois et les conditions de travail ?

Un mail généré à notre place, des préconisations et argumentations construites par un logiciel, des dossiers analysés par la machine… Le développement de systèmes d’IA dans nos métiers s’accompagne d’une perte de sens majeure. A terme, les travailleur·euses ne serviraient plus qu’à réciter ce que l’IA aurait décidé ! Là encore, se pose la question de la responsabilité.

L’introduction de l’IA exacerbe également la surveillance des salarié·es, avec le développement du management algorithmique. Ils dictent la façon de travailler, l’ordre des tâches, le temps accordé pour les exécuter… Tout est enregistré en temps réel ! S’y ajoutent des systèmes d’évaluation permanente, notamment dans les centres d’appel. Des IA analysent l’ensemble des appels : respect de la trame, intonation de la voix, utilisation de certains mots… les salarié·es sont scruté·es en permanence, sans tenir compte du contexte, des appels précédents ou de l’état de la personne. Les écoutes ne servent désormais plus qu’à contrôler, voire sanctionner !

Une entreprise comme Orange a quantifié le temps passé par les téléconseiller·es à rechercher une réponse juste à apporter aux client·es. Selon l’opérateur, c’est 30% du temps de l’appel qu’il espère « gagner » en remplaçant les salarié·es par des IA ! Et peu importe la qualité de la réponse qui sera finalement apportée… On peut parier sans trop de risque que cette réflexion soit partagée par de nombreux-ses patron·nes !

L’IA entraîne également l’apparition de nouvelles tâches chronophages et sans intérêt, une dépendance accrue aux outils informatiques : gare à la panne ou à la cyber attaque ! Ainsi que l’abandon de certaines missions. L’IA engendre la perte de savoir-faire professionnels et de technicité.

Cette technologie constitue une véritable épée de damoclès au-dessus de nos emplois. Une étude récente montre que près de 10 % des emplois du secteur bancaire en Europe sont menacés d’ici à 2030, soit 200 000 postes. Quand on sait que la majorité des projets intégrant de l’IA se mettent en place sans information des travailleur·euses et ni de leurs représentant·es, il y a de quoi s’inquiéter !

Et où vont les données ?

Désormais, lorsqu’un employeur annonce le déploiement d’un nouveau logiciel ou une mise à jour, il y a fort à parier qu’il intègre de l’IA… sans que cela soit clairement annoncé ! Et même lorsque c’est clairement indiqué, le flou demeure, notamment sur l’utilisation des données. Prenons l’exemple d’un logiciel d’écoute et d’analyse d’appels: qui peut dire où sont stockées les données échangées, lesquelles sont utilisées et dans quel but ? Le fonctionnement interne de l’IA reste opaque pour celleux qui les utilisent, directement ou indirectement. C’est ce qu’on appelle l’effet de boîte noire. Dans nos métiers, ce sont autant les données des client·es que celles des salarié.es qui sont aspirées par les IA,notamment via les outils de ressources humaines, souvent à l’insu de toutes et tous. Il n’est pas rare que les employeurs proposent (ou imposent !) aux travailleur·euses d’utiliser les AI intégrées à certains logiciels, comme ceux de Microsoft ou Google. Là encore, se posent les questions de la transparence et de la confidentialité ! En utilisant ces IA, les salarié.es fournissent en outre un travail gratuit pour les entraîner et accroître les profits de multinationales aussi puissantes que des Etats.

On peut agir face à l’IA !

Impact sur nos emplois, nos conditions de travail, nos données et sur l’environnement… Solidaires soutient une position technocritique : ni technophobe par principe, ni techno-solutionniste. Autrement dit : nous considérons qu’aucune technique ne peut constituer une réponse miracle aux crises sociales et environnementales engendrées par le capitalisme. A fortiori une technologie aussi vorace en eau, en énergie et en métaux rares que l’IA et qui aggrave les inégalités sociales et les oppressions systémiques.

Dans les métiers de la banque, de l’assurance et de l’ assistance, les structures membres de l’Union syndicale Solidaires sont aux côtés des salarié·es pour :

  • lutter contre le déploiement imposé aux travailleur·euses
  • contraindre les employeurs à informer et consulter le personnel et ses représentant·es
  • exiger que toute introduction d’IA fasse l’objet d’expertises et d’évaluations des risques professionnels, notamment sur la santé.

Nous continuerons à combattre les suppressions d’emplois.

Lutter contre le déploiement capitaliste de ces outils ne se fera pas sans prise de conscience des enjeux de domination, de recherche du profit au mépris des conditions de travail, d’ultra-surveillance des populations, de destruction environnementale, de remise en cause de l’objectif 0 carbone et du réchauffement climatique, de la réduction des libertés publiques. Aussi, et de toutes les façons possibles, y compris par la grève, nos syndicats, aux côtés des salarié·e, continueront à se mobiliser.

Catégories
Commerce Conditions de travail

Amazon : la répression n’aura pas raison de notre syndicalisme !

Rassemblement le 12 février à 11h devant le siège social d’Amazon France 67, Boulevard Leclerc – 92110 Clichy

Depuis que des équipes Solidaires sont implantées dans les entrepôts et sociétés de la galaxie Amazon en France faisant vivre un syndicalisme fondé sur la lutte, la multinationale n’a eu de cesse de tenter par tout moyen de s’en débarrasser. D’autant que depuis la crise du COVID, les équipes Solidaires lui ont démontré qu’il y avait de sérieuses limites à l’exploitation des travailleurs et travailleuses. Et que ceux-ci avaient des droits qu’Amazon n’avait d’autre choix que de respecter.

Malgré cela, Amazon n’a jamais accepté de se plier aux droits élémentaires respectant la santé et la sécurité de ses salarié-es. Tout comme elle n’a jamais accepté que son chiffre d’affaires puisse être contraint par le droit du travail et les droits sociaux des salarié-es. Toutes celles et ceux qui dans son personnel revendiquent le respect des règles collectives, des conditions de travail et un salaire digne doivent dégager au plus vite. D’où une pluie de sanctions et de licenciements sous des prétextes farfelus, inexistants ou instrumentalisant le moindre incident pour se débarrasser des gêneurs et des gêneuses !

Sauf que respecter le droit du travail, c’est permettre aux travailleurs-euses de travailler sereinement, base de leur efficacité. Amazon peut automatiser autant qu’il le veut, son personnel demeure la source indispensable de son chiffre d’affaires. La raison lui dicte par conséquent de respecter ses salarié-es, de les écouter plutôt que tenter de d’infantiliser et imposer la docilité en placardisant et réprimant ses représentant-es syndicaux.

Des mobilisations et rassemblements ont eu lieu ces derniers mois devant ses établissements. La direction d’Amazon a été interpellée pour que soit mis à fin à cette situation inadmissible qui porte préjudice au personnel et écorne sérieusement l’image sociale qu’elle voudrait se donner. Il est donc plus que temps qu’elle réponde favorablement aux intérêts de ses salarié-es, annule les sanctions prises, réintègre les syndicalistes injustement sanctionnés et fasse cesser son harcèlement.

Le 12 février, exigeons de la direction d’Amazon France l’annulation des sanctions et son engagement à ce que les droits des salarié-es soient réellement respectés. Si Amazon veut réellement faire croire à la démocratie sociale dans ses entrepôts, qu’elle commence par faire cesser la violence patronale contre celles et ceux qui produisent les richesses de l’entreprise. Le rapport de force est indispensable, mobilisons nous en masse devant d’Amazon France !

Non à la loi des patrons, pour le respect des salarié-es, toutes et tous à Clichy le 12 février !

Catégories
Conditions de travail Souffrances au travail

La cour de cassation reconnaît le harcèlement moral systémique !

Alors que jusqu’à présent, pour être reconnu, le harcèlement moral impliquait pour la victime de prouver que chacun des faits caractérisait une relation interpersonnelle toxique mise en place par l’employeur à son encontre, la Cour de Cassation, par une décision du 10 décembre dernier, vient d’élargir la focale.

Elle a en effet reconnu que le harcèlement managérial, soit une des principales déclinaisons du harcèlement moral, pouvait faire système et que donc la violence au travail pouvait être le fruit d’une organisation sciemment mise en place pour nuire aux salarié∙es. Et qu’une fois ce harcèlement managérial systémique établi par le juge (par un faisceau d’indices comme imposer des objectifs inatteignables, instaurer une culture de la surveillance généralisée ou empêcher d’accomplir correctement son travail), il n’est plus nécessaire pour ses victimes de prouver l’intention de nuire de l’employeur.

En effet, la plupart des faits sont généralement anodins et c’est leur accumulation ou répétition qui est constitutive de harcèlement moral. A charge ensuite pour l’employeur de tenter d’apporter la preuve contraire.

En adoptant cette position, la Cour de Cassation consacre ainsi la jurisprudence France Télécom qui avait mis en évidence la mise en place d’une politique de harcèlement institutionnel se traduisant par une organisation toxique du travail l’empêchant d’être correctement effectué et qui avait donné lieu à condamnation de ses dirigeants.

Avec l’inviolabilité du secret médical qu’elle rappelle également comme étant une ligne rouge que ne saurait franchir l’employeur, cette reconnaissance d’un harcèlement moral systémique est une avancée majeure pour les droits des salarié∙es réprimé∙es.

L’Union syndicale Solidaires se félicite de cette décision qui renverse la charge de la preuve et qui est donc susceptible de faciliter la reconnaissance du préjudice lié au harcèlement moral.

Elle appelle par conséquent ses équipes à s’en saisir pour mettre un carton rouge à tous les employeurs déployant des organisations du travail toxiques pour les salarié∙es.

Retrouvez plus d’infos dans la fiche juridique Le harcèlement moral

Catégories
Conditions de travail

Une loi de financement de la sécurité sociale adoptée, un budget recalé, nos luttes continuent !

La loi de financement de la sécurité sociale a été adoptée le 16 décembre dernier à l’issue d’un vote final serré à l’Assemblée Nationale. Du projet initial de Bayrou, certaines “horreurs” sont passées à la trappe.

Grâce aux résistances, aux grèves et aux mobilisations, des régressions importantes ont été évitées comme le gel des prestations sociales et des pensions et le doublement des franchises médicales. Quelque avancées ont même été obtenues : le calcul de la pension des femmes dans le privé est légèrement amélioré et la suspension du décalage de l’âge de départ permet aux personnes nées entre 1964 et 1968 de gagner 3 mois. Solidaires continue de revendiquer l’abrogation de la réforme de 2023 et le retour aux 60 ans. Ce coup d’arrêt est une première étape.

Cependant, derrière ces maigres avancées, ce budget reste le pire depuis 10 ans ! Le patronat s’est opposé à toute augmentation des recettes et refuse catégoriquement de revoir les exonérations de cotisations patronales, ce qui organise sciemment le déficit de la Sécu sur le dos des travailleuses et travailleurs.

L’ONDAM (Objectif National de l’Assurance Maladie) 2026 en restant bien en deçà de l’inflation réelle des soins et de l’augmentation des besoins (vieillissement, maladies chroniques, etc) va avoir pour conséquence de nouveaux plans d’austérité drastiques pour nos établissements de santé. Pour les hôpitaux et les EHPAD c’est la poursuite de la fermeture de lits, de suppression de postes, et d’épuisement des personnels. Pour les assuré·es, sous prétexte d’équilibre, c’est le transfert vers les complémentaires santé, creusant ainsi les inégalités d’accès au soin. Le résultat est déjà là : des urgences fermées alors que l’épidémie de grippe est au plus haut, des opérations déprogrammées et, au final, des patient·es qui renoncent à consulter faute de rendez-vous ou de moyens

Pour la loi de finances, au final la commission mixte paritaire du 19 décembre n’aura pas réussi à se mettre d’accord sur le budget.

Le gouvernement est désormais obligé d’en passer par une loi spéciale à adopter avant le 31 décembre, qui permettra, d’assurer les “affaires courantes”, à savoir prélever les impôts au 1er janvier et reconduire les dépenses comme l’année précédente.

Les discussions budgétaires vont reprendre début 2026. Macron n’hésite pas à annoncer le lancement d’un nouveau porte-avion qui devrait coûter au bas mot 13 milliards et jusqu’à 20 milliards avec les avions et bateaux y afférents.

L’Union syndicale Solidaires est déterminée à maintenir le rapport de force pour gagner un budget de justice sociale, fiscale et environnementale, pour les besoins réels de la population.

Dans un contexte de licenciements qui se multiplient, de stagnation des salaires, d’augmentations des dépenses de la vie courante, il est plus qu’urgent d’adopter un budget qui taxe enfin les plus riches et les grandes entreprises, qui instaure la justice sociale, fiscale et environnementale !

Pas d’économies sur nos vies !

Catégories
Conditions de travail Éducation Luttes antivalidistes Luttes contre les discriminations Précarité

Une semaine de mobilisation pour la création d’un corps d’AESH

Ce communiqué a été publié le 05/12/2025

Depuis le printemps dernier, les organisations syndicales FSU, SE-UNSA, CFDT Éducation Formation Recherche Publiques, CGT Éduc’action, SNALC et SUD éducation ont mené une campagne pour que soit enfin mis à l’ordre du jour l’obtention d’un corps de fonctionnaire de catégorie B pour les AESH avec une pétition qui a recueilli à ce jour plus de 83 000 signataires, ce qui démontre le soutien total de toute la communauté éducative et au-delà pour les AESH.

En effet, ces personnels exercent leur métier avec professionnalisme et sont devenu·es un maillon essentiel permettant l’inclusion d’élèves en situation de handicap. Le métier d’AESH est une profession à part entière et les missions pérennes qu’ils et elles exercent ne fait pas débat sur leur nécessité.

La situation à la rentrée 2025 a montré à quel point ce métier souffre d’un manque d’attractivité (multiplication des démissions, licenciements pour inaptitudes, ruptures conventionnelles) et le maintien dans la précarité de ces 140 000 agent·es n’est pas de nature à inverser la tendance.

Il est temps de donner un signal fort ! C’est pourquoi l’intersyndicale FSU, SE-UNSA, CFDT Éducation Formation Recherche Publiques, CGT Éduc’action, SNALC et SUD éducation poursuit la campagne pour la création d’un corps de fonctionnaire de catégorie B pour les AESH aussi bien au niveau national qu’au plus près des lieux de travail.

Une demande d’audience a été adressée aux ministres employeurs : le ministre de l’Éducation nationale et de l’agriculture, pour porter la pétition, et les parlementaires ont reçu un argumentaire sur la création d’un corps de fonctionnaire de catégorie B pour les AESH. 

L’intersyndicale appelle l’ensemble des AESH et des personnels de l’éducation à se mobiliser dans les départements pendant la semaine du 15 au 19 décembre, et plus particulièrement le 16 décembre, jour du Comité Social d’Administration ministériel consacré au budget.

Ensemble, pour revendiquer la création d’un corps de fonctionnaire de catégorie B pour les AESH, chacun et chacune est invité à participer aux mobilisations décidées par les intersyndicales locales : rassemblements, heure d’information syndicale, grève…

Catégories
(re)Penser notre syndicalisme Conditions de travail Informatique

L’IA au travail, une question syndicale

L’intelligence artificielle (IA) percute de plein fouet notre vie quotidienne, mais aussi nos métiers et nos conditions de travail. À l’image d’une pensée magique, les gouvernements, les entreprises et les administrations en font le remède à tout et sont engagés dans une course folle pour son développement.
L’IA est en réalité surtout un objet politique. Pour mieux le comprendre, “nous devons aller au-delà des réseaux de neurones et de la reconnaissance statistique des formes et nous demander ce qui est optimisé, pour qui, et qui décide” comme le propose Kate Crawford dans “Contre atlas de l’intelligence artificielle” . Dès lors, comment se repérer dans le flot d’innovations très rapides et peu transparentes ? Comment et avec qui sont développés les systèmes d’IA qui viennent impacter nos missions de service publics, nos professions ? Quelles conséquences sur nos conditions de travail et le sens même du travail ? Que pouvons-nous faire collectivement et syndicalement ?

L’IA, c’est quoi ?

Loin d’être nouveau, le terme IA existe depuis les années 50. Cependant, dans le grand public, son usage s’est surtout popularisé récemment avec l’émergence des IA génératives, dont ChatGPT est l’exemple le plus connu.

Sans définition universelle qui fasse consensus, l’intelligence artificielle est décrite comme une discipline qui réunit science et technique afin de faire imiter par une machine les capacités cognitives humaines. Le Parlement européen définit l’intelligence artificielle comme tout outil utilisé par une machine capable de “reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité”.

Ces dernières années l’IA et plus largement les outils de science des données se sont très rapidement développés dans tous les domaines (moteur de recherche, enceintes connectées , GPS, appareil photo du smartphone…), le travail ne faisant pas exception.

L’IA est souvent présentée comme une avancée technologique ayant des conséquences positives (médecine…), cependant, dans les milieux professionnels, l’introduction de l’IA est davantage source de transformations des métiers sans que les travailleurs et travailleuses n’y soient jamais associé·es conduisant à une perte de sens du travail et à de nombreux licenciements. Elle reste à ce jour avant tout perçue comme un enjeu de croissance majeur par les multinationales et les gouvernements.

Les questions techniques et politiques que ça pose

Au-delà des promesses de progrès techniques et de transformation sociétale, les systèmes d’IA représentent des risques, notamment celui de véhiculer et exacerber des stéréotypes. Ils reflètent les préjugés existants, introduisent des biais, et renforcent les discriminations liées au genre, à l’orientation sexuelle, au handicap, à l’âge, la nationalité, la religion réelle ou supposée, mais aussi les discriminations racistes.

L’apprentissage automatique des IA produit fréquemment des absurdités, mais aussi des erreurs ou hallucinations.

Les données utilisées par les IA proviennent de contenus générés par des humain∙es, qui ne sont pas libres de droit ou qui sont des biens communs numériques comme Wikipedia. La même chose est valable pour les films, images, etc., qui sont pillés sans tenir compte du droit d’auteur.IA

L’IA et ses conséquences sur le travail et l’emploi

Modernité, allègement des tâches, gains de temps, derrière les qualificatifs dithyrambiques des employeurs, ce sont souvent les employé·es qui trinquent. Le déploiement des outils de data-science s’accompagne de suppressions de postes : cela a été le cas dans la société Onclusive, spécialisée dans la veille média, mise en lumière par la lutte syndicale pour sauvegarder les emplois (160 salarié∙es licencié∙es sur un effectif initial de 383). Cela est aussi vrai dans la fonction publique, où l’obtention de fonds pour développer ces projets est conditionnée à des gains de productivité, comprenons des suppressions de postes.

Mais au-delà des suppressions de postes, c’est un véritable déplacement du travail, dans des -logiques néocoloniales, auquel nous assistons : les pays du Nord subissent des suppressions de postes et des restructurations, dans le même temps, les pays du Sud font travailler une main d’œuvre sous-payée, les travailleurs et travailleuses du clic, sous contrats à la tâche, chargé∙es d’entraîner les algorithmes, d’annoter et de corriger les données…

Dans les secteurs où des outils d’IA ont été mis en place, nous constatons :

  • le renforcement d’oppressions comme le racisme ou le sexisme.
    Dans les centres d’appels, les salarié∙es sont écouté∙es non seulement par leurs chef∙fes d’équipe, mais également par des IA qui peuvent les rappeler à l’ordre sur leur ton durant la conversation avec le ou la client·e (suffisamment jovial ou non), les mots utilisés, et leur accent. Plusieurs entreprises qui gèrent des centres d’appels ont aussi racheté des entreprises d’IA générative spécialisées pour changer le ton de la voix ou l’accent. En règle générale, en produisant les réponses les plus probables, les plus attendues, ou en cherchant à « standardiser » les voix et les accents, les IA reproduisent les discours dominants, à commencer par les stéréotypes racistes, sexistes, LGBTphobes, classistes, validistes… L’usage de l’IA dans le domaine professionnel engendre aussi des discriminiations immédiates, comme priver d’un emploi quand elle est utilisée pour le recrutement.
  • l’industrialisation de tâches déjà existantes privilégiant l’aspect quantitatif sur l’aspect qualitatif. Ainsi le logiciel de fabrication de planning de La Poste, Pop IA, confectionne des plannings à tour de bras mais sans tenir compte d’aucun paramètre humain comme la sécurité, la santé… simple fait
  • la surveillance des salarié∙es et des usager∙es. Dans tous les services publics qui délivrent des prestations sociales (Caisses d’allocations familiales, France Travail…), les usager∙es les plus précaires sont ciblé∙es comme de potentiel∙les fraudeur·euses.Le simple fait d’être femme isolée , ou d’être attributare de l’Allocation adulte handicapée augmente le score de risque et la probabilité d’être contrôlé.
  • une perte d’autonomie : aux finances publiques, les agent·es qui programmaient eux-mêmes les contrôles fiscaux en s’appuyant sur leurs connaissances se voient attribuer désormais des listes de sociétés soupçonnées de fraude sélectionnés par IA dans les services centraux ;
  • une surcharge de travail liée au temps passé par l’intelligence humaine des salarié·es à réparer les erreurs de l’IA. Dans le métier de journaliste, les rédacteur·ices sont parfois relégué·es à un simple rôle de relecture ou de correction de textes générés par IA, sans initiative ni créativité, ce qui faisait pourtant le sel de leur métier ;
  • la perte de sens au travail avec l’apparition de nouvelles opérations chronophages et dénuées d’intérêt, l’abandon de certaines tâches, des dépendances à l’outil informatique entraînant parfois la perte de savoirs professionnels et de technicités ou l’impossibilité d’expliquer le résultat trouvé par IA car développé en boîte noire. Un usage important des technologies numériques entraîne aussi un délestage cognitif avec des conséquences sur nos compétences et notre autonomie.

Loin des promesses vantées par les employeurs, le déploiement de l’IA impacte en profondeur les conditions de travail et l’exercice des métiers, des missions de service public. Les effets sont bien réels pour les travailleurs et travailleuses, comme les client·es et usager·es. Face à ces transformations massives du travail, il est indispensable d’agir syndicalement.

A qui profite l’IA ?
Dans le monde capitaliste où nous vivons, les systèmes d’IA reposent sur l’extraction massive de données personnelles pour augmenter les profits d’une poignée d’entreprises, parfois soutenues par des fonds publics. Les acteurs publics, les universités par exemple, n’ont pas les moyens financiers nécessaires pour développer les modèles les plus avancés, détenir la puissance de calcul, posséder les data centers. Ce sont donc quelques géants de la tech (Meta, Google, Amazon, Alibaba, OpenAI, xAI d’Elon Musk…) qui se partagent le marché et imposent leur domination sans aucun débat démocratique. En utilisant l’IA, on fournit donc un travail gratuit pour entraîner les IA, et ainsi augmenter les profits de ces multinationales aussi puissantes que des États, et en collusion fréquente avec l’extrême droite.

L’IA : une grave menace pour l’environnement

Consommation en eau, énergie, métaux… l’IA accentue gravement l’impact du numérique sur l’environnement. Le coût écologique est colossal mais sous-évalué, en partie parce qu’il est complexe à mesurer, a fortiori lorsque les Big Tech ne jouent pas la transparence sur les données nécessaires aux calculs . En effet, il faut prendre en compte :

  • tous les éléments nécessaires au fonctionnement de l’IA : data centers (centres de données) nécessaires au stockage et au traitement des données, réseaux, terminaux (smartphones, ordinateurs, tablettes) ;
  • les envisager à chaque étape de leur cycle de vie : conception, fabrication, distribution, utilisation et gestion des déchets, sachant que la fabrication génère l’empreinte écologique la plus lourde, notamment parce qu’elle repose sur l’extraction minière.
  • La construction de nombreux data centers peut impliquer l’artificialisation des sols. Ils sont de surcroît très voraces en énergie, qui au niveau mondial dépend aux deux tiers du charbon.

Quelques ordres de grandeur

  • Une requête ChatGPT pourrait représenter au moins 10 fois la consommation électrique d’une recherche sur Google (qui n’est déjà pas neutre !).
  • Une image générée par IA est l’équivalent électrique de la recharge d’un smartphone.
  • D’ici 2030, les choix actuels de construction de data centers à l’échelle mondiale pourraient impliquer des émissions de gaz à effet de serre équivalents aux trois quarts des émissions de CO2 du secteur de l’aviation commerciale civile.

Une contribution croissante au dérèglement climatique

Pour rester dans la course à l’IA de nombreux pays et entreprises reculent sur leurs engagements en matière de neutralité carbone. Certains data centers, dont beaucoup aux États-Unis, ont annoncé recourir au gaz ou au charbon, impliquant de maintenir ouvertes des centrales dont la fermeture avait été annoncée. Google a augmenté de 65 % ses émissions de gaz à effet de serre en 5 ans, Microsoft de 29 % en 4 ans. Quand les entreprises prétendent décarboner la technologie, ce n’est pas mieux : des projets de data centers géants dotés de mini-centrales nucléaires pour les alimenter (Small modular reactors) se multiplient.

En fait, l’IA entraîne une fuite en avant climaticide en raison de ses effets directs (par la consommation d’énergie) et indirects : report des engagements climatiques justifiés par la course à l’IA et diffusion massive du climato-scepticisme par les IA elles-mêmes. Il est en effet très facile de générer du contenu vraisemblable, conspirationniste ou climato-sceptique, avec des IA. Cela augmente drastiquement la quantité de ces discours en circulation, dont se nourrissent ensuite d’autres IA qui captent leur contenu sur Internet.

Une technologie qui repose sur l’extractivisme

Les data centers nécessitent des systèmes de refroidissement importants, qui augmente encore la consommation d’énergie. Certains utilisent de grandes quantités d’eau également. Les data centers et les sources d’énergies utilisées pourraient consommer entre 4,2 et 6,6 milliards de m3 d’eau en 2027, soit une consommation légèrement supérieure à celle d’un pays comme le Danemark, sans compter l’eau utilisée pour fabriquer les composants.

Les ordinateurs, tablettes, smartphones, et plus encore les data centers consomment des quantités exponentielles de métaux. Pour répondre à la demande croissante d’ici à 2050, la quantité utilisée pourrait représenter 3 à 10 fois le volume produit actuellement. Or ces métaux sont extraits de mines dont les impacts pour la santé et l’environnement sont colossaux : expositions pour les travailleur·euses, surconsommation en eau dans des régions déjà touchées par les sécheresses, surconsommation d’énergie, production massive de déchets miniers très toxiques… Les mines sont des zones de sacrifice, que les gouvernement des pays du Nord imposent aux pays des Suds – dont ils accaparent les ressources – ainsi qu’aux territoires où le gouvernement mène une politique de renouveau minier en France.

Rendre des services d’IA entraînera de nouveaux “besoins” en ressources numériques : mémoire et stockage, capacités de traitement des ordinateurs et smartphones. Cela risque d’augmenter l’impact environnemental de ces objets, tant lors de leur production que de leur usage. Il faudra aussi les renouveler de façon anticipée pour pouvoir utiliser les IA. On peut prévoir le déploiement de nouveaux terminaux spécialement conçus pour l’IA, avec leurs propres effets environnementplanete-2.original


Nos réponses syndicales pour freiner l’emballement autour de l’IA

Solidaires soutient une position technocritique : ni technophobe par principe, ni techno-solutionniste. Autrement dit : nous considérons qu’aucune technique ne peut constituer une réponse miracle aux crises sociales et environnementales engendrées par le capitalisme. Surtout pas une technologie aussi vorace en eau, énergie et métaux que l’IA, et qui aggrave les inégalités sociales et les oppressions systémiques.

Solidaires actif face aux directions :

Face au développement des projets d’IA dans nos secteurs professionnels, l’Union Solidaires et toutes ses structures sont aux côtés des salarié·es pour lutter contre le déploiement, imposé par les entreprises et les administrations, d’outils souvent peu respectueux des missions et des conditions de travail des personnels. Les dernières décisions juridictionnelles commencent à forger une jurisprudence obligeant les employeurs du privé à informer les syndicats de la mise en place d’un projet d’IA impactant les missions et les conditions de travail. Cette absence de consultation peut conduire le juge à demander le retrait de la technologie concernée. Dans la fonction publique, nous exigeons également le financement d’études d’impact d’IA sur les conditions de travail.

Nous revendiquons l’inscription de l’IA dans l’évaluation des risques professionnels et le financement d’études d’impacts, compte tenu de ses conséquences sur la santé des travailleur·euses.

Vous retrouverez sur les sites de Solidaires et de l’ensemble des structures du matériel détaillant l’arrivée d’IA dans les sphères professionnelles et leur impact sur le travail et notre vie quotidienne.

Solidaires combat les suppressions d’emplois

Les camarades de Solidaires Informatique se sont pleinement mobilisé∙es lorsque la société Onclusive fut l’une des premières à subir massivement des suppressions d’emplois du fait de l’arrivée de l’IA dans leur secteur professionnel. Dans la fonction publique, nous dénonçons les suppressions de postes conséquentes aux déploiement des outils d’IA. La défense de l’emploi et des travailleur·euses est centrale pour Solidaires.

Solidaires débat et s’organise !

Notre organisation syndicale a été l’une des premières à organiser un cycle de débats pour former aux dangers liés à l’arrivée de l’intelligence artificielle dans la sphère professionnelle, mais également sur ses dimensions liberticides, écocidaires et discriminatoires. Ces journées de débats ont mobilisé des camarades journalistes, informaticien·nes, postier·es, agent·es des finances publiques, traducteur·ices… Ils ont été enrichis par les contributions de sociologues, de membres de la Quadrature du Net, de juristes et de militant·es engagé·es contre les dérives d’une société entièrement numérisée. Par ailleurs, Solidaires organise régulièrement des espaces de débat dans ses locaux et sur sa chaîne Twitch, sur l’arrivée de l’IA.

Notre Union est engagée avec d’autres associations, collectifs ou syndicats dans la coalition Hiatus. Cette dernière entend résister au déploiement massif et généralisé de l’IA. Hiatus dénonce ainsi l’inféodation des politiques publiques aux intérêts de la tech, ainsi que les coûts humains et environnementaux de l’IA. Elle porte la revendication d’un moratoire sur les gros data centers.

Solidaires lutte contre l’opacité

Face au manque de transparence, nous mobilisons différents canaux pour obtenir de l’information et notamment tout ce qui a trait à la protection des données via le Règlement Général de la protection des données (AIPD (Analyse d’impacts à la protection des données), délibération de la Commission Nationale Informatique et Libertés, saisine de la Commission d’accès aux documents administratifs…).

Lutter contre le déploiement capitaliste de ces outils ne se fera pas sans prise de conscience des enjeux de domination, de recherche du profit au mépris des conditions de travail, d’ultra-surveillance des populations, de la destruction environnementale et de réduction des libertés publiques. Aussi, et de toutes les façons possibles, y compris par la grève, notre union syndicale, aux côtés des salarié-es, des agents et des agentes continuera à se mobiliser.

Catégories
(re)Penser notre syndicalisme Conditions de travail

Mangeons les riches

Dans Expressions Solidaires : N°113

L’immense majorité de la population peine à boucler les fins de mois, et 35 % des personnes déclarent ne plus faire trois repas par jour. Dans le même temps, les milliardaires s’empiffrent, voyant leurs fortunes s’envoler à des niveaux indécents.

La phrase de Rousseau n’était peut-être pas si saugrenue ? une prophétie ? : “Quand le peuple n’aura plus rien à manger, il mangera le riche.” Car le choix est simple : manger les riches… ou mourir à petit feu !

Et eux que nous serinent-ils avec le patronat dans la presse et sur les plateaux TV ? Qu’on veut trop les taxer ! Qu’ils ont « peur » !

Peur de quoi ? De voir le fruit de notre travail enfin redistribué ? Leur seule véritable inquiétude est que nous nous organisions, que nous nous levions pour aller chercher notre dû ! Les voir paniquer nous conforte dans nos exigences, claires et non négociables :

  • Abrogation immédiate de la réforme des retraites de 2023 : hors de question de travailler plus longtemps pour enrichir les actionnaires !
  • Augmentation générale des salaires et des minima sociaux pour garantir une vie digne pour toutes et tous.
  • De l’argent, et vite, pour nos services publics ! Pour la Sécurité Sociale, l’Hôpital, l’École…

Cessons de sacrifier nos vies pour leur profit !

Le combat est global. Il faut stopper la machine qui fabrique les inégalités et l’oppression. Nous devons nous mobiliser sans relâche contre le capitalisme, qui nous exploite et pille la planète, mais aussi contre le racisme, le patriarcat et toutes les discriminations qui divisent notre camp social.

Nous serons dans la rue le 2 décembre pour nos salaires, le 18 décembre pour la Journée internationale des migrant·es. Nous serons en grève le 8 mars pour les droits des femmes. Nous serons là, à chaque appel, pour faire front.

Pas d’économies sur nos vies !

RSS
Follow by Email