Après avoir scruté l’industrie automobile pendant une dizaine d’années, Juan Sebastian Carbonell s’est intéressé à la logistique comme postdoctorant à l’université de Liège, en Belgique. En 2023, il a été récompensé par le Prix du meilleur ouvrage sur le monde du travail pour Le Futur du travail (Amsterdam, 2022). Il revient avec un nouvel essai incisif contre ce « taylorisme augmenté » que véhiculerait l’IA.
— Options : Vous dites ne pas être un expert de l’intelligence artificielle (IA), pourquoi alors avoir voulu vous exprimer sur ce sujet ?
— Juan Sebastian Carbonell : Derrière les technologies, je rappelle qu’il y a des intérêts. La plupart des discours sur l’IA viennent d’entrepreneurs et entrepreneuses qui en exagèrent les potentialités. Juges et parties, ils et elles assurent que ces changements sont « inévitables, nécessaires et désirables » et que c’est à la société de s’y adapter. Un discours amplifié par les médias en quête de clics. Les gouvernements veulent rendre l’IA acceptable pour des raisons de compétitivité internationale. Moi, je mobilise les outils de la sociologie et de l’économie du travail pour rappeler que l’IA a des effets négatifs pour les travailleuses et les travailleurs, et que le monde du travail n’a pas grand-chose à y gagner, mais beaucoup à y perdre.
— C’est-à-dire ?
— L’IA prolonge ou augmente des logiques déjà en cours, comme dégrader le travail ou déqualifier les métiers. Elle s’inscrit dans l’histoire des tentatives patronales d’utiliser des moyens technologiques pour renforcer leur contrôle sur le processus de travail. Le taylorisme a été une de ces premières grandes tentatives. C’est une arme de plus entre leurs mains contre les salarié·es, avec des enjeux spécifiques autour de la donnée et de l’entraînement de ces algorithmes.
Pour rappel, Frederick Winslow Taylor s’est attaqué à la qualification des ouvrières et ouvriers professionnels en parcellisant leur travail, en séparant la conception de l’exécution et en les excluant de toute décision sur l’organisation du travail. Or l’IA amplifie ces phénomènes en important chez les cadres et dans les professions créatives la logique de « dépossession machinique » (1) déjà à l’œuvre dans les professions d’exécution.
Cela consiste à leur retirer une connaissance tacite de leur métier. Par exemple, lorsque des logiciels dictent aux ouvrières et ouvriers préparateurs de commande la façon d’accomplir leur travail, ils et elles ne savent plus où sont les marchandises, et perdent en autonomie.
Quant aux cadres, l’IA les dépossède de leur créativité, par le biais par exemple de la traduction automatique. Ils deviennent alors, selon la vision de Karl Marx, des « appendices de la machine », perdant peu à peu le contrôle de leur travail. Ça a été le cas avec la machine-outil à commande numérique après-guerre, avec les centres d’appels où les employé·es enregistré·es doivent suivre un script, etc. Aujourd’hui, l’IA prolonge cette histoire.
— Ne pourrait-on imaginer une automatisation des tâches non créatives, qui ne déqualifierait pas les cadres ?
— Pour moi, une technologie pensée comme un outil de domination ne peut être réemployée à des fins émancipatrices. Par exemple, la chaîne de montage incarne l’idéal patronal taylorien : déqualification et décomposition du processus de travail. Donc la chaîne de montage ne peut en aucune façon être socialiste ! Alors, puisqu’aujourd’hui l’IA consiste à vider de nombreux métiers de leur savoir ou de leur créativité pour les déqualifier, on peut difficilement laisser penser qu’il pourrait y avoir une « IA socialiste » au service des travailleurs et travailleuses.
— Pourtant, les professionnel·les y voient un intérêt. Selon un sondage, 55 % des salarié·es en état de le faire y auraient eu recours sans l’aval de leur hiérarchie (2). Est-ce de l’« autodomination » ?
— Je ne suis pas pour moraliser ni individualiser l’usage de l’IA. Il faudrait collectiviser la question dans un débat public démocratique, et surtout au sein des organisations de salarié·es et des syndicats. Souvent, cet usage individuel de l’IA n’a pas un objectif émancipateur. Si une IA, un robot ou une machine prend en charge certaines tâches répétitives chez les cadres, ou certaines tâches physiques dans les milieux industriels, c’est aussi pour que les humains puissent se consacrer à d’autres tâches « à valeur ajoutée », ce qui produit inévitablement une intensification du travail.
— Pour vous, l’IA ne peut-elle renforcer l’expertise ?
— L’historien David F. Noble montre qu’avant l’adoption de la machine-outil à commande numérique, d’autres technologies étaient en concurrence. Cependant, le patronat a choisi de développer avant tout celle qui contourne les qualifications, plutôt que celles qui maintenaient le contrôle des ouvrières et ouvriers sur le processus de travail. Pour cet historien, « une guerre fait rage, mais seul un des deux camps est armé : voici le résumé de la question de la technologie aujourd’hui ». Il s’agit donc d’armer le camp des travailleurs, des travailleuses, des dominé·es et des opprimé·es. Les organisations syndicales ne devraient pas craindre de sortir d’une posture de pure adaptation pour entrer dans une logique de refus de cette technologie qui se présente vraiment comme un outil d’attaque contre le monde du travail.
— À vous entendre, une « IA éthique » serait impossible.
— La tendance générale de l’IA dans le monde du travail aujourd’hui est de contribuer à la taylorisation des métiers, y compris qualifiés et créatifs. Alors qu’entendons-nous par « éthique » ? Est-ce une IA qui, pour être entraînée, n’a pas besoin de recourir au microtravail de précaires à Madagascar ? Est-ce une IA qui n’a pas besoin, pour fonctionner, d’énormément de données volées à des millions d’utilisateurs et d’utilisatrices ? Est-ce une IA qui n’a pas besoin de consommer énormément d’énergie, énormément d’eau, énormément de matériaux rares ?
Du coup, on sort du cadre de la trajectoire technologique de l’IA telle qu’elle existe aujourd’hui. Cela implique de penser une autre IA, peut-être même quelque chose qui n’est pas de l’IA. Les technologies d’aujourd’hui ne sont pas incontournables, il est possible de penser d’autres technologies.
— Vous appelez à résister, mais à quoi exactement ?
— J’appelle à un « renouveau luddite » : s’opposer à l’IA au travail aujourd’hui n’est ni conservateur ni réactionnaire. Cela implique d’adopter une position progressiste qui consiste à défendre un autre changement technologique, non nocif pour la planète, respectueux des populations, des droits des travailleurs et travailleuses, de leurs qualifications et de leurs conditions de travail. Résister, c’est aussi ouvrir un débat politique entre les salarié·es et leurs organisations syndicales, pour savoir de quelles technologies on a vraiment besoin aujourd’hui.
— Et comment fait-on concrètement pour résister en entreprise ?
— Il faudrait aller plus loin que les guides syndicaux ou accords collectifs sur les questions de changements technologiques et de l’IA. Inspirons-nous, par exemple, de la CGT Renault, qui a produit un projet industriel alternatif (3). Évidemment, ça implique de devenir de véritables acteurs et actrices du changement technologique.
Sinon, les syndicats pourraient davantage se regrouper sur cette question et s’adresser aux secteurs qui luttent déjà contre les effets nocifs de l’IA (4). Il pourrait y avoir des alliances entre les syndicats et d’autres pans de la société civile se mobilisant contre certains usages de l’IA.
— Pourquoi, à vos yeux, la régulation de l’IA par les pouvoirs publics n’est-elle pas suffisante ?
— Je suis très sceptique. D’un côté, les intérêts des industriel·les de l’IA sont pris en compte dans la mise en place de ces régulations, via leur présence dans des commissions ou conseils d’expert·es. Comme ils et elles sont juges et parties, bien évidemment qu’ils et elles ne vont pas légiférer contre leurs propres intérêts. D’un autre côté, les effets de cette régulation sont très limités pour défendre les populations et les droits des travailleurs et travailleuses. Pour moi, la réglementation crée et régule un marché de l’IA plutôt qu’elle ne s’oppose à ses usages nocifs.
- Juan Sebastian Carbonell, Un Taylorisme augmenté. Critique de l’intelligence artificielle, Amsterdam, 2025, 176 pages, 13 euros.
- Concept développé par Alessandro Delfanti, professeur à l’université de Toronto, au Canada.
- Sondage Ifop Learnthings, 2024.
- La CGT Renault a présenté en 2021 un plan industriel alternatif pour la production, en France, de petits véhicules électriques populaires en France.
- Le 27 décembre 2023, la Cnil a condamné Amazon France Logistique à une amende de 32 millions d’euros pour avoir mis en place d’un système de surveillance de l’activité et des performances des salarié·es excessivement intrusif.
