❖ Le fantôme derrière la machine. L'intelligence artificielle & l'ontologie spectrale de la valeur
Relire Marx. L'accumulation de données & l'accumulation de capital aboutissent au même résultat : l'accroissement des inégalités & la consolidation du pouvoir monopolistique des entreprises
Le fantôme derrière la machine. L'intelligence artificielle & l'ontologie spectrale de la valeur
Par Laura Ruggeri, le 27 avril 2025, Blog Personnel
En février dernier, j'ai publiquement mis en doute l'existence de Jianwei Xun, auteur d'un best-seller acclamé par la critique et intitulé Hypnocracy : Trump, Musk and the New Architecture of Reality (Hypnocratie : Trump, Musk et la nouvelle architecture de la réalité). Sur son site web et sur academia.org - la version originale de son profil ne peut désormais plus être trouvée que sur Internet Archive - il prétendait être un philosophe des médias né à Hong Kong, un chercheur à l'Institute for Critical Digital Studies à Berlin ayant étudié la philosophie politique et les médias à l'université de Dublin.
Comme je vis à Hong Kong et que j'ai enseigné les sciences culturelles, j'ai été fort surprise de n'avoir jamais entendu son nom auparavant. Avais-je à ce point perdu le contact avec ce domaine interdisciplinaire que son nom ne m'était même pas vaguement familier ? En tout cas, il semblait étrange : les noms chinois suivent un ordre différent, le nom de famille aurait dû venir en premier. J'ai alors décidé d'approfondir la question. L'institut berlinois qu'il mentionnait n'existait pas, "l'université de Dublin" était une référence ambiguë et ne renvoyait à aucune université en particulier. Xun affirmait avoir passé des années à conseiller des institutions mondiales sur des récits stratégiques avant de se consacrer à l'écriture. Je n'ai trouvé aucune trace de sa production universitaire ou de son activité professionnelle avant 2024, date à laquelle son œuvre a été publiée pour la première fois en plusieurs langues. Les extraits de livres que j'ai lus ne m'ont pas semblé particulièrement originaux, ressemblant à un amalgame de philosophie des années 1960 et 1970. Mais contrairement à d'autres textes dérivés que je vois souvent passer, ils présentaient une qualité étrange, un peu comme si un médium avait invoqué les esprits des philosophes décédés lors d'une séance. Étant donné que les imposteurs d'aujourd'hui sont plus susceptibles d'utiliser l'IA que de faire tourner les tables, j'en suis rapidement venu à la conclusion que celui qui se cachait derrière le mystérieux "Jianwei Xun" s'était servi d'outils d'IA générative pour produire ce livre.
Des mois après avoir dénoncé cette imposture frauduleuse [1] et échangé des messages avec plusieurs journalistes, les médias institutionnels ont fini par admettre l'inexistence de Xun. L'éditeur italien qui s'est caché derrière cette identité fictive affirme aujourd'hui n'avoir fait que mener une expérience, "un exercice d'ingénierie ontologique", comme il l'a dit. Mais si c'était le cas et que son intention n'était pas de tromper ses lecteurs, pourquoi avoir supprimé les références académiques et professionnelles qu'il avait fabriquées sur le site web nouvellement mis à jour de son faux personnage ?
Le choix d'une identité chinoise pour renforcer la crédibilité et les perspectives de vente reflète un modèle préoccupant d'appropriation culturelle où les écrivains occidentaux capitalisent sur l'exotisme perçu d'un nom asiatique, alors que les vrais écrivains asiatiques sont confrontés à des obstacles importants à la publication de leurs œuvres.
S'il y a une leçon à tirer de la saga de Jianwei Xun, c'est que le battage médiatique autour de "son" travail et de sa personnalité, amplifié par des médias réputés, des critiques élogieuses et une présence en ligne efficace, a créé une boucle de rétroaction dans laquelle la perception de la réalité a dépassé tout besoin d'en vérifier la véracité. Lorsque les frontières entre le réel et l'irréel deviennent floues, le marketing agressif fait que ces frontières ne sont plus pertinentes.
L'IA produisant un contenu qui, pour un œil non averti, semble impossible à distinguer de la production humaine, et les médias s'empressant de le publier, le public est de plus en plus enclin à donner la priorité au battage médiatique et n'a souvent même pas le temps d'effleurer la surface du sujet.
Si le système médiatique a toujours misé sur le battage médiatique et le sensationnalisme, les plateformes de réseaux sociaux sont aujourd'hui les principaux générateurs en la matière.
Alors que je répondais aux questions des médias sur le fictif « philosophe des médias né à Hong Kong » et que j'écrivais sur ce cas sur mon blog Substack, un lecteur m'a signalé un autre cas de plagiat habituel par l'IA, impliquant cette fois une personne vivant à Hong Kong et collaborant avec des médias russes et chinois.
Ses articles d'opinion sont-ils passés inaperçus ? Les rédacteurs ont-ils décidé de fermer les yeux sur le contenu généré par l'IA afin de tirer parti de sa notoriété sur les réseaux sociaux ?
Quoi qu'il en soit, nous ne devrions pas nous concentrer sur des cas particuliers : toute personne utilisant un détecteur d'IA sait que cette pratique contraire à l'éthique est largement répandue. J'invite plutôt le lecteur à examiner l'interaction complexe des dynamiques d'audience et des facteurs économiques et culturels qui favorisent à la fois l'essor du plagiat par l'IA et l'industrie des influenceurs sociaux.
Le mode de fonctionnement des influenceurs sociaux devrait aujourd'hui être tout à fait clair. L'autopromotion, les affirmations exagérées complétées par une image bien construite peuvent faire boule de neige et devenir crédibles avant même que quiconque ne vérifie les références. Les influenceurs établissent des relations parasociales avec leurs followers, qui ont l'impression de les connaître, même s'ils ne se sont jamais rencontrés. Les influenceurs cherchent à créer une aura d'individualité et d'authenticité en racontant des histoires personnelles, en partageant des images brutes ou du matériel sensationnel, en invitant les fans à "jeter un coup d'œil" dans leur vie et en encourageant le voyeurisme.
Toutefois, cette aura est encore plus fragile que l'aura artificielle mentionnée par Walter Benjamin lorsqu'il décrivait, dans les années 1930, le phénomène hollywoodien d'élévation des acteurs au statut de célébrité, créant des personas cultes qui compensaient la perte d'aura à l'ère de la reproduction mécanique. Non seulement le contenu dérivé des influenceurs est facilement reproductible, mais ils sont également vulnérables au remplacement par des personas générés par l'IA.
Benjamin a reconnu dans l'envoûtement provoqué par la personnalité de la star "l'attraction factice d'une marchandise". Mais surtout, il a averti qu'un média doté d'une double capacité à abolir la distance entre le public et le monde représenté, tout en détachant simultanément le public du monde physique et de ses conditions matérielles, est idéalement préparé à servir les objectifs du fascisme. Benjamin faisait principalement référence au cinéma et à la photographie, mais à l'ère de la reproduction algorithmique contrôlée par une poignée d'entreprises technologiques, ses observations sont plus pertinentes que jamais.
Les influenceurs tirent parti de l'effet de vague, ce mélange de conformisme et de peur de manquer. Une fois qu'une persona prend de l'ampleur, aidé par des milliers de bots dont le coût est désormais inférieur à un centime pour les comptes de base, les humains se précipitent. La poudre aux yeux véhiculée par les réseaux sociaux fonctionne parce que nous sommes faits pour les histoires, pas pour en vérifier la véracité. Mais avec les milliards de bots automatisés qui inondent les plateformes de réseaux sociaux, la probabilité que tout compte avec lequel vous vous engagez, que ce soit en likant une publication, en commentant ou en suivant, soit un bot, est d'environ 50 %. Les bots sont devenus si sophistiqués que les détecter devient de plus en plus ardu. Quant aux comptes encore gérés par des humains, environ la moitié d'entre eux publient du contenu généré par une intelligence artificielle.
Même ceux dont l'expertise sur un sujet donné est limitée peuvent produire des messages et des articles convaincants, alors que les lecteurs auraient besoin d'un outil d'IA tel que GPTZero pour identifier leur origine artificielle.
Une simple invitation ou un simple message permet de s'assurer que le contenu généré par l'IA qu'ils publient est aligné sur les tendances idéologiques, les intérêts et les préférences de ceux qui les suivent, et qu'ils y trouvent une certaine résonance. Un article paru dans un média conservateur peut être automatiquement réécrit pour plaire à un public libéral, et vice versa. Un article publié par un universitaire peut être résumé et émaillé de boutades et d'expressions familières pour séduire un public non universitaire, trois articles peuvent être fusionnés en un seul, créant ainsi une pièce cohérente qui synthétise leur contenu, etc. Vous comprenez ce que je veux dire.
Façonnés par un mélange d'activité humaine et de contenu généré par l'IA, Internet et les réseaux sociaux ressemblent aujourd'hui à une fantasmagorie, un spectacle optique imaginaire qui projette des images fantomatiques, fétichise les désirs et les expériences humaines et intensifie l'autoréférence narcissique pour créer une illusion d'authenticité. La présentation fabriquée du soi (l'authenticité fabriquée) est l'ultime impératif néolibéral : les individus sont activement encouragés à devenir des producteurs d'eux-mêmes. Le nom du jeu est "fake it till you make it" (faire semblant jusqu'à ce que ça marche, jusqu'au succès). Le manque de qualifications ou d'expertise professionnelle n'est nullement un obstacle pour les influenceurs en herbe. L'ambition, une formation en marketing, une bonne connaissance des techniques de manipulation psychologique, la capacité à exploiter les algorithmes et un investissement initial dans une armée de bots pour stimuler le contenu sont les meilleurs garants de la réussite.
Ceux qui parviennent à s'imposer peuvent décrocher des contrats juteux pour promouvoir des produits, des services ou un programme politique. Plus leur activité génère d'engagement et de trafic, plus les plateformes de réseaux sociaux accumulent du capital de données.
Sans surprise, cet état de fait nuit à l'engagement réel et pousse un nombre croissant d'internautes frustrés et désabusés à quitter ces plateformes, laissant les bots interagir avec d'autres bots, comme le déplorent déjà les publicitaires.
Alors que l'IA générative fait tomber les barrières de la productivité - on peut facilement produire des dizaines de messages sur les réseaux sociaux par jour, des dizaines d'articles par semaine et s'en servir pour des vidéos, des podcasts et des interviews - les inquiétudes concernant le plagiat par les machines ne cessent de croître. Au départ, les critiques les plus virulentes émanaient des personnes directement concernées, telles que les auteurs, les artistes, les journalistes et les universitaires, mais, comme je vais l'expliquer, les chercheurs en IA tirent eux aussi la sonnette d'alarme. Il s'avère que les textes générés par l'IA, omettant l'attribution, remixant des contenus non consentis et les réduisant à un mix intraçable et méconnaissable, constituent une forme de pollution qui dégrade le même environnement numérique que celui qui alimente les systèmes d'IA.
Ces systèmes, en particulier les grands modèles de langage et les outils génératifs, sont formés à partir de données extraites de l'internet, notamment de livres, d'articles, de sites web et de réseaux sociaux. Le vol à l'échelle mondiale est présenté comme l'avenir de l'humanité.
Non seulement les entreprises d'IA profitent d'un travail pour lequel elles n'ont jamais versé un kopeck ni demandé la permission de l'utiliser, mais celles qui s'appuient sur l'IA générative en profitent également, ce qui stimule la demande de chatbots de plus en plus sophistiqués et ressemblant toujours plus à des humains.
Comme la plupart des industries, l'IA est en train de transformer les médias traditionnels. Si les outils analytiques de l'IA peuvent certes aider les journalistes à traiter un grand volume de données et à identifier des modèles significatifs, et si la technologie de transcription de l'IA leur permet de gagner du temps sur une tâche plutôt banale, il en va tout autrement de l'IA générative. Cette pratique met en péril l'intégrité journalistique, les emplois et la confiance des lecteurs. Comme toujours, le principal moteur de l'utilisation d'outils d'IA tels que ChatGPT est la recherche du profit. Le problème est que les réductions dans les salles de rédaction affaiblissent la qualité du journalisme, aliénant ainsi le public, qui à son tour exerce une pression supplémentaire sur les revenus, ce qui conduit à nouveau à de nouvelles réductions de personnel, et ainsi de suite.
La complexité du travail journalistique repose sur un répertoire d'expériences et de connaissances incarnées - la constitution d'un réseau de sources fiables prêtes à partager leurs secrets n'est pas quelque chose que l'IA sera en mesure de réaliser de sitôt.
Malheureusement, dès que le résultat de ce travail minutieux, qui peut impliquer de combiner interviews et recherches approfondies, est publié en ligne, il est noyé dans des centaines de variantes du même article générées par l'IA, qui en remixent et en réécrivent le contenu. Il en résulte des textes standardisés et homogènes, dépouillés de la substance vibrante et dynamique des voix humaines et de leur diversité. Ou un mimétisme qui simule la diversité - le "texte en traînée". Mais alors qu'Internet est inondé d'articles clickbait générés par IA qui rivalisent pour attirer l'attention des lecteurs, investir dans la qualité ne garantit aucun retour sur investissement aux médias et aux auteurs indépendants.
En outre, la surproduction de contenu dérivé par l'IA submerge les moteurs de recherche et les flux sociaux, et exacerbe le problème de la surcharge d'informations. Les lecteurs peuvent difficilement faire face à un déluge d'informations et à une stimulation numérique constante qui nuit à leur capacité de mémorisation, d'attention, d'esprit critique et de traitement de l'information. Nombreux sont ceux qui se désintéressent déjà de l'actualité, l'évitent complètement ou se contentent de faire défiler et de ne lire que les gros titres.
Bien qu'il n'ait jamais été aussi facile de régurgiter des informations, leur impact devient rapidement inversement proportionnel à leur quantité. L'information n'a pas besoin d'être interprétée pour exister et ne se traduit pas nécessairement par la connaissance et la compréhension. Cela peut être le cas, mais uniquement par le biais d'un processus cognitif dynamique dont l'acquisition n'est que la première étape. Alors que l'intelligence artificielle progresse dans ses capacités, rien ne prouve que les êtres humains progressent dans les leurs. En réalité, ces derniers perdent déjà la capacité de penser clairement et efficacement, sans parler de la gestion de la complexité.
La confusion ontologique est une autre conséquence de la prolifération des systèmes d'IA. Il s'agit d'un état de désorientation existentielle résultant de l'ambiguïté ou de l'indétermination des catégories de l'être, de l'essence et de la réalité. L'IA crée une brèche dans la barrière entre les humains et les objets, même s'il est juste de dire que le capitalisme a commencé à la détruire il y a longtemps. Si cette barrière s'effondre, notre conception de ce qu'est l'être humain sera profondément ébranlée. L'IA perturbe déjà les cadres établis de signification, d'interaction et de confiance ; ne pas prendre la mesure de cette disruption pourrait avoir des effets catastrophiques tant sur les individus que sur les sociétés.
Si l'IA doit aider les humains et non les tromper, un système d'identification obligatoire de l'IA est indispensable : tout agent autonome d'IA doit se déclarer comme tel avant d'interagir avec un être humain et l'industrie des médias, y compris les plateformes de réseaux sociaux, doit clairement étiqueter les contenus générés par l'IA. Les outils de détection de l'IA ne manquent pas et sont assez efficaces pour identifier les segments d'un texte susceptibles d'être rédigés par un humain, générés par l'IA ou raffinés par l'IA.
Certains espèrent également que, tôt ou tard, les moteurs de recherche commenceront à offrir aux utilisateurs un filtre d'IA efficace. D'ici là, l'élimination des contenus artificiels continuera d'être une entreprise de longue haleine.
Bien que l'optimiste qui est en moi partage la conviction que la transparence sur les contenus générés par l'IA devrait théoriquement augmenter en raison d'une forte demande, ma fibre pessimiste estime que la probabilité que cela se produise rapidement s'avère très faible : l'économie numérique repose sur le capital de données, qui entretient une relation symbiotique avec l'IA. Et Big Tech ne changera pas le statu quo tant que la qualité des données ne se dégradera pas au point d'éroder ses profits colossaux.
L'IA transforme les données en capital et s'appuie sur le capital de données pour se former et fonctionner. L'IA est à la fois un moteur et un bénéficiaire du capital de données. C'est pourquoi les logiciels sont intégrés dans un nombre croissant de produits : ils génèrent tous des données.
Comme l'a expliqué un "stratège Big Data" d'Oracle, l'un des plus grands éditeurs de logiciels au monde, "les données constituent un nouveau type de capital, au même titre que le capital financier, pour la création de nouveaux produits et services. Et il ne s'agit pas d'une simple métaphore ; les données répondent à la définition littérale du capital figurant dans les manuels" (2).
J'ignore à quel manuel il pensait, mais pour comprendre la dynamique économique et sociale qui anime la soi-disant quatrième révolution industrielle, je vais consulter l'exemplaire du Capital de Marx trônant sur mon étagère et qui, il est vrai, a besoin d'un peu de dépoussiérage.
Marx définit le capital comme une valeur en mouvement, c'est-à-dire une valeur d'un type particulier, à savoir une valeur qui s'étend d'elle-même, un rapport social qui s'approprie la plus-value créée dans un processus de production défini et reproduit continuellement à la fois le capital et les relations capitalistes.
Pour se développer, le capital doit acquérir une marchandise dont la consommation crée une nouvelle valeur. Cette marchandise est la force de travail, une vérité gênante que notre "stratège du Big Data" n'a pas pris la peine de mentionner.
"Pour pouvoir extraire de la valeur de la consommation d'une marchandise, notre ami, Moneybags, doit avoir la chance de trouver, dans la sphère de circulation, sur le marché, une marchandise dont la valeur d'usage possède la propriété particulière d'être une source de valeur, dont la consommation effective, par conséquent, est elle-même une incarnation du travail, et, par conséquent, une création de valeur. Le détenteur d'argent trouve sur le marché une telle marchandise spéciale en capacité de travail ou en force de travail". (Le Capital, chapitre 6)
La création de valeur dépend de l'intellect général, c'est-à-dire du savoir, des compétences et des capacités intellectuelles de la société, mais sous le capitalisme, elle est soumise à l'appropriation et au contrôle privés. Les oligarques de la technologie aiment présenter cette appropriation privée pour leurs modèles d'IA comme une "démocratisation de l'accès à la connaissance". Si c'est le cas, peut-être devrions-nous commencer à démocratiser l'accès à leurs comptes bancaires.
Lorsque les données sont traitées comme une forme de capital, l'impératif est d'extraire et de collecter autant de données que possible, à partir d'autant de sources que possible, et par tous les moyens possibles. Cela ne devrait pas être une surprise. Le capitalisme est intrinsèquement extractif et exploiteur. Il génère en outre une pression ou une tendance constante à la marchandisation universelle, ne cesse de coloniser de nouveaux territoires, des éléments non commercialisés et non monétisés de la vie, avec le même mépris pour les dommages collatéraux dont il fait preuve lorsqu'il exploite le travail et les ressources naturelles à des fins lucratives.
Il importe de garder à l'esprit que les données sont à la fois une marchandise et un capital. Une marchandise lorsqu'elle est échangée, un capital lorsqu'elle est utilisée pour extraire de la valeur.
L'IA distille l'information en données en transformant tout type de données entrantes en représentations abstraites et numériques pour permettre le calcul.
La distinction entre le consommateur et le producteur d'informations disparaît dès lors que leur activité devient des données. Être en ligne, c'est à la fois consommer et produire des données, c'est-à-dire de la valeur. Les internautes génèrent des données par le biais d'interactions que les plateformes monétisent. Ce "travail" non rémunéré est comparable à la force du travail de Marx, car les utilisateurs produisent de la valeur (des données). Les algorithmes d'IA, l'infrastructure en cloud et les plateformes numériques sont les nouveaux moyens de production, et ils sont concentrés entre les mains d'un très petit nombre de personnes.
L'extraction et la collecte de données sont dictées par les impératifs de l'accumulation du capital, qui à son tour pousse le capital à bâtir et à s'appuyer sur un univers où tout est réduit à des données. Comme les données qui sont introduites dans les machines ont subi un processus d'abstraction préliminaire, rien n'empêche ces données d'être le produit de cycles antérieurs de production artificielle d'informations par le biais de données. Les données génèrent des données qui génèrent des données et ainsi de suite. Comme le capital porteur d'intérêts, "source mystérieuse et auto-créatrice de son propre accroissement... valeur auto-valorisante, argent engendrant l'argent", ainsi que Marx décrit le processus de financiarisation qui autonomise le capital de son propre support.
L'accumulation de données et l'accumulation de capital aboutissent au même résultat, à savoir l'accroissement des inégalités et la consolidation du pouvoir monopolistique des entreprises.
Mais, tout comme l'autonomisation du capital qui évince les investissements non financiers a un effet néfaste sur les secteurs productifs, la prolifération du contenu de l'IA en ligne en fait de même. Plusieurs chercheurs ont souligné que la production de données à partir de données synthétiques entraînait de dangereuses distorsions. Former de grands modèles de langage sur leur propre production ne fonctionne pas et peut conduire à un "effondrement du modèle", un processus dégénératif par lequel, au fil du temps, les modèles oublient la véritable distribution des données sous-jacentes, commencent à halluciner et à produire des absurdités (3).
Sans un apport constant de données de bonne qualité émanant de l'homme, ces modèles linguistiques ne peuvent s'améliorer. La question est de savoir qui va alimenter des textes bien écrits, factuellement exacts et exempts d'IA, alors qu'un nombre croissant de personnes se déchargent de leurs efforts cognitifs sur l'intelligence artificielle, et que le déclin de l'intelligence humaine est de plus en plus évident.
Lorsque Ray Kurzweil, promoteur du transhumanisme et pionnier de l'IA, vante les mérites des systèmes d'apprentissage automatique qui commenceront bientôt à se perfectionner en concevant des réseaux neuronaux de plus en plus puissants ne nécessitant aucune intervention humaine "Parce que les ordinateurs fonctionnent beaucoup plus vite que les humains, le fait d'exclure l'homme de la boucle du développement de l'IA permettra de débloquer des taux de progrès stupéfiants", il ne fait qu'utiliser la langue de bois. Interrogé sur l'impact de l'IA sur le travail, Kurzweil a expliqué qu'il envisageait une société où la majorité des individus recevraient un revenu de base universel d'ici 2030. En d'autres termes, ils survivraient en mangeant quelque chose comme Soylent (marque de substituts de repas, créée en 2013 et fabriquée par l'entreprise américaine Rosa Foods) ou des protéines d'insectes. On peut supposer que leur vie correspondrait à la définition de la "vie nue" proposée par Giorgio Agamben, une existence réduite à sa forme biologique la plus élémentaire, dépourvue de toute signification politique ou sociale.
Mais à mesure que la qualité de leur vie se dégrade, il en va de même de la qualité et de la valeur des données qu'ils produisent gratuitement.
Ceux qui prônent l'IA prétendent que l'intelligence artificielle agira comme une force transformatrice, quasi divine, qui résoudra les problèmes de l'humanité, ouvrant la voie à une ère de prospérité et de transcendance. En réalité, si la trajectoire actuelle est une indication des développements futurs, l'IA est bien plus susceptible d'enraciner une dystopie hypercapitaliste que de construire une utopie postcapitaliste.
L'idée selon laquelle les machines pourraient remplacer le travail humain, le rêve éveillé des capitalistes, n'est ni nouvelle ni originale. Elle est présente depuis le début de la première révolution industrielle. Ses partisans oublient qu'un plus grand recours aux robots et à l'IA entraînerait une baisse du taux de profit au niveau de l'ensemble de l'économie si la majorité de la population vit au jour le jour. En se concentrant sur les capitalistes individuels qui obtiennent un avantage concurrentiel en accroissant la productivité, ils ne voient pas l'ensemble du tableau. Un exemple typique de la façon dont on ne voit pas la forêt pour les arbres.
L'IA et les plateformes numériques sont contrôlées par une poignée d'entreprises technologiques, dont les propriétaires occupent les premières places du classement des milliardaires mondiaux. Il est évident que nous ne pouvons faire confiance à ceux qui ont un intérêt direct à nous faire avaler l'IA pour donner la priorité au bien public. Ils dépensent des millions pour minimiser les risques et contrecarrer toute tentative d'introduire des réglementations efficaces.
Dans un monde façonné par une puissante oligarchie technologique, qui dégage une forte impression dystopique, les frontières entre le pouvoir des entreprises, l'influence de l'État et la technologie de pointe s'estompent jusqu'à devenir indistinctes.
Si l'on ajoute à cela la concurrence géopolitique et une situation économique mondiale morose, les gouvernements sont tout à fait disposés à se joindre à la course à l'IA, qui ne fait désormais plus qu'un avec la course aux armements. Parmi les applications militaires de l'IA citons l'analyse du renseignement, de la surveillance et de la reconnaissance, les drones en réseau, les armes autonomes, la cybersécurité, la logistique, l'aide à la décision, la formation, la guerre électronique ou encore les opérations psychologiques.
Affirmer que l'IA est au cœur de la projection de puissance des États au 21ème siècle n'est pas une exagération. Les multinationales américaines exercent un contrôle impérial sur une vaste partie de l'écosystème numérique mondial.
Si l'on considère les données comme une marchandise, il ne faut pas oublier que le "temps de travail socialement nécessaire" cumulé - le travail passé et présent - est incorporé dans ces données, que la force de travail humaine a été dépensée dans leur production. Même si l'activité en ligne productrice de données n'apparaît pas nécessairement et immédiatement comme du travail, le temps que l'on passe en ligne est du temps soustrait aux expériences de la vie réelle, à la famille et à l'interaction sociale. Le temps passé devant un écran peut même empiéter sur le temps de sommeil.
Ce temps peut être du travail au sens traditionnel du terme, comme la création de contenu, le codage ou l'exécution de tâches rémunérées, ou s'apparenter davantage à du loisir ou à de la consommation.
En fin de compte, la valeur de la marchandise et, par extension, du travail humain collectif, est relative à ce qui est considéré comme nécessaire par la société actuelle, par les aspirations et les besoins humains actuels.
Le travail invisible, sous-évalué et abstrait (comme le travail numérique non rémunéré) ne signifie pas que le travail a disparu, il reste essentiel dans les processus de valorisation.
La raison pour laquelle la capacité de création de valeur du travail est commodément ignorée et dissimulée a tout à voir avec les relations de production capitalistes et l'extraction de la plus-value.
Lorsque vous avez des rapports sexuels, vous ne produisez pas de données. Vous pouvez concevoir un enfant, mais à moins de vous engager dans cette activité parce que quelqu'un veut acheter le bébé, personne ne considérerait les rapports sexuels et la gestation comme du "travail" et le nouveau-né comme une "marchandise". Mais si vous regardez du porno, avez des relations sexuelles tout en utilisant un gadget électronique, ou s'il y a à proximité des appareils équipés de capteurs, de capacités de traitement, de logiciels, etc, vous produisez des données.
Mais revenons-en à la marchandise, puisqu'elle incarne la logique du capitalisme et constitue l'unité de base de l'échange économique dans un système capitaliste.
Ce qui complique fondamentalement et rend mystérieux le concept de marchandise, c'est la notion même que le travail individuel prend une forme sociale. Dans cette forme sociale, ce qui devient le plus difficile, c'est la quantification et l'évaluation de ce travail individuel, la "dépense (charge) du cerveau, des nerfs, des muscles, etc. de l'homme".
Ici, le concept de fétichisme de la marchandise, bien qu'élaboré par Marx dans une dimension spatiale, technologique et organisationnelle du capitalisme différente de la dimension contemporaine, reste l'un de ses aspects spécifiques et constitutifs.
Marx a utilisé cette catégorie pour représenter la forme spécifique de socialité dans une économie basée sur les marchandises et sur la médiation du marché. Dans ce système, les marchandises occultent les relations entre les individus et, par un processus d'inversion, la marchandise prend une existence autonome, détachée du travail humain et des interactions qui l'ont produite. Une objectivité spectrale.
Marx a perçu et observé l'objectivité spectrale de la marchandise au milieu du 19ème siècle, à une époque où la révolution industrielle déchirait le tissu social, économique et culturel de l'Angleterre victorienne, creusant les inégalités et intensifiant l'exploitation et l'aliénation. Face aux changements et bouleversements radicaux provoqués par l'introduction de technologies qui avaient mécanisé et concentré la production, et de technologies qui semblaient abolir la distance temporelle et physique, comme la photographie, le télégraphe et, plus tard, le téléphone et la radio, certains se sont tournés vers le spiritisme. Lorsque le solide s'est volatilisé, que le sacré a été profané, les croyances dans le paranormal, les pouvoirs magiques et l'occultisme se sont développés. Tandis que la vie des travailleurs était écourtée dans les bidonvilles et les usines, et que la valeur du travail était occultée dans la marchandise, la communication avec les morts par le biais de médiums et de séances de spiritisme est devenue un passe-temps à la mode au sein de la bourgeoisie. Marx a perçu et remarqué l'objectivité spectrale de la marchandise au milieu du XIXe siècle, à une époque où la révolution industrielle déchirait le tissu social, économique et culturel de l'Angleterre victorienne, creusant les inégalités et intensifiant l'exploitation et l'aliénation. Face aux changements et bouleversements radicaux provoqués par l'introduction de technologies qui avaient mécanisé et concentré la production, et de technologies qui semblaient abolir la distance temporelle et physique, comme la photographie, le télégraphe et, plus tard, le téléphone et la radio, certains se sont tournés vers le spiritisme. Lorsque tout ce qui est solide s'est fondu dans l'air, que tout ce qui est sacré a été profané, les croyances dans le paranormal, les pouvoirs magiques et l'occultisme ont prospéré. Tandis que la vie des travailleurs est écourtée dans les bidonvilles et les usines, et que la valeur du travail est occultée dans la marchandise, la communication avec les morts par le biais de médiums et de séances de spiritisme devient un passe-temps à la mode au sein de la bourgeoisie. Les médiums usaient de divers artifices pour faire léviter les tables et convaincre leur public qu'une présence de au-delà (spectre) se trouvait parmi eux.
Troublée par la culpabilité et hantée par la peur, l'Angleterre victorienne est devenue obsédée par les esprits.
Marx exploite les peurs de la bourgeoisie lorsqu'il évoque le "spectre" du communisme. En présentant le communisme comme un "spectre" et en affirmant que le capitalisme est intrinsèquement instable et hanté par ses propres contradictions, il amplifie l'anxiété de la bourgeoisie.
Lorsqu'il aborde la qualité apparemment magique de la marchandise, décrite comme le fétichisme de la marchandise, il l'expose comme une forme de tromperie en établissant une comparaison avec les "tables qui lévitent".
"Il est clair comme de l'eau de roche que l'homme, par son industrie, modifie les formes des matériaux fournis par la nature, de manière à ce qu'ils lui soient utiles. Ainsi, la forme du bois est modifiée lorsqu'on en fait une table. Pourtant, la table reste cette chose commune et quotidienne qu'est le bois. Mais dès lors qu'elle devient une marchandise, elle se transforme en quelque chose de transcendant. Non seulement elle repose sur ses pieds, mais, par rapport à toutes les autres marchandises, elle prend de la hauteur et fait naître de son cerveau de bois des idées grotesques, bien plus merveilleuses que ne l'a jamais été celui qui fait "bouger les tables"." (Le Capital, chapitre 1)
Les données, marchandise la plus convoitée et la plus fétichisée d'aujourd'hui, réussit encore mieux à dissimuler ses origines sous des opérations mathématiques et des raisonnements statistiques. Et elle engendre certainement plus d'idées grotesques et fantaisistes que n'importe quelle marchandise connue de Marx.
Dans la fantasmagorie spectrale de l'intelligence artificielle, les "utopistes" et les "cyniques" se sont donné la main, tandis que nous nous débattons avec les conséquences de la confusion ontologique, de la perte de confiance et de l'intensification de l'exploitation. Alors que les relations marchandes façonnent l'objectivité et la subjectivité dans le capitalisme, imprégnant chaque aspect de la vie sociale et la modelant à son image, ceux qui refusent d'être déqualifiés et réduits à la "vie nue" doivent absolument s'organiser et riposter.
Laura Ruggeri est chercheuse, ancienne universitaire, basée à Hong Kong depuis 1997. Ces dernières années, elle a étudié les guerres hybrides et les conflits géopolitiques. Laura Ruggeri écrit pour des médias chinois, italiens et russes.
Notes
[1] À en juger par l'ordre chronologique des publications sur Telegram et X/Twitter, j'ai été la première personne à remettre en question l'existence de Jianwei Xun https://t.me/LauraRuHK/9759
https://x.com/LauraRu852/status/1894404864895234268
J'ai partagé les informations en ma possession avec plusieurs journalistes, un seul a reconnu ma contribution. https://decrypt.co/314480/philosopher-trump-musk-fabricated-ai
[2] https://journals.sagepub.com/doi/full/10.1177/2053951718820549#bibr63-2053951718820549
[3] https://www.nature.com/articles/s41586-024-07566-y#Bib1
📰 Lien de l'article original :
◾️ ◾️ ◾️