Au sein des nombreux débats qui tournent autour du déploiement rapide de ce que l’on appelle l’intelligence artificielle, il y a une escarmouche relativement obscure axée sur le choix du mot « halluciner ».
C’est le terme que les architectes et les promoteurs de l’IA générative ont choisi pour caractériser les réponses fournies par les chatbots qui sont entièrement fabriquées, ou carrément fausses. Comme, par exemple, lorsque vous demandez à un robot une définition de quelque chose qui n'existe pas et que cela vous donne, de manière assez convaincante, UN, complété par des notes de bas de page inventées. "Personne dans le domaine n'a encore résolu les problèmes d'hallucinations", a déclaré Sundar Pichai, PDG de Google et Alphabet. dit un intervieweur récemment.
C'est vrai – mais pourquoi qualifier ces erreurs d'« hallucinations » ? Pourquoi pas des cochonneries algorithmiques ? Ou des problèmes ? Eh bien, l’hallucination fait référence à la mystérieuse capacité du cerveau humain à percevoir des phénomènes qui ne sont pas présents, du moins pas en termes conventionnels et matérialistes. En s'appropriant un mot couramment utilisé dans la psychologie, les psychédéliques et diverses formes de mysticisme, les promoteurs de l'IA, tout en reconnaissant la faillibilité de leurs machines, nourrissent simultanément la mythologie la plus chère du secteur : celle en construisant ces grands modèles de langage et en les formant à tout ce qui nous, les humains, avons écrit, dit et représenté visuellement, ils sont en train de donner naissance à une intelligence animée sur le point de déclencher un saut évolutif pour notre espèce. Sinon, comment des robots comme Bing et Bard pourraient-ils trébucher dans l’éther ?
Cependant, des hallucinations déformées sont bel et bien présentes dans le monde de l’IA – mais ce ne sont pas les robots qui en sont responsables ; ce sont les PDG de la technologie qui les ont libérés, ainsi qu'une phalange de leurs fans, en proie à des hallucinations sauvages, tant individuellement que collectivement. Ici, je définis l'hallucination non pas dans le sens mystique ou psychédélique, des états d'altération de l'esprit qui peuvent en effet aider à accéder à des vérités profondes, jusqu'alors inaperçues. Non. Ces gens sont simplement en train de trébucher : voyant, ou du moins prétendant voir, des preuves qui n'existent pas du tout, évoquant même des mondes entiers qui mettront leurs produits au service de notre élévation et de notre éducation universelles.
L’IA générative mettra fin à la pauvreté, nous disent-ils. Cela guérira toutes les maladies. Cela résoudra le changement climatique. Cela rendra notre travail plus significatif et plus passionnant. Cela libérera des vies de loisirs et de contemplation, nous aidant à récupérer l’humanité que nous avons perdue à cause de la mécanisation capitaliste tardive. Cela mettra fin à la solitude. Cela rendra nos gouvernements rationnels et réactifs. Ce sont, je le crains, les véritables hallucinations de l’IA et nous les entendons tous en boucle depuis le lancement de Chat GPT à la fin de l’année dernière.
Il existe un monde dans lequel l’IA générative, en tant que puissant outil de recherche prédictive et exécutant des tâches fastidieuses, pourrait en effet être mobilisée pour profiter l’humanité, les autres espèces et notre maison commune. Mais pour que cela se produise, ces technologies devraient être déployées dans un ordre économique et social très différent du nôtre, un ordre qui aurait pour objectif de répondre aux besoins humains et de protéger les systèmes planétaires sur lesquels repose toute vie.
Et comme le comprennent ceux d’entre nous qui ne voyagent pas bien actuellement, notre système actuel n’a rien de tel. Il est plutôt construit pour maximiser l’extraction de richesses et de profits – tant auprès des humains que du monde naturel – une réalité qui nous a conduit à ce que nous pourrions considérer comme le stade techno-nécro du capitalisme. Dans cette réalité de pouvoir et de richesse hyper concentrés, l’IA – loin d’être à la hauteur de toutes ces hallucinations utopiques – est bien plus susceptible de devenir un redoutable outil de dépossession et de spoliation accrue.
Je vais comprendre pourquoi il en est ainsi. Mais d'abord, il est utile de réfléchir à but les hallucinations utopiques sur l’IA sont utiles. Quel travail ces histoires bienveillantes font-elles dans la culture alors que nous rencontrons ces étranges nouveaux outils ? Voici une hypothèse : ils constituent la couverture puissante et alléchante de ce qui pourrait s’avérer être le vol le plus important et le plus conséquent de l’histoire de l’humanité. Parce que nous assistons aux entreprises les plus riches de l’histoire (Microsoft, Apple, Google, Meta, Amazon…) s’emparant unilatéralement de la somme totale des connaissances humaines qui existent sous forme numérique et grattable et les enfermant dans des produits propriétaires, dont beaucoup seront viser directement les humains dont la vie de travail a entraîné les machines sans donner leur permission ou leur consentement.
Cela ne devrait pas être légal. Dans le cas de matériel protégé par le droit d'auteur que nous savoir formé les modèles (dont ce journal), divers poursuites ont été déposées pour affirmer que c'était clairement illégal. Pourquoi, par exemple, une entreprise à but lucratif devrait-elle être autorisée à introduire les peintures, dessins et photographies d'artistes vivants dans un programme comme Stable Diffusion ou Dall-E 2 afin qu'il puisse ensuite être utilisé pour générer des versions doubles de ces mêmes artistes ? travail, dont les bénéfices profitent à tout le monde sauf aux artistes eux-mêmes ?
La peintre et illustratrice Molly Crabapple participe à la direction d'un mouvement d'artistes s'opposant à ce vol. « Les générateurs d'art IA sont formés sur d'énormes ensembles de données, contenant des millions et des millions d'images protégées par le droit d'auteur, récoltées à l'insu de leur créateur, sans parler de compensation ou de consentement. Il s’agit effectivement du plus grand braquage d’art de l’histoire. Perpétré par des sociétés d'apparence respectable soutenues par le capital-risque de la Silicon Valley. C'est un vol à la lumière du jour », un nouveau ouvert la lettre qu’elle a co-rédigée déclare.
Le problème, bien sûr, c’est que la Silicon Valley qualifie régulièrement le vol de « perturbation » – et s’en sort trop souvent impunément. Nous connaissons cette démarche : foncer en territoire de non-loi ; prétendez que les anciennes règles ne s’appliquent pas à votre nouvelle technologie ; criez que la réglementation ne fera qu’aider la Chine – tout en ayant des faits solidement fondés sur le terrain. Au moment où nous nous remettons tous de la nouveauté de ces nouveaux jouets et commençons à faire le point sur les dégâts sociaux, politiques et économiques, la technologie est déjà si omniprésente que le tribunaux et les décideurs politiques lèvent la main.
Nous l'avons vu avec la numérisation de livres et d'œuvres d'art de Google. Avec la colonisation spatiale de Musk. Avec l'assaut d'Uber contre l'industrie du taxi. Avec l'attaque d'Airbnb sur le marché locatif. Avec la promiscuité de Facebook avec nos données. Ne demandez pas la permission, aiment dire les perturbateurs, demandez pardon. (Et lubrifiez les demandes avec de généreuses contributions à la campagne.)
À l’ère du capitalisme de surveillance, Shoshana Zuboff détaille méticuleusement comment les cartes Street View de Google ont outrepassé les normes de confidentialité en envoyant ses voitures équipées de caméras pour photographier nos voies publiques et l'extérieur de nos maisons. Au moment où les procès défendant le droit à la vie privée ont éclaté, Street View était déjà si omniprésent sur nos appareils (et si cool et si pratique…) que peu de tribunaux en dehors Allemagne étaient prêts à intervenir.
Aujourd’hui, la même chose qui est arrivée à l’extérieur de nos maisons arrive à nos mots, à nos images, à nos chansons, à toute notre vie numérique. Tous sont actuellement saisis et utilisés pour entraîner les machines à simuler la pensée et la créativité. Ces entreprises doivent savoir qu'elles se livrent à des vols, ou du moins qu'un cas fort on peut faire en sorte qu'ils le soient. Ils espèrent simplement que le vieux manuel fonctionnera une fois de plus – que l’ampleur du braquage est déjà si grande et qu’elle se déroulera avec une telle ampleur. vitesse que les tribunaux et les décideurs politiques baisseront une fois de plus la main face au caractère prétendument inévitable de tout cela.
C’est aussi pourquoi leurs hallucinations sur toutes les choses merveilleuses que l’IA fera pour l’humanité sont si importantes. Parce que ces nobles affirmations déguisent ce vol de masse en cadeau – tout en contribuant à rationaliser les périls indéniables de l’IA.
À l'heure actuelle, la plupart d'entre nous ont entendu parler du enquête qui demandait aux chercheurs et développeurs d’IA d’estimer la probabilité que les systèmes d’IA avancés provoquent « l’extinction de l’humanité ou une privation tout aussi permanente et grave de l’espèce humaine ». Chose effrayante, la réponse médiane était qu’il y avait une chance de 10 %.
Comment rationaliser le fait d’aller travailler et de déployer des outils qui comportent de tels risques existentiels ? Souvent, la raison invoquée est que ces systèmes comportent également d’énormes avantages potentiels – sauf que ces avantages sont, pour la plupart, hallucinatoires. Examinons quelques-uns des plus sauvages.
Hallucination #1: IA sera résoudre le climat crise
En tête de liste des avantages de l’IA se trouve presque invariablement l’affirmation selon laquelle ces systèmes résoudront d’une manière ou d’une autre la crise climatique. Nous avons entendu cela de la part de tout le monde du World Economic Forum à la Conseil sur les relations étrangères à Boston Consulting Group, qui explique que l’IA « peut être utilisée pour aider toutes les parties prenantes à adopter une approche plus informée et fondée sur les données pour lutter contre les émissions de carbone et construire une société plus verte. Cela peut également être utilisé pour réorienter les efforts climatiques mondiaux vers les régions les plus à risque. L'ancien PDG de Google, Eric Schmidt, a résumé le cas lorsqu'il dit l'Atlantique que les risques de l'IA valaient la peine d'être pris, car « si vous pensez aux plus grands problèmes du monde, ils sont tous très difficiles : le changement climatique, les organisations humaines, etc. Et donc, je veux toujours que les gens soient plus intelligents.
Selon cette logique, l’incapacité à « résoudre » des problèmes majeurs comme le changement climatique est due à un déficit d’intelligence. Peu importe que des gens intelligents, titulaires de doctorats et de prix Nobel, disent depuis des décennies à nos gouvernements ce qui doit se passer pour sortir de ce pétrin : réduire nos émissions, laisser le carbone dans le sol, s'attaquer à la surconsommation des riches et à la sous-consommation. des pauvres car aucune source d’énergie n’est exempte de coûts écologiques.
La raison pour laquelle ce conseil très intelligent a été ignoré n’est pas due à un problème de compréhension écrite, ou au fait que nous avons besoin de machines pour réfléchir à notre place. C'est parce que faire ce que la crise climatique exige de nous échouerait des milliards de dollars des actifs fossiles, tout en remettant en question le modèle de croissance basé sur la consommation au cœur de nos économies interconnectées. La crise climatique n’est pas, en fait, un mystère ou une énigme que nous n’avons pas encore résolu en raison d’ensembles de données insuffisamment robustes. Nous savons ce qu'il faudrait, mais ce n'est pas une solution miracle – c'est un changement de paradigme. Attendre que les machines crachent une réponse plus acceptable et/ou plus rentable n’est pas un remède à cette crise, c’en est un symptôme supplémentaire.
Dissipons les hallucinations et il semble bien plus probable que l’IA soit commercialisée de manière à aggraver activement la crise climatique. Premièrement, les serveurs géants qui permettent de rédiger instantanément des essais et des illustrations à partir de chatbots constituent un nombre énorme et croissant. la source des émissions de carbone. Deuxièmement, alors que des entreprises comme Coca-Cola commencent à fabriquer des investissements énormes pour utiliser l'IA générative pour vendre plus de produits, il devient très clair que cette nouvelle technologie sera utilisée de la même manière que la dernière génération d'outils numériques : que ce qui commence par de nobles promesses sur la propagation de la liberté et de la démocratie finit par un micro-ciblage publicitaire sur nous afin que nous achetions davantage de produits inutiles et générateurs de carbone.
Et il y a un troisième facteur, celui-ci un peu plus difficile à cerner. Plus nos chaînes médiatiques sont inondées de contrefaçons profondes et de clones de toutes sortes, plus nous avons le sentiment de sombrer dans les sables mouvants de l’information. Geoffrey Hinton, souvent surnommé « le parrain de l'IA » parce que le réseau neuronal qu'il a développé il y a plus de dix ans constitue la base des grands modèles de langage actuels, l'a bien compris. Il vient de quitter un poste de direction chez Google pour pouvoir parler librement des risques liés à la technologie qu'il a contribué à créer, notamment en ce qui concerne dit le New York Times, le risque que les gens « ne puissent plus savoir ce qui est vrai ».
Cela est tout à fait pertinent par rapport à l’affirmation selon laquelle l’IA contribuera à lutter contre la crise climatique. Parce que lorsque nous nous méfions de tout ce que nous lisons et voyons dans notre environnement médiatique de plus en plus étrange, nous devenons encore moins équipés pour résoudre des problèmes collectifs urgents. La crise de confiance est bien sûr antérieure à ChatGPT, mais il ne fait aucun doute qu’une prolifération de deep fakes s’accompagnera d’une augmentation exponentielle de cultures du complot déjà florissantes. Alors, quelle différence cela fera-t-il si l’IA réalise des avancées technologiques et scientifiques ? Si le tissu de la réalité partagée se défait entre nos mains, nous nous retrouverons incapables de réagir de manière cohérente.
Hallucination #2: IA sera livrer sage gouvernance
Cette hallucination évoque un avenir proche dans lequel les politiciens et les bureaucrates, s’appuyant sur la vaste intelligence globale des systèmes d’IA, seront capables de « voir les schémas de besoins et de développer des programmes fondés sur des données probantes » qui bénéficieront davantage à leurs électeurs. Cette affirmation vient d'un papier publié par la fondation du Boston Consulting Group, mais il trouve un écho dans de nombreux groupes de réflexion et cabinets de conseil en management. Et il est révélateur que ces entreprises particulières – les entreprises embauchées par les gouvernements et d’autres entreprises pour identifier des économies de coûts, souvent en licenciant un grand nombre de travailleurs – ont été les plus rapides à sauter dans le train de l’IA. PwC (anciennement PricewaterhouseCoopers) vient annoncé un investissement de 1 milliard de dollars, et Bain & Company ainsi que Deloitte seraient enthousiastes à l'idée d'utiliser ces outils pour rendre leurs clients plus « efficaces ».
Comme pour les affirmations sur le climat, il faut se demander : la raison pour laquelle les politiciens imposent des politiques cruelles et inefficaces est-elle due à un manque de preuves ? Une incapacité à « voir des modèles », comme le suggère l’article du BCG ? Ne comprennent-ils pas les coûts humains de faim des soins de santé publics en pleine pandémie, ou de ne pas investir dans des logements non marchands alors que des tentes remplissent nos parcs urbains, ou d’approuver de nouvelles infrastructures de combustibles fossiles alors que les températures montent en flèche ? Ont-ils besoin de l’IA pour les rendre « plus intelligents », pour reprendre le terme de Schmidt – ou sont-ils précisément assez intelligents pour savoir qui va financer leur prochaine campagne, ou, s’ils s’égarent, financer leurs rivaux ?
Ce serait terriblement bien si l’IA pouvait vraiment rompre le lien entre l’argent des entreprises et l’élaboration de politiques imprudentes – mais ce lien a tout à voir avec la raison pour laquelle des entreprises comme Google et Microsoft ont été autorisées à rendre leurs chatbots publics malgré l’avalanche d’avertissements et d’avertissements. risques connus. Schmidt et d’autres mènent une campagne de lobbying depuis des années dire Les deux partis à Washington ont déclaré que s’ils ne sont pas libres de se lancer dans l’IA générative, sans être soumis à une réglementation sérieuse, les puissances occidentales seront laissées pour compte par la Chine. L'année dernière, les plus grandes entreprises technologiques dépensé un montant record de 70 millions de dollars pour faire pression sur Washington – plus que le secteur pétrolier et gazier – et cette somme, note Bloomberg News, s’ajoute aux millions dépensés « pour leur large éventail de groupes commerciaux, d’organisations à but non lucratif et de groupes de réflexion ».
Et pourtant, malgré leur connaissance approfondie de la manière dont l’argent façonne la politique dans nos capitales nationales, lorsque vous écoutez Sam Altman, le PDG d’OpenAI – fabricant de ChatGPT – parler des meilleurs scénarios pour ses produits, tout cela semble être faux. oublié. Au lieu de cela, il semble halluciner sur un monde totalement différent du nôtre, dans lequel les politiciens et l’industrie prennent des décisions basées sur les meilleures données et ne mettraient jamais d’innombrables vies en danger pour le profit et l’avantage géopolitique. Ce qui nous amène à une autre hallucination.
Hallucination #3: technologie géants vous be confiance pas d' casser le world
Demandé S'il s'inquiète de la ruée vers l'or frénétique que ChatGPT a déjà déclenchée, Altman a déclaré qu'il l'était, mais a ajouté avec optimisme : "J'espère que tout s'arrangera." À propos de ses collègues PDG du secteur technologique – ceux qui rivalisent pour éliminer leurs chatbots rivaux – il a déclaré : « Je pense que les meilleurs anges vont gagner. »
Meilleurs anges? Chez Google ? Je suis presque sûr que l'entreprise tiré la plupart parce qu’ils publiaient des articles critiques sur l’IA ou dénonçaient l’entreprise sur le racisme et le harcèlement sexuel sur le lieu de travail. Davantage de « meilleurs anges » ont quitter alarmé, plus récemment Hinton. En effet, contrairement aux hallucinations de ceux qui profitent le plus de l'IA, Google ne prend pas de décisions basées sur ce qui est le mieux pour le monde – il prend des décisions basées sur ce qui est le mieux pour les actionnaires d'Alphabet, qui ne veulent pas rater la dernière bulle, pas alors que Microsoft, Meta et Apple sont déjà tous de la partie.
Hallucinations #4: IA sera libérer us de corvée
Si les hallucinations bienveillantes de la Silicon Valley semblent plausibles à beaucoup, il y a une raison simple à cela. L’IA générative en est actuellement à ce que nous pourrions considérer comme son stade de faux-socialisme. Cela fait partie d’un manuel désormais familier de la Silicon Valley. Tout d’abord, créer un produit attractif (un moteur de recherche, un outil de cartographie, un réseau social, une plateforme vidéo, un covoiturage…) ; donnez-le gratuitement ou presque pendant quelques années, sans aucun modèle économique viable perceptible (« Jouez avec les robots », nous disent-ils, « voyez quelles choses amusantes vous pouvez créer ! ») ; faites beaucoup d’affirmations nobles sur la façon dont vous le faites uniquement parce que vous voulez créer une « place publique » ou un « espace commun d’information » ou « connecter les gens », tout en propageant la liberté et la démocratie (et sans être « méchant »). Regardez ensuite les gens devenir accros à ces outils gratuits et vos concurrents déclarer faillite. Une fois le terrain dégagé, introduisez les publicités ciblées, la surveillance constante, les contrats policiers et militaires, les ventes de données en boîte noire et les frais d’abonnement croissants.
De nombreuses vies et de nombreux secteurs ont été décimés par les versions précédentes de ce manuel, des chauffeurs de taxi aux marchés de location en passant par les journaux locaux. Avec la révolution de l’IA, ces types de pertes pourraient ressembler à des erreurs d’arrondi, les enseignants, les codeurs, les artistes visuels, les journalistes, les traducteurs, les musiciens, les soignants et bien d’autres étant confrontés à la perspective de voir leurs revenus remplacés par du code défectueux.
Ne vous inquiétez pas, les passionnés d'IA hallucinent : ce sera merveilleux. De toute façon, qui aime le travail ? L'IA générative ne signifiera pas la fin de l'emploi, nous dit-on, seulement "travail ennuyeux" – avec des chatbots effectuant utilement toutes les tâches répétitives et destructrices de l'âme et des humains se contentant de les superviser. Altman, pour sa part, voit un avenir où le travail « peut être un concept plus large, non pas quelque chose que vous devez faire pour pouvoir manger, mais quelque chose que vous faites comme une expression créative et un moyen de trouver l’épanouissement et le bonheur ».
C'est une vision passionnante d'une vie plus belle et plus tranquille, que partagent de nombreux gauchistes (y compris le gendre de Karl Marx, Paul Lafargue, qui a écrit un poster intitulé Le droit à la paresse). Mais nous, les gauchistes, savons aussi que si gagner de l’argent ne doit plus être l’impératif de la vie, il doit alors y avoir d’autres moyens de répondre à nos besoins créatures en matière d’abri et de subsistance. Un monde sans emplois de mauvaise qualité signifie que le loyer doit être gratuit, les soins de santé doivent être gratuits et chaque personne doit avoir des droits économiques inaliénables. Et puis, tout à coup, nous ne parlons plus du tout d’IA, nous parlons de socialisme.
Parce que nous ne vivons pas dans le monde rationnel et humaniste inspiré de Star Trek qu’Altman semble halluciner. Nous vivons sous le capitalisme, et dans ce système, l’inondation du marché avec des technologies capables d’accomplir de manière plausible les tâches économiques d’innombrables travailleurs n’a pas pour effet de rendre ces gens soudainement libres de devenir philosophes et artistes. Cela signifie que ces gens se retrouveront face à l’abîme – et les vrais artistes seront parmi les premiers à tomber.
C'est le message de la lettre ouverte de Crabapple, qui appelle « les artistes, les éditeurs, les journalistes, les éditeurs et les dirigeants des syndicats du journalisme à s'engager en faveur des valeurs humaines contre l'utilisation d'images génératives » et à « s'engager à soutenir l'art éditorial réalisé par des personnes ». , pas des fermes de serveurs ». La lettre, maintenant signé par des centaines d’artistes, de journalistes et d’autres, affirme que tous les artistes, à l’exception des plus élitistes, trouvent leur travail « en danger d’extinction ». Et selon Hinton, le « parrain de l’IA », il n’y a aucune raison de croire que la menace ne se propagera pas. Les chatbots enlèvent « le travail pénible », mais « cela pourrait en enlever plus que cela ».
Crabapple et ses co-auteurs écrivent : « L’art de l’IA générative est vampirique, se régalant des générations passées d’œuvres d’art même s’il aspire l’énergie vitale des artistes vivants. » Mais il existe des moyens de résister : nous pouvons refuser d’utiliser ces produits et nous organiser pour exiger que nos employeurs et nos gouvernements les rejettent également. UN lettre d'éminents spécialistes de l'éthique de l'IA, dont Timnit Gebru, qui a été licencié par Google en 2020 pour avoir contesté la discrimination sur le lieu de travail, présente certains des outils réglementaires que les gouvernements peuvent introduire immédiatement, y compris une transparence totale sur les ensembles de données utilisés pour former les modèles. Les auteurs écrivent : « Non seulement cela devrait toujours être clair lorsque nous sommes confrontés à des médias synthétiques, mais les organisations qui construisent ces systèmes devraient également être tenues de documenter et de divulguer les données de formation et les architectures de modèles…. Nous devrions construire des machines qui fonctionnent pour nous, au lieu d'« adapter » la société pour qu'elle soit lisible et inscriptible par machine.
Même si les entreprises technologiques voudraient nous faire croire qu’il est déjà trop tard pour faire reculer ce produit de mimétisme de masse qui remplace l’humain, il existe des précédents juridiques et réglementaires très pertinents qui peuvent être appliqués. Par exemple, la Federal Trade Commission (FTC) des États-Unis forcé Cambridge Analytica, ainsi qu'Everalbum, propriétaire d'une application photo, pour détruire des algorithmes entiers qui auraient été formés sur des données illégalement appropriées et des photos récupérées. À ses débuts, l’administration Biden a fait de nombreuses affirmations audacieuses concernant la réglementation des grandes technologies, notamment en réprimant le vol de données personnelles pour créer des algorithmes propriétaires. À l’approche d’une élection présidentielle, le moment serait venu de tenir ces promesses – et d’éviter la prochaine série de licenciements massifs avant qu’ils ne surviennent.
Un monde de contrefaçons profondes, de boucles de mimétisme et d’aggravation des inégalités n’est pas une fatalité. C'est un ensemble de choix politiques. Nous pouvons éliminer la forme actuelle des chatbots vampiriques – et commencer à construire un monde dans lequel les promesses les plus excitantes de l’IA seraient plus que les hallucinations de la Silicon Valley.
Parce que nous avons formé les machines. Nous tous. Mais nous n'avons jamais donné notre consentement. Ils se sont nourris de l’ingéniosité collective, de l’inspiration et des révélations de l’humanité (ainsi que de nos traits les plus vénaux). Ces modèles sont des machines d’enfermement et d’appropriation, dévorant et privatisant nos vies individuelles ainsi que nos héritages intellectuels et artistiques collectifs. Et leur objectif n’a jamais été de résoudre le changement climatique ou de rendre nos gouvernements plus responsables ou notre vie quotidienne plus tranquille. Il s’agissait toujours de profiter de la paupérisation massive, qui, sous le capitalisme, est la conséquence évidente et logique du remplacement des fonctions humaines par des robots.
Tout cela est-il trop dramatique ? Une résistance étouffante et réfléchie à une innovation passionnante ? Pourquoi s’attendre au pire ? Altman rassure nous : « Personne ne veut détruire le monde. » Peut-être pas. Mais comme nous le montrent chaque jour les crises climatiques et d'extinction qui ne cessent de s'aggraver, de nombreuses personnes et institutions puissantes semblent se porter bien en sachant qu'elles contribuent à détruire la stabilité des systèmes de survie dans le monde, tant qu'elles peuvent continuer à faire des progrès. record des bénéfices qui, selon eux, les protégeront, eux et leurs familles, des pires effets. Altman, comme de nombreuses créatures de la Silicon Valley, est lui-même un préparateur : en 2016, il vanté: "J'ai des armes, de l'or, de l'iodure de potassium, des antibiotiques, des piles, de l'eau, des masques à gaz des forces de défense israéliennes et un grand terrain à Big Sur où je peux voler."
Je suis presque sûr que ces faits en disent beaucoup plus sur ce qu'Altman croit réellement à propos de l'avenir qu'il contribue à libérer que les hallucinations fleuries qu'il choisit de partager dans des interviews avec la presse.
Naomi Klein est une chroniqueuse et collaboratrice américaine du Guardian. Elle est l'auteure à succès de No Logo et The Shock Doctrine, professeure de justice climatique et codirectrice du Centre for Climate Justice à l'Université de la Colombie-Britannique.
ZNetwork est financé uniquement grâce à la générosité de ses lecteurs.
Faire un don