All’interno dei numerosi dibattiti che ruotano intorno alla rapida introduzione della cosiddetta intelligenza artificiale, c’è una scaramuccia relativamente oscura incentrata sulla scelta della parola “allucinazioni”.
Questo è il termine che gli architetti e i sostenitori dell’intelligenza artificiale generativa hanno scelto per caratterizzare le risposte fornite dai chatbot che sono completamente fabbricati o completamente sbagliati. Come, ad esempio, quando chiedi a un bot la definizione di qualcosa che non esiste e lui, in modo piuttosto convincente, ti dà prima, completo di note a piè di pagina inventate. “Nessuno sul campo ha ancora risolto i problemi delle allucinazioni”, ha affermato Sundar Pichai, CEO di Google e Alphabet. detto un intervistatore di recente.
È vero, ma perché chiamare questi errori “allucinazioni”? Perché non spazzatura algoritmica? O difetti? Ebbene, l'allucinazione si riferisce alla misteriosa capacità del cervello umano di percepire fenomeni che non sono presenti, almeno non in termini convenzionali e materialisti. Appropriandosi di una parola comunemente usata in psicologia, sostanze psichedeliche e varie forme di misticismo, i sostenitori dell'intelligenza artificiale, pur riconoscendo la fallibilità delle loro macchine, stanno allo stesso tempo alimentando la mitologia più cara al settore: costruendo questi grandi modelli linguistici e addestrandoli su tutto ciò che noi umani abbiamo scritto, detto e rappresentato visivamente, sono in procinto di far nascere un'intelligenza animata sul punto di innescare un salto evolutivo per la nostra specie. In quale altro modo robot come Bing e Bard potrebbero inciampare nell'etere?
Tuttavia, allucinazioni distorte sono effettivamente in corso nel mondo dell'intelligenza artificiale, ma non sono i robot ad averle; sono stati i CEO della tecnologia a scatenarli, insieme a una falange di loro fan, in preda a selvagge allucinazioni, sia individualmente che collettivamente. Qui sto definendo l'allucinazione non in senso mistico o psichedelico, stati di alterazione mentale che possono effettivamente aiutare ad accedere a verità profonde, precedentemente non percepite. No. Queste persone stanno semplicemente inciampando: vedono, o almeno affermano di vedere, prove che non esistono affatto, persino evocando interi mondi che utilizzeranno i loro prodotti per la nostra elevazione ed educazione universale.
L’intelligenza artificiale generativa metterà fine alla povertà, ci dicono. Curerà tutte le malattie. Risolverà il cambiamento climatico. Renderà il nostro lavoro più significativo ed entusiasmante. Scatenerà vite di svago e contemplazione, aiutandoci a recuperare l’umanità che abbiamo perso a causa della meccanizzazione tardocapitalista. Porrà fine alla solitudine. Renderà i nostri governi razionali e reattivi. Queste, temo, sono le vere allucinazioni dell'IA e le sentiamo tutti in loop da quando Chat GPT è stato lanciato alla fine dello scorso anno.
Esiste un mondo in cui l’intelligenza artificiale generativa, in quanto potente strumento di ricerca predittiva e interprete di compiti noiosi, potrebbe effettivamente essere schierata per beneficio l’umanità, le altre specie e la nostra casa condivisa. Ma affinché ciò accada, queste tecnologie dovrebbero essere implementate all’interno di un ordine economico e sociale molto diverso dal nostro, che abbia come scopo il soddisfacimento dei bisogni umani e la protezione dei sistemi planetari che supportano tutta la vita.
E come sanno bene quelli di noi che attualmente non sono in trip, il nostro sistema attuale non è niente del genere. Piuttosto, è costruito per massimizzare l’estrazione di ricchezza e profitto – sia dagli esseri umani che dal mondo naturale – una realtà che ci ha portato a quella che potremmo considerare come la fase tecno-necro del capitalismo. In quella realtà di potere e ricchezza iperconcentrati, l’intelligenza artificiale – lungi dal essere all’altezza di tutte quelle allucinazioni utopistiche – è molto più probabile che diventi uno spaventoso strumento di ulteriore espropriazione e spogliazione.
Approfondirò perché è così. Ma prima è utile pensare a scopo le allucinazioni utopiche sull’intelligenza artificiale stanno servendo. Che lavoro stanno facendo queste storie benevoli nella cultura quando incontriamo questi strani nuovi strumenti? Ecco un'ipotesi: sono le potenti e allettanti storie di copertura di quello che potrebbe rivelarsi il furto più grande e consequenziale della storia umana. Perché ciò a cui stiamo assistendo è che le aziende più ricche della storia (Microsoft, Apple, Google, Meta, Amazon…) si impadroniscono unilateralmente della somma totale della conoscenza umana che esiste in forma digitale e rottamabile e la isolano all’interno di prodotti proprietari, molti dei quali saranno prendere di mira direttamente gli esseri umani la cui vita di lavoro ha addestrato le macchine senza dare permesso o consenso.
Questo non dovrebbe essere legale. Nel caso del materiale protetto da copyright che ora sapere hanno formato le modelle (compreso questo giornale), varie cause sono stati presentati documenti che sosterranno che ciò era chiaramente illegale. Perché, ad esempio, una società a scopo di lucro dovrebbe essere autorizzata a inserire dipinti, disegni e fotografie di artisti viventi in un programma come Stable Diffusion o Dall-E 2 in modo che possa poi essere utilizzato per generare versioni doppelganger di quegli stessi artisti? lavoro, con i benefici che vanno a tutti tranne che agli artisti stessi?
La pittrice e illustratrice Molly Crabapple sta aiutando a guidare un movimento di artisti che sfidano questo furto. “I generatori d'arte basati sull'intelligenza artificiale sono addestrati su enormi set di dati, contenenti milioni e milioni di immagini protette da copyright, raccolte all'insaputa del loro creatore, per non parlare di compenso o consenso. Questa è effettivamente la più grande rapina d'arte della storia. Perpetrato da entità aziendali apparentemente rispettabili sostenute dal capitale di rischio della Silicon Valley. È una rapina alla luce del giorno”, una novità aprire lettera da lei co-redatta.
Il problema, ovviamente, è che la Silicon Valley chiama abitualmente il furto “disturbo” – e troppo spesso la fa franca. Conosciamo questa mossa: caricare in un territorio senza legge; affermare che le vecchie regole non si applicano alla tua nuova tecnologia; urlate che la regolamentazione non farà altro che aiutare la Cina, il tutto mentre i vostri fatti saranno concretamente concreti. Quando tutti superiamo la novità di questi nuovi giocattoli e iniziamo a fare il punto sui rottami sociali, politici ed economici, la tecnologia è già così onnipresente che il tribunali e i politici alzano le mani.
Lo abbiamo visto con la scansione di libri e opere d'arte di Google. Con la colonizzazione spaziale di Musk. Con l'assalto di Uber al settore dei taxi. Con l'attacco di Airbnb al mercato degli affitti. Con la promiscuità di Facebook con i nostri dati. Non chiedere il permesso, amano dire i disgregatori, chiedi perdono. (E lubrificare le richieste con generosi contributi elettorali.)
Nell’era del capitalismo di sorveglianza, Shoshana Zuboff descrive meticolosamente in che modo le mappe Street View di Google hanno prevalso sulle norme sulla privacy inviando le sue auto dotate di telecamere a fotografare le nostre strade pubbliche e gli esterni delle nostre case. Quando iniziarono le cause legali in difesa del diritto alla privacy, Street View era già così onnipresente sui nostri dispositivi (e così interessante e così conveniente...) che pochi tribunali al di fuori Germania erano disposti a intervenire.
Ora la stessa cosa che è accaduta all’esterno delle nostre case sta accadendo alle nostre parole, alle nostre immagini, alle nostre canzoni, alla nostra intera vita digitale. Tutti vengono attualmente sequestrati e utilizzati per addestrare le macchine a simulare il pensiero e la creatività. Queste aziende devono sapere di essere coinvolte in furti, o almeno che a caso forte si può fare in modo che lo siano. Sperano solo che il vecchio programma funzioni ancora una volta, che la portata della rapina sia già così ampia e si stia svolgendo con tale rapidità. velocità che i tribunali e i politici alzeranno ancora una volta le mani di fronte alla presunta inevitabilità di tutto ciò.
È anche il motivo per cui le loro allucinazioni su tutte le cose meravigliose che l'intelligenza artificiale farà per l'umanità sono così importanti. Perché queste nobili affermazioni mascherano questo furto di massa come un dono, e allo stesso tempo aiutano a razionalizzare gli innegabili pericoli dell’intelligenza artificiale.
Ormai, la maggior parte di noi ha sentito parlare di sondaggio che ha chiesto ai ricercatori e agli sviluppatori di intelligenza artificiale di stimare la probabilità che i sistemi avanzati di intelligenza artificiale causino “l’estinzione umana o una perdita di potere altrettanto permanente e grave della specie umana”. In modo agghiacciante, la risposta mediana è stata che c’era una probabilità del 10%.
Come si può razionalizzare l’andare al lavoro e promuovere strumenti che comportano tali rischi esistenziali? Spesso, la ragione addotta è che questi sistemi comportano anche enormi potenziali vantaggi – tranne che questi vantaggi sono, per la maggior parte, allucinatori. Esaminiamo alcuni di quelli più selvaggi.
Allucinazione #1:AI volere risolvere il clima crisi
Quasi invariabilmente in cima alla lista dei vantaggi dell’intelligenza artificiale c’è l’affermazione che questi sistemi risolveranno in qualche modo la crisi climatica. Lo abbiamo sentito da tutti, dal World Economic Forum Vai all’email Council on Foreign Relations a Boston Consulting Group, in cui si spiega che l’intelligenza artificiale “può essere utilizzata per supportare tutte le parti interessate nell’adottare un approccio più informato e basato sui dati per combattere le emissioni di carbonio e costruire una società più verde. Può anche essere impiegato per riponderare gli sforzi climatici globali verso le regioni più a rischio”. L'ex CEO di Google Eric Schmidt ha riassunto il caso quando detto dall’Atlantico che valeva la pena correre i rischi dell’intelligenza artificiale, perché “Se si pensa ai maggiori problemi del mondo, sono tutti davvero difficili: il cambiamento climatico, le organizzazioni umane e così via. E quindi, voglio sempre che le persone siano più intelligenti.
Secondo questa logica, l’incapacità di “risolvere” grandi problemi come il cambiamento climatico è dovuta a un deficit di intelligenza. Non importa che persone intelligenti, cariche di dottorati di ricerca e premi Nobel, abbiano detto ai nostri governi per decenni cosa è necessario che accada per uscire da questo caos: tagliare le nostre emissioni, lasciare il carbonio nel sottosuolo, affrontare il consumo eccessivo e il sottoconsumo dei ricchi. dei poveri perché nessuna fonte energetica è esente da costi ecologici.
Il motivo per cui questo consiglio molto intelligente è stato ignorato non è dovuto a un problema di comprensione della lettura, o perché in qualche modo abbiamo bisogno che le macchine pensino per noi. È perché fare ciò che la crisi climatica ci richiede naufragherebbe trilioni di dollari delle risorse legate ai combustibili fossili, sfidando al contempo il modello di crescita basato sui consumi che è al centro delle nostre economie interconnesse. La crisi climatica, infatti, non è un mistero o un enigma che non abbiamo ancora risolto a causa di set di dati non sufficientemente solidi. Sappiamo cosa servirebbe, ma non è una soluzione rapida: è un cambiamento di paradigma. Aspettare che le macchine diano una risposta più appetibile e/o redditizia non è una cura per questa crisi, ne è un ulteriore sintomo.
Se si eliminano le allucinazioni, sembrerà molto più probabile che l’intelligenza artificiale venga introdotta sul mercato con modalità che aggravino attivamente la crisi climatica. Innanzitutto, i server giganti che rendono possibili saggi e opere d'arte istantanei dai chatbot sono enormi e in crescita source delle emissioni di carbonio. In secondo luogo, quando aziende come Coca-Cola iniziano a produrre enormi investimenti per utilizzare l'intelligenza artificiale generativa per vendere più prodotti, sta diventando fin troppo chiaro che questa nuova tecnologia sarà utilizzata allo stesso modo dell'ultima generazione di strumenti digitali: che ciò che inizia con nobili promesse sulla diffusione della libertà e della democrazia finisce per microtargetizzare annunci pubblicitari a noi in modo da acquistare altra roba inutile che emette carbonio.
E c’è un terzo fattore, questo un po’ più difficile da definire. Quanto più i nostri canali mediatici sono inondati da falsi profondi e cloni di vario genere, tanto più abbiamo la sensazione di sprofondare nelle sabbie mobili dell'informazione. Geoffrey Hinton, spesso definito “il padrino dell’intelligenza artificiale” perché la rete neurale da lui sviluppata più di dieci anni fa costituisce gli elementi costitutivi dei grandi modelli linguistici odierni, lo capisce bene. Ha appena lasciato un ruolo senior presso Google per poter parlare liberamente dei rischi della tecnologia che ha contribuito a creare, incluso, come ha detto, detto il New York Times, il rischio che le persone “non siano più in grado di sapere cosa è vero”.
Ciò è molto rilevante per l’affermazione secondo cui l’intelligenza artificiale aiuterà a combattere la crisi climatica. Perché quando diventiamo diffidenti nei confronti di tutto ciò che leggiamo e vediamo nel nostro ambiente mediatico sempre più inquietante, diventiamo ancora meno attrezzati per risolvere pressanti problemi collettivi. La crisi di fiducia precede ChatGPT, ovviamente, ma non c’è dubbio che la proliferazione di deep fake sarà accompagnata da un aumento esponenziale di culture cospirazioniste già fiorenti. Quindi che differenza farà se l’intelligenza artificiale riuscisse a realizzare scoperte tecnologiche e scientifiche? Se il tessuto della realtà condivisa si sgretola nelle nostre mani, ci ritroveremo incapaci di rispondere in modo coerente.
Allucinazione #2:AI volere consegnare saggio la governance
Questa allucinazione evoca un futuro prossimo in cui politici e burocrati, attingendo alla vasta intelligenza aggregata dei sistemi di intelligenza artificiale, saranno in grado di “vedere modelli di bisogno e sviluppare programmi basati sull’evidenza” che apportano maggiori benefici ai loro elettori. Tale affermazione deriva da a carta pubblicato dalla fondazione del Boston Consulting Group, ma trova eco in molti think tank e società di consulenza gestionale. Ed è significativo che queste particolari aziende – quelle ingaggiate dai governi e da altre aziende per identificare i risparmi sui costi, spesso licenziando un gran numero di lavoratori – siano state le più rapide a saltare sul carro dell’intelligenza artificiale. PwC (precedentemente PricewaterhouseCoopers) solo ha annunciato un investimento di 1 miliardo di dollari, e Bain & Company e Deloitte sarebbero entusiasti di utilizzare questi strumenti per rendere i propri clienti più “efficienti”.
Come per le affermazioni sul clima, è necessario chiedersi: la ragione per cui i politici impongono politiche crudeli e inefficaci è che soffrono di mancanza di prove? Un’incapacità di “vedere schemi”, come suggerisce il documento BCG? Non capiscono i costi umani di affamato dell’assistenza sanitaria pubblica in mezzo alle pandemie, o di non investire in alloggi non commerciali quando le tende riempiono i nostri parchi urbani, o di approvare nuove infrastrutture per i combustibili fossili mentre le temperature salgono? Hanno bisogno dell'intelligenza artificiale per essere “più intelligenti”, per usare il termine di Schmidt – o sono abbastanza intelligenti da sapere chi finanzierà la loro prossima campagna o, se si allontanano, finanzieranno i loro rivali?
Sarebbe terribilmente bello se l’intelligenza artificiale potesse davvero recidere il legame tra denaro aziendale e politiche sconsiderate, ma quel collegamento ha tutto a che fare con il motivo per cui aziende come Google e Microsoft sono state autorizzate a rilasciare i loro chatbot al pubblico nonostante la valanga di avvertimenti e rischi conosciuti. Schmidt e altri hanno portato avanti una campagna di lobbying durata anni raccontare Entrambi i partiti a Washington sostengono che se non saranno liberi di andare avanti con l’intelligenza artificiale generativa, senza il peso di una seria regolamentazione, le potenze occidentali saranno lasciate nella polvere dalla Cina. L'anno scorso, le migliori aziende tecnologiche esaurito una cifra record di 70 milioni di dollari per fare pressione su Washington – più del settore petrolifero e del gas – e quella somma, osserva Bloomberg News, si aggiunge ai milioni spesi “per la loro vasta gamma di gruppi commerciali, organizzazioni no-profit e think tank”.
Eppure, nonostante la loro profonda conoscenza di come il denaro modella esattamente la politica nelle nostre capitali nazionali, quando ascolti Sam Altman, CEO di OpenAI – creatore di ChatGPT – parlare degli scenari migliori per i suoi prodotti, tutto questo sembra essere dimenticato. Invece, sembra avere allucinazioni su un mondo completamente diverso dal nostro, in cui i politici e l’industria prendono decisioni basate sui dati migliori e non metterebbero mai a rischio innumerevoli vite umane per profitto e vantaggio geopolitico. Il che ci porta ad un'altra allucinazione.
Allucinazione #3: Tech giganti può be di fiducia non rompere il mondo
Chiesto se è preoccupato per la frenetica corsa all'oro che ChatGPT ha già scatenato, Altman ha detto di esserlo, ma ha aggiunto ottimista: "Speriamo che tutto funzioni". Dei suoi colleghi CEO del settore tecnologico – quelli che competono per eliminare i chatbot rivali – ha detto: “Penso che gli angeli migliori vinceranno”.
Angeli migliori? A Google? Sono abbastanza sicuro che la compagnia licenziato la maggior parte perché pubblicavano articoli critici sull’intelligenza artificiale o denunciavano il razzismo e le molestie sessuali sul posto di lavoro. Ci sono più “angeli migliori”. smettere in allarme, più recentemente Hinton. Questo perché, contrariamente alle allucinazioni di coloro che traggono maggiori profitti dall'intelligenza artificiale, Google non prende decisioni in base a ciò che è meglio per il mondo; prende decisioni in base a ciò che è meglio per gli azionisti di Alphabet, che non vogliono perdersi l'ultima bolla, non quando Microsoft, Meta e Apple sono già all-in.
Allucinazione #4:AI volere liberare us da faticoso
Se le benevoli allucinazioni della Silicon Valley sembrano plausibili a molti, la ragione è semplice. L’intelligenza artificiale generativa è attualmente in quella che potremmo considerare la fase del finto socialismo. Questo fa parte di un programma ormai familiare della Silicon Valley. Innanzitutto, creare un prodotto attraente (un motore di ricerca, uno strumento di mappatura, un social network, una piattaforma video, un ride share…); regalarlo gratuitamente o quasi per alcuni anni, senza alcun modello di business praticabile e riconoscibile (“Gioca con i bot”, ci dicono, “guarda quali cose divertenti puoi creare!”); fai molte affermazioni altezzose su come lo fai solo perché vuoi creare una “piazza cittadina” o un “comune dell’informazione” o “connettere le persone”, il tutto diffondendo la libertà e la democrazia (e non essendo “malvagio”). Quindi osserva come le persone si appassionano all'utilizzo di questi strumenti gratuiti e i tuoi concorrenti dichiarano bancarotta. Una volta che il campo è sgombro, introducete la pubblicità mirata, la sorveglianza costante, i contratti con la polizia e l’esercito, la vendita di dati tramite scatola nera e le crescenti tariffe di abbonamento.
Molte vite e settori sono stati decimati dalle precedenti iterazioni di questo manuale, dai tassisti ai mercati degli affitti ai giornali locali. Con la rivoluzione dell’intelligenza artificiale, questo tipo di perdite potrebbero sembrare errori di arrotondamento, con insegnanti, programmatori, artisti visivi, giornalisti, traduttori, musicisti, operatori sanitari e tanti altri che si trovano ad affrontare la prospettiva di vedere i loro redditi sostituiti da codici difettosi.
Non preoccuparti, gli appassionati di intelligenza artificiale hanno allucinazioni: sarà meraviglioso. A chi piace lavorare comunque? L’intelligenza artificiale generativa non segnerà la fine dell’occupazione, ci viene detto, solo “lavoro noioso” – con i chatbot che svolgono utilmente tutti i compiti ripetitivi e distruttivi dell’anima e gli umani si limitano a supervisionarli. Altman, da parte sua, vede un futuro in cui il lavoro “può essere un concetto più ampio, non qualcosa che devi fare per poter mangiare, ma qualcosa che fai come espressione creativa e un modo per trovare realizzazione e felicità”.
Si tratta di una visione entusiasmante di una vita più bella e piacevole, condivisa da molti esponenti della sinistra (incluso il genero di Karl Marx, Paul Lafargue, che scrisse un libro manifesto intitolato Il diritto alla pigrizia). Ma noi di sinistra sappiamo anche che se guadagnare denaro non vuole più essere l’imperativo fondamentale della vita, allora devono esserci altri modi per soddisfare i nostri bisogni materiali di riparo e sostentamento. Un mondo senza posti di lavoro schifosi significa che l’affitto deve essere gratuito, l’assistenza sanitaria deve essere gratuita e ogni persona deve avere diritti economici inalienabili. E poi all'improvviso non stiamo più parlando più di intelligenza artificiale: stiamo parlando di socialismo.
Perché non viviamo nel mondo razionale e umanista ispirato a Star Trek che Altman sembra avere allucinazioni. Viviamo sotto il capitalismo e, sotto quel sistema, l’effetto di inondare il mercato con tecnologie che possono plausibilmente svolgere i compiti economici di innumerevoli lavoratori non è che queste persone siano improvvisamente libere di diventare filosofi e artisti. Significa che quelle persone si ritroveranno a guardare nell’abisso – con gli artisti veri e propri tra i primi a cadere.
Questo è il messaggio della lettera aperta di Crabapple, che invita "artisti, editori, giornalisti, redattori e leader sindacali del giornalismo a impegnarsi per i valori umani contro l'uso di immagini di intelligenza artificiale generativa" e "impegnarsi a sostenere l'arte editoriale realizzata da persone". , non server farm”. La lettera, adesso firmato da centinaia di artisti, giornalisti e altri, afferma che tutti gli artisti, tranne quelli più elitari, trovano il loro lavoro “a rischio di estinzione”. E secondo Hinton, il “padrino dell'intelligenza artificiale”, non c'è motivo di credere che la minaccia non si diffonderà. I chatbot “tolgono il lavoro faticoso” ma “potrebbero toglierci di più”.
Crabapple e i suoi coautori scrivono: “L’arte generativa dell’intelligenza artificiale è vampirica, si nutre delle passate generazioni di opere d’arte anche se succhia la linfa vitale degli artisti viventi”. Ma ci sono modi per resistere: possiamo rifiutarci di utilizzare questi prodotti e organizzarci per chiedere che anche i nostri datori di lavoro e i nostri governi li rifiutino. UN lettera da eminenti studiosi di etica dell’intelligenza artificiale, tra cui Timnit Gebru che è stato licenziato da Google nel 2020 per aver contestato la discriminazione sul posto di lavoro, espone alcuni degli strumenti normativi che i governi possono introdurre immediatamente, inclusa la piena trasparenza su quali set di dati vengono utilizzati per addestrare i modelli. Gli autori scrivono: “Non solo dovrebbe essere sempre chiaro quando incontriamo media sintetici, ma alle organizzazioni che costruiscono questi sistemi dovrebbe anche essere richiesto di documentare e divulgare i dati di formazione e le architetture dei modelli…. Dovremmo costruire macchine che funzionino per noi, invece di “adattare” la società affinché sia leggibile e scrivibile dalle macchine”.
Anche se le aziende tecnologiche vorrebbero farci credere che sia già troppo tardi per respingere questo prodotto di imitazione di massa che sostituisce l’uomo, ci sono precedenti legali e normativi molto rilevanti che possono essere applicati. Ad esempio, la Federal Trade Commission (FTC) degli Stati Uniti forzato Cambridge Analytica, così come Everalbum, proprietaria di un'app fotografica, di distruggere interi algoritmi risultati essere stati addestrati su dati illegittimamente appropriati e foto raschiate. All’inizio, l’amministrazione Biden ha fatto molte affermazioni audaci sulla regolamentazione della grande tecnologia, incluso il giro di vite sul furto di dati personali per costruire algoritmi proprietari. Con l’avvicinarsi delle elezioni presidenziali, questo sarebbe il momento giusto per mantenere queste promesse ed evitare la prossima serie di licenziamenti di massa prima che avvengano.
Un mondo di falsità profonde, di circoli viziosi e di peggioramento della disuguaglianza non è inevitabile. È un insieme di scelte politiche. Possiamo eliminare l’attuale forma di chatbot vampirici e iniziare a costruire un mondo in cui le promesse più entusiasmanti dell’intelligenza artificiale siano qualcosa di più delle allucinazioni della Silicon Valley.
Perché abbiamo addestrato le macchine. Tutti noi. Ma non abbiamo mai dato il nostro consenso. Si nutrivano dell'ingegno collettivo, dell'ispirazione e delle rivelazioni dell'umanità (insieme ai nostri tratti più venali). Questi modelli sono macchine di recinzione e appropriazione, che divorano e privatizzano le nostre vite individuali così come le nostre eredità intellettuali e artistiche collettive. E il loro obiettivo non è mai stato quello di risolvere il cambiamento climatico o rendere i nostri governi più responsabili o la nostra vita quotidiana più piacevole. È sempre stato per trarre profitto dall’immiserimento di massa, che, sotto il capitalismo, è la conseguenza evidente e logica della sostituzione delle funzioni umane con i robot.
Tutto ciò è eccessivamente drammatico? Una resistenza soffocante e riflessiva all’innovazione entusiasmante? Perché aspettarsi il peggio? Altmann rassicura noi: “Nessuno vuole distruggere il mondo”. Forse no. Ma come ci mostrano ogni giorno il peggioramento della crisi climatica e dell’estinzione, molte persone e istituzioni potenti sembrano stare bene sapendo che stanno contribuendo a distruggere la stabilità dei sistemi di supporto vitale del mondo, purché possano continuare a creare record profitti che credono proteggeranno loro e le loro famiglie dagli effetti peggiori. Altman, come molte creature della Silicon Valley, è lui stesso un prepper: nel 2016, lui vantata: “Ho pistole, oro, ioduro di potassio, antibiotici, batterie, acqua, maschere antigas delle forze di difesa israeliane e un grande pezzo di terra a Big Sur dove posso volare”.
Sono abbastanza sicuro che questi fatti dicano molto di più su ciò in cui Altman crede veramente riguardo al futuro che sta contribuendo a scatenare rispetto a qualsiasi allucinazione fiorita che sceglie di condividere nelle interviste alla stampa.
Naomi Klein è editorialista e scrittrice del Guardian US. È autrice di bestseller No Logo e The Shock Doctrine, professoressa di giustizia climatica e co-direttrice del Centro per la giustizia climatica presso l'Università della British Columbia
ZNetwork è finanziato esclusivamente attraverso la generosità dei suoi lettori.
Donazioni