Inne i de mange debattene som svirrer rundt den raske utrullingen av såkalt kunstig intelligens, er det en relativt obskur trefning fokusert på valget av ordet "hallucinate".
Dette er begrepet som arkitekter og boostere av generativ AI har slått seg til ro med for å karakterisere svar servert av chatbots som er helprodusert, eller helt feil. Som for eksempel når du ber en bot om en definisjon av noe som ikke eksisterer, og det gir deg ganske overbevisende en, komplett med sammensatte fotnoter. "Ingen i feltet har ennå løst hallusinasjonsproblemene," Sundar Pichai, administrerende direktør for Google og Alphabet, fortalte en intervjuer nylig.
Det er sant - men hvorfor kalle feilene "hallusinasjoner" i det hele tatt? Hvorfor ikke algoritmisk søppel? Eller feil? Vel, hallusinasjon refererer til den mystiske kapasiteten til den menneskelige hjernen til å oppfatte fenomener som ikke er tilstede, i hvert fall ikke i konvensjonelle, materialistiske termer. Ved å tilegne seg et ord som vanligvis brukes i psykologi, psykedelika og ulike former for mystikk, gir AIs boostere, samtidig som de erkjenner feilbarheten til maskinene deres, næring til sektorens mest verdsatte mytologi: at ved å bygge disse store språkmodellene, og trene dem på alt som vi mennesker har skrevet, sagt og representert visuelt, de er i ferd med å føde en animert intelligens på vei til å utløse et evolusjonært sprang for vår art. Hvordan ellers kunne roboter som Bing og Bard snuble der ute i eteren?
Forvrengte hallusinasjoner er faktisk på gang i AI-verdenen – men det er ikke robotene som har dem; det er teknologisjefene som har sluppet dem løs, sammen med en falanks av fansen deres, som er i tak av ville hallusinasjoner, både individuelt og kollektivt. Her definerer jeg hallusinasjon ikke i mystisk eller psykedelisk forstand, sinnsendrede tilstander som faktisk kan hjelpe til med å få tilgang til dype, tidligere uoppfattede sannheter. Nei. Disse folkene snubler bare: de ser, eller i det minste hevder å se, bevis som ikke er der i det hele tatt, og fremmaner til og med hele verdener som vil ta produktene deres i bruk for vår universelle opphøyelse og utdanning.
Generativ AI vil gjøre slutt på fattigdom, forteller de oss. Det vil kurere all sykdom. Det vil løse klimaendringene. Det vil gjøre jobbene våre mer meningsfylte og spennende. Det vil frigjøre liv med fritid og kontemplasjon, og hjelpe oss å gjenvinne menneskeheten vi har mistet på grunn av senkapitalistisk mekanisering. Det vil gjøre slutt på ensomheten. Det vil gjøre myndighetene våre rasjonelle og lydhøre. Disse, frykter jeg, er de virkelige AI-hallusinasjonene, og vi har alle hørt dem på en loop helt siden Chat GPT ble lansert på slutten av fjoråret.
Det er en verden der generativ kunstig intelligens, som et kraftig prediktivt forskningsverktøy og utfører kjedelige oppgaver, faktisk kan samles til å nytte menneskeheten, andre arter og vårt felles hjem. Men for at det skal skje, må disse teknologiene brukes i en helt annen økonomisk og sosial orden enn vår egen, en som hadde som formål å møte menneskelige behov og beskytte planetsystemene som støtter alt liv.
Og som de av oss som for øyeblikket ikke tripper godt forstår, er ikke vårt nåværende system noe slikt. Snarere er den bygget for å maksimere utvinningen av rikdom og profitt – fra både mennesker og den naturlige verden – en virkelighet som har brakt oss til det vi kan tenke på det som kapitalismens tekno-nekrostadium. I den virkeligheten med hyperkonsentrert makt og rikdom, er det mye mer sannsynlig at AI – langt fra å leve opp til alle disse utopiske hallusinasjonene – blir et fryktinngytende verktøy for ytterligere fradrivelse og ødeleggelse.
Jeg skal grave i hvorfor det er slik. Men først er det nyttig å tenke på formål de utopiske hallusinasjonene om AI tjener. Hvilket arbeid gjør disse velvillige historiene i kulturen når vi møter disse merkelige nye verktøyene? Her er én hypotese: de er de mektige og lokkende forsidehistoriene for det som kan vise seg å være det største og mest konsekvensmessige tyveriet i menneskehetens historie. Fordi det vi er vitne til er de rikeste selskapene i historien (Microsoft, Apple, Google, Meta, Amazon …) som ensidig griper summen av menneskelig kunnskap som finnes i digital, skrapebar form og stenger den inne i proprietære produkter, hvorav mange vil ta direkte sikte på menneskene hvis levetid trente maskinene uten å gi tillatelse eller samtykke.
Dette bør ikke være lovlig. I tilfelle av opphavsrettsbeskyttet materiale som vi nå Vet trent modellene (inkludert denne avisen), diverse søksmål har blitt arkivert som vil hevde at dette var klart ulovlig. Hvorfor skal for eksempel et for-profit-selskap tillates å mate malerier, tegninger og fotografier av levende kunstnere inn i et program som Stable Diffusion eller Dall-E 2, slik at det kan brukes til å generere doppelganger-versjoner av nettopp disse kunstnernes arbeid, med fordelene til alle bortsett fra kunstnerne selv?
Maleren og illustratøren Molly Crabapple hjelper til med å lede en bevegelse av kunstnere som utfordrer dette tyveriet. «AI-kunstgeneratorer er trent på enorme datasett, som inneholder millioner på millioner av opphavsrettsbeskyttede bilder, høstet uten skaperens viten, enn si kompensasjon eller samtykke. Dette er faktisk det største kunstranet i historien. Utøvd av respektable tilsynelatende bedriftsenheter støttet av Silicon Valley venturekapital. Det er ran i dagslys», en ny åpen brev hun var med på å utarbeide, heter det.
Trikset er selvfølgelig at Silicon Valley rutinemessig kaller tyveri "forstyrrelse" - og altfor ofte slipper unna med det. Vi kjenner til dette grepet: storm fremover inn i lovløst territorium; hevder at de gamle reglene ikke gjelder for den nye teknologien din; skrik at regulering bare vil hjelpe Kina – alt mens du har fakta på bakken. Når vi alle kommer over det nye med disse nye lekene og begynner å gjøre oversikt over det sosiale, politiske og økonomiske vraket, er teknologien allerede så allestedsnærværende at baner og politikere rekker opp hendene.
Vi så det med Googles bok- og kunstskanning. Med Musks romkolonisering. Med Ubers angrep på taxinæringen. Med Airbnbs angrep på leiemarkedet. Med Facebooks promiskuitet med våre data. Ikke spør om tillatelse, sier forstyrrerne gjerne, be om tilgivelse. (Og smør spørsmålene med sjenerøse kampanjebidrag.)
I overvåkingskapitalismens tidsalder, Shoshana Zuboff detaljert omhyggelig hvordan Googles Street View-kart dampet over personvernnormene ved å sende de kameradekkede bilene sine ut for å fotografere våre offentlige veier og eksteriøret av hjemmene våre. Da søksmålene som forsvarte personvernrettighetene rullet rundt, var Street View allerede så allestedsnærværende på enhetene våre (og så kult og så praktisk …) at få domstoler utenfor Tyskland var villige til å gripe inn.
Nå skjer det samme som skjedde med utsiden av hjemmene våre med ordene våre, bildene våre, sangene våre, hele våre digitale liv. Alle blir for tiden beslaglagt og brukt til å trene maskinene til å simulere tenkning og kreativitet. Disse selskapene må vite at de driver med tyveri, eller i det minste at a sterk sak kan gjøres at de er. De håper bare at den gamle lekeboken fungerer en gang til - at omfanget av ranet allerede er så stort og utfolder seg med slike fart at domstoler og politiske beslutningstakere nok en gang vil løfte hendene i møte med den antatte uunngåeligheten av det hele.
Det er også grunnen til at deres hallusinasjoner om alle de fantastiske tingene som AI vil gjøre for menneskeheten er så viktige. Fordi disse høye påstandene skjuler dette massetyveriet som en gave – samtidig som de bidrar til å rasjonalisere AIs ubestridelige farer.
Nå har de fleste av oss hørt om Undersøkelsen som ba AI-forskere og -utviklere om å estimere sannsynligheten for at avanserte AI-systemer vil forårsake "menneskelig utryddelse eller tilsvarende permanent og alvorlig maktesløsing av menneskearten". Skremmende nok var medianresponsen at det var 10 % sjanse.
Hvordan rasjonaliserer man det å gå på jobb og skyve ut verktøy som medfører slike eksistensielle risikoer? Ofte er grunnen gitt at disse systemene også har enorme potensielle fordeler – bortsett fra at disse fordelene for det meste er hallusinatoriske. La oss grave i noen av de villere.
Hallusinasjon #1:AI vil løse klimaet krise
Nesten alltid øverst på listene over fordeler med kunstig intelligens er påstanden om at disse systemene på en eller annen måte vil løse klimakrisen. Vi har hørt dette fra alle fra World Economic Forum til Council on Foreign Relations til Boston Consulting Group, som forklarer at AI "kan brukes til å støtte alle interessenter i å ta en mer informert og datadrevet tilnærming til å bekjempe karbonutslipp og bygge et grønnere samfunn. Den kan også brukes til å omvekte global klimainnsats mot de mest utsatte regionene.» Den tidligere Google-sjefen Eric Schmidt oppsummerte saken da han fortalte Atlanterhavet som AIs risiko var verdt å ta, fordi «Hvis du tenker på de største problemene i verden, er de alle veldig vanskelige – klimaendringer, menneskelige organisasjoner, og så videre. Og derfor vil jeg alltid at folk skal være smartere.»
I følge denne logikken skyldes unnlatelsen av å "løse" store problemer som klimaendringer et underskudd på smarte. Ikke bry deg om at smarte mennesker, tunge med doktorgrader og nobelpriser, har fortalt regjeringene våre i flere tiår hva som må skje for å komme ut av dette rotet: kutte utslippene våre, la karbon ligge i bakken, takle overforbruket til de rike og underforbruket. av de fattige fordi ingen energikilde er fri for økologiske kostnader.
Grunnen til at dette veldig smarte rådet har blitt ignorert er ikke på grunn av et leseforståelsesproblem, eller fordi vi på en eller annen måte trenger maskiner for å tenke for oss. Det er fordi å gjøre det klimakrisen krever av oss ville strande trillioner av dollar av fossilt brensel, samtidig som vi utfordrer den forbruksbaserte vekstmodellen i hjertet av våre sammenkoblede økonomier. Klimakrisen er faktisk ikke et mysterium eller en gåte vi ennå ikke har løst på grunn av utilstrekkelig robuste datasett. Vi vet hva som skal til, men det er ikke en rask løsning – det er et paradigmeskifte. Å vente på at maskiner skal spytte ut et mer velsmakende og/eller lønnsomt svar er ikke en kur for denne krisen, det er enda et symptom på den.
Fjern hallusinasjonene, og det ser langt mer sannsynlig ut at AI vil bli brakt ut på markedet på måter som aktivt utdyper klimakrisen. For det første er de gigantiske serverne som gjør umiddelbare essays og kunstverk fra chatboter mulige enorme og voksende kilde av karbonutslipp. For det andre, ettersom selskaper som Coca-Cola begynner å lage store investeringer for å bruke generativ AI for å selge flere produkter, blir det altfor tydelig at denne nye teknologien vil bli brukt på samme måter som den siste generasjonen av digitale verktøy: at det som begynner med høye løfter om å spre frihet og demokrati, ender opp med mikromålrettingsannonser på oss slik at vi kjøper mer ubrukelige, karbon-spyende ting.
Og det er en tredje faktor, denne litt vanskeligere å sette fingeren på. Jo mer mediekanalene våre flommer over av dype forfalskninger og kloner av ulike slag, jo mer har vi følelsen av å synke ned i informativ kvikksand. Geoffrey Hinton, ofte omtalt som «gudfaren til AI» fordi det nevrale nettet han utviklet for mer enn et tiår siden danner byggesteinene i dagens store språkmodeller, forstår dette godt. Han har nettopp sluttet i en seniorrolle hos Google, slik at han kunne snakke fritt om risikoen ved teknologien han var med på å skape, inkludert som han fortalte New York Times, risikoen for at folk «ikke vil kunne vite hva som er sant lenger».
Dette er svært relevant for påstanden om at AI vil bidra til å bekjempe klimakrisen. For når vi er mistroende til alt vi leser og ser i vårt stadig mer uhyggelige mediemiljø, blir vi enda mindre rustet til å løse presserende kollektive problemer. Tillitskrisen går før ChatGPT, selvfølgelig, men det er ingen tvil om at en spredning av dype forfalskninger vil bli ledsaget av en eksponentiell økning i allerede blomstrende konspirasjonskulturer. Så hvilken forskjell vil det gjøre hvis AI kommer opp med teknologiske og vitenskapelige gjennombrudd? Hvis stoffet til delt virkelighet løser seg opp i våre hender, vil vi finne oss selv ute av stand til å svare med noen sammenheng i det hele tatt.
Hallusinasjon #2:AI vil leverer klok styresett
Denne hallusinasjonen innkaller en nær fremtid der politikere og byråkrater, som trekker på den enorme aggregerte intelligensen til AI-systemer, er i stand til å "se behovsmønstre og utvikle evidensbaserte programmer" som har større fordeler for sine bestanddeler. Den påstanden kommer fra en papir publisert av Boston Consulting Groups stiftelse, men det får gjenklang i mange tenketanker og ledelseskonsulenter. Og det er talende at disse spesielle selskapene – firmaene ansatt av myndigheter og andre selskaper for å identifisere kostnadsbesparelser, ofte ved å sparke et stort antall arbeidere – har vært raskest til å hoppe på AI-vognen. PwC (tidligere PricewaterhouseCoopers) nettopp annonsert en investering på 1 milliard dollar, og Bain & Company så vel som Deloitte er angivelig entusiastiske for å bruke disse verktøyene for å gjøre kundene sine mer "effektive".
Som med klimapåstandene, er det nødvendig å spørre: er grunnen til at politikere innfører grusom og ineffektiv politikk at de lider av mangel på bevis? En manglende evne til å "se mønstre", som BCG-artikkelen antyder? Forstår de ikke de menneskelige kostnadene ved sultende offentlig helsevesen midt i pandemier, eller å unnlate å investere i ikke-markedsmessige boliger når telt fyller byparkene våre, eller å godkjenne ny infrastruktur for fossilt brensel mens temperaturen stiger? Trenger de kunstig intelligens for å gjøre dem «smartere», for å bruke Schmidts begrep – eller er de akkurat smarte nok til å vite hvem som skal underskrive deres neste kampanje, eller, hvis de kommer på villspor, bankrollere sine rivaler?
Det ville vært veldig fint om AI virkelig kunne kutte koblingen mellom bedriftens penger og hensynsløs politikkutforming – men den koblingen har alt å gjøre med hvorfor selskaper som Google og Microsoft har fått lov til å gi ut chatbotene sine til offentligheten til tross for skredet av advarsler og kjente risikoer. Schmidt og andre har vært på en årelang lobbykampanje fortelle begge parter i Washington at hvis de ikke står fritt til å gå videre med generativ kunstig intelligens, uten byrder av seriøs regulering, vil vestlige makter bli liggende i støvet av Kina. I fjor, de beste teknologiselskapene brukt rekordhøye 70 millioner dollar for å drive lobbyvirksomhet i Washington – mer enn olje- og gassektoren – og den summen, bemerker Bloomberg News, er på toppen av millionene brukt «på deres brede utvalg av handelsgrupper, ideelle organisasjoner og tenketanker».
Og likevel til tross for deres intime kunnskap om nøyaktig hvordan penger former politikk i våre nasjonale hovedsteder, når du lytter til Sam Altman, administrerende direktør i OpenAI – produsent av ChatGPT – snakke om de beste scenarioene for produktene hans, ser alt dette ut til å være glemt. I stedet ser det ut til at han hallusinerer en verden helt ulik vår egen, en der politikere og industri tar beslutninger basert på de beste dataene og aldri vil sette utallige liv i fare for profitt og geopolitiske fordeler. Noe som bringer oss til en annen hallusinasjon.
Hallusinasjon #3: tech gigantene kan be klarert ikke til bryte verden
spurte hvis han er bekymret for det hektiske gullrushet ChatGPT allerede har utløst, sa Altman at han er det, men la til sangvint: "Forhåpentligvis vil alt ordne seg." Av hans andre tekniske administrerende direktører – de som konkurrerer om å få ut rivaliserende chatbots – sa han: "Jeg tror de bedre englene kommer til å vinne."
Bedre engler? Hos Google? Jeg er ganske sikker på selskapet sparken de fleste fordi de publiserte kritiske artikler om kunstig intelligens, eller kalte selskapet ut om rasisme og seksuell trakassering på arbeidsplassen. Flere "bedre engler" har slutte i alarm, sist Hinton. Det er fordi, i motsetning til hallusinasjonene til folk som tjener mest på AI, tar ikke Google beslutninger basert på hva som er best for verden – det tar beslutninger basert på hva som er best for Alphabets aksjonærer, som ikke vil gå glipp av den siste boblen, ikke når Microsoft, Meta og Apple allerede er all in.
Hallusinasjon #4:AI vil frigjøre us fra slit
Hvis Silicon Valleys velvillige hallusinasjoner virker plausible for mange, er det en enkel grunn til det. Generativ AI er for øyeblikket i det vi kan tenke på som sin faux-sosialisme-fase. Dette er en del av en nå kjent Silicon Valley-lekebok. Lag først et attraktivt produkt (en søkemotor, et kartleggingsverktøy, et sosialt nettverk, en videoplattform, en turandel …); gi det bort gratis eller nesten gratis i noen år, uten noen synlig levedyktig forretningsmodell ("Lek med robotene," forteller de oss, "se hvilke morsomme ting du kan lage!"); kom med mange høye påstander om hvordan du bare gjør det fordi du ønsker å skape et "bytorg" eller en "informasjonsallmenning" eller "koble sammen folket", alt mens du sprer frihet og demokrati (og ikke er "ond"). Deretter kan du se hvordan folk blir hekta ved å bruke disse gratisverktøyene og konkurrentene dine erklærer seg konkurs. Når feltet er klart, introduser de målrettede annonsene, den konstante overvåkingen, politi- og militærkontrakter, black-box-datasalget og de eskalerende abonnementsavgiftene.
Mange liv og sektorer har blitt desimert av tidligere gjentakelser av denne lekeboken, fra taxisjåfører til leiemarkeder til lokalaviser. Med AI-revolusjonen kan denne typen tap se ut som avrundingsfeil, med lærere, programmerere, billedkunstnere, journalister, oversettere, musikere, omsorgsarbeidere og så mange andre som står overfor utsiktene til å få inntektene erstattet av feilkode.
Ikke bekymre deg, AI-entusiastene hallusinerer – det blir fantastisk. Hvem liker jobb uansett? Generativ AI vil ikke være slutten på sysselsettingen, blir vi fortalt, bare "kjedelig arbeid” – med chatbots som hjelpsomt gjør alle de sjeleødeleggende, repeterende oppgavene og mennesker som bare overvåker dem. Altman på sin side, Sees en fremtid der arbeid «kan være et bredere begrep, ikke noe du må gjøre for å kunne spise, men noe du gjør som et kreativt uttrykk og en måte å finne tilfredsstillelse og lykke på».
Det er en spennende visjon om et vakrere, roligere liv, en mange venstreorienterte deler (inkludert Karl Marx' svigersønn, Paul Lafargue, som skrev en manifest med tittelen Retten til å være lat). Men vi venstreorienterte vet også at hvis det ikke lenger skal være livsnødvendig å tjene penger, så må det finnes andre måter å møte våre skapte behov for husly og næring. En verden uten dårlige jobber betyr at husleie må være gratis, og helsetjenester må være gratis, og hver person må ha umistelige økonomiske rettigheter. Og så snakker vi plutselig ikke om AI i det hele tatt – vi snakker om sosialisme.
Fordi vi ikke lever i den Star Trek-inspirerte rasjonelle, humanistiske verdenen som Altman ser ut til å hallusinere. Vi lever under kapitalismen, og under det systemet er ikke effekten av å oversvømme markedet med teknologier som på en sannsynlig måte kan utføre de økonomiske oppgavene til utallige arbeidende mennesker at disse menneskene plutselig er frie til å bli filosofer og kunstnere. Det betyr at disse menneskene vil finne seg selv å stirre ned i avgrunnen – med faktiske artister blant de første som faller.
Det er budskapet i Crabapples åpne brev, som oppfordrer «kunstnere, utgivere, journalister, redaktører og fagforeningsledere for journalistikk til å ta et løfte for menneskelige verdier mot bruk av generative AI-bilder» og «forplikte seg til å støtte redaksjonell kunst laget av mennesker , ikke serverfarmer». Brevet, nå signert av hundrevis av kunstnere, journalister og andre, uttaler at alle unntatt de mest elitekunstnere finner arbeidet sitt "i fare for utryddelse". Og ifølge Hinton, "gudfaren til AI", er det ingen grunn til å tro at trusselen ikke vil spre seg. Chatbotene tar "bort sliten", men "det kan ta bort mer enn det".
Crabapple og hennes medforfattere skriver: "Generativ AI-kunst er vampyrisk, og nyter tidligere generasjoners kunstverk, selv om den suger livsnerven fra levende kunstnere." Men det finnes måter å motstå: Vi kan nekte å bruke disse produktene og organisere oss for å kreve at våre arbeidsgivere og regjeringer også avviser dem. EN brev fra fremtredende forskere innen AI-etikk, inkludert Timnit Gebru som ble sparket av Google i 2020 for å utfordre diskriminering på arbeidsplassen, presenterer noen av reguleringsverktøyene som myndigheter kan innføre umiddelbart – inkludert full åpenhet om hvilke datasett som brukes til å trene modellene. Forfatterne skriver: "Ikke bare bør det alltid være klart når vi møter syntetiske medier, men organisasjoner som bygger disse systemene bør også være pålagt å dokumentere og avsløre treningsdata og modellarkitekturer .... Vi burde bygge maskiner som fungerer for oss, i stedet for å «tilpasse» samfunnet til å være maskinlesbare og skrivbare.»
Selv om teknologiselskaper vil at vi skal tro at det allerede er for sent å rulle tilbake dette menneskeerstattende, masse-mimicry-produktet, er det svært relevante juridiske og regulatoriske presedenser som kan håndheves. For eksempel, US Federal Trade Commission (FTC) tvang Cambridge Analytica, så vel som Everalbum, eieren av en fotoapp, for å ødelegge hele algoritmer som ble funnet å ha blitt trent på illegitimt tilegnede data og skrapte bilder. I sine tidlige dager kom Biden-administrasjonen med mange dristige påstander om regulering av storteknologi, inkludert å slå ned på tyveri av personopplysninger for å bygge proprietære algoritmer. Med et presidentvalg som nærmer seg med stormskritt, ville nå være et godt tidspunkt å innfri disse løftene – og avverge neste sett med masseoppsigelser før de skjer.
En verden av dype forfalskninger, mimikkløkker og økende ulikhet er ikke en uunngåelig. Det er et sett med politiske valg. Vi kan regulere den nåværende formen for vampyriske chatboter ut av eksistensen – og begynne å bygge en verden der AIs mest spennende løfter ville være mer enn Silicon Valley-hallusinasjoner.
Fordi vi trente maskinene. Alle oss. Men vi ga aldri vårt samtykke. De livnærte seg på menneskehetens kollektive oppfinnsomhet, inspirasjon og åpenbaringer (sammen med våre mer venale egenskaper). Disse modellene er inngjerdings- og tilegnelsesmaskiner, som fortærer og privatiserer våre individuelle liv så vel som våre kollektive intellektuelle og kunstneriske arv. Og målet deres var aldri å løse klimaendringene eller gjøre myndighetene våre mer ansvarlige eller hverdagen vår mer rolig. Det var alltid for å tjene på masseimmisering, som under kapitalismen er den grelle og logiske konsekvensen av å erstatte menneskelige funksjoner med roboter.
Er alt dette for dramatisk? En tett og refleksiv motstand mot spennende innovasjon? Hvorfor forvente det verre? Altman beroliger oss: "Ingen ønsker å ødelegge verden." Kanskje ikke. Men som de stadig forverrede klima- og utryddelseskrisene viser oss hver dag, ser det ut til at mange mektige mennesker og institusjoner har det helt fint når de vet at de er med på å ødelegge stabiliteten til verdens livsstøttende systemer, så lenge de kan fortsette å lage rekord overskudd som de tror vil beskytte dem og deres familier mot de verste konsekvensene. Altman, som mange skapninger i Silicon Valley, er selv en prepper: tilbake i 2016, han skrøt: «Jeg har våpen, gull, kaliumjodid, antibiotika, batterier, vann, gassmasker fra den israelske forsvarsstyrken og en stor flekk i Big Sur jeg kan fly til.»
Jeg er ganske sikker på at disse faktaene sier mye mer om hva Altman faktisk tror om fremtiden han hjelper til med å slippe løs enn hvilke blomstrende hallusinasjoner han velger å dele i presseintervjuer.
Naomi Klein er en Guardian amerikansk spaltist og medvirkende skribent. Hun er bestselgerforfatteren av No Logo og The Shock Doctrine og professor i klimarettferdighet og meddirektør for Center for Climate Justice ved University of British Columbia
ZNetwork finansieres utelukkende gjennom generøsiteten til leserne.
Donere