Во многуте дебати што се вртат околу брзото ширење на таканаречената вештачка интелигенција, постои релативно нејасна пресметка фокусирана на изборот на зборот „халуцинира“.
Ова е терминот на кој архитектите и засилувачите на генеративната вештачка интелигенција се населиле за да ги карактеризираат одговорите сервирани од чет-ботови кои се целосно произведени или целосно погрешни. Како, на пример, кога барате од бот дефиниција за нешто што не постои и тој, прилично убедливо, ви дава една, комплет со измислени фусноти. „Никој на теренот сè уште не ги решил проблемите со халуцинации“, Сундар Пичаи, извршен директор на Google и Alphabet. изјави интервјуер неодамна.
Тоа е точно - но зошто грешките воопшто да се нарекуваат „халуцинации“? Зошто не алгоритамски ѓубре? Или баговите? Па, халуцинацијата се однесува на мистериозниот капацитет на човечкиот мозок да воочи феномени кои не се присутни, барем не во конвенционални, материјалистички термини. Со присвојување на зборот кој вообичаено се користи во психологијата, психоделиците и различните форми на мистицизам, засилувачите на вештачката интелигенција, иако ја признаваат погрешноста на нивните машини, истовремено ја потхрануваат најценетата митологија во секторот: тоа со градење на овие големи јазични модели и обучување на сè што ние луѓето сме напишале, кажале и претставиле визуелно, тие се во процес на раѓање на анимирана интелигенција на работ да предизвикаат еволутивен скок за нашиот вид. Како инаку би можеле ботови како Бинг и Бард да се сопнуваат таму во етерот?
Меѓутоа, во светот на вештачката интелигенција навистина се случуваат искривени халуцинации - но не се ботови тие што ги имаат; Технолошките извршни директори се тие кои ги ослободија, заедно со фалангата од нивните обожаватели, кои се во канџите на дивите халуцинации, и индивидуално и колективно. Овде ја дефинирам халуцинацијата не во мистична или психоделична смисла, состојби изменети од умот кои навистина можат да помогнат во пристапот до длабоки, претходно несогледани вистини. Не. Овие луѓе само се сопнуваат: гледаат, или барем тврдат дека ги гледаат доказите што воопшто ги нема, дури и замислуваат цели светови кои ќе ги користат нивните производи за нашето универзално воздигнување и образование.
Генеративната вештачка интелигенција ќе стави крај на сиромаштијата, ни велат. Ќе ги излечи сите болести. Ќе ги реши климатските промени. Тоа ќе ги направи нашите работни места позначајни и повозбудливи. Ќе ги ослободи животите на слободно време и размислување, помагајќи ни да ја вратиме човечноста што ја изгубивме поради доцната капиталистичка механизација. Ќе стави крај на осаменоста. Тоа ќе ги направи нашите влади рационални и одговорни. Се плашам дека ова се вистинските халуцинации со вештачка интелигенција и сите ги слушаме на јамка уште од лансирањето на Chat GPT на крајот на минатата година.
Постои свет во кој генеративната вештачка интелигенција, како моќна алатка за предвидување за истражување и изведувач на мачни задачи, навистина би можела да се насочи кон корист човештвото, другите видови и нашиот заеднички дом. Но, за да се случи тоа, овие технологии ќе треба да бидат распоредени во многу поинаков економски и социјален поредок од нашиот, кој има за цел да ги задоволи човечките потреби и да ги заштити планетарните системи што го поддржуваат целиот живот.
И како што ние што не се сопнуваме добро разбираме, нашиот сегашен систем не е ништо слично. Наместо тоа, тој е изграден за да го максимизира извлекувањето на богатството и профитот – и од луѓето и од природниот свет – реалност што нè доведе до она што би можеле да го сметаме за техно-некро фаза на капитализмот. Во таа реалност на хипер-концентрирана моќ и богатство, вештачката интелигенција - далеку од тоа да ги исполнува сите тие утописки халуцинации - е многу поверојатно да стане страшна алатка за натамошно одземање и ограбување.
Ќе копам зошто е тоа така. Но, прво, корисно е да размислите за намена служат утописките халуцинации за вештачката интелигенција. Каква работа прават овие добронамерни приказни во културата додека се среќаваме со овие чудни нови алатки? Еве една хипотеза: тие се моќните и примамливи насловни приказни за она што може да испадне како најголемата и најпоследната кражба во историјата на човештвото. Бидејќи она што го гледаме е најбогатите компании во историјата (Мајкрософт, Епл, Гугл, Мета, Амазон...) еднострано го запленуваат збирот на човечкото знаење што постои во дигитална форма што може да се гребе и го заградуваат во сопствени производи, од кои многу ќе земи директна цел кон луѓето чиј животен труд ги тренирал машините без да даде дозвола или согласност.
Ова не треба да биде легално. Во случај на материјал заштитен со авторски права што ние сега Знам ги обучуваше моделите (вклучувајќи го и овој весник), различни тужби се поднесени кои ќе тврдат дека ова е јасно незаконски. Зошто, на пример, треба да и биде дозволено на една профитна компанија да ги внесува сликите, цртежите и фотографиите на живите уметници во програма како Stable Diffusion или Dall-E 2 за да може потоа да се користи за генерирање верзии на верзии на тие уметници. работа, при што придобивките течат за сите освен за самите уметници?
Сликарката и илустраторка Моли Крапапл помага да го води движењето на уметници кои ја предизвикуваат оваа кражба. „Генераторите на уметност со вештачка интелигенција се обучени за огромни збирки на податоци, кои содржат милиони и милиони слики заштитени со авторски права, собрани без знаење на нивниот креатор, а камоли компензација или согласност. Ова е всушност најголемиот грабеж на уметност во историјата. Извршено од корпоративни субјекти кои изгледаат како угледни поддржани од ризичен капитал од Силиконската долина. Тоа е грабеж на бел ден“, ново отвори писмото кое таа го подготвила заедно.
Трикот, се разбира, е во тоа што Силиконската долина рутински ја нарекува кражбата „нарушување“ - и премногу често се извлекува со тоа. Го знаеме овој потег: нафрлете се напред кон територијата без закони; тврдат дека старите правила не важат за вашата нова технологија; врескајте дека регулативата само ќе и помогне на Кина – сето тоа додека ги сфаќате вашите факти цврсто на теренот. До моментот кога сите ќе ја надминеме новината на овие нови играчки и ќе почнеме да правиме сметка за социјалните, политичките и економските остатоци, технологијата е веќе толку присутна што кратко и креаторите на политиката ги креваат рацете.
Тоа го видовме со скенирањето на книги и уметност на Google. Со вселенската колонизација на Маск. Со нападот на Uber врз такси индустријата. Со нападот на Airbnb на пазарот за изнајмување. Со промискуитетот на Фејсбук со нашите податоци. Не барајте дозвола, нарушувачите сакаат да кажат, побарајте прошка. (И подмачкајте ги прашањата со дарежливи придонеси за кампањата.)
Во ерата на надзорниот капитализам, Шошана Зубоф прецизно објаснува како мапите на „Уличен приказ“ на Google ги превртувале нормите за приватност со испраќање на своите автомобили украсени со камера да ги фотографираат нашите јавни патишта и надворешноста на нашите домови. До моментот кога се појавија тужбите за одбрана на правата на приватност, Street View веќе беше толку присутен на нашите уреди (и толку кул, и толку удобен ...) што неколку судови надвор Германија беа подготвени да интервенираат.
Сега истото што се случи со надворешноста на нашите домови се случува со нашите зборови, нашите слики, нашите песни, целиот наш дигитален живот. Сите моментално се запленети и се користат за обука на машините да симулираат размислување и креативност. Овие компании мора да знаат дека се занимаваат со кражба, или барем дека а силен случај може да се направи дека се. Тие само се надеваат дека старата книга ќе работи уште еднаш - дека обемот на грабежот е веќе толку голем и се расплетува со такви забрза дека судовите и креаторите на политиката повторно ќе ги кренат рацете пред наводната неизбежност на сето тоа.
Тоа е, исто така, зошто нивните халуцинации за сите прекрасни работи што вештачката интелигенција ќе ги направи за човештвото се толку важни. Затоа што тие високи тврдења ја прикриваат оваа масовна кражба како подарок - во исто време кога помагаат да се рационализираат непобитните опасности на вештачката интелигенција.
До сега, повеќето од нас слушнале за анкета што побара од истражувачите и развивачите на вештачка интелигенција да ја проценат веројатноста дека напредните системи со вештачка интелигенција ќе предизвикаат „човечко истребување или слично трајно и сериозно обезмоќување на човечкиот вид“. Застрашувачки, средниот одговор беше дека има 10% шанси.
Како се рационализира одењето на работа и исфрлањето алатки кои носат такви егзистенцијални ризици? Често, причината е наведена дека овие системи исто така носат огромни потенцијални страни - освен што овие предности се, во најголем дел, халуцинаторни. Ајде да копаме во неколку од подивите.
Халуцинација #1: АИ ќе реши климата криза
Речиси непроменливо на врвот на листите со предности на вештачката интелигенција е тврдењето дека овие системи некако ќе ја решат климатската криза. Ова го слушнавме од сите од Светскиот економски форум до Советот за надворешни односи до Бостон консултантска група, што објаснува дека вештачката интелигенција „може да се користи за поддршка на сите засегнати страни во преземањето поинформиран и поинформиран пристап базиран на податоци за борба против емисиите на јаглерод и градење позелено општество. Таа, исто така може да се искористи за да се претегнат глобалните климатски напори кон најзагрозените региони“. Поранешниот извршен директор на Google Ерик Шмит го сумираше случајот кога тој изјави Атлантикот дека ризиците на вештачката интелигенција вредеа да се преземат, бидејќи „Ако размислувате за најголемите проблеми во светот, сите тие се навистина тешки – климатските промени, човечките организации итн. И така, секогаш сакам луѓето да бидат попаметни“.
Според оваа логика, неуспехот да се „решат“ големите проблеми како климатските промени се должи на дефицит на памет. Не ми смета што паметните луѓе, напорни со докторати и нобелови награди, со децении им кажуваат на нашите влади што треба да се случи за да се излезе од овој хаос: да ги намалиме нашите емисии, да оставиме јаглерод во земјата, да се справиме со прекумерната потрошувачка на богатите и недоволната потрошувачка. на сиромашните бидејќи ниту еден извор на енергија не е ослободен од еколошки трошоци.
Причината зошто овој многу паметен совет е игнориран не е поради проблем со читање со разбирање или затоа што некако ни требаат машини за да размислуваат наместо нас. Тоа е затоа што ако го правиме она што го бара климатската криза од нас, ќе се заглави трилиони долари на средствата од фосилни горива, истовремено предизвикувајќи го моделот на раст базиран на потрошувачка во срцето на нашите меѓусебно поврзани економии. Климатската криза, всушност, не е мистерија или загатка што сè уште не сме ја решиле поради недоволно робусни збирки податоци. Знаеме што би било потребно, но тоа не е брзо решение - тоа е промена на парадигмата. Чекањето машините да исплукаат повкусен и/или профитабилен одговор не е лек за оваа криза, тоа е уште еден нејзин симптом.
Исчистете ги халуцинациите и изгледа многу поверојатно дека вештачката интелигенција ќе биде претставена на пазарот на начини кои активно ја продлабочуваат климатската криза. Прво, огромните сервери кои овозможуваат инстант есеи и уметнички дела од чат-ботови се огромни и се зголемуваат извор на емисиите на јаглерод. Второ, бидејќи компаниите како Кока-Кола почнуваат да прават огромни инвестиции да се користи генеративната вештачка интелигенција за да се продаваат повеќе производи, станува премногу јасно дека оваа нова технологија ќе се користи на ист начин како и последната генерација на дигитални алатки: дека она што започнува со високи ветувања за ширење на слободата и демократијата завршува со микро таргетирање реклами на нас за да купуваме повеќе бескорисни работи што исфрлаат јаглерод.
И има и трет фактор, овој малку потешко да се утврди. Колку повеќе нашите медиумски канали се преплавени со длабоки фалсификати и клонови од различни видови, толку повеќе имаме чувство дека тонеме во информативниот жив песок. Џефри Хинтон, кој често се нарекува „кум на вештачката интелигенција“ бидејќи нервната мрежа што ја разви пред повеќе од една деценија ги формира градежните блокови на денешните големи јазични модели, добро го разбира ова. Тој штотуку се откажа од високата функција во Google за да може слободно да зборува за ризиците од технологијата што тој помогна да се создаде, вклучително и како што тој изјави Њујорк тајмс, ризикот дека луѓето „повеќе нема да можат да знаат што е вистина“.
Ова е многу релевантно за тврдењето дека вештачката интелигенција ќе помогне во борбата против климатската криза. Затоа што кога сме со недоверба во сè што читаме и гледаме во нашето сè понеобично медиумско опкружување, стануваме уште помалку опремени за решавање на итни колективни проблеми. Кризата на доверба, се разбира, претходи на ChatGPT, но нема сомнение дека ширењето на длабоки фалсификати ќе биде придружено со експоненцијално зголемување на веќе просперитетните култури на заговор. Значи, каква разлика ќе има ако вештачката интелигенција дојде до технолошки и научни откритија? Ако ткивото на споделената реалност се расплетува во нашите раце, ние ќе се најдеме себеси неспособни да одговориме со каква било кохерентност.
Халуцинација #2: АИ ќе испорача мудар управување
Оваа халуцинација предизвикува блиска иднина во која политичарите и бирократите, потпирајќи се на огромната збирна интелигенција на системите за вештачка интелигенција, ќе можат „да ги видат моделите на потреба и да развијат програми засновани на докази“ кои имаат поголема корист за нивните конституенти. Тоа тврдење доаѓа од А хартија објавено од фондацијата на Boston Consulting Group, но тоа се повторува во многу тинк-тенкови и менаџмент консултации. И тоа кажува дека овие конкретни компании - фирмите ангажирани од владите и другите корпорации за да ги идентификуваат заштедите на трошоците, често со отпуштање на голем број работници - најбрзо го прескокнаа вагонот за вештачка интелигенција. PwC (порано PricewaterhouseCoopers) само објави инвестиција од 1 милијарда долари, а Bain & Company, како и Deloitte, наводно, се ентузијасти да ги користат овие алатки за да ги направат своите клиенти поефективни.
Како и со тврдењата за климата, неопходно е да се запрашаме: дали причината што политичарите наметнуваат сурови и неефикасни политики страдаат од недостаток на докази? Неможност да се „видат обрасците“, како што сугерира трудот BCG? Зарем не ги разбираат човечките трошоци на гладува јавното здравство во услови на пандемии, или неуспехот да се инвестира во не-пазарно домување кога шаторите ги полнат нашите урбани паркови или одобрувањето на нова инфраструктура за фосилни горива додека температурите се зголемуваат? Дали им е потребна вештачка интелигенција за да ги направи „попаметни“, да го користам терминот на Шмит - или дали се доволно паметни за да знаат кој ќе ја преземе нивната следна кампања или, ако залутаат, ќе ги финансираат своите ривали?
Би било ужасно убаво ако вештачката интелигенција навистина може да ја прекине врската помеѓу корпоративните пари и непромисленото креирање политики - но таа врска има сè поврзана со тоа зошто на компаниите како Google и Microsoft им е дозволено да ги објавуваат своите чет-ботови во јавноста и покрај лавината од предупредувања и познати ризици. Шмит и други беа во долгогодишна кампања за лобирање кажувајќи двете страни во Вашингтон дека ако не се слободни да продолжат со генеративната вештачка интелигенција, неоптоварена со сериозна регулатива, тогаш западните сили ќе бидат оставени во прашина од Кина. Минатата година, врвните технолошки компании потрошени рекордни 70 милиони долари за лобирање во Вашингтон - повеќе од секторот за нафта и гас - и таа сума, забележува Блумберг њуз, е над милионите потрошени „на нивната широка палета на трговски групи, непрофитни организации и тинк-тенкови“.
А сепак, и покрај нивното интимно знаење за тоа како точно парите ја обликуваат политиката во нашите национални престолнини, кога ќе го слушате Сем Алтман, извршниот директор на OpenAI – креаторот на ChatGPT – како зборува за најдобри сценарија за неговите производи, сето ова се чини дека е заборавени. Наместо тоа, се чини дека тој халуцинира свет целосно различен од нашиот, свет во кој политичарите и индустријата носат одлуки врз основа на најдобри податоци и никогаш не би ги изложиле безброј животи на ризик поради профит и геополитичка предност. Што нè доведува до друга халуцинација.
Халуцинација #3: технологија гиганти може be доверлив не скрши го светот
Прашан Ако е загрижен за избезумената златна треска што веќе ја започна ChatGPT, Алтман рече дека е, но здраво додаде: „Се надевам дека сè ќе успее“. За неговите колеги технолошки извршни директори - оние кои се натпреваруваат да ги избркаат нивните ривалски чет-ботови - тој рече: „Мислам дека подобрите ангели ќе победат“.
Подобри ангели? Во Google? Прилично сум сигурен дека компанијата отпуштен повеќето од нив затоа што објавуваа критички трудови за вештачката интелигенција или ја повикуваа компанијата за расизам и сексуално вознемирување на работното место. Имаат повеќе „подобри ангели“. да престанам во тревога, неодамна Хинтон. Тоа е затоа што, спротивно на халуцинациите на луѓето кои најмногу профитираат од вештачката интелигенција, Google не донесува одлуки врз основа на она што е најдобро за светот - тој донесува одлуки врз основа на она што е најдобро за акционерите на Alphabet, кои не сакаат да го пропуштат најновиот балон, не кога Мајкрософт, Мета и Епл се веќе сите ин.
Халуцинација #4: АИ ќе ослободи us од макотрпност
Ако добронамерните халуцинации на Силиконската долина на многумина им изгледаат веродостојни, има едноставна причина за тоа. Генеративната вештачка интелигенција моментално е во она што може да го замислиме како негова фаза на лажен социјализам. Ова е дел од сега веќе познатата книга за игри во Силиконската долина. Прво, креирајте атрактивен производ (пребарувач, алатка за мапирање, социјална мрежа, видео платформа, споделување на возење...); подарете го бесплатно или речиси бесплатно неколку години, без забележлив остварлив бизнис модел („Играјте си со ботови“, ни велат тие, „видете какви забавни работи можете да создадете!“); направете многу високи тврдења за тоа како го правите тоа само затоа што сакате да создадете „градски плоштад“ или „информативна заедница“ или „поврзете ги луѓето“, а сето тоа истовремено шири слобода и демократија (а не сте „злобни“). Потоа гледајте како луѓето се закачуваат со користење на овие бесплатни алатки и како вашите конкуренти прогласуваат банкрот. Штом полето е јасно, воведете ги целните реклами, постојаниот надзор, полициските и воените договори, продажбата на податоци од црните кутии и зголемените претплати.
Многу животи и сектори беа десеткувани од претходните повторувања на оваа книга, од таксисти до пазари за изнајмување до локални весници. Со револуцијата на вештачката интелигенција, ваквите загуби би можеле да изгледаат како грешки при заокружување, при што наставниците, кодерите, визуелните уметници, новинарите, преведувачите, музичарите, работниците за нега и многу други се соочуваат со изгледите нивните приходи да бидат заменети со погрешна шифра.
Не грижете се, љубителите на вештачката интелигенција халуцинираат - ќе биде прекрасно. Кој сака работа сепак? Генеративната вештачка интелигенција нема да биде крај на вработувањето, ни велат, само “здодевна работа“ – со чет-ботови кои помагаат да ги извршуваат сите задачи што ги уништуваат душите, кои се повторуваат, а луѓето само ги надгледуваат. Алтман, од своја страна, гледа иднина каде што работата „може да биде поширок концепт, не нешто што треба да го направите за да можете да јадете, туку нешто што го правите како креативен израз и начин да најдете исполнетост и среќа“.
Тоа е возбудлива визија за поубав, лежерен живот, која ја споделуваат многу левичари (вклучувајќи го и зетот на Карл Маркс, Пол Лафарг, кој напишал Манифестот со наслов Правото да се биде мрзлив). Но, ние левичарите исто така знаеме дека ако заработувањето пари повеќе не е животен императив, тогаш мора да има други начини да ги задоволиме нашите суштествени потреби за засолниште и издршка. Светот без гадни работни места значи дека киријата треба да биде бесплатна, а здравството треба да биде бесплатно и секој човек да има неотуѓиви економски права. И тогаш одеднаш воопшто не зборуваме за вештачка интелигенција - зборуваме за социјализам.
Затоа што не живееме во рационалниот, хуманистички свет инспириран од „Ѕвездени патеки“ за кој се чини дека Алтман халуцинира. Живееме под капитализам, и под тој систем, ефектите од преплавувањето на пазарот со технологии кои можат веродостојно да ги извршуваат економските задачи на безброј работници не е дека тие луѓе одеднаш се слободни да станат филозофи и уметници. Тоа значи дека тие луѓе ќе се најдат како зјапаат во бездната – со вистински уметници меѓу првите што ќе паднат.
Тоа е пораката од отвореното писмо на Крапапл, кое ги повикува „уметниците, издавачите, новинарите, уредниците и лидерите на новинарските синдикати да се заложат за човечки вредности против употребата на слики со генеративна вештачка интелигенција“ и „да се посветат на поддршка на уредувачката уметност создадена од луѓе. , а не серверски фарми“. Писмото, сега потпишан од стотици уметници, новинари и други, наведува дека сите освен најелитните уметници ја наоѓаат својата работа „во опасност од исчезнување“. И според Хинтон, „кум на вештачката интелигенција“, нема причина да се верува дека заканата нема да се прошири. „Четботите“ ја „одземаат работата“ но „може да одземе повеќе од тоа“.
Крапапл и нејзините коавтори пишуваат: „Генеративната уметност со вештачка интелигенција е вампирска, се насладува со уметнички дела од минатите генерации, дури и кога ја цица крвта од живите уметници“. Но, постојат начини да се спротивставиме: можеме да одбиеме да ги користиме овие производи и да се организираме за да бараме и нашите работодавци и влади да ги отфрлат. А писмо од истакнати научници за етика на вештачката интелигенција, вклучително и Тимнит Гебру, кој беше отпуштен од Google во 2020 година поради предизвикување дискриминација на работното место, изложува некои од регулаторните алатки што владите можат веднаш да ги воведат - вклучително и целосна транспарентност за тоа кои сетови на податоци се користат за обука на моделите. Авторите пишуваат: „Не само што секогаш треба да биде јасно кога се среќаваме со синтетички медиуми, туку и од организациите што ги градат овие системи треба да се бара да ги документираат и откријат податоците за обуката и архитектурите на моделите…. Треба да градиме машини што работат за нас, наместо да го „прилагодиме“ општеството да биде машински читливо и запишување“.
Иако технолошките компании би сакале да веруваме дека е веќе предоцна да се врати овој производ со масовна мимикрија што го заменува човекот, постојат многу релевантни правни и регулаторни преседани што може да се применат. На пример, Федералната трговска комисија на САД (FTC) принудени Кембриџ Аналитика, како и Евералбум, сопственик на апликација за фотографии, да уништат цели алгоритми за кои е откриено дека биле обучени за нелегитимно присвоени податоци и избришани фотографии. Во раните денови, администрацијата на Бајден изнесе многу смели тврдења за регулирање на големата технологија, вклучително и сузбивање на кражбата на лични податоци за да се изградат сопственички алгоритми. Со брзо приближување на претседателските избори, сега би било добро време да се исполнат тие ветувања - и да се избегнат следните масовни отпуштања пред тие да се случат.
Светот на длабоки фалсификати, мимикрија и влошена нееднаквост не е неизбежна. Тоа е збир на политички избори. Можеме да ја регулираме сегашната форма на вампирски чет-ботови надвор од постоењето - и да започнеме да го градиме светот во кој највозбудливите ветувања на вештачката интелигенција би биле повеќе од халуцинации во Силиконската долина.
Затоа што ги трениравме машините. Сите ние. Но, ние никогаш не дадовме согласност. Тие се хранеа со колективната генијалност, инспирација и откровенија на човештвото (заедно со нашите повеќе венски особини). Овие модели се машини за затворање и присвојување, кои ги голтаат и приватизираат нашите индивидуални животи, како и нашите колективни интелектуални и уметнички наследства. И нивната цел никогаш не била да ги решат климатските промени или да ги направат нашите влади поодговорни или нашиот секојдневен живот порелаксиран. Секогаш требаше да се профитира од масовното омаловажување, кое, во капитализмот, е очигледна и логична последица на замената на човечките функции со ботови.
Дали сето ова е премногу драматично? Загушлив и рефлексивен отпор кон возбудливите иновации? Зошто да се очекува полошо? Алтман уверува нас: „Никој не сака да го уништи светот“. Можеби не. Но, како што постојано се влошува климата и кризите со истребување ни покажуваат секој ден, многу моќни луѓе и институции се чини дека се во ред, знаејќи дека помагаат да се уништи стабилноста на светските системи за одржување живот, сè додека можат да продолжат да прават рекорд профит за кој веруваат дека ќе ги заштити нив и нивните семејства од најлошите ефекти. Алтман, како и многу суштества од Силиконската долина, и самиот е препер: уште во 2016 година, тој се пофали: „Имам пиштоли, злато, калиум јодид, антибиотици, батерии, вода, гас-маски од израелските одбранбени сили и голема површина во Биг Сур до која можам да летам“.
Сигурен сум дека тие факти кажуваат многу повеќе за тоа што Алтман всушност верува за иднината на која помага да се ослободи, отколку какви било халуцинации што тој избира да ги сподели во интервјуата за печатот.
Наоми Клајн е колумнистка на Гардијан во САД и писателка. Таа е најпродавана авторка на „Без лого“ и „Шок доктрина“ и професорка по климатска правда и ко-директор на Центарот за климатска правда на Универзитетот во Британска Колумбија.
ZNetwork се финансира исклучиво преку великодушноста на неговите читатели.
Донирајте