W wielu debatach toczących się wokół szybkiego wprowadzenia tak zwanej sztucznej inteligencji toczy się stosunkowo mało znana potyczka skupiona na wyborze słowa „halucynacje”.
Jest to termin, który przyjęli architekci i zwolennicy generatywnej sztucznej inteligencji, aby scharakteryzować odpowiedzi dostarczane przez chatboty, które są w całości wyprodukowane lub całkowicie błędne. Jak na przykład wtedy, gdy pytasz bota o definicję czegoś, co nie istnieje, a on w dość przekonujący sposób podaje ci pierwszej, wraz z wymyślonymi przypisami. „Nikt w tej dziedzinie nie rozwiązał jeszcze problemu halucynacji” – Sundar Pichai, dyrektor generalny Google i Alphabet, powiedział niedawno przeprowadzający wywiad.
To prawda – ale po co w ogóle nazywać te błędy „halucynacjami”? Dlaczego nie algorytmiczne śmieci? Albo usterki? Cóż, halucynacje odnoszą się do tajemniczej zdolności ludzkiego mózgu do postrzegania zjawisk, które nie istnieją, przynajmniej nie w konwencjonalnym, materialistycznym ujęciu. Przywłaszczając sobie słowo powszechnie używane w psychologii, psychedelikach i różnych formach mistycyzmu, zwolennicy sztucznej inteligencji, uznając zawodność swoich maszyn, jednocześnie podsycają najbardziej cenioną mitologię w branży: budując te duże modele językowe i szkoląc je we wszystkim, co my, ludzie, napisaliśmy, powiedzieliśmy i przedstawiliśmy wizualnie, oni są w trakcie narodzin ożywionej inteligencji, która jest o krok od zainicjowania skoku ewolucyjnego dla naszego gatunku. Jak inaczej boty takie jak Bing i Bard mogłyby potykać się w eterze?
Jednak w świecie sztucznej inteligencji rzeczywiście zdarzają się wypaczone halucynacje – ale to nie boty je mają; to dyrektorzy generalni ds. technologii, którzy je wypuścili, wraz z falangą ich fanów, którzy zarówno indywidualnie, jak i zbiorowo, padają ofiarą dzikich halucynacji. Tutaj definiuję halucynację nie w sensie mistycznym czy psychodelicznym, jako stany zmiany umysłu, które rzeczywiście mogą pomóc w dostępie do głębokich, wcześniej niedostrzeganych prawd. Nie. Ci ludzie po prostu błądzą: widzą lub przynajmniej twierdzą, że widzą dowody, których w ogóle nie ma, a nawet przywołują całe światy, które wykorzystają ich produkty dla naszego powszechnego wyniesienia i edukacji.
Mówią nam, że generatywna sztuczna inteligencja położy kres ubóstwu. Wyleczy wszelkie choroby. To rozwiąże problem zmian klimatycznych. Dzięki temu nasza praca stanie się bardziej sensowna i ekscytująca. Uwolni życie pełne wypoczynku i kontemplacji, pomagając nam odzyskać człowieczeństwo, które utraciliśmy w wyniku mechanizacji późnego kapitalizmu. To zakończy samotność. Dzięki temu nasze rządy będą racjonalne i elastyczne. Obawiam się, że są to prawdziwe halucynacje AI i wszyscy słyszymy je w kółko od czasu uruchomienia Chat GPT pod koniec ubiegłego roku.
Istnieje świat, w którym generatywna sztuczna inteligencja, jako potężne narzędzie do badań predykcyjnych i wykonujące żmudne zadania, mogłaby rzeczywiście zostać wykorzystana do korzyści ludzkość, inne gatunki i nasz wspólny dom. Aby jednak tak się stało, technologie te musiałyby zostać wdrożone w zupełnie innym porządku gospodarczym i społecznym niż nasz, którego celem było zaspokojenie ludzkich potrzeb i ochrona systemów planetarnych, które podtrzymują całe życie.
A ci z nas, którzy obecnie nie podróżują, dobrze rozumieją, nasz obecny system wcale taki nie jest. Jest raczej zbudowany tak, aby maksymalizować wydobywanie bogactwa i zysków – zarówno z ludzi, jak i ze świata przyrody – co doprowadziło nas do tego, co moglibyśmy uznać za etap techno-nekrokrypcji kapitalizmu. W rzeczywistości hiperskoncentrowanej władzy i bogactwa sztuczna inteligencja – daleka od spełnienia tych wszystkich utopijnych halucynacji – z dużo większym prawdopodobieństwem stanie się przerażającym narzędziem dalszego wywłaszczenia i grabieży.
Zastanowię się, dlaczego tak jest. Ale najpierw warto pomyśleć o cel służą utopijne halucynacje na temat sztucznej inteligencji. Jaką pracę w kulturze wykonują te życzliwe historie, gdy spotykamy te nowe, dziwne narzędzia? Oto jedna z hipotez: stanowią one potężną i kuszącą przykrywkę dla czegoś, co może okazać się największą i najbardziej konsekwentną kradzieżą w historii ludzkości. Ponieważ jesteśmy świadkami tego, jak najbogatsze firmy w historii (Microsoft, Apple, Google, Meta, Amazon…) jednostronnie przejmują całą ludzką wiedzę, która istnieje w cyfrowej, możliwej do zeskrobania formie, i zamykają ją w zastrzeżonych produktach, z których wiele będzie wycelować bezpośrednio w ludzi, których całe życie pracowało nad maszynami, bez pozwolenia i zgody.
To nie powinno być legalne. W przypadku materiałów chronionych prawem autorskim, które mamy obecnie wiedzieć przeszkolili modele (w tym tę gazetę), różne pozwów złożono wniosek, który będzie argumentował, że było to wyraźnie nielegalne. Dlaczego na przykład firma nastawiona na zysk miałaby mieć możliwość umieszczania obrazów, rysunków i fotografii żyjących artystów w programach takich jak Stable Diffusion lub Dall-E 2, aby można było je następnie wykorzystać do wygenerowania podwójnych wersji twórczości tych samych artystów? pracować, z korzyściami dla wszystkich oprócz samych artystów?
Malarka i ilustratorka Molly Crabapple pomaga przewodzić ruchowi artystów sprzeciwiającym się tej kradzieży. „Generatorzy dzieł sztuki AI są szkoleni na ogromnych zbiorach danych, zawierających miliony obrazów chronionych prawem autorskim, zebranych bez wiedzy ich twórcy, nie mówiąc już o zadośćuczynieniu czy zgodzie. To faktycznie największy napad na dzieła sztuki w historii. Dokonywane przez wyglądające na szanowane podmioty korporacyjne wspierane przez kapitał wysokiego ryzyka z Doliny Krzemowej. To rozbój w biały dzień” – nowość koncepcja w piśmie, którego była współautorką, stwierdza.
Rzecz w tym, że Dolina Krzemowa rutynowo nazywa kradzież „zakłóceniem” – i zbyt często uchodzi jej to na sucho. Znamy ten ruch: szarżuj na terytorium bezprawia; twierdząc, że stare zasady nie mają zastosowania do Twojej nowej technologii; krzyczeć, że regulacje pomogą tylko Chinom – a wszystko to pod warunkiem solidnego przedstawienia faktów. Zanim wszyscy pogodzimy się z nowością tych nowych zabawek i zaczniemy oceniać ruiny społeczne, polityczne i gospodarcze, technologia będzie już tak wszechobecna, że Sądy a decydenci rozkładają ręce.
Widzieliśmy to podczas skanowania książek i dzieł sztuki w Google. Z kolonizacją kosmosu Muska. Z atakiem Ubera na branżę taksówkarską. Wraz z atakiem Airbnb na rynek wynajmu. Z rozwiązłością Facebooka w stosunku do naszych danych. Nie proś o pozwolenie, lubią mawiać zakłócacze, proś o przebaczenie. (I nasmaruj prośby hojnymi datkami na kampanię.)
W dobie kapitalizmu nadzoru Shoshana Zuboff szczegółowo opisuje, jak mapy Google Street View przekroczyły normy prywatności, wysyłając swoje wyposażone w kamery samochody, aby fotografowały nasze drogi publiczne i zewnętrzną część naszych domów. Do czasu, gdy rozgorzały pozwy w obronie praw do prywatności, Street View było już tak wszechobecne na naszych urządzeniach (i tak fajne i tak wygodne…), że niewiele sądów poza nim Niemcy byli gotowi interweniować.
Teraz to samo, co stało się z zewnętrzną częścią naszych domów, dzieje się z naszymi słowami, naszymi obrazami, naszymi piosenkami i całym naszym cyfrowym życiem. Wszystkie są obecnie przechwytywane i wykorzystywane do szkolenia maszyn symulujących myślenie i kreatywność. Firmy te muszą wiedzieć, że dokonują kradzieży, a przynajmniej że: mocna sprawa można sprawić, że takie są. Mają tylko nadzieję, że stary schemat jeszcze raz zadziała – że skala napadu jest już tak duża i rozwija się z taką prędkość że sądy i decydenci ponownie rozłożą ręce w obliczu rzekomej nieuchronności tego wszystkiego.
Dlatego też tak ważne są ich halucynacje na temat wszystkich cudownych rzeczy, które sztuczna inteligencja zrobi dla ludzkości. Ponieważ te wzniosłe twierdzenia maskują masową kradzież jako prezent, a jednocześnie pomagają racjonalizować niezaprzeczalne zagrożenia związane ze sztuczną inteligencją.
Większość z nas słyszała już o tzw badanie w którym zwrócono się do badaczy i twórców sztucznej inteligencji o oszacowanie prawdopodobieństwa, że zaawansowane systemy sztucznej inteligencji spowodują „wyginięcie ludzkości lub w podobny sposób trwałe i poważne pozbawianie mocy gatunku ludzkiego”. Co przerażające, mediana odpowiedzi była taka, że prawdopodobieństwo wynosi 10%.
Jak racjonalizować pójście do pracy i wyrzucenie narzędzi niosących ze sobą tak egzystencjalne ryzyko? Często jako powód podaje się fakt, że systemy te mają również ogromny potencjał, z tą różnicą, że są one w większości halucynacyjne. Przyjrzyjmy się kilku bardziej dzikim.
Halucynacja #1: SI będzie rozwiązać klimat kryzys
Niemal niezmiennie na szczycie listy zalet sztucznej inteligencji znajduje się twierdzenie, że systemy te w jakiś sposób rozwiążą kryzys klimatyczny. Słyszeliśmy to od wszystkich z tzw Światowe Forum Ekonomiczne do Rada ds. Stosunków Zagranicznych do Boston Consulting Group, w którym wyjaśniono, że sztuczną inteligencję „można wykorzystać do wspierania wszystkich zainteresowanych stron w przyjmowaniu bardziej świadomego i opartego na danych podejścia do zwalczania emisji gazów cieplarnianych i budowania bardziej ekologicznego społeczeństwa. Można go również wykorzystać do ponownego rozważenia globalnych wysiłków klimatycznych w kierunku regionów najbardziej zagrożonych”. Były dyrektor generalny Google, Eric Schmidt, podsumował sprawę, gdy: powiedział Atlantyku, że warto podjąć ryzyko związane ze sztuczną inteligencją, ponieważ „Jeśli pomyślisz o największych problemach świata, wszystkie są naprawdę trudne – zmiany klimatyczne, organizacje ludzkie i tak dalej. Dlatego zawsze chcę, żeby ludzie byli mądrzejsi”.
Zgodnie z tą logiką niepowodzenie w „rozwiązaniu” dużych problemów, takich jak zmiany klimatyczne, wynika z deficytu inteligencji. Nieważne, że mądrzy ludzie, obciążeni doktoratami i nagrodami Nobla, od dziesięcioleci mówią naszym rządom, co musi się wydarzyć, aby wyjść z tego bałaganu: ograniczyć emisje, pozostawić węgiel w ziemi, zająć się nadmierną konsumpcją bogatych i niedostateczną konsumpcją biednych, ponieważ żadne źródło energii nie jest wolne od kosztów ekologicznych.
Powodem zignorowania tej bardzo mądrej rady nie jest problem z czytaniem ze zrozumieniem ani to, że w jakiś sposób potrzebujemy maszyn, które myślą za nas. Dzieje się tak dlatego, że robienie tego, czego wymaga od nas kryzys klimatyczny, utknęłoby w martwym punkcie tryliony dolarów zasobów paliw kopalnych, kwestionując jednocześnie model wzrostu oparty na konsumpcji, będący podstawą naszych wzajemnie połączonych gospodarek. Kryzys klimatyczny nie jest tak naprawdę tajemnicą czy zagadką, której jeszcze nie rozwiązaliśmy ze względu na niewystarczająco solidne zbiory danych. Wiemy, czego by to wymagało, ale nie jest to rozwiązanie szybkie – to zmiana paradygmatu. Czekanie, aż maszyny wypluną smaczniejszą i/lub opłacalną odpowiedź, nie jest lekarstwem na ten kryzys, ale jest jego kolejnym symptomem.
Jeśli pozbędziesz się halucynacji, znacznie bardziej prawdopodobne będzie wprowadzenie sztucznej inteligencji na rynek w sposób aktywnie pogłębiający kryzys klimatyczny. Po pierwsze, gigantyczne serwery, które umożliwiają natychmiastowe pisanie esejów i dzieł sztuki za pomocą chatbotów, są ogromne i stale się rozwijają źródło emisji dwutlenku węgla. Po drugie, gdy firmy takie jak Coca-Cola zaczną produkować ogromne inwestycje wykorzystania generatywnej sztucznej inteligencji do sprzedaży większej liczby produktów, staje się aż nazbyt jasne, że ta nowa technologia będzie wykorzystywana w taki sam sposób, jak narzędzia cyfrowe poprzedniej generacji: że to, co zaczyna się od wzniosłych obietnic dotyczących szerzenia wolności i demokracji, kończy się na mikrotargetowaniu reklam na nas, abyśmy kupowali więcej bezużytecznych, emitujących dwutlenek węgla rzeczy.
Jest jeszcze trzeci czynnik, ten jest nieco trudniejszy do określenia. Im bardziej nasze kanały medialne są zalewane głębokimi podróbkami i różnego rodzaju klonami, tym bardziej mamy poczucie tonięcia w ruchomych piaskach informacyjnych. Geoffrey Hinton, często nazywany „ojcem chrzestnym sztucznej inteligencji”, ponieważ sieć neuronowa, którą opracował ponad dziesięć lat temu, stanowi podstawę dzisiejszych dużych modeli językowych, dobrze to rozumie. Właśnie zrezygnował ze starszego stanowiska w Google, aby móc swobodnie wypowiadać się na temat zagrożeń związanych z technologią, którą pomógł stworzyć, m.in. powiedział „The New York Times” ryzyko, że ludzie „nie będą już w stanie dowiedzieć się, co jest prawdą”.
Jest to bardzo istotne w kontekście twierdzenia, że sztuczna inteligencja pomoże w walce z kryzysem klimatycznym. Ponieważ kiedy nie ufamy wszystkiemu, co czytamy i widzimy w naszym coraz bardziej niesamowitym środowisku medialnym, stajemy się jeszcze mniej przygotowani do rozwiązywania palących problemów zbiorowych. Kryzys zaufania poprzedzał oczywiście ChatGPT, ale nie ma wątpliwości, że rozprzestrzenianiu się głębokich podróbek będzie towarzyszył wykładniczy wzrost już kwitnących kultur spiskowych. Jaka więc będzie różnica, jeśli sztuczna inteligencja dokona przełomów technologicznych i naukowych? Jeśli tkanka wspólnej rzeczywistości rozpadnie się w naszych rękach, nie będziemy w stanie w ogóle zareagować w sposób spójny.
Halucynacja #2: SI będzie dostarczyć mądry zarządzanie
Ta halucynacja przywołuje niedaleką przyszłość, w której politycy i biurokraci, korzystając z ogromnej, zagregowanej inteligencji systemów sztucznej inteligencji, będą w stanie „dostrzegać wzorce potrzeb i opracowywać programy oparte na dowodach”, które przyniosą większe korzyści ich wyborcom. Twierdzenie to pochodzi od a papier opublikowane przez fundację Boston Consulting Group, ale odbija się echem w wielu ośrodkach doradczych i firmach konsultingowych w zakresie zarządzania. Wymowne jest, że te konkretne firmy – firmy wynajęte przez rządy i inne korporacje w celu określenia oszczędności kosztów, często poprzez zwalnianie dużej liczby pracowników – najszybciej wskoczyły na modę AI. PwC (dawniej PricewaterhouseCoopers) właśnie ogłosił inwestycję o wartości 1 miliarda dolarów, a Bain & Company i Deloitte podobno entuzjastycznie podchodzą do korzystania z tych narzędzi, aby zwiększyć „wydajność” swoich klientów.
Podobnie jak w przypadku twierdzeń klimatycznych, należy zadać pytanie: czy powodem, dla którego politycy narzucają okrutną i nieskuteczną politykę, jest brak dowodów? Niezdolność do „dostrzeżenia wzorców”, jak sugeruje artykuł BCG? Czy oni nie rozumieją ludzkich kosztów głodujący publicznej opieki zdrowotnej w obliczu pandemii, czy też zaniechania inwestycji w mieszkania nierynkowe, gdy w naszych parkach miejskich zapełniają się namioty, lub zatwierdzenia nowej infrastruktury opartej na paliwach kopalnych w obliczu gwałtownie rosnących temperatur? Czy potrzebują sztucznej inteligencji, aby uczynić ich „mądrzejszymi”, używając określenia Schmidta – czy też są wystarczająco inteligentni, aby wiedzieć, kto sfinansuje ich następną kampanię lub, jeśli zbłądzą, finansuje swoich rywali?
Byłoby strasznie miło, gdyby sztuczna inteligencja naprawdę mogła zerwać powiązanie między pieniędzmi korporacji a lekkomyślnym kształtowaniem polityki – ale to powiązanie ma wszystko związek z tym, dlaczego firmom takim jak Google i Microsoft pozwolono na publiczne udostępnianie swoich chatbotów pomimo lawiny ostrzeżeń i znane ryzyko. Schmidt i inni prowadzą wieloletnią kampanię lobbującą mówi obie strony w Waszyngtonie, że jeśli nie będą mogły swobodnie rozwijać generatywnej sztucznej inteligencji, nieobciążonej poważnymi regulacjami, wówczas zachodnie mocarstwa zostaną przez Chiny pozostawione w tyle. W ubiegłym roku czołowe firmy technologiczne spędził rekordowe 70 milionów dolarów na lobbowanie w Waszyngtonie – więcej niż w sektorze ropy i gazu – a suma ta, jak zauważa Bloomberg News, przewyższa miliony wydane „na ich szeroką gamę grup handlowych, organizacji non-profit i ośrodków doradczych”.
A jednak pomimo ich dogłębnej wiedzy na temat tego, jak pieniądze kształtują politykę w naszych stolicach narodowych, gdy słuchasz Sama Altmana, dyrektora generalnego OpenAI – twórcy ChatGPT – mówiącego o najlepszych scenariuszach dla jego produktów, wszystko to wydaje się być zapomniany. Zamiast tego wydaje się, że ma halucynacje dotyczące świata całkowicie odmiennego od naszego, w którym politycy i przemysł podejmują decyzje w oparciu o najlepsze dane i nigdy nie narażaliby życia niezliczonej liczby osób dla zysku i korzyści geopolitycznej. Co prowadzi nas do kolejnej halucynacji.
Halucynacja #3: tech gigantów mogą be zaufany nie złamać świat
Spytał jeśli martwi się szaleńczą gorączką złota, którą ChatGPT już rozpętał, Altman stwierdził, że tak, ale dodał optymistycznie: „Mam nadzieję, że wszystko się ułoży”. O swoich kolegach dyrektorach generalnych ds. technologii – tych, którzy rywalizują o wyprzedzenie konkurencyjnych chatbotów – powiedział: „Myślę, że zwyciężą lepsze anioły”.
Lepsze anioły? W Google’u? Jestem pewien, że firma zwolniony większość z nich wynikała z publikowania krytycznych artykułów na temat sztucznej inteligencji lub krytykowania firmy w związku z rasizmem i molestowaniem seksualnym w miejscu pracy. Mają więcej „lepszych aniołów”. porzucić w stanie alarmu, ostatnio Hinton. Dzieje się tak dlatego, że wbrew halucynacjom osób czerpiących największe zyski z AI, Google nie podejmuje decyzji w oparciu o to, co najlepsze dla świata – podejmuje decyzje w oparciu o to, co najlepsze dla akcjonariuszy Alphabetu, którzy nie chcą przegapić najnowszej bańki, nie kiedy Microsoft, Meta i Apple już w tym uczestniczą.
Halucynacja #4: SI będzie uwalniać us od mordęga
Jeśli dla wielu życzliwe halucynacje Doliny Krzemowej wydają się prawdopodobne, istnieje ku temu prosty powód. Generatywna sztuczna inteligencja znajduje się obecnie w fazie, którą możemy nazwać faux-socjalizmem. Jest to część znanego podręcznika Doliny Krzemowej. Najpierw utwórz atrakcyjny produkt (wyszukiwarkę, narzędzie do mapowania, sieć społecznościową, platformę wideo, wspólne przejazdy…); rozdawajcie to za darmo lub prawie za darmo przez kilka lat, bez żadnego dostrzegalnego wykonalnego modelu biznesowego („Pobaw się z botami”, mówią nam, „zobacz, jakie fajne rzeczy możesz stworzyć!”); wysuwajcie wiele wzniosłych twierdzeń, że robicie to tylko dlatego, że chcecie stworzyć „rynek miejski”, „wspólne miejsce informacji” lub „połączyć ludzi”, a wszystko to przy okazji szerzenia wolności i demokracji (a nie bycia „złym”). Następnie zobacz, jak ludzie uzależniają się od korzystania z tych bezpłatnych narzędzi, a Twoja konkurencja ogłasza bankructwo. Gdy pole będzie już jasne, wprowadź ukierunkowane reklamy, stały nadzór, kontrakty policyjne i wojskowe, sprzedaż danych w czarnej skrzynce i rosnące opłaty abonamentowe.
Wcześniejsze wersje tego podręcznika zdziesiątkowały wiele istnień ludzkich i sektorów, od taksówkarzy po rynki wynajmu i lokalne gazety. W przypadku rewolucji sztucznej inteligencji tego rodzaju straty mogą przypominać błędy zaokrągleń, a nauczyciele, programiści, artyści wizualni, dziennikarze, tłumacze, muzycy, pracownicy opieki i wiele innych osób stoją przed perspektywą zastąpienia swoich dochodów wadliwym kodem.
Nie martw się, entuzjaści sztucznej inteligencji mają halucynacje – będzie cudownie. Kto w ogóle lubi pracować? Mówi się nam, że generatywna sztuczna inteligencja nie zakończy zatrudnienia, tylko „nudna praca” – z chatbotami pomocnymi w wykonywaniu wszystkich niszczących duszę, powtarzalnych zadań, a ludzie jedynie je nadzorują. Altman ze swojej strony widzi przyszłość, w której praca „może być szerszą koncepcją, a nie czymś, co musisz robić, żeby móc jeść, ale czymś, co robisz jako twórczy wyraz i sposób na odnalezienie spełnienia i szczęścia”.
To ekscytująca wizja piękniejszego, spokojniejszego życia, którą podziela wielu lewicowców (w tym zięć Karola Marksa, Paul Lafargue, który napisał książkę manifest zatytułowany „Prawo do lenistwa”). Ale my, lewicowcy, wiemy również, że jeśli zarabianie pieniędzy nie ma już być życiowym imperatywem, muszą istnieć inne sposoby zaspokojenia naszych istot stworzonych w zakresie schronienia i pożywienia. Świat bez kiepskiej pracy oznacza, że czynsz musi być bezpłatny, opieka zdrowotna musi być bezpłatna, a każdy człowiek musi mieć niezbywalne prawa ekonomiczne. I nagle w ogóle nie mówimy o sztucznej inteligencji – mówimy o socjalizmie.
Ponieważ nie żyjemy w racjonalnym, humanistycznym świecie inspirowanym Star Trekiem, który Altman wydaje się mieć halucynacje. Żyjemy w kapitalizmie i w ramach tego systemu skutki zalania rynku technologiami, które w wiarygodny sposób mogą wykonywać zadania gospodarcze niezliczonych ludzi pracy, nie polegają na tym, że ci ludzie nagle zyskują swobodę zostania filozofami i artystami. Oznacza to, że ci ludzie będą patrzeć w otchłań – a prawdziwi artyści będą wśród pierwszych, którzy spadną.
Takie jest przesłanie listu otwartego Crabapple, w którym wzywa się „artystów, wydawców, dziennikarzy, redaktorów i przywódców związków dziennikarskich do złożenia zobowiązania na rzecz wartości ludzkich przeciwko wykorzystywaniu obrazów generatywnej sztucznej inteligencji” oraz „zaangażowania się we wspieranie sztuki redakcyjnej tworzonej przez ludzi” , a nie farmy serwerów”. List, teraz podpisana przez setki artystów, dziennikarzy i nie tylko, stwierdza, że wszyscy artyści, z wyjątkiem tych najbardziej elitarnych, uważają, że ich prace są „zagrożone wyginięciem”. Zdaniem Hintona, „ojca chrzestnego sztucznej inteligencji”, nie ma powodu sądzić, że zagrożenie nie będzie się rozprzestrzeniać. Chatboty „eliminują mozolną pracę”, ale „mogą zabrać więcej”.
Crabapple i jej współautorzy piszą: „Sztuka generatywnej sztucznej inteligencji ma charakter wampiryczny i żeruje na dziełach przeszłych pokoleń, jednocześnie wysysając krew z żyjących artystów”. Są jednak sposoby, aby się temu przeciwstawić: możemy odmówić używania tych produktów i zorganizować żądanie, aby odrzucili je również nasi pracodawcy i rządy. A list autorstwa wybitnych badaczy etyki sztucznej inteligencji, w tym Timnita Gebru, który został zwolniony przez Google w 2020 r. za zwalczanie dyskryminacji w miejscu pracy, przedstawia niektóre narzędzia regulacyjne, które rządy mogą wprowadzić natychmiast – w tym pełną przejrzystość co do tego, jakie zbiory danych są wykorzystywane do uczenia modeli. Autorzy piszą: „Nie tylko zawsze powinno być jasne, kiedy mamy do czynienia z mediami syntetycznymi, ale od organizacji budujących te systemy należy również wymagać dokumentowania i ujawniania danych szkoleniowych oraz architektur modeli…. Powinniśmy budować maszyny, które będą dla nas pracować, zamiast „dostosowywać” społeczeństwo tak, aby dało się je odczytać i zapisać maszynowo.
Chociaż firmy technologiczne chcą, abyśmy wierzyli, że jest już za późno na wycofanie tego zastępującego człowieka produktu masowo naśladującego, istnieją bardzo istotne precedensy prawne i regulacyjne, które można wyegzekwować. Na przykład amerykańska Federalna Komisja Handlu (FTC) wymuszony Cambridge Analytica, a także Everalbum, właściciel aplikacji fotograficznej, do zniszczenia całych algorytmów, które zostały przeszkolone na podstawie bezprawnie przywłaszczonych danych i zeskanowanych zdjęć. Na początku swojej działalności administracja Bidena wygłaszała wiele odważnych twierdzeń na temat regulacji dużych technologii, w tym rozprawienia się z kradzieżą danych osobowych w celu tworzenia zastrzeżonych algorytmów. Ponieważ wybory prezydenckie szybko się zbliżają, teraz jest dobry moment, aby dotrzymać tych obietnic i zapobiec kolejnej serii masowych zwolnień, zanim one nastąpią.
Świat głębokich podróbek, pętli mimikry i pogłębiających się nierówności nie jest nieunikniony. To zestaw wyborów politycznych. Możemy wyeliminować obecną formę wampirzych chatbotów i zacząć budować świat, w którym najbardziej ekscytujące obietnice sztucznej inteligencji będą czymś więcej niż halucynacjami z Doliny Krzemowej.
Ponieważ wyszkoliliśmy maszyny. Wszyscy z nas. Ale nigdy nie wyraziliśmy na to zgody. Żywili się zbiorową pomysłowością, inspiracjami i objawieniami ludzkości (wraz z naszymi bardziej przekupnymi cechami). Modele te to maszyny do zamykania i zawłaszczania, pożerające i prywatyzujące nasze indywidualne życie, a także nasze zbiorowe dziedzictwo intelektualne i artystyczne. Ich celem nigdy nie było rozwiązanie problemu zmian klimatycznych ani zwiększenie odpowiedzialności naszych rządów ani uczynienie naszego codziennego życia spokojniejszym. Zawsze chodziło o czerpanie korzyści z masowego wyniszczenia, co w kapitalizmie jest rażącą i logiczną konsekwencją zastąpienia ludzkich funkcji botami.
Czy to wszystko nie jest zbyt dramatyczne? Duszny i refleksyjny opór wobec ekscytujących innowacji? Po co spodziewać się gorszego? Altmana uspokaja nam: „Nikt nie chce niszczyć świata”. Może nie. Jednak jak codziennie pokazują nam stale pogłębiające się kryzysy klimatyczne i wymieranie, wielu wpływowych ludzi i instytucji wydaje się mieć się dobrze, wiedząc, że pomagają zniszczyć stabilność światowych systemów podtrzymywania życia, o ile mogą nadal wytwarzać rekord zyski, które ich zdaniem uchronią ich i ich rodziny przed najgorszymi skutkami. Altman, jak wiele istot z Doliny Krzemowej, sam jest preppersem: w 2016 r. chwalił się: „Mam broń, złoto, jodek potasu, antybiotyki, baterie, wodę, maski przeciwgazowe od Sił Obronnych Izraela i duży kawałek ziemi w Big Sur, do którego mogę polecieć”.
Jestem pewien, że te fakty mówią znacznie więcej o tym, w co Altman naprawdę wierzy na temat przyszłości, którą pomaga uwolnić, niż o kwiecistych halucynacjach, którymi postanawia podzielić się w wywiadach prasowych.
Naomi Klein jest felietonistką Guardiana i autorką artykułów. Jest autorką bestsellerów No Logo i The Shock Doctrine oraz profesorem sprawiedliwości klimatycznej i współdyrektorką Centrum Sprawiedliwości Klimatycznej na Uniwersytecie Kolumbii Brytyjskiej
ZNetwork jest finansowany wyłącznie dzięki hojności swoich czytelników.
Darowizna