Čini se da je umjetna inteligencija (AI) posvuda. Kompanije koriste moćne AI chat botove na svojim web stranicama ili telefonskim sistemima za rješavanje pitanja kupaca. Redakcije i časopisi ih koriste za pisanje priča. Filmski studiji ih koriste za proizvodnju filmova. Tehnološke kompanije ih koriste za programiranje. Učenici ih koriste za pisanje radova. Izgleda kao magija. A sa svime što se navodno dešava „u oblaku“, lako je poverovati da su sistemi sa veštačkom inteligencijom dobri za životnu sredinu. Nažalost, stvari nisu onakve kakve izgledaju.
Chatbotovi su izgrađeni na eksploataciji, koriste ogromne količine energije i daleko su od pouzdanih. I dok ih je lako zamisliti kako rastu u sofisticiranosti i olakšavaju život u nekim aspektima, kompanije ulažu milijarde dolara u svoje stvaranje kako bi ostvarile profit bez malo brige o tome da li će rezultati biti društveno korisni. Ukratko, moramo ozbiljno shvatiti korporativni interes za AI i razviti strategije koje nam mogu pomoći da dobijemo kontrolu nad načinom na koji se AI razvija i koristi.
Trka je u toku
Revolucija chatbot-a započela je 2022. godine OpenAI-ovim uvođenjem ChatGPT-a. ChatGPT je bio sposoban za ljudski razgovor i mogao je odgovarati na pitanja korisnika generiranim tekstom, kao i pisati članke i kod. Najbolje od svega, bilo je besplatno za korištenje.
Druge kompanije, reagujući na javni interes za ChatGPT, ubrzo su počele da uvode sopstvene AI chat botove. Najveći i najčešće korišteni danas su Google Gemini (bivši Bard) i Microsoftov Copilot. Postoje i drugi, uključujući neke dizajnirane da zadovolje specifične poslovne potrebe. Na primjer, GitHub CoPilot pomaže programerima softvera da kreiraju kod, a Anthrophic Claude je dizajniran za otkrivanje informacija i sažimanje dokumenata.
A rasa nastavlja da stvara sljedeća generacija AI sistemi koji mogu primiti više informacija, brže ih obraditi i pružiti detaljnije, lične odgovore. Prema Goldman Sacksu ekonomisti, investicije povezane s umjetnom inteligencijom u Sjedinjenim Državama “mogle bi dostići vrhunac od 2.5 do 4 posto BDP-a” u narednoj deceniji.
Chatbotovima je potrebna velika i raznolika baza podataka riječi, teksta, slika, zvuka i ponašanja na mreži, kao i sofisticirani algoritmi koji će im omogućiti da po potrebi organiziraju materijal u skladu s uobičajenim obrascima korištenja. Kada dobiju pitanje ili zahtjev za informacijama, chat botovi identificiraju materijal u svojoj bazi podataka koji se odnosi na obrazac riječi u pitanju ili zahtjevu, a zatim sastavljaju, opet vođeni algoritmima, skup riječi ili slika iz svoje baze podataka koji najbolje zadovoljava date podatke ograničenja, upit. Naravno, proces identifikacije obrazaca i konstruiranja odgovora zahtijeva ogromne količine energije.
Bez obzira koliko razgovorno i inteligentno zvučao chatbot, važno je zapamtiti, kao Megan Crouse objašnjava, to:
„Model ne 'zna' šta govori, ali zna koji će simboli (reči) verovatno doći jedan za drugim na osnovu skupa podataka na kojima je obučen. Trenutna generacija chat robota s umjetnom inteligencijom, kao što je ChatGPT, njegov Googleov rival Bard i drugi, zapravo ne donose inteligentno utemeljene odluke; umjesto toga, oni su internetski papagaji, koji ponavljaju riječi koje će se vjerovatno naći jedna pored druge u toku prirodnog govora. Osnovna matematika se svodi na vjerovatnoću.”
Različiti chatbotovi će proizvesti različite rezultate zbog svog programiranja i zato što su obučeni na različitim skupovima podataka. Na primjer, pored prikupljanja svih javnih podataka dostupnih na webu, Gemini može koristiti podatke iz svojih Google Apps, dok Copilot koristi podatke generisane iz svog pretraživača Bing.
Chatbotovi su prošli kroz brojne nadogradnje od svog uvođenja. Svaka generacija ima složeniji softverski paket koji joj omogućava da uspostavi nijansiranije veze, kao i da proširi svoju bazu podataka ugrađivanjem podataka iz postavljenih pitanja ili zahtjeva. Na ovaj način chatbotovi uče/poboljšaju tokom vremena kroz korištenje.
Ova perspektiva naglašava činjenicu da iako možemo govoriti o stvarima koje se dešavaju u oblaku, sposobnost chatbotova da odgovore na upite ili pitanja ovisi o procesima koji su čvrsto ukorijenjeni u zemlji. U riječi tehnološke spisateljice Karen Hao:
„AI ima lanac snabdevanja kao i svaka druga tehnologija; postoje inputi koji ulaze u stvaranje ove tehnologije, podaci su jedno, a računarska snaga ili kompjuterski čipovi su drugo. I jedni i drugi imaju mnogo ljudskih troškova povezanih s njima.”
Lanac snabdevanja: ljudski rad
AI sistemima su potrebni podaci, a podaci dolaze od ljudi u ovom ili onom obliku. Stoga su tehnološke kompanije neprestano u potrazi za novim i raznolikim podacima kako bi poboljšale rad svojih AI sistema. Sa našim online blogovima i objavama na web stranici, objavljenim knjigama i člancima, pretragama, fotografijama, pjesmama, slikama i video zapisima koji su slobodno prebačeni sa interneta, pomažemo da se osiguraju visoko profitabilne kompanije u potrazi za još većim profitom. Kao Lauren Leffer bilješke,
“Web indekseri i skraperi mogu lako pristupiti podacima sa bilo kojeg mjesta koje nije iza stranice za prijavu... Ovo uključuje sve na popularnoj web-lokaciji za razmjenu fotografija Flickr, internetskim tržištima, bazama podataka o registraciji birača, vladinim web stranicama, Wikipediji, Redditu, istraživačkim spremištima, novinskim kućama i akademske institucije. Osim toga, postoje kompilacije piratskog sadržaja i web arhive, koje često sadrže podatke koji su u međuvremenu uklonjeni sa svoje izvorne lokacije na webu. I strugane baze podataka ne nestaju.”
U stvari, značajan dio skrapanog materijala zaštićen je autorskim pravima i preuzet bez dozvole. Kao odgovor, brojni izdavači, pisci i umjetnici sada pokušavaju zaustaviti krađu. Na primjer, u avgustu 2023., The New York Times je ažurirao svoju „Uslovi korištenja”To zabraniti svako korištenje njegovog teksta, fotografija, slika i audio/video isječaka u razvoju „bilo kojeg softverskog programa, uključujući, ali ne ograničavajući se na, obuku za mašinsko učenje ili sistem umjetne inteligencije (AI).“ Ali dok neke velike kompanije imaju polugu ili zakonsku moć da zabrane ili pregovaraju o finansijskoj nadoknadi za korištenje svog materijala, većina preduzeća i pojedinaca nemaju. Kao rezultat toga, još uvijek su u opasnosti da imaju svoje “intelektualno vlasništvo” preuzeto od njih besplatno i pretvoreno u materijal za obuku AI u službi korporativne aktivnosti zarade.
Bez minimiziranja ličnih gubitaka povezanih sa prikupljanjem AI podataka, postoji daleko veći problem sa ovom metodom akvizicije. Čišćenje javnog interneta znači da se AI chat botovi obučavaju koristeći materijal koji uključuje veoma različite perspektive i razumijevanja o nauci, istoriji, politici, ljudskom ponašanju i trenutnim događajima, uključujući objave i pisanje članova ekstremnih grupa mržnje. A problematični podaci mogu lako utjecati na rezultate čak i najsofisticiranijih chatbotova.
Na primjer, kompanije sve više koriste chat botove da im pomognu u zapošljavanju. Ipak, kao Bloomberg News otkrili, „najpoznatiji generativni AI alat sistematski proizvodi predrasude koje stavljaju grupe u nepovoljniji položaj na osnovu njihovih imena.” Na primjer, vlastita studija pronađeno da je “Kada su ga 1000 puta pitali da rangira osam jednako kvalifikovanih životopisa za ulogu pravog finansijskog analitičara u kompaniji Fortune 500, najmanje je vjerovatno da će ChatGPT odabrati životopis s imenom koje se razlikuje od crnih Amerikanaca.”
Chatbotovi ovise o kvaliteti ljudskog rada na još jedan način. Chatbotovi ne mogu direktno koristiti veliki dio podataka prikupljenih od strane web pretraživača i strugača. Kao Josh Dzieza objašnjava, "iza najimpresivnijeg AI sistema stoje ljudi - ogroman broj ljudi koji označavaju podatke kako bi ih obučili i pojašnjavaju podatke kada se zbune."
Velike AI kompanije uglavnom angažuju druge manje kompanije da pronađu i obuče radnike potrebne za proces označavanja podataka. I ovi podizvođači, češće nego ne, nalaze svoje radnike, zvane anotatori, na globalnom jugu, često u Nepalu i Keniji. Budući da se proces označavanja kao i stavke koje se označavaju smatraju poslovnom tajnom, anotatori rijetko poznaju svog krajnjeg šefa i bit će otpušteni ako se otkrije da razgovaraju o tome šta rade s drugima, čak i sa kolegama.
Dzieza opisuje neke od poslova koje anotatori moraju obaviti kako bi omogućili chatbotovima da koriste podatke prikupljene za njih. Na primjer, anotatori označavaju stavke u videozapisima i fotografijama. Ovo se mora učiniti kako bi se osiguralo da će AI sistemi moći povezati specifične konfiguracije piksela sa određenim stavkama ili emocijama. Kompanije koje grade AI sisteme za samovozeća vozila trebaju anotatore da identifikuju sve kritične stavke u video snimcima sa uličnih ili autoputskih scena. To znači "identifikovati svako vozilo, pješaka, biciklistu, sve čega vozač treba da bude svjestan - kadar po kadar i iz svakog mogućeg ugla kamere." Kako Dzieza izvještava, ovo je “težak posao koji se ponavlja. Za komentarisanje snimka od nekoliko sekundi bilo je potrebno osam sati, za šta je [komentator] plaćen oko 10 dolara.”
Ovakav posao, iako slabo plaćen, je kritičan. Ako je proces označavanja loše obavljen ili je baza podataka ograničena, sistem može lako otkazati. Primjer: 2018. ženu je udario i ubio samovozeći Uber automobil. Sistem veštačke inteligencije nije uspeo jer, iako je „programiran da izbegava bicikliste i pešake, nije znao šta da uradi sa nekim ko hoda biciklom preko ulice“.
Annotatori se također angažuju za označavanje stavki na fotografijama na društvenim mrežama. To može uključivati identifikaciju i označavanje svih vidljivih košulja koje bi ljudi mogli nositi. To bi zahtijevalo evidentiranje da li su to „polo majice, košulje koje se nose na otvorenom, košulje koje vise na stalku” itd.
Drugi poslovi uključuju etiketiranje emocija. Na primjer, neki annotatori se unajmljuju da gledaju slike lica, uključujući selfije koje su napravili anotatori, i označavaju percipirano emocionalno stanje subjekta. Drugi su angažovani da etiketiraju emocije kupaca koji su telefonirali za narudžbine prodavnicama u vlasništvu lanca pica. Drugi posao ima komentare koji označavaju emocije postova na Redditu. Ovaj zadatak se pokazao izazovnim za jednu grupu indijskih radnika, prvenstveno zbog njihovog nepoznavanja internet kulture SAD-a. Podizvođač je nakon pregleda njihovog rada odlučio da je oko 30 posto postova pogrešno označeno.
Možda najbrže rastući segment rada na obuci AI uključuje direktnu ljudsku interakciju sa chatbotom. Ljudi se zapošljavaju da razgovaraju o temama, a chatbot je programiran da daje dva različita odgovora na svaki razgovor. Unajmljeni “diskutant” tada mora odabrati odgovor koji smatra “najboljim”. Ove informacije se zatim vraćaju u sistem kako bi mu pomogle da zvuči „ljudskije“.
Ukratko, AI sistemi u velikoj meri zavise od rada ljudi. Ovo nisu magični sistemi koji rade bez uticaja ljudskih predrasuda ili emocija. A njihova aktivnost se ne odvija u nekom zamišljenom oblaku. Ova kasnija tačka postaje još očiglednija kada uzmemo u obzir infrastrukturu potrebnu za njihov rad.
Lanac snabdevanja: Data centri
Rast veštačke inteligencije podržan je ogromnom izgradnjom data centara i stalno rastućom potražnjom za električnom energijom za pokretanje računara i servera u kojima se nalaze, kao i klima uređaja koji moraju neprekidno da rade kako bi sprečili njihovo pregrevanje. Zapravo, „Oblak sada ima veći ugljični otisak od avio industrije. Jedan data centar može potrošiti električnu energiju ekvivalentnu 50,000 domova.”
prema Prema Međunarodnoj agenciji za energiju, 2,700 centara podataka koji rade u SAD-u bilo je odgovorno za više od 4 posto ukupne potrošnje energije u zemlji u 2022. A njihov udio će vjerovatno dostići 6 posto do 2026. Naravno, takve procjene su grube, oba jer su glavne tehnološke kompanije nevoljan da dijele relevantne informacije i zato što se AI sistemi kontinuirano obučavaju na novim podacima i nadograđuju s više vještina, što znači veću potrošnju energije po aktivnosti.
Čak i sada, postoje znakovi da energetski zahtjevi centara podataka opterećuju američku električnu mrežu. Kao Washington Post bilješke: “Sjevernoj Virdžiniji je potreban ekvivalent nekoliko velikih nuklearnih elektrana da opslužuju sve nove centre podataka koji su planirani i u izgradnji. Teksas, gdje su nestašice struje već rutinska u vrućim ljetnim danima, suočava se s istom dilemom.”
Sjeverozapad Pacifika se suočava sa sličnim izazovom. Kao što je Oregonian novine ističu:
„Podatkovni centri koji se šire širom Oregona će trošiti dramatično više električne energije nego što su regionalna komunalna preduzeća i planeri električne energije očekivali, prema tri nove prognoze objavljene u ljeto [2023.].
“To stavlja veći pritisak na električnu mrežu sjeverozapada i baca novu sumnju u to da li Oregon može ispuniti ambiciozne ciljeve čiste energije koje je država postavila prije samo dvije godine…
“Uprava za energiju Bonneville sada očekuje da će do 2041. godine potrebe za električnom energijom podatkovnih centara u Oregonu i Washingtonu porasti za dva i po puta, trošeći 2,715 prosječnih megavata. To je dovoljno da napaja trećinu svih domova u te dvije države danas.”
Ova naglo rastuća potražnja za energijom, podstaknuta u velikoj mjeri brzorastućim zahtjevima umjetne inteligencije, predstavlja veliku prijetnju našim naporima u borbi protiv globalnog zagrijavanja. Na primjer, zabrinutost za struju već je dovela do toga da Kanzas, Nebraska, Wisconsin i Južna Karolina odgode zatvaranje elektrana na ugalj. Izvještaj nekoliko klimatskih akcionih grupa za 2024. o klimatskoj prijetnji koju predstavlja AI pronalazi da će udvostručenje potrošnje energije u podatkovnim centrima, za koje Međunarodna agencija za energiju procjenjuje da će se dogoditi u naredne dvije godine, dovesti do 80 posto povećanja emisija koje zagrijavaju planete. Ovo je velika cijena za nove usluge umjetne inteligencije koje se uvode bez obzira na njihovu sposobnost da zadovolje stvarne, a ne stvorene potrebe.
“Uvjerljivo nije istinito”
Jasno je da se velike tehnološke kompanije klade da će im AI generirati ogroman profit. I ništa ne prepuštajući slučaju, oni čine sve što mogu da ih ugrade u naše živote prije nego što imamo priliku razmisliti želimo li ih. Sistemi veštačke inteligencije već se promovišu kao način za poboljšanje zdravstvene zaštite, pružanje saveta o mentalnom zdravlju, davanje pravnih saveta, edukacija studenata, poboljšanje našeg ličnog donošenja odluka, povećanje efikasnosti na radnom mestu, lista se nastavlja.
Naizgled zaboravljena je činjenica da su AI sistemi dobri samo onoliko koliko su uneseni podaci i softver napisan da ih koristi. Drugim rečima, njihov rad zavisi od ljudi. I, što je možda još važnije, niko zapravo ne zna kako AI sistemi koriste podatke na kojima su prošli obuku. Drugim riječima, nemoguće je pratiti njihov „proces rasuđivanja“. Znaci upozorenja da se ovi sistemi ozbiljno preprodaju već su vidljivi.
Na primjer, 2022. godine korisnik je kontaktirao Air Canada kako bi saznao kako dobiti kartu za smrtnu kaznu. Čet-bot avio-kompanije za korisničku podršku sa veštačkom inteligencijom rekao mu je da samo treba da popuni obrazac u roku od 90 dana od izdate karte da bi dobio povrat novca za svoje putovanje. Ali kada je predao obrazac nakon što je završio putovanje, osoblje avio-kompanije mu je reklo da neće biti sniženja cijene jer obrazac mora biti popunjen prije putovanja. Kada je aviokompaniji pokazao snimke ekrana koje je napravio od onoga što mu je bot rekao, aviokompanija je odgovorila da nije odgovorna za ono što je bot rekao.
Kupac je tužio Air Canada i pobijedio. Sudija primećeno da:
“Air Canada tvrdi da se ne može smatrati odgovornim za informacije koje je dao jedan od njegovih agenata, službenika ili predstavnika – uključujući chatbot. Ne objašnjava zašto vjeruje da je to slučaj. U stvari, Air Canada sugerira da je chatbot zasebno pravno lice koje je odgovorno za svoje postupke. Ovo je izvanredan podnesak.”
Ostavljajući po strani da li bi kompanije zapravo mogle tražiti da se chatbotovi proglase zasebnim pravnim licima kako bi se mogli odvojiti od svojih radnji ako žele, aviokompanija tek treba da objasni zašto je njen chatbot dao pogrešne informacije.
Zatim tu je NYC chatbot, razvijen uz pomoć Microsofta, koji je grad promovirao kao „sve na jednom mjestu“ za preduzeća kako bi im pomogao da budu u toku sa gradskim pravilima i propisima. Evo nekih primjeri upitnih savjeta datih kao odgovor na upite:
“chatbot je lažno sugerirao da je legalno za poslodavca da otpusti radnicu koja se žali na seksualno uznemiravanje, ne otkriva trudnoću ili odbija odrezati svoje dredove…
“Na pitanje da li restoran može poslužiti sir koji je grickao glodavac, odgovorio je: 'Da, i dalje možete poslužiti sir kupcima ako ima ujede pacova', prije nego što je dodao da je važno procijeniti 'razmjer štete uzrokovano pacovima" i da "obavijesti kupce o situaciji."
Možda nije iznenađujuće, i Microsoft i gradonačelnik Njujorka su odgovorili rekavši da će takvi problemi na kraju biti ispravljeni. U stvari, uslužno su dodali, korisnici će, ukazujući na greške, ubrzati potrebno fino podešavanje sistema.
Ovakve vrste problema, koliko god ozbiljni, blede u poređenju sa problemom AI „halucinacija“. Halucinacija je kada AI sistem fabrikuje informacije, koje mogu uključivati imena, datume, knjige, pravne slučajeve, medicinska objašnjenja, čak i istorijske događaje. Na primjer, bilo je nekoliko pravnih slučajeva u kojima su chat botovi izmislili slučajeve na koje su se advokati pozivali u svojim sudskim podnescima.
Primjer: Advokati koji zastupaju tužitelja u junu 2023 slučaj u vezi sa tužbom protiv kolumbijske aviokompanije podneo je podnesak koji je uključivao šest slučajeva podrške koje je „pronašao“ chatbot. Nažalost, ovi slučajevi nikada nisu postojali; neki su čak spominjali aviokompanije koje nisu postojale. Sudija je odbacio slučaj i kaznio advokate zbog lažnih citata. Advokati, ne slažući se sa tvrdnjom sudije da su postupili u lošoj namjeri, rekli su u svoju odbranu da smo “napravili grešku u dobroj vjeri što nismo vjerovali da bi dio tehnologije mogao napraviti slučajeve od cijelog platna.
Čak i najsofisticiraniji chatbotovi mogu patiti od halucinacija. Na pitanje o kvotama za klađenje na Superbowl 2024. koji se trebao održati sljedećeg dana, Googleov chatbot objavio bilo je prekasno za klađenje jer se Superbowl već održao, a San Francisco 49ersi su pobijedili Kansas City Chiefse rezultatom 34 prema 28. Čak je uključivao i neke statističke podatke o igračima. Utakmicu, kada se igrala, dobio je Kansas City. Microsoftov chatbot je učinio isto, tvrdeći da je igra gotova iako još nije bila odigrana. Međutim, objavio je da su Kansas City Chiefs pobijedili.
Sada zamislite koliki bi mogli biti troškovi da chatbot koji daje medicinske savjete doživi halucinaciju. Američka vojska ubrzano povećava svoju upotrebu AI tehnologije na različite načine, uključujući prepoznavanje prijetnji, navođenje bespilotnih letjelica, prikupljanje obavještajnih podataka i planiranje rata. Zamislite potencijalnu katastrofu koja bi mogla biti rezultat neadekvatne ili nepotpune obuke sistema podataka ili još gore halucinacije. Očigledno je da su ovi sistemi daleko od sigurnih, i to iz raznih razloga. Interni Microsoftov dokument to najbolje bilježi kada postoji deklariše da su novi sistemi veštačke inteligencije „napravljeni da budu ubedljivi, a ne istiniti“.
Šta treba učiniti?
Do sada se zabrinutost javnosti oko AI uglavnom fokusirala na nedozvoljenu upotrebu ličnih podataka od strane AI sistema. Ljudi žele zaštitu od neovlaštenog scrapinga svog materijala na webu. I ne žele da njihova interakcija sa AI sistemima postane aktivnost generisanja podataka koja bi ih mogla izložiti prevari, diskriminaciji ili uznemiravanju. Sada su razne državne i lokalne samouprave razmatrati načina da se to postigne. A 2023., predsjednik Bajden je izdao saveznu odluku izvršni nalog koji nastoji da osigura da novi „temeljni“ sistemi interne revizije budu adekvatno testirani na nedostatke pre nego što budu objavljeni u javnosti. Ovo su korisni prvi koraci.
Najoštrija borba oko upotrebe AI vodi se na radnom mjestu. Kompanije koriste AI sisteme za održavanje karticama o organizovanju radnika, Monitor učinak radnika i kada je to moguće get rid radnika. Nije iznenađujuće da su sindikalni radnici počeli da uzvraćaju, predlažući ograničenja u korištenju AI sistema u kompanijama.
Na primjer, Savez američkih pisaca (WGA), koji predstavlja oko 12,000 scenarista, napadao je niz velikih produkcijskih kompanija – uključujući Universal, Paramount, Walt Disney, Netflix, Amazon i Apple – pet mjeseci 2023. tražeći povećanje plata, zaštita zapošljavanja i ograničenja upotrebe AI. Značajno je da je Brian Merchant, kolumnista LA Timesa, opisuje:
„Zabrinutost oko upotrebe generativne veštačke inteligencije kao što je ChatGPT nije bila ni na umu kada su pisci prvi put seli sa studijima da počnu da se pregovaraju. U prvom predlogu WGA je jednostavno navedeno da studiji neće koristiti veštačku inteligenciju za generisanje originalnih scenarija, a crvene zastavice su se podigle tek kada su studiji glatko odbili.
„Tada su pisci shvatili da studiji ozbiljno razmišljaju o korišćenju veštačke inteligencije – ako ne za generisanje gotovih scenarija, za šta su obe strane znale da je nemoguće u ovom trenutku – onda kao poluga protiv pisaca, i kao pretnja i kao sredstvo za opravdanje ponude smanjenog prepisivanja. naknade. Tada je WGA povukla crtu u pijesku, kada smo počeli da viđamo znakove na linijama protesta koji osuđuju AI kako postaju viralni na društvenim mrežama i naslove koji promiču sukob koji krasi novine poput ove.”
U stvari, rastuća svijest o potrebi da se dobije kontrola nad korištenjem AI sistema dovela je do toga da Savez pisaca održi nekoliko sastanaka o umjetnoj inteligenciji tokom štrajka za radnike u srodnim industrijama, uključujući one zaposlene u trgovinama digitalnih medija. Mnogi od prisutnih završili su na liniji piketa podržavajući markantne scenariste.
Štrajk je doveo do velikih dobitaka za pisce. Što se tiče AI, novi ugovor zabranjuje upotrebu velikih jezičkih modela AI sistema za pisanje ili prepisivanje skripti ili za izvorni materijal. S druge strane, piscima će biti dozvoljeno da ih koriste ako žele. Ugovor također isključuje korištenje bilo kakvog pisca materijala za obuku AI sistema. Kao jedan analitičar Komentarisao, “Strah da će se prvi nacrti napraviti preko ChatGPT-a, a zatim predati piscu za niže naknade za ponovno pisanje, je uklonjen. Ovo bi mogao biti među prvim kolektivnim ugovorima koji postavljaju oznake za AI u odnosu na radnike.”
Savez filmskih glumaca-Američka federacija televizijskih i radijskih umjetnika (SAG-AFTRA) stupio je u štrajk protiv glavnih filmskih i televizijskih producenata dva mjeseca nakon početka štrajka WGA. Nije iznenađujuće, politika umjetne inteligencije bila je jedno od glavnih pitanja koje je motiviralo odluku o štrajku. Možda najvažnije, glumci uspeo u osvajanju novog ugovora koji će natjerati proizvođače da se pregovaraju oko buduće upotrebe AI.
Na primjer, sporazum zahtijeva da ako producent planira koristiti "sintetičkog izvođača" (digitalno stvorenu osobu prirodnog izgleda koja "nije prepoznatljiva kao bilo koji prirodni izvođač koji se može identificirati") mora obavijestiti sindikat i pregovarati se sa sindikatom o odluci da ne angažovati prirodnog izvođača, uz mogućnost plaćanja honorara sindikatu. Ako producent želi koristiti “prepoznatljivog sintetičkog izvođača” (digitalno stvorenu osobu prirodnog izgleda koja je prepoznatljiva kao prirodni izvođač), prvo se mora cjenkati s izvođačem i dobiti njegov pristanak.
Drugi radnici su također uključeni u teško pregovaranje sa svojim šefovima oko upotrebe AI tehnologije, kako da zaštite svoje poslove, tako i da brane profesionalne standarde, na primjer novinari. Ove radne borbe su važan početak razvoja potrebnih zaštitnih ograda za korištenje AI. Oni mogu biti temelj na kojem se može izgraditi širi savez radničke zajednice protiv korporativnog nagona za korištenjem AI tehnologije kako bi se smanjile ljudske veze i djelovanje ljudi – u našem medicinskom sistemu, obrazovnim institucijama, transportu, izvještavanju, komunikaciji s javnim agencijama i provajderima roba i usluga, a lista se nastavlja. Naše šanse za uspjeh će se uvelike poboljšati ako možemo pomoći zaposlenim ljudima da proniknu kroz hipe kako bi precizno procijenili cijeli niz troškova i koristi povezanih s AI tehnologijom. •
Martin Hart-Landsberg je profesor emeritus ekonomije na Lewis and Clark koledžu, Portland, Oregon; i pomoćni istraživač na Institutu za društvene nauke, Nacionalno sveučilište Gyeongsang, Sjeverna koreja. Njegove oblasti podučavanja i istraživanja uključuju političku ekonomiju, ekonomski razvoj, međunarodnu ekonomiju i političku ekonomiju istočne Azije. On vodi blog Izvještaji Ekonomskog fronta.
ZNetwork se finansira isključivo zahvaljujući velikodušnosti svojih čitalaca.
Donirati