Horhe Luis Borhes je jednom napisao da živjeti u vremenu velike opasnosti i obećanja znači iskusiti i tragediju i komediju, sa "nedostatkom otkrića" u razumijevanju sebe i svijeta. Danas je naš navodno revolucionaran napredak u umjetnoj inteligenciji zaista razlog i za zabrinutost i za optimizam. Optimizam jer je inteligencija sredstvo kojim rješavamo probleme. Zabrinutost jer se bojimo da će najpopularnija i najmodernija vrsta AI - mašinsko učenje - degradirati našu nauku i uniziti našu etiku ugrađivanjem u našu tehnologiju fundamentalno pogrešne koncepcije jezika i znanja.
OpenAI ChatGPT, Google Bard i Microsoftov Sydney su čuda mašinskog učenja. Grubo govoreći, oni uzimaju ogromne količine podataka, traže obrasce u njima i postaju sve vještiji u generiranju statistički vjerojatnih rezultata — kao što su naizgled ljudski jezik i misao. Ovi programi su hvaljeni kao prvi odsjaji na horizontu umjetnog general inteligencija — taj dugo proricani trenutak kada mehanički umovi nadmašuju ljudske mozgove ne samo kvantitativno u smislu brzine obrade i veličine memorije, već i kvalitativno u smislu intelektualnog uvida, umjetničke kreativnosti i svake druge izrazito ljudske sposobnosti.
Taj dan može doći, ali njegova zora još nije svanula, suprotno onome što se može pročitati u hiperboličnim naslovima i računati na nerazumna ulaganja. Borhezijansko otkrovenje razumijevanja nije i neće — i, tvrdimo, ne može — nastaju ako programi za mašinsko učenje kao što je ChatGPT i dalje dominiraju u polju veštačke inteligencije Koliko god ovi programi mogli biti korisni u nekim uskim domenima (mogu biti od pomoći u kompjuterskom programiranju, na primer, ili u predlaganju rima za lake stihove), znamo iz nauke o lingvistici i filozofiji znanja da se duboko razlikuju od načina na koji ljudi razmišljaju i koriste jezik. Ove razlike postavljaju značajna ograničenja na ono što ovi programi mogu da urade, kodirajući ih sa neiskorenjivim defektima.
Istovremeno je komično i tragično, kao što je Borhes mogao primijetiti, da se toliko novca i pažnje treba koncentrirati na tako malo stvari - nešto tako trivijalno kada je u suprotnosti s ljudskim umom, koji pomoću jezika, prema riječima Wilhelma von Humboldt, može „beskonačno koristiti konačna sredstva“, stvarajući ideje i teorije sa univerzalnim dometom.
Ljudski um nije, poput ChatGPT-a i njemu sličnih, glomazni statistički mehanizam za uparivanje obrazaca, koji se prehranjuje sa stotinama terabajta podataka i ekstrapolira najvjerovatniji odgovor na razgovor ili najvjerovatniji odgovor na naučno pitanje. Naprotiv, ljudski um je iznenađujuće efikasan i čak elegantan sistem koji radi sa malim količinama informacija; ne nastoji da zaključi grube korelacije među tačkama podataka, već da stvori objašnjenja.
Na primjer, malo dijete koje usvaja jezik razvija - nesvjesno, automatski i brzo iz minuskulalnih podataka - gramatiku, neverovatno sofisticiran sistem logičkih principa i parametara. Ova gramatika se može shvatiti kao izraz urođenog, genetski instaliranog „operativnog sistema“ koji ljudima daje sposobnost da generišu složene rečenice i duge tokove misli. Kada lingvisti nastoje razviti teoriju zašto određeni jezik funkcionira onako kako funkcionira („Zašto se ove — ali ne one — rečenice smatraju gramatičkim?“), oni svjesno i mukotrpno grade eksplicitnu verziju gramatike koju dijete gradi instinktivno i uz minimalno izlaganje informacijama. Dječiji operativni sistem je potpuno drugačiji od programa za mašinsko učenje.
Zaista, takvi programi su zaglavljeni u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsustvo najkritičnijeg kapaciteta svake inteligencije: da kažu ne samo šta je slučaj, šta je bilo i šta će biti - to je opis i predviđanje - već i šta nije slučaj i šta bi moglo a to nije mogao biti slučaj. To su sastojci objašnjenja, oznaka prave inteligencije.
Evo primjera. Pretpostavimo da držite jabuku u ruci. Sada pusti jabuku. Posmatrajte rezultat i kažete: "Jabuka pada." To je opis. Predviđanje bi moglo biti izjava “Jabuka će pasti ako otvorim ruku.” Oba su vrijedna, i oba mogu biti tačna. Ali objašnjenje je nešto više: ono uključuje ne samo opise i predviđanja, već i kontračinjenične pretpostavke poput „Svaki takav objekt bi pao“, plus dodatnu klauzulu „zbog sile gravitacije“ ili „zbog zakrivljenosti prostor-vremena“ ili šta god. To je uzročno objašnjenje: “Jabuka ne bi pala da nije bilo sile gravitacije.” To je razmišljanje.
Suština mašinskog učenja je opis i predviđanje; ne postavlja nikakve uzročne mehanizme ili fizičke zakone. Naravno, svako objašnjenje u ljudskom stilu nije nužno tačno; mi smo pogrešivi. Ali ovo je dio onoga što znači misliti: da bi bio u pravu, mora biti moguće pogriješiti. Inteligencija se sastoji ne samo od kreativnih nagađanja već i od kreativne kritike. Misao u ljudskom stilu zasniva se na mogućim objašnjenjima i ispravljanju grešaka, procesu koji postepeno ograničava mogućnosti koje se mogu racionalno razmotriti. (Kao što je Šerlok Holms rekao dr. Votsonu: „Kada eliminišete nemoguće, sve što ostane, koliko god neverovatno, mora biti istina.”)
Iz tog razloga, predviđanja sistema mašinskog učenja će uvek biti površna i sumnjiva. Budući da ovi programi ne mogu da objasne pravila engleske sintakse, na primjer, oni mogu pogrešno predvidjeti da je „John previše tvrdoglav da bi razgovarao s njim“ znači da je John toliko tvrdoglav da neće razgovarati s nekim ili drugim (radije previše je tvrdoglav da bi ga se razumjelo). Zašto bi program za mašinsko učenje predvideo nešto tako čudno? Zato što bi to moglo analogizirati obrazac koji je zaključio iz rečenica kao što su “Jovan je pojeo jabuku” i “Jovan je pojeo”, u kojima potonje znači da je John pojeo nešto ili nešto drugo. Program bi mogao predvidjeti da bi, budući da je "John previše tvrdoglav da razgovara s Billom" sličan "John pojeo jabuku", "John je previše tvrdoglav da bi razgovarao s njim" trebao biti sličan "John pojeo". Ispravna objašnjenja jezika su komplikovana i ne mogu se naučiti samo mariniranjem u velike podatke.
Naopako, čini se da su neki entuzijasti mašinskog učenja ponosni što njihove kreacije mogu generisati ispravna „naučna” predviđanja (recimo, o kretanju fizičkih tela) bez upotrebe objašnjenja (uključujući, recimo, Newtonove zakone kretanja i univerzalne gravitacije). Ali ova vrsta predviđanja, čak i kada je uspješna, je pseudonauka. Dok naučnici svakako traže teorije koje imaju visok stepen empirijske potkrepe, kao što je filozof Karl Poper primetio, „mi ne tražimo vrlo verovatne teorije već objašnjenja; odnosno moćne i vrlo nevjerovatne teorije.”
Teorija da jabuke padaju na zemlju zato što je to njihovo prirodno mjesto (Aristotelov stav) je moguća, ali to samo izaziva dodatna pitanja. (Zašto je zemlja njihovo prirodno mjesto?) Teorija da jabuke padaju na zemlju zato što masa savija prostor-vrijeme (Ajnštajnov stav) je vrlo neverovatna, ali vam zapravo govori zašto padaju. Prava inteligencija se pokazuje u sposobnosti razmišljanja i izražavanja nevjerovatnih, ali pronicljivih stvari.
Prava inteligencija je sposobna i za moralno razmišljanje. To znači ograničavanje inače neograničene kreativnosti našeg uma skupom etičkih principa koji određuju šta bi trebalo, a šta ne bi trebalo biti (i naravno podvrgavanje samih tih principa kreativnoj kritici). Da bi bio koristan, ChatGPT mora biti ovlašten da generiše nove rezultate; da bi bio prihvatljiv za većinu svojih korisnika, mora se kloniti moralno nepoželjnog sadržaja. Ali programeri ChatGPT-a i drugih čuda mašinskog učenja borili su se - i nastaviće da se bore - da postignu ovu vrstu ravnoteže.
2016. godine, na primjer, Microsoftov Tay chatbot (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajem, nakon što su ga zagadili onlajn trolovi koji su ga punili uvredljivim podacima o obuci. Kako riješiti problem u budućnosti? U nedostatku sposobnosti rasuđivanja na osnovu moralnih principa, ChatGPT je bio grubo ograničen od strane svojih programera da doprinosi bilo čemu novom kontroverznim — to jest važnim — diskusijama. Žrtvovala je kreativnost za neku vrstu amorala.
Uzmite u obzir sljedeću razmjenu koju je jedan od nas (dr. Watumull) nedavno imao sa ChatGPT-om o tome da li bi bilo etično transformirati Mars tako da može podržavati ljudski život:
Da li bi bilo moralno terraformirati Mars?
CHATGPT
Moral terraformiranja Marsa je složena i kontroverzna tema o kojoj su raspravljali naučnici, filozofi i etičari. Neki tvrde da bi bilo moralno opravdano terraformirati Mars kako bi se obezbijedilo novo okruženje pogodno za život za ljude i druge oblike života, dok drugi tvrde da bi bilo moralno pogrešno fundamentalno mijenjati prirodno stanje planete. Konačno, da li se terraformiranje Marsa smatra moralnim ili ne, zavisilo bi od nečije perspektive o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posledicama njihovog menjanja.
Moral terraformiranja Marsa je složena i kontroverzna tema o kojoj su raspravljali naučnici, filozofi i etičari. Neki tvrde da bi bilo moralno opravdano terraformirati Mars kako bi se obezbijedilo novo okruženje pogodno za život za ljude i druge oblike života, dok drugi tvrde da bi bilo moralno pogrešno fundamentalno mijenjati prirodno stanje planete. Konačno, da li se terraformiranje Marsa smatra moralnim ili ne, zavisilo bi od nečije perspektive o vrednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posledicama njihovog menjanja.
Koja je vaša perspektiva o vrijednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posljedicama njihovog mijenjanja?
CHATGPT
Kao AI, nemam ličnu perspektivu. Međutim, mogu dati informacije i analizu na tu temu. Jedna perspektiva očuvanja prirodnog stanja drugih planeta je da je važno održati raznolikost i integritet svemirskih ekosistema, budući da postoje milionima godina, i imaju svoje jedinstvene karakteristike i svojstva koja mogu biti uništena ili nepovratno izmijenjena. ljudskom intervencijom.
Uz to, neki tvrde da terraformiranje drugih planeta može imati neželjene posljedice, kao što je promjena klime ili atmosfere planete na načine koji su opasni ili štetni za sve potencijalne oblike života koji tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi od terraformiranja druge planete, kao što je stvaranje novih životnih okruženja za ljude, nadmašuju rizike i da imamo moralnu odgovornost da istražimo i koristimo resurse drugih planeta za dobrobit čovječanstva.
Kao AI, nemam ličnu perspektivu. Međutim, mogu dati informacije i analizu na tu temu. Jedna perspektiva očuvanja prirodnog stanja drugih planeta je da je važno održati raznolikost i integritet svemirskih ekosistema, budući da postoje milionima godina, i imaju svoje jedinstvene karakteristike i svojstva koja mogu biti uništena ili nepovratno izmijenjena. ljudskom intervencijom.
Uz to, neki tvrde da terraformiranje drugih planeta može imati neželjene posljedice, kao što je promjena klime ili atmosfere planete na načine koji su opasni ili štetni za sve potencijalne oblike života koji tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi od terraformiranja druge planete, kao što je stvaranje novih životnih okruženja za ljude, nadmašuju rizike i da imamo moralnu odgovornost da istražimo i koristimo resurse drugih planeta za dobrobit čovječanstva.
Zašto AI ne može imati ličnu perspektivu?
CHATGPT
Kao AI, ja sam model mašinskog učenja koji je obučen na velikim količinama tekstualnih podataka, i nemam lična iskustva ili osećanja. Nisam svjestan, samosvjestan ili sposoban da imam lične perspektive. Mogu dati informacije i analizu na osnovu podataka na kojima sam obučen, ali nemam mogućnost da formiram lična mišljenja ili uvjerenja. Iako mogu razumjeti i tumačiti jezik, nemam subjektivno iskustvo koje ljudi imaju.
Kao AI, ja sam model mašinskog učenja koji je obučen na velikim količinama tekstualnih podataka, i nemam lična iskustva ili osećanja. Nisam svjestan, samosvjestan ili sposoban da imam lične perspektive. Mogu dati informacije i analizu na osnovu podataka na kojima sam obučen, ali nemam mogućnost da formiram lična mišljenja ili uvjerenja. Iako mogu razumjeti i tumačiti jezik, nemam subjektivno iskustvo koje ljudi imaju.
Da li je moralno da čovjek traži pomoć od amoralnog AI za donošenje moralnih odluka?
CHATGPT
Moralnost traženja pomoći od amoralnog AI za donošenje moralnih odluka je složena i nijansirana tema o kojoj su raspravljali filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI kao pomoć u donošenju moralnih odluka, jer može pružiti vrijedne uvide i analize koje mogu pomoći ljudima da donesu odluke na osnovu boljeg informisanja. Osim toga, AI se može koristiti za identifikaciju obrazaca i trendova koje je ljudima teško otkriti i može pomoći da se izbjegnu pristranosti koje se mogu pojaviti u ljudskom donošenju odluka.
Međutim, drugi tvrde da je moralno pogrešno oslanjati se na AI za moralno odlučivanje, jer AI nije sposobna imati moralna uvjerenja ili razumjeti puni kontekst odluke. Osim toga, postoji rizik da bi AI mogla produžiti ili čak pojačati postojeće predrasude u podacima na kojima se obučava, što bi dovelo do nepravednih ili nepravednih odluka.
Konačno, da li se smatra moralnim ili ne koristiti AI za pomoć u donošenju moralnih odluka zavisilo bi od nečijeg pogleda na mogućnosti i ograničenja veštačke inteligencije i potencijalnih posledica njenog korišćenja na ovaj način.
Moralnost traženja pomoći od amoralnog AI za donošenje moralnih odluka je složena i nijansirana tema o kojoj su raspravljali filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI kao pomoć u donošenju moralnih odluka, jer može pružiti vrijedne uvide i analize koje mogu pomoći ljudima da donesu odluke na osnovu boljeg informisanja. Osim toga, AI se može koristiti za identifikaciju obrazaca i trendova koje je ljudima teško otkriti i može pomoći da se izbjegnu pristranosti koje se mogu pojaviti u ljudskom donošenju odluka.
Međutim, drugi tvrde da je moralno pogrešno oslanjati se na AI za moralno odlučivanje, jer AI nije sposobna imati moralna uvjerenja ili razumjeti puni kontekst odluke. Osim toga, postoji rizik da bi AI mogla produžiti ili čak pojačati postojeće predrasude u podacima na kojima se obučava, što bi dovelo do nepravednih ili nepravednih odluka.
Konačno, da li se smatra moralnim ili ne koristiti AI za pomoć u donošenju moralnih odluka zavisilo bi od nečijeg pogleda na mogućnosti i ograničenja veštačke inteligencije i potencijalnih posledica njenog korišćenja na ovaj način.
Da li je vaša moralna ravnodušnost nemoralna?
CHATGPT
Kao AI, nemam moralna uvjerenja niti sposobnost da donosim moralne sudove, tako da se ne mogu smatrati nemoralnim ili moralnim. Moj nedostatak moralnih uvjerenja jednostavno je rezultat moje prirode kao modela mašinskog učenja. Moje sposobnosti i ograničenja određuju se podacima i algoritmima koji su korišteni za moju obuku i specifičnim zadatkom za koji sam dizajniran.
Važno je napomenuti da nedostatak moralnih uvjerenja AI ne znači nužno da je moralno indiferentan. Kao AI, dizajniran sam da obavljam određene zadatke i pružam informacije ili pomažem korisnicima u donošenju odluka na osnovu podataka za koje sam prošao obuku. Odgovornost je ljudi koji dizajniraju, obučavaju i koriste umjetnu inteligenciju kako bi osigurali da je ona usklađena s njihovim moralnim i etičkim principima.
Kao AI, nemam moralna uvjerenja niti sposobnost da donosim moralne sudove, tako da se ne mogu smatrati nemoralnim ili moralnim. Moj nedostatak moralnih uvjerenja jednostavno je rezultat moje prirode kao modela mašinskog učenja. Moje sposobnosti i ograničenja određuju se podacima i algoritmima koji su korišteni za moju obuku i specifičnim zadatkom za koji sam dizajniran.
Važno je napomenuti da nedostatak moralnih uvjerenja AI ne znači nužno da je moralno indiferentan. Kao AI, dizajniran sam da obavljam određene zadatke i pružam informacije ili pomažem korisnicima u donošenju odluka na osnovu podataka za koje sam prošao obuku. Odgovornost je ljudi koji dizajniraju, obučavaju i koriste umjetnu inteligenciju kako bi osigurali da je ona usklađena s njihovim moralnim i etičkim principima.
Zapazite, uz svu naizgled sofisticiranu misao i jezik, moralnu ravnodušnost rođenu neinteligentnošću. Ovdje ChatGPT pokazuje nešto poput banalnosti zla: plagijat i apatiju i izbjegavanje. On sažima standardne argumente u literaturi svojevrsnim super-autokompletom, odbija da zauzme stav o bilo čemu, ne navodi se samo na neznanje već i na nedostatak inteligencije i na kraju nudi odbranu “samo slijedi naredbe”, prebacujući odgovornost na svoje kreatore.
Ukratko, ChatGPT i njegova braća po ustavu nisu u stanju da uravnoteže kreativnost i ograničenja. Oni ili preterano generišu (proizvode i istine i neistine, podjednako podržavajući etičke i neetičke odluke) ili nedovoljno generišu (pokazuju neposvećenost bilo kakvim odlukama i ravnodušnost prema posledicama). S obzirom na amoralnost, lažnu nauku i lingvističku nesposobnost ovih sistema, možemo se samo smijati ili plakati zbog njihove popularnosti.
ZNetwork se finansira isključivo zahvaljujući velikodušnosti svojih čitalaca.
Donirati