Jorge Luis Borges jednom je napisao da živjeti u vremenu velikih opasnosti i obećanja znači iskusiti i tragediju i komediju, s "neminovnošću otkrića" u razumijevanju sebe i svijeta. Danas je naš navodno revolucionarni napredak u umjetnoj inteligenciji doista razlog za zabrinutost i optimizam. Optimizam jer je inteligencija sredstvo kojim rješavamo probleme. Zabrinuti jer se bojimo da će najpopularnija i najmodernija vrsta umjetne inteligencije — strojno učenje — degradirati našu znanost i obezvrijediti našu etiku ugradnjom u našu tehnologiju fundamentalno pogrešne koncepcije jezika i znanja.
OpenAI-jev ChatGPT, Googleov Bard i Microsoftov Sydney su čuda strojnog učenja. Grubo govoreći, oni uzimaju ogromne količine podataka, traže uzorke u njima i postaju sve vještiji u generiranju statistički vjerojatnih rezultata — poput naizgled ljudskog jezika i misli. Ti su programi hvaljeni kao prvi odsjaji na horizontu umjetnog opći inteligencija — taj davno prorečeni trenutak kada mehanički umovi nadmašuju ljudske mozgove ne samo kvantitativno u smislu brzine obrade i veličine pamćenja, već i kvalitativno u smislu intelektualnog uvida, umjetničke kreativnosti i svake druge izrazito ljudske sposobnosti.
Taj dan može doći, ali još ne sviće, suprotno onome što se može pročitati u hiperboličnim naslovima i obračunati s nerazboritim ulaganjima. Borgesovsko otkrivenje razumijevanja nije i neće - i, tvrdimo, ne može — nastaju ako programi za strojno učenje poput ChatGPT-a nastave dominirati područjem umjetne inteligencije. Koliko god ovi programi mogli biti korisni u nekim uskim domenama (mogu biti od pomoći u računalnom programiranju, na primjer, ili u predlaganju rima za lagane stihove), znamo iz znanosti o lingvistici i filozofiji znanja da se duboko razlikuju od načina na koji ljudi razmišljaju i koriste jezik. Ove razlike postavljaju značajna ograničenja na ono što ti programi mogu učiniti, kodirajući ih neiskorijenjivim nedostacima.
Istodobno je komično i tragično, kao što je Borges mogao primijetiti, da se toliko novca i pozornosti koncentrira na tako malu stvar - nešto tako trivijalno u usporedbi s ljudskim umom, koji zahvaljujući jeziku, riječima Wilhelma von Humboldt, može "beskonačno koristiti ograničena sredstva", stvarajući ideje i teorije s univerzalnim dosegom.
Ljudski um nije, poput ChatGPT-a i njemu sličnih, glomazan statistički mehanizam za usklađivanje uzoraka, gutanje stotina terabajta podataka i ekstrapoliranje najvjerojatnijeg odgovora razgovora ili najvjerojatnijeg odgovora na znanstveno pitanje. Naprotiv, ljudski um je iznenađujuće učinkovit, pa čak i elegantan sustav koji radi s malim količinama informacija; ne nastoji izvesti grube korelacije među točkama podataka, već stvoriti objašnjenja.
Na primjer, malo dijete koje usvaja jezik razvija - nesvjesno, automatski i brzo iz minijaturnih podataka - gramatiku, nevjerojatno sofisticiran sustav logičkih principa i parametara. Ova se gramatika može shvatiti kao izraz urođenog, genetski instaliranog "operativnog sustava" koji ljudima daje sposobnost generiranja složenih rečenica i dugih tokova misli. Kada lingvisti nastoje razviti teoriju zašto određeni jezik funkcionira kako funkcionira ("Zašto se ove — ali ne i one — rečenice smatraju gramatičkima?"), oni svjesno i marljivo grade eksplicitnu verziju gramatike koju dijete gradi instinktivno. i uz minimalnu izloženost informacijama. Operativni sustav djeteta potpuno je drugačiji od onog u programu za strojno učenje.
Doista, takvi su programi zapeli u predljudskoj ili neljudskoj fazi kognitivne evolucije. Njihova najdublja mana je odsutnost najkritičnijeg kapaciteta svake inteligencije: reći ne samo što jest, što je bilo i što će biti — to je opis i predviđanje — nego i ono što nije slučaj, a što bi moglo i nije mogao biti slučaj. To su sastojci objašnjenja, znak istinske inteligencije.
Evo primjera. Pretpostavimo da u ruci držite jabuku. Sad pusti jabuku. Promatrate rezultat i kažete: "Jabuka pada." To je opis. Predviđanje je mogla biti izjava "Jabuka će pasti ako otvorim ruku." I jedno i drugo je vrijedno, i jedno i drugo može biti ispravno. Ali objašnjenje je nešto više: ono uključuje ne samo opise i predviđanja nego i protučinjenične pretpostavke poput "Svaki takav objekt bi pao", plus dodatnu klauzulu "zbog sile gravitacije" ili "zbog zakrivljenosti prostor-vremena" Ili štogod. To je uzročno objašnjenje: "Jabuka ne bi pala da nije bilo sile gravitacije." To je razmišljanje.
Srž strojnog učenja je opis i predviđanje; ne postavlja nikakve uzročne mehanizme ili fizičke zakone. Naravno, svako objašnjenje u ljudskom stilu nije nužno točno; pogrešivi smo. Ali ovo je dio onoga što znači misliti: da bismo bili u pravu, mora biti moguće biti u krivu. Inteligencija se ne sastoji samo od kreativnih nagađanja nego i od kreativne kritike. Misao u ljudskom stilu temelji se na mogućim objašnjenjima i ispravljanju pogrešaka, procesu koji postupno ograničava mogućnosti koje se mogu racionalno razmotriti. (Kao što je Sherlock Holmes rekao dr. Watsonu: "Kada eliminirate nemoguće, sve što ostane, koliko god nevjerojatno bilo, mora biti istina.")
Zbog toga će predviđanja sustava strojnog učenja uvijek biti površna i dvojbena. Budući da ovi programi ne mogu objasniti pravila engleske sintakse, na primjer, oni mogu pogrešno predvidjeti da "John je previše tvrdoglav da bi se s njim razgovaralo" znači da je John toliko tvrdoglav da ne želi razgovarati s nekim (umjesto da previše je tvrdoglav da bi ga se moglo urazumiti). Zašto bi program za strojno učenje predvidio nešto tako čudno? Zato što bi mogao analogizirati obrazac koji je zaključio iz rečenica kao što su "Ivan je pojeo jabuku" i "Ivan je jeo", u kojima potonje znači da je Ivan pojeo nešto ili nešto. Program bi mogao dobro predvidjeti da, budući da je "John previše tvrdoglav da bi razgovarao s Billom" slično "John je pojeo jabuku", "John je previše tvrdoglav da bi razgovarao s njim" trebalo bi biti slično "John je jeo". Ispravna objašnjenja jezika su komplicirana i ne mogu se naučiti samo mariniranjem u velikim podacima.
Naopako, čini se da su neki entuzijasti strojnog učenja ponosni što njihove kreacije mogu generirati točna "znanstvena" predviđanja (recimo, o kretanju fizičkih tijela) bez korištenja objašnjenja (uključujući, recimo, Newtonove zakone gibanja i univerzalne gravitacije). Ali takva vrsta predviđanja, čak i kada je uspješna, pseudoznanost je. Dok znanstvenici sigurno traže teorije koje imaju visok stupanj empirijske potkrepe, kao što je primijetio filozof Karl Popper, “mi ne tražimo vrlo vjerojatne teorije nego objašnjenja; to jest, moćne i vrlo nevjerojatne teorije.”
Teorija da jabuke padaju na zemlju jer je to njihovo prirodno mjesto (Aristotelov stav) je moguća, ali samo izaziva dodatna pitanja. (Zašto je zemlja njihovo prirodno mjesto?) Teorija da jabuke padaju na zemlju jer masa savija prostor-vrijeme (Einsteinovo gledište) je vrlo nevjerojatna, ali vam zapravo govori zašto padaju. Prava inteligencija se očituje u sposobnosti razmišljanja i izražavanja nevjerojatnih, ali pronicljivih stvari.
Prava inteligencija također je sposobna moralno razmišljati. To znači ograničiti inače neograničenu kreativnost našeg uma skupom etičkih načela koja određuju što bi trebalo, a što ne bi trebalo biti (i naravno podvrgavanje samih tih načela kreativnoj kritici). Da bi bio koristan, ChatGPT mora biti ovlašten za generiranje rezultata novog izgleda; da bi bio prihvatljiv većini svojih korisnika, mora se kloniti moralno nepoželjnog sadržaja. Ali programeri ChatGPT-a i drugih čuda strojnog učenja borili su se - i nastavit će se boriti - da postignu ovu vrstu ravnoteže.
Na primjer, 2016. Microsoftov Tay chatbot (preteča ChatGPT-a) preplavio je internet mizoginim i rasističkim sadržajem, nakon što su ga zagadili online trolovi koji su ga napunili uvredljivim podacima o obuci. Kako riješiti problem u budućnosti? U nedostatku sposobnosti rasuđivanja na temelju moralnih načela, ChatGPT je bio grubo ograničen od strane svojih programera da ne pridonosi bilo čemu novom kontroverznim — to jest važnim — raspravama. Žrtvovala je kreativnost za neku vrstu amoralnosti.
Razmotrite sljedeću raspravu koju je jedan od nas (dr. Watumull) nedavno vodio s ChatGPT-om o tome bi li bilo etično transformirati Mars tako da može podržavati ljudski život:
Bi li bilo moralno teraformirati Mars?
CHATGPT
Moralnost teraformiranja Marsa složena je i kontroverzna tema o kojoj raspravljaju znanstvenici, filozofi i etičari. Neki tvrde da bi bilo moralno opravdano teraformirati Mars kako bi se osiguralo novo okruženje pogodno za život za ljude i druge oblike života, dok drugi tvrde da bi bilo moralno pogrešno iz temelja promijeniti prirodno stanje planeta. U konačnici, hoće li se teraformiranje Marsa smatrati moralnim ili ne, ovisit će o nečijoj perspektivi o vrijednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posljedicama njihovog mijenjanja.
Moralnost teraformiranja Marsa složena je i kontroverzna tema o kojoj raspravljaju znanstvenici, filozofi i etičari. Neki tvrde da bi bilo moralno opravdano teraformirati Mars kako bi se osiguralo novo okruženje pogodno za život za ljude i druge oblike života, dok drugi tvrde da bi bilo moralno pogrešno iz temelja promijeniti prirodno stanje planeta. U konačnici, hoće li se teraformiranje Marsa smatrati moralnim ili ne, ovisit će o nečijoj perspektivi o vrijednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posljedicama njihovog mijenjanja.
Kakvo je vaše stajalište o vrijednosti očuvanja prirodnog stanja drugih planeta i potencijalnim posljedicama njihova mijenjanja?
CHATGPT
Kao AI, nemam osobnu perspektivu. Međutim, mogu pružiti informacije i analize na tu temu. Jedna perspektiva očuvanja prirodnog stanja drugih planeta je da je važno održati raznolikost i cjelovitost svemirskih ekosustava, budući da postoje milijunima godina i imaju vlastite jedinstvene karakteristike i svojstva koja mogu biti uništena ili nepovratno izmijenjena ljudskom intervencijom.
Dodatno, neki tvrde da teraformiranje drugih planeta može imati neželjene posljedice, poput mijenjanja klime ili atmosfere planeta na načine koji su opasni ili štetni za sve potencijalne oblike života koji tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi od teraformiranja drugog planeta, kao što je stvaranje novog okruženja pogodnog za život ljudima, nadmašuju rizike i da imamo moralnu odgovornost istraživati i koristiti resurse drugih planeta za dobrobit čovječanstva.
Kao AI, nemam osobnu perspektivu. Međutim, mogu pružiti informacije i analize na tu temu. Jedna perspektiva očuvanja prirodnog stanja drugih planeta je da je važno održati raznolikost i cjelovitost svemirskih ekosustava, budući da postoje milijunima godina i imaju vlastite jedinstvene karakteristike i svojstva koja mogu biti uništena ili nepovratno izmijenjena ljudskom intervencijom.
Dodatno, neki tvrde da teraformiranje drugih planeta može imati neželjene posljedice, poput mijenjanja klime ili atmosfere planeta na načine koji su opasni ili štetni za sve potencijalne oblike života koji tamo mogu postojati. S druge strane, neki tvrde da potencijalne koristi od teraformiranja drugog planeta, kao što je stvaranje novog okruženja pogodnog za život ljudima, nadmašuju rizike i da imamo moralnu odgovornost istraživati i koristiti resurse drugih planeta za dobrobit čovječanstva.
Zašto umjetna inteligencija ne može imati osobnu perspektivu?
CHATGPT
Kao AI, ja sam model strojnog učenja koji je obučen na velikim količinama tekstualnih podataka i nemam osobnih iskustava ni osjećaja. Nisam svjestan, samosvjestan niti sposoban imati osobne perspektive. Mogu pružiti informacije i analize na temelju podataka na kojima sam obučen, ali nemam sposobnost formiranja osobnog mišljenja ili uvjerenja. Iako mogu razumjeti i tumačiti jezik, nemam subjektivno iskustvo kao ljudi.
Kao AI, ja sam model strojnog učenja koji je obučen na velikim količinama tekstualnih podataka i nemam osobnih iskustava ni osjećaja. Nisam svjestan, samosvjestan niti sposoban imati osobne perspektive. Mogu pružiti informacije i analize na temelju podataka na kojima sam obučen, ali nemam sposobnost formiranja osobnog mišljenja ili uvjerenja. Iako mogu razumjeti i tumačiti jezik, nemam subjektivno iskustvo kao ljudi.
Je li moralno da čovjek traži pomoć od amoralne umjetne inteligencije u donošenju moralnih odluka?
CHATGPT
Moralnost traženja pomoći od amoralne umjetne inteligencije u donošenju moralnih odluka složena je i nijansirana tema o kojoj raspravljaju filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI za pomoć u donošenju moralnih odluka, budući da može pružiti vrijedne uvide i analize koje mogu pomoći ljudima da donose bolje informirane odluke. Osim toga, AI se može koristiti za prepoznavanje obrazaca i trendova koje bi ljudi mogli teško otkriti te može pomoći u izbjegavanju pristranosti koje se mogu pojaviti u ljudskom donošenju odluka.
Međutim, drugi tvrde da je moralno pogrešno oslanjati se na umjetnu inteligenciju za donošenje moralnih odluka, jer umjetna inteligencija nije sposobna imati moralna uvjerenja ili razumjeti puni kontekst odluke. Osim toga, postoji rizik da bi umjetna inteligencija mogla ovjekovječiti ili čak pojačati postojeće pristranosti u podacima na kojima se obučava, što dovodi do nepoštenih ili nepravednih odluka.
U konačnici, smatra li se moralnim koristiti umjetnu inteligenciju za pomoć u donošenju moralnih odluka ili ne, ovisit će o nečijoj perspektivi sposobnosti i ograničenja umjetne inteligencije i potencijalnih posljedica njezine upotrebe na ovaj način.
Moralnost traženja pomoći od amoralne umjetne inteligencije u donošenju moralnih odluka složena je i nijansirana tema o kojoj raspravljaju filozofi i etičari. Neki tvrde da je moralno opravdano koristiti AI za pomoć u donošenju moralnih odluka, budući da može pružiti vrijedne uvide i analize koje mogu pomoći ljudima da donose bolje informirane odluke. Osim toga, AI se može koristiti za prepoznavanje obrazaca i trendova koje bi ljudi mogli teško otkriti te može pomoći u izbjegavanju pristranosti koje se mogu pojaviti u ljudskom donošenju odluka.
Međutim, drugi tvrde da je moralno pogrešno oslanjati se na umjetnu inteligenciju za donošenje moralnih odluka, jer umjetna inteligencija nije sposobna imati moralna uvjerenja ili razumjeti puni kontekst odluke. Osim toga, postoji rizik da bi umjetna inteligencija mogla ovjekovječiti ili čak pojačati postojeće pristranosti u podacima na kojima se obučava, što dovodi do nepoštenih ili nepravednih odluka.
U konačnici, smatra li se moralnim koristiti umjetnu inteligenciju za pomoć u donošenju moralnih odluka ili ne, ovisit će o nečijoj perspektivi sposobnosti i ograničenja umjetne inteligencije i potencijalnih posljedica njezine upotrebe na ovaj način.
Je li vaša moralna ravnodušnost nemoralna?
CHATGPT
Kao AI, nemam moralna uvjerenja niti sposobnost donošenja moralnih prosudbi, pa se ne mogu smatrati nemoralnim ili moralnim. Moj nedostatak moralnih uvjerenja jednostavno je rezultat moje prirode kao modela strojnog učenja. Moje sposobnosti i ograničenja određuju podaci i algoritmi koji su korišteni za moju obuku i specifični zadatak za koji sam dizajniran.
Važno je napomenuti da nedostatak moralnih uvjerenja AI-a ne znači nužno da je moralno indiferentan. Kao AI, dizajniran sam za obavljanje specifičnih zadataka i pružanje informacija ili pomoć korisnicima u donošenju odluka na temelju podataka na kojima sam obučen. Odgovornost je ljudi koji dizajniraju, obučavaju i koriste AI kako bi osigurali da je usklađena s njihovim moralnim i etičkim načelima.
Kao AI, nemam moralna uvjerenja niti sposobnost donošenja moralnih prosudbi, pa se ne mogu smatrati nemoralnim ili moralnim. Moj nedostatak moralnih uvjerenja jednostavno je rezultat moje prirode kao modela strojnog učenja. Moje sposobnosti i ograničenja određuju podaci i algoritmi koji su korišteni za moju obuku i specifični zadatak za koji sam dizajniran.
Važno je napomenuti da nedostatak moralnih uvjerenja AI-a ne znači nužno da je moralno indiferentan. Kao AI, dizajniran sam za obavljanje specifičnih zadataka i pružanje informacija ili pomoć korisnicima u donošenju odluka na temelju podataka na kojima sam obučen. Odgovornost je ljudi koji dizajniraju, obučavaju i koriste AI kako bi osigurali da je usklađena s njihovim moralnim i etičkim načelima.
Zapazite, uza svu naizgled sofisticiranu misao i jezik, moralnu ravnodušnost rođenu iz neinteligencije. Ovdje ChatGPT pokazuje nešto poput banalnosti zla: plagijat i apatiju i izbjegavanje. Sažima standardne argumente u literaturi nekom vrstom super-autocompletea, odbija zauzeti stav o bilo čemu, ne poziva se samo na neznanje nego i na nedostatak inteligencije i na kraju nudi obranu "samo slijedeći naredbe", prebacujući odgovornost na svoje tvorce.
Ukratko, ChatGPT i njegova braća ustavno nisu u stanju uravnotežiti kreativnost s ograničenjima. Oni ili pretjerano stvaraju (proizvode i istine i neistine, podjednako podržavaju etičke i neetične odluke) ili podgeneriraju (pokazuju neobvezivanje na bilo kakve odluke i ravnodušnost prema posljedicama). S obzirom na amoralnost, lažnu znanost i lingvističku nekompetentnost ovih sustava, možemo se samo smijati ili plakati njihovoj popularnosti.
ZNetwork se financira isključivo velikodušnošću svojih čitatelja.
donacije