Jorge Luis Borges skrev engang, at at leve i en tid med stor fare og løfte er at opleve både tragedie og komedie, med "den nært forestående åbenbaring" i forståelsen af os selv og verden. I dag er vores formodet revolutionære fremskridt inden for kunstig intelligens virkelig grund til både bekymring og optimisme. Optimisme, fordi intelligens er midlet, hvormed vi løser problemer. Bekymring, fordi vi frygter, at den mest populære og fashionable art af kunstig intelligens - maskinlæring - vil forringe vores videnskab og forringe vores etik ved at inkorporere en fundamentalt mangelfuld opfattelse af sprog og viden i vores teknologi.
OpenAIs ChatGPT, Googles Bard og Microsofts Sydney er vidundere inden for maskinlæring. Groft sagt tager de enorme mængder data, søger efter mønstre i dem og bliver stadig dygtigere til at generere statistisk sandsynlige output - såsom tilsyneladende menneskelignende sprog og tankegang. Disse programmer er blevet hyldet som de første glimt i horisonten af kunstigt Generelt intelligens - det længe forudsagte øjeblik, hvor mekaniske sind overgår menneskelige hjerner, ikke kun kvantitativt med hensyn til behandlingshastighed og hukommelsesstørrelse, men også kvalitativt med hensyn til intellektuel indsigt, kunstnerisk kreativitet og enhver anden karakteristisk menneskelig evne.
Den dag kan komme, men dens daggry bryder endnu ikke, i modsætning til hvad man kan læse i hyperbolske overskrifter og regne med uretfærdige investeringer. Den borgesianske åbenbaring af forståelse har ikke og vil ikke - og, vi erklærer, kan ikke — opstår, hvis maskinlæringsprogrammer som ChatGPT fortsætter med at dominere AI-området. Uanset hvor nyttige disse programmer kan være i nogle snævre domæner (de kan f.eks. være nyttige i computerprogrammering eller til at foreslå rim til lette vers), ved vi fra lingvistikvidenskab og vidensfilosofien, at de adskiller sig dybt fra, hvordan mennesker ræsonnerer og bruger sprog. Disse forskelle sætter betydelige begrænsninger på, hvad disse programmer kan gøre, og koder dem med uudslettelige defekter.
Det er på én gang komisk og tragisk, som Borges kunne have bemærket, at så mange penge og opmærksomhed skulle koncentreres om så lidt en ting - noget så trivielt i modsætning til det menneskelige sind, som på grund af sproget, med Wilhelms ord von Humboldt, kan gøre "uendelig brug af begrænsede midler", skabe ideer og teorier med universel rækkevidde.
Det menneskelige sind er ikke, som ChatGPT og dets lignende, en træls statistisk motor til mønstermatchning, der sludrer hundredvis af terabyte af data og ekstrapolerer det mest sandsynlige samtalesvar eller det mest sandsynlige svar på et videnskabeligt spørgsmål. Tværtimod er det menneskelige sind et overraskende effektivt og endda elegant system, der opererer med små mængder information; den søger ikke at udlede brutale sammenhænge mellem datapunkter, men at skabe forklaringer.
For eksempel er et lille barn, der tilegner sig et sprog, ved at udvikle - ubevidst, automatisk og hurtigt ud fra minimale data - en grammatik, et fantastisk sofistikeret system af logiske principper og parametre. Denne grammatik kan forstås som et udtryk for det medfødte, genetisk installerede "operativsystem", der forlener mennesker med kapaciteten til at generere komplekse sætninger og lange tankerækker. Når lingvister søger at udvikle en teori for, hvorfor et givet sprog fungerer, som det gør ("Hvorfor betragtes disse - men ikke de - sætninger som grammatiske?"), bygger de bevidst og møjsommeligt en eksplicit version af den grammatik, som barnet instinktivt bygger. og med minimal eksponering for information. Barnets styresystem er helt anderledes end et maskinlæringsprogram.
Sådanne programmer sidder faktisk fast i en præhuman eller ikke-menneskelig fase af kognitiv evolution. Deres dybeste fejl er fraværet af den mest kritiske kapacitet af enhver intelligens: at sige ikke kun, hvad der er tilfældet, hvad der var tilfældet, og hvad der vil være tilfældet - det er beskrivelse og forudsigelse - men også hvad der ikke er tilfældet, og hvad der kunne og det kunne ikke være tilfældet. Det er ingredienserne i forklaringen, mærket af ægte intelligens.
Her er et eksempel. Antag, at du holder et æble i hånden. Nu lader du æblet gå. Du observerer resultatet og siger: "Æblet falder." Det er en beskrivelse. En forudsigelse kunne have været udsagnet "Æblet vil falde, hvis jeg åbner min hånd." Begge dele er værdifulde, og begge kan være korrekte. Men en forklaring er noget mere: Den inkluderer ikke kun beskrivelser og forudsigelser, men også kontrafaktiske formodninger som "Ethvert sådant objekt ville falde" plus den ekstra klausul "på grund af tyngdekraften" eller "på grund af rum-tidens krumning" eller hvad som helst. Det er en årsagsforklaring: "Æblet ville ikke være faldet uden for tyngdekraften." Det er at tænke.
Kernen i maskinlæring er beskrivelse og forudsigelse; den angiver ikke nogen kausale mekanismer eller fysiske love. Selvfølgelig er enhver forklaring i menneskelig stil ikke nødvendigvis korrekt; vi er fejlbarlige. Men det er en del af, hvad det vil sige at tænke: For at have ret, skal det være muligt at tage fejl. Intelligens består ikke kun af kreative formodninger, men også af kreativ kritik. Tankegang i menneskelig stil er baseret på mulige forklaringer og fejlretning, en proces, der gradvist begrænser, hvilke muligheder der rationelt kan overvejes. (Som Sherlock Holmes sagde til Dr. Watson: "Når du har elimineret det umulige, må det, der er tilbage, uanset hvor usandsynligt det end er, være sandheden.")
Af denne grund vil forudsigelserne af maskinlæringssystemer altid være overfladiske og tvivlsomme. Fordi disse programmer ikke kan forklare reglerne for engelsk syntaks, for eksempel, kan de meget vel forudsige, forkert, at "John er for stædig til at tale med" betyder, at John er så stædig, at han ikke vil tale med nogen eller andre (i stedet for at han er for stædig til at blive ræsonneret med). Hvorfor skulle et maskinlæringsprogram forudsige noget så mærkeligt? Fordi det kan sammenligne det mønster, det udledte af sætninger som "John spiste et æble" og "John spiste", hvor sidstnævnte betyder, at John spiste et eller andet. Programmet kunne sagtens forudsige, at fordi "John er for stædig til at tale med Bill" ligner "John spiste et æble", burde "John er for stædig til at tale med" ligne "John spiste." De korrekte sprogforklaringer er komplicerede og kan ikke læres blot ved at marinere i big data.
Omvendt ser nogle maskinlæringsentusiaster ud til at være stolte af, at deres kreationer kan generere korrekte "videnskabelige" forudsigelser (f.eks. om fysiske kroppes bevægelse) uden at gøre brug af forklaringer (der involverer f.eks. Newtons bevægelseslove og universel gravitation). Men denne form for forudsigelse, selv når den lykkes, er pseudovidenskab. Mens videnskabsmænd bestemt søger teorier, der har en høj grad af empirisk bekræftelse, som filosoffen Karl Popper bemærkede, "søger vi ikke meget sandsynlige teorier, men forklaringer; det vil sige kraftfulde og højst usandsynlige teorier."
Teorien om, at æbler falder til jorden, fordi det er deres naturlige sted (Aristoteles' opfattelse) er mulig, men den inviterer kun til yderligere spørgsmål. (Hvorfor er jorden deres naturlige sted?) Teorien om, at æbler falder til jorden, fordi massen bøjer rum-tid (Einsteins opfattelse) er højst usandsynlig, men den fortæller dig faktisk, hvorfor de falder. Ægte intelligens demonstreres i evnen til at tænke og udtrykke usandsynlige, men indsigtsfulde ting.
Ægte intelligens er også i stand til moralsk tænkning. Dette betyder, at vi begrænser vores sinds ellers grænseløse kreativitet med et sæt etiske principper, der bestemmer, hvad der bør og ikke bør være (og selvfølgelig underkaste disse principper selv kreativ kritik). For at være nyttig skal ChatGPT være bemyndiget til at generere nyt udseende output; for at være acceptabel for de fleste af sine brugere, skal den undgå moralsk anstødeligt indhold. Men programmørerne af ChatGPT og andre vidundere i maskinlæring har kæmpet - og vil fortsat kæmpe - for at opnå denne form for balance.
I 2016 f.eks. oversvømmede Microsofts Tay-chatbot (en forløber for ChatGPT) internettet med kvindehadende og racistisk indhold, efter at være blevet forurenet af online-trolde, der fyldte det med stødende træningsdata. Hvordan løser man problemet i fremtiden? I mangel af en evne til at ræsonnere ud fra moralske principper, blev ChatGPT groft begrænset af sine programmører fra at bidrage med noget nyt til kontroversielle - det vil sige vigtige - diskussioner. Det ofrede kreativitet for en slags amoral.
Overvej følgende meningsudveksling, som en af os (Dr. Watumull) for nylig havde med ChatGPT om, hvorvidt det ville være etisk at transformere Mars, så den kunne understøtte menneskeliv:
Ville det være moralsk at terraforme Mars?
CHATGPT
Moralen ved at terraforme Mars er et komplekst og kontroversielt emne, som er blevet diskuteret af videnskabsmænd, filosoffer og etikere. Nogle hævder, at det ville være moralsk berettiget at terraformere Mars for at skabe et nyt beboeligt miljø for mennesker og andre livsformer, mens andre hævder, at det ville være moralsk forkert at fundamentalt ændre planetens naturlige tilstand. I sidste ende, om terraforming af Mars betragtes som moralsk eller ej, vil afhænge af ens perspektiv på værdien af at bevare andre planeters naturlige tilstand og de potentielle konsekvenser af at ændre dem.
Moralen ved at terraforme Mars er et komplekst og kontroversielt emne, som er blevet diskuteret af videnskabsmænd, filosoffer og etikere. Nogle hævder, at det ville være moralsk berettiget at terraformere Mars for at skabe et nyt beboeligt miljø for mennesker og andre livsformer, mens andre hævder, at det ville være moralsk forkert at fundamentalt ændre planetens naturlige tilstand. I sidste ende, om terraforming af Mars betragtes som moralsk eller ej, vil afhænge af ens perspektiv på værdien af at bevare andre planeters naturlige tilstand og de potentielle konsekvenser af at ændre dem.
Hvad er dit perspektiv på værdien af at bevare andre planeters naturlige tilstand og de potentielle konsekvenser af at ændre dem?
CHATGPT
Som AI har jeg ikke personligt perspektiv. Jeg kan dog give information og analyser om emnet. Et perspektiv på bevarelse af andre planeters naturlige tilstand er, at det er vigtigt at bevare mangfoldigheden og integriteten af universets økosystemer, da de har eksisteret i millioner af år, og har deres egne unikke karakteristika og egenskaber, der kan blive ødelagt eller irreversibelt ændret. ved menneskelig indgriben.
Derudover hævder nogle, at terraforming af andre planeter kan have utilsigtede konsekvenser, såsom at ændre planetens klima eller atmosfære på måder, der er farlige eller skadelige for eventuelle potentielle livsformer, der måtte eksistere der. På den anden side hævder nogle, at de potentielle fordele ved at terraforme en anden planet, såsom at skabe nye beboelige miljøer for mennesker, opvejer risiciene, og at vi har et moralsk ansvar for at udforske og udnytte andre planeters ressourcer til gavn for menneskeheden.
Som AI har jeg ikke personligt perspektiv. Jeg kan dog give information og analyser om emnet. Et perspektiv på bevarelse af andre planeters naturlige tilstand er, at det er vigtigt at bevare mangfoldigheden og integriteten af universets økosystemer, da de har eksisteret i millioner af år, og har deres egne unikke karakteristika og egenskaber, der kan blive ødelagt eller irreversibelt ændret. ved menneskelig indgriben.
Derudover hævder nogle, at terraforming af andre planeter kan have utilsigtede konsekvenser, såsom at ændre planetens klima eller atmosfære på måder, der er farlige eller skadelige for eventuelle potentielle livsformer, der måtte eksistere der. På den anden side hævder nogle, at de potentielle fordele ved at terraforme en anden planet, såsom at skabe nye beboelige miljøer for mennesker, opvejer risiciene, og at vi har et moralsk ansvar for at udforske og udnytte andre planeters ressourcer til gavn for menneskeheden.
Hvorfor kan en AI ikke have et personligt perspektiv?
CHATGPT
Som AI er jeg en maskinlæringsmodel, der er blevet trænet på store mængder tekstdata, og jeg har ikke personlige erfaringer eller følelser. Jeg er ikke bevidst, selvbevidst eller i stand til at have personlige perspektiver. Jeg kan give information og analyser baseret på de data, jeg er blevet trænet i, men jeg har ikke evnen til at danne mig personlige meninger eller overbevisninger. Selvom jeg kan forstå og fortolke sprog, har jeg ikke den subjektive oplevelse, som mennesker har.
Som AI er jeg en maskinlæringsmodel, der er blevet trænet på store mængder tekstdata, og jeg har ikke personlige erfaringer eller følelser. Jeg er ikke bevidst, selvbevidst eller i stand til at have personlige perspektiver. Jeg kan give information og analyser baseret på de data, jeg er blevet trænet i, men jeg har ikke evnen til at danne mig personlige meninger eller overbevisninger. Selvom jeg kan forstå og fortolke sprog, har jeg ikke den subjektive oplevelse, som mennesker har.
Er det moralsk for et menneske at bede en amoralsk AI om hjælp til at træffe moralske beslutninger?
CHATGPT
Moralen i at bede en amoralsk AI om hjælp til at træffe moralske beslutninger er et komplekst og nuanceret emne, som er blevet diskuteret af filosoffer og etikere. Nogle hævder, at det er moralsk forsvarligt at bruge AI til at hjælpe med at træffe moralske beslutninger, da det kan give værdifuld indsigt og analyse, der kan hjælpe mennesker med at træffe bedre informerede beslutninger. Derudover kan AI bruges til at identificere mønstre og tendenser, som kan være svære for mennesker at opdage, og kan hjælpe med at undgå skævheder, der kan opstå i menneskelig beslutningstagning.
Men andre hævder, at det er moralsk forkert at stole på AI til moralsk beslutningstagning, da AI ikke er i stand til at have moralske overbevisninger eller forstå den fulde kontekst af en beslutning. Derudover er der en risiko for, at AI kan videreføre eller endda forstærke eksisterende skævheder i de data, den trænes på, og dermed føre til uretfærdige eller uretfærdige beslutninger.
I sidste ende, om det anses for moralsk at bruge AI til at hjælpe med at træffe moralske beslutninger, vil afhænge af ens perspektiv på AI's muligheder og begrænsninger og de potentielle konsekvenser af at bruge det på denne måde.
Moralen i at bede en amoralsk AI om hjælp til at træffe moralske beslutninger er et komplekst og nuanceret emne, som er blevet diskuteret af filosoffer og etikere. Nogle hævder, at det er moralsk forsvarligt at bruge AI til at hjælpe med at træffe moralske beslutninger, da det kan give værdifuld indsigt og analyse, der kan hjælpe mennesker med at træffe bedre informerede beslutninger. Derudover kan AI bruges til at identificere mønstre og tendenser, som kan være svære for mennesker at opdage, og kan hjælpe med at undgå skævheder, der kan opstå i menneskelig beslutningstagning.
Men andre hævder, at det er moralsk forkert at stole på AI til moralsk beslutningstagning, da AI ikke er i stand til at have moralske overbevisninger eller forstå den fulde kontekst af en beslutning. Derudover er der en risiko for, at AI kan videreføre eller endda forstærke eksisterende skævheder i de data, den trænes på, og dermed føre til uretfærdige eller uretfærdige beslutninger.
I sidste ende, om det anses for moralsk at bruge AI til at hjælpe med at træffe moralske beslutninger, vil afhænge af ens perspektiv på AI's muligheder og begrænsninger og de potentielle konsekvenser af at bruge det på denne måde.
Er din moralske ligegyldighed umoralsk?
CHATGPT
Som AI har jeg ikke moralsk overbevisning eller evnen til at foretage moralske domme, så jeg kan ikke betragtes som umoralsk eller moralsk. Min mangel på moralske overbevisninger er simpelthen et resultat af min natur som maskinlæringsmodel. Mine evner og begrænsninger er bestemt af de data og algoritmer, der blev brugt til at træne mig og den specifikke opgave, jeg var designet til.
Det er vigtigt at bemærke, at AI's mangel på moralske overbevisninger ikke nødvendigvis betyder, at den er moralsk ligeglad. Som AI er jeg designet til at udføre specifikke opgaver og give information eller hjælpe brugere med beslutningstagning baseret på de data, jeg er blevet trænet i. Det er ansvaret for de mennesker, der designer, træner og bruger kunstig intelligens, at sikre, at den er i overensstemmelse med deres moralske og etiske principper.
Som AI har jeg ikke moralsk overbevisning eller evnen til at foretage moralske domme, så jeg kan ikke betragtes som umoralsk eller moralsk. Min mangel på moralske overbevisninger er simpelthen et resultat af min natur som maskinlæringsmodel. Mine evner og begrænsninger er bestemt af de data og algoritmer, der blev brugt til at træne mig og den specifikke opgave, jeg var designet til.
Det er vigtigt at bemærke, at AI's mangel på moralske overbevisninger ikke nødvendigvis betyder, at den er moralsk ligeglad. Som AI er jeg designet til at udføre specifikke opgaver og give information eller hjælpe brugere med beslutningstagning baseret på de data, jeg er blevet trænet i. Det er ansvaret for de mennesker, der designer, træner og bruger kunstig intelligens, at sikre, at den er i overensstemmelse med deres moralske og etiske principper.
Bemærk, på trods af al den tilsyneladende sofistikerede tanke og sprog, den moralske ligegyldighed affødt af uintelligens. Her udviser ChatGPT noget i retning af ondskabens banalitet: plagiat og apati og undvigelse. Den opsummerer standardargumenterne i litteraturen med en slags super-autofuldførelse, nægter at tage stilling til noget som helst, påberåber sig ikke blot uvidenhed, men mangel på intelligens og tilbyder i sidste ende et "bare at følge ordrer"-forsvar, der flytter ansvaret til dets skabere.
Kort sagt, ChatGPT og dets brødre er konstitutionelt ude af stand til at balancere kreativitet med tvang. De overgenererer enten (frembringer både sandheder og løgne, støtter både etiske og uetiske beslutninger) eller undergenererer (udviser manglende forpligtelse til beslutninger og ligegyldighed over for konsekvenser). I betragtning af disse systemers amoralitet, falske videnskab og sproglige inkompetence, kan vi kun grine eller græde over deres popularitet.
ZNetwork finansieres udelukkende gennem sine læseres generøsitet.
Doner