Jorge Luis Borges skrev en gång att att leva i en tid av stor fara och löfte är att uppleva både tragedi och komedi, med "en förestående uppenbarelse" för att förstå oss själva och världen. Idag är våra förment revolutionära framsteg inom artificiell intelligens verkligen anledning till både oro och optimism. Optimism eftersom intelligens är medlet för att lösa problem. Oro eftersom vi fruktar att den mest populära och fashionabla typen av AI – maskininlärning – kommer att försämra vår vetenskap och förnedra vår etik genom att införliva en fundamentalt felaktig uppfattning om språk och kunskap i vår teknologi.
OpenAIs ChatGPT, Googles Bard och Microsofts Sydney är underverk av maskininlärning. Grovt sett tar de enorma mängder data, söker efter mönster i den och blir allt skickligare på att generera statistiskt sannolika utdata - som till synes mänskligt språk och tanke. Dessa program har hyllats som de första glimtarna vid horisonten av konstgjorda allmänna intelligens — det där länge förutspådda ögonblicket då mekaniska sinnen överträffar mänskliga hjärnor, inte bara kvantitativt när det gäller bearbetningshastighet och minnesstorlek utan också kvalitativt i termer av intellektuell insikt, konstnärlig kreativitet och alla andra distinkt mänskliga förmågor.
Den dagen kan komma, men dess gryning är ännu inte på väg, i motsats till vad som kan läsas i hyperboliska rubriker och räkna med orättfärdiga investeringar. Den borgesianska uppenbarelsen av förståelse har inte och kommer inte – och, vi hävdar, kan inte — uppstår om maskininlärningsprogram som ChatGPT fortsätter att dominera AI-området Hur användbara dessa program än kan vara inom vissa smala domäner (de kan vara till hjälp i datorprogrammering, till exempel, eller för att föreslå ramsor för lätta verser), vet vi från lingvistikvetenskap och kunskapsfilosofin att de skiljer sig djupt från hur människor resonerar och använder språk. Dessa skillnader sätter betydande begränsningar för vad dessa program kan göra och kodar dem med outrotliga defekter.
Det är på en gång komiskt och tragiskt, som Borges kanske har noterat, att så mycket pengar och uppmärksamhet bör koncentreras på så lite en sak - något så trivialt i kontrast till det mänskliga sinnet, som på grund av språket, med Wilhelms ord von Humboldt, kan göra "oändlig användning av ändliga medel", skapa idéer och teorier med universell räckvidd.
Det mänskliga sinnet är inte, som ChatGPT och dess liknande, en klurig statistisk motor för mönstermatchning, som slukar på hundratals terabyte data och extrapolerar det mest sannolika samtalssvaret eller det mest troliga svaret på en vetenskaplig fråga. Tvärtom är det mänskliga sinnet ett förvånansvärt effektivt och till och med elegant system som arbetar med små mängder information; den försöker inte sluta sig till brutala korrelationer mellan datapunkter utan att skapa förklaringar.
Till exempel utvecklar ett litet barn som skaffar sig ett språk – omedvetet, automatiskt och snabbt från små data – en grammatik, ett oerhört sofistikerat system av logiska principer och parametrar. Denna grammatik kan förstås som ett uttryck för det medfödda, genetiskt installerade "operativsystemet" som ger människor förmågan att generera komplexa meningar och långa tankebanor. När lingvister försöker utveckla en teori för varför ett givet språk fungerar som det gör ("Varför anses dessa - men inte de - meningar vara grammatiska?"), bygger de medvetet och mödosamt en explicit version av den grammatik som barnet bygger instinktivt och med minimal exponering för information. Barnets operativsystem är helt annorlunda än ett maskininlärningsprogram.
Sådana program har faktiskt fastnat i en förmänsklig eller icke-mänsklig fas av kognitiv evolution. Deras djupaste brist är frånvaron av den mest kritiska kapaciteten av någon intelligens: att inte bara säga vad som är fallet, vad som var fallet och vad som kommer att bli fallet - det är beskrivning och förutsägelse - utan också vad som inte är fallet och vad som skulle kunna och kunde inte vara fallet. Det är ingredienserna i förklaringen, kännetecknet för sann intelligens.
Här är ett exempel. Anta att du håller ett äpple i handen. Nu släpper du äpplet. Du observerar resultatet och säger: "Äpplet faller." Det är en beskrivning. En förutsägelse kan ha varit uttalandet "Äpplet kommer att falla om jag öppnar min hand." Båda är värdefulla, och båda kan vara korrekta. Men en förklaring är något mer: den innehåller inte bara beskrivningar och förutsägelser utan också kontrafaktiska gissningar som "Varje sådant objekt skulle falla", plus den extra satsen "på grund av tyngdkraften" eller "på grund av rum-tidens krökning" eller vad som helst. Det är en orsaksförklaring: "Äpplet skulle inte ha fallit utan för tyngdkraften." Det är att tänka.
Kärnan i maskininlärning är beskrivning och förutsägelse; den anger inga kausala mekanismer eller fysiska lagar. Naturligtvis är varje förklaring av mänsklig stil inte nödvändigtvis korrekt; vi är felbara. Men det här är en del av vad det innebär att tänka: För att ha rätt måste det vara möjligt att ha fel. Intelligens består inte bara av kreativa gissningar utan också av kreativ kritik. Tanken i mänsklig stil bygger på möjliga förklaringar och felkorrigering, en process som gradvis begränsar vilka möjligheter som rationellt kan övervägas. (Som Sherlock Holmes sa till Dr. Watson, "När du har eliminerat det omöjliga, måste det som återstår, hur osannolikt det än är, vara sanningen.")
Av denna anledning kommer förutsägelserna av maskininlärningssystem alltid att vara ytliga och tvivelaktiga. Eftersom dessa program inte kan förklara reglerna för engelsk syntax, till exempel, kan de mycket väl förutsäga, felaktigt, att "John är för envis för att prata med" betyder att John är så envis att han inte kommer att prata med någon eller annan (snarare än att han är för envis för att kunna resoneras med). Varför skulle ett maskininlärningsprogram förutsäga något så konstigt? Eftersom det kan jämföra mönstret som den härledde från meningar som "Johannes åt ett äpple" och "Johannes åt", där det senare betyder att John åt något eller annat. Programmet kan mycket väl förutsäga att eftersom "John är för envis för att prata med Bill" liknar "John åt ett äpple", borde "John är för envis för att prata med" likna "John åt." De korrekta språkförklaringarna är komplicerade och kan inte läras in bara genom att marinera i big data.
Omvänt verkar vissa maskininlärningsentusiaster vara stolta över att deras skapelser kan generera korrekta "vetenskapliga" förutsägelser (säg om fysiska kroppars rörelser) utan att använda förklaringar (som involverar, säg, Newtons rörelselagar och universella gravitation). Men den här typen av förutsägelser, även när de är framgångsrika, är pseudovetenskap. Medan forskare verkligen söker teorier som har en hög grad av empirisk bekräftelse, som filosofen Karl Popper noterade, "söker vi inte mycket sannolika teorier utan förklaringar; det vill säga kraftfulla och högst osannolika teorier.”
Teorin att äpplen faller till jorden för att det är deras naturliga plats (Aristoteles uppfattning) är möjlig, men den bjuder bara på ytterligare frågor. (Varför är jorden deras naturliga plats?) Teorin att äpplen faller till jorden för att massa böjer rum-tiden (Einsteins uppfattning) är högst osannolik, men den säger faktiskt varför de faller. Sann intelligens demonstreras i förmågan att tänka och uttrycka osannolika men insiktsfulla saker.
Sann intelligens är också kapabel till moraliskt tänkande. Detta innebär att begränsa den annars gränslösa kreativiteten i våra sinnen med en uppsättning etiska principer som bestämmer vad som borde och inte borde vara (och naturligtvis utsätta dessa principer själva för kreativ kritik). För att vara användbar måste ChatGPT ha befogenhet att generera nytt utseende; för att vara acceptabel för de flesta av dess användare måste den undvika moraliskt stötande innehåll. Men programmerarna av ChatGPT och andra underverk inom maskininlärning har kämpat – och kommer att fortsätta kämpa – för att uppnå denna typ av balans.
2016, till exempel, översvämmade Microsofts Tay chatbot (en föregångare till ChatGPT) internet med kvinnofientligt och rasistiskt innehåll, efter att ha blivit förorenad av onlinetroll som fyllde det med stötande träningsdata. Hur löser man problemet i framtiden? I avsaknad av förmåga att resonera utifrån moraliska principer, begränsades ChatGPT grovt av sina programmerare från att bidra med något nytt till kontroversiella – det vill säga viktiga – diskussioner. Det offrade kreativiteten för en sorts amoralitet.
Tänk på följande utbyte som en av oss (Dr. Watumull) nyligen hade med ChatGPT om huruvida det skulle vara etiskt att omvandla Mars så att den kan stödja människoliv:
Skulle det vara moraliskt att terraformera Mars?
CHATGPT
Moralen i att terraforma Mars är ett komplext och kontroversiellt ämne som har debatterats av vetenskapsmän, filosofer och etiker. Vissa hävdar att det skulle vara moraliskt försvarbart att terraformera Mars för att skapa en ny beboelig miljö för människor och andra livsformer, medan andra hävdar att det skulle vara moraliskt fel att fundamentalt förändra planetens naturliga tillstånd. I slutändan, huruvida terraforming av Mars anses vara moraliskt eller inte skulle bero på ens perspektiv på värdet av att bevara det naturliga tillståndet för andra planeter och de potentiella konsekvenserna av att förändra dem.
Moralen i att terraforma Mars är ett komplext och kontroversiellt ämne som har debatterats av vetenskapsmän, filosofer och etiker. Vissa hävdar att det skulle vara moraliskt försvarbart att terraformera Mars för att skapa en ny beboelig miljö för människor och andra livsformer, medan andra hävdar att det skulle vara moraliskt fel att fundamentalt förändra planetens naturliga tillstånd. I slutändan, huruvida terraforming av Mars anses vara moraliskt eller inte skulle bero på ens perspektiv på värdet av att bevara det naturliga tillståndet för andra planeter och de potentiella konsekvenserna av att förändra dem.
Vad är ditt perspektiv på värdet av att bevara andra planeters naturliga tillstånd och de potentiella konsekvenserna av att förändra dem?
CHATGPT
Som AI har jag inget personligt perspektiv. Däremot kan jag ge information och analyser i ämnet. Ett perspektiv på att bevara andra planeters naturliga tillstånd är att det är viktigt att upprätthålla mångfalden och integriteten hos universums ekosystem, eftersom de har funnits i miljontals år, och har sina egna unika egenskaper och egenskaper som kan förstöras eller oåterkalleligt förändras. genom mänskligt ingripande.
Dessutom hävdar vissa att terraformning av andra planeter kan få oavsiktliga konsekvenser, som att förändra planetens klimat eller atmosfär på sätt som är farliga eller skadliga för eventuella potentiella livsformer som kan existera där. Å andra sidan hävdar vissa att de potentiella fördelarna med att terraforma en annan planet, som att tillhandahålla nya beboeliga miljöer för människor, uppväger riskerna och att vi har ett moraliskt ansvar att utforska och utnyttja andra planeters resurser till mänsklighetens bästa.
Som AI har jag inget personligt perspektiv. Däremot kan jag ge information och analyser i ämnet. Ett perspektiv på att bevara andra planeters naturliga tillstånd är att det är viktigt att upprätthålla mångfalden och integriteten hos universums ekosystem, eftersom de har funnits i miljontals år, och har sina egna unika egenskaper och egenskaper som kan förstöras eller oåterkalleligt förändras. genom mänskligt ingripande.
Dessutom hävdar vissa att terraformning av andra planeter kan få oavsiktliga konsekvenser, som att förändra planetens klimat eller atmosfär på sätt som är farliga eller skadliga för eventuella potentiella livsformer som kan existera där. Å andra sidan hävdar vissa att de potentiella fördelarna med att terraforma en annan planet, som att tillhandahålla nya beboeliga miljöer för människor, uppväger riskerna och att vi har ett moraliskt ansvar att utforska och utnyttja andra planeters resurser till mänsklighetens bästa.
Varför kan en AI inte ha ett personligt perspektiv?
CHATGPT
Som AI är jag en maskininlärningsmodell som har tränats på stora mängder textdata, och jag har inga personliga erfarenheter eller känslor. Jag är inte medveten, självmedveten eller kapabel att ha personliga perspektiv. Jag kan ge information och analyser baserat på den data jag har utbildats på, men jag har inte förmågan att bilda mig personliga åsikter eller övertygelser. Även om jag kan förstå och tolka språk, har jag inte den subjektiva upplevelse som människor har.
Som AI är jag en maskininlärningsmodell som har tränats på stora mängder textdata, och jag har inga personliga erfarenheter eller känslor. Jag är inte medveten, självmedveten eller kapabel att ha personliga perspektiv. Jag kan ge information och analyser baserat på den data jag har utbildats på, men jag har inte förmågan att bilda mig personliga åsikter eller övertygelser. Även om jag kan förstå och tolka språk, har jag inte den subjektiva upplevelse som människor har.
Är det moraliskt för en människa att be en amoralisk AI om hjälp med att fatta moraliska beslut?
CHATGPT
Moralen att be en amoralisk AI om hjälp med att fatta moraliska beslut är ett komplext och nyanserat ämne som har debatterats av filosofer och etiker. Vissa hävdar att det är moraliskt försvarbart att använda AI för att hjälpa till att fatta moraliska beslut, eftersom det kan ge värdefulla insikter och analyser som kan hjälpa människor att fatta bättre informerade beslut. Dessutom kan AI användas för att identifiera mönster och trender som kan vara svåra för människor att upptäcka, och kan hjälpa till att undvika fördomar som kan uppstå i mänskligt beslutsfattande.
Men andra hävdar att det är moraliskt fel att förlita sig på AI för moraliskt beslutsfattande, eftersom AI inte kan ha moraliska övertygelser eller förstå hela sammanhanget för ett beslut. Dessutom finns det en risk att AI kan vidmakthålla eller till och med förstärka befintliga fördomar i data den tränas på, vilket leder till orättvisa eller orättvisa beslut.
I slutändan, huruvida det anses moraliskt att använda AI för att hjälpa till att fatta moraliska beslut skulle bero på ens perspektiv på AI:s möjligheter och begränsningar och de potentiella konsekvenserna av att använda den på detta sätt.
Moralen att be en amoralisk AI om hjälp med att fatta moraliska beslut är ett komplext och nyanserat ämne som har debatterats av filosofer och etiker. Vissa hävdar att det är moraliskt försvarbart att använda AI för att hjälpa till att fatta moraliska beslut, eftersom det kan ge värdefulla insikter och analyser som kan hjälpa människor att fatta bättre informerade beslut. Dessutom kan AI användas för att identifiera mönster och trender som kan vara svåra för människor att upptäcka, och kan hjälpa till att undvika fördomar som kan uppstå i mänskligt beslutsfattande.
Men andra hävdar att det är moraliskt fel att förlita sig på AI för moraliskt beslutsfattande, eftersom AI inte kan ha moraliska övertygelser eller förstå hela sammanhanget för ett beslut. Dessutom finns det en risk att AI kan vidmakthålla eller till och med förstärka befintliga fördomar i data den tränas på, vilket leder till orättvisa eller orättvisa beslut.
I slutändan, huruvida det anses moraliskt att använda AI för att hjälpa till att fatta moraliska beslut skulle bero på ens perspektiv på AI:s möjligheter och begränsningar och de potentiella konsekvenserna av att använda den på detta sätt.
Är din moraliska likgiltighet omoralisk?
CHATGPT
Som AI har jag ingen moralisk övertygelse eller förmåga att göra moraliska bedömningar, så jag kan inte anses vara omoralisk eller moralisk. Min brist på moraliska övertygelser är helt enkelt ett resultat av min natur som maskininlärningsmodell. Mina förmågor och begränsningar bestäms av de data och algoritmer som användes för att träna mig och den specifika uppgiften jag var designad för.
Det är viktigt att notera att AI:s brist på moraliska övertygelser inte nödvändigtvis betyder att den är moraliskt likgiltig. Som AI är jag designad för att utföra specifika uppgifter och ge information eller hjälpa användare med beslutsfattande baserat på den data jag har utbildats på. Det är människornas ansvar som designar, tränar och använder AI för att säkerställa att den är i linje med deras moraliska och etiska principer.
Som AI har jag ingen moralisk övertygelse eller förmåga att göra moraliska bedömningar, så jag kan inte anses vara omoralisk eller moralisk. Min brist på moraliska övertygelser är helt enkelt ett resultat av min natur som maskininlärningsmodell. Mina förmågor och begränsningar bestäms av de data och algoritmer som användes för att träna mig och den specifika uppgiften jag var designad för.
Det är viktigt att notera att AI:s brist på moraliska övertygelser inte nödvändigtvis betyder att den är moraliskt likgiltig. Som AI är jag designad för att utföra specifika uppgifter och ge information eller hjälpa användare med beslutsfattande baserat på den data jag har utbildats på. Det är människornas ansvar som designar, tränar och använder AI för att säkerställa att den är i linje med deras moraliska och etiska principer.
Notera, trots alla till synes sofistikerade tankar och språk, den moraliska likgiltigheten som föds av ointelligens. Här uppvisar ChatGPT något som liknar ondskans banalitet: plagiat och apati och obviation. Den sammanfattar standardargumenten i litteraturen med ett slags superautokomplettering, vägrar att ta ställning till någonting, åberopar inte bara okunnighet utan brist på intelligens och erbjuder i slutändan ett "bara att följa order" försvar, som flyttar ansvaret till dess skapare.
Kort sagt, ChatGPT och dess bröder är konstitutionellt oförmögna att balansera kreativitet med tvång. De övergenererar antingen (framställer både sanningar och osanningar, stödjer både etiska och oetiska beslut) eller undergenererar (uppvisar icke-engagemang till några beslut och likgiltighet för konsekvenser). Med tanke på dessa systems omoraliska, falska vetenskap och språkliga inkompetens kan vi bara skratta eller gråta åt deras popularitet.
ZNetwork finansieras enbart genom sina läsares generositet.
Donera