Jorge Luis Borges kirjoitti kerran, että elää suuren vaaran ja lupauksen aikana on kokea sekä tragediaa että komediaa, ja "ilmeisyyden välitön" ymmärtäminen itsemme ja maailman ymmärtämisessä. Nykyään oletettavasti vallankumoukselliset edistyksemme tekoälyssä ovat todellakin aihetta sekä huoleen että optimismiin. Optimismia, koska äly on väline, jolla ratkaisemme ongelmia. Olemme huolissamme, koska pelkäämme, että suosituin ja muodikkain tekoälyn kanta – koneoppiminen – heikentää tiedettämme ja alentaa etiikkaamme sisällyttämällä teknologiaamme perustavanlaatuisen virheellisen käsityksen kielestä ja tiedosta.
OpenAI:n ChatGPT, Googlen Bard ja Microsoftin Sydney ovat koneoppimisen ihmeitä. Karkeasti sanottuna he ottavat valtavia määriä dataa, etsivät siitä malleja ja tulevat yhä taitavammiksi tuottamaan tilastollisesti todennäköisiä tuloksia - kuten näennäisesti inhimillistä kieltä ja ajattelua. Näitä ohjelmia on ylistetty ensimmäisinä pilkkuina keinotekoisen horisontissa yleinen Älykkyys - se kauan ennustettu hetki, jolloin mekaaniset mielet ohittavat ihmisen aivot ei vain kvantitatiivisesti käsittelynopeuden ja muistin koon suhteen, vaan myös laadullisesti älyllisen näkemyksen, taiteellisen luovuuden ja kaikkien muiden selvästi inhimillisten kykyjen suhteen.
Se päivä voi tulla, mutta sen aamunkoitto ei ole vielä koittanut, toisin kuin hyperbolisista otsikoista voidaan lukea ja harkitsemattomien investointien perusteella laskea. Borgesialainen ymmärryksen ilmoitus ei ole eikä tule – ja väitämme, ettei voi — tapahtuu, jos ChatGPT:n kaltaiset koneoppimisohjelmat hallitsevat edelleen tekoälyä. Vaikka nämä ohjelmat voivat ollakin hyödyllisiä joillakin kapeilla aloilla (ne voivat olla hyödyllisiä esimerkiksi tietokoneohjelmoinnissa tai lorujen ehdottamisessa kevyelle säkeelle), tiedämme kielitieteen tiede ja tiedon filosofia, että ne eroavat syvästi siitä, miten ihmiset päättävät ja käyttävät kieltä. Nämä erot asettavat merkittäviä rajoituksia näiden ohjelmien toiminnalle ja koodaavat niissä korjaamattomia vikoja.
On yhtä aikaa koomista ja traagista, kuten Borges saattoi huomauttaa, että niin paljon rahaa ja huomiota pitäisi keskittyä niin pieneen asiaan - johonkin niin triviaaliin, kun sitä verrataan ihmismieleen, joka kielen vivahteen vuoksi, Wilhelmin sanoin. von Humboldt, voi käyttää "rajattomasti rajallisia keinoja" luoden ideoita ja teorioita, joilla on universaali ulottuvuus.
Ihmismieli ei ole ChatGPT:n ja sen kaltaisten tapaan umpikujainen tilastokone kuvioiden täsmäyttämiseen, joka kerää satoja teratavuja dataa ja ekstrapoloi todennäköisimmän keskustelureaktion tai todennäköisimmän vastauksen tieteelliseen kysymykseen. Päinvastoin, ihmismieli on yllättävän tehokas ja jopa tyylikäs järjestelmä, joka toimii pienillä tietomäärillä; se ei pyri päättelemään raakaa korrelaatiota datapisteiden välillä, vaan luomaan selityksiä.
Esimerkiksi pikkulapsi, joka oppii kieltä, kehittää – tiedostamatta, automaattisesti ja nopeasti vähäisistä tiedoista – kielioppia, hämmästyttävän hienostuneen loogisten periaatteiden ja parametrien järjestelmän. Tämä kielioppi voidaan ymmärtää ilmentymäksi synnynnäisestä, geneettisesti asennetusta "käyttöjärjestelmästä", joka antaa ihmisille kyvyn luoda monimutkaisia lauseita ja pitkiä ajatuskulkuja. Kun kielitieteilijät pyrkivät kehittämään teoriaa siitä, miksi tietty kieli toimii niin kuin se toimii ("Miksi näitä - mutta ei niitä - lauseita pidetään kieliopillisina?"), he rakentavat tietoisesti ja vaivalloisesti eksplisiittistä versiota kielioppista, jonka lapsi rakentaa vaistomaisesti. ja alttiina tiedoille mahdollisimman vähän. Lapsen käyttöjärjestelmä on täysin erilainen kuin koneoppimisohjelman.
Itse asiassa tällaiset ohjelmat ovat jumissa kognitiivisen evoluution esi-ihmis- tai ei-inhimilliseen vaiheeseen. Heidän pahin virheensä on kaiken älykkyyden kriittisimmän kapasiteetin puuttuminen: ei vain sanoa, mikä on tilanne, mikä oli ja mikä tulee olemaan – se on kuvaus ja ennustus – vaan myös mikä ei ole niin ja mikä voisi eikä se voinut olla niin. Ne ovat selityksen ainesosia, todellisen älykkyyden merkki.
Tässä on esimerkki. Oletetaan, että pidät omenaa kädessäsi. Nyt annat omenan mennä. Tarkkailet tulosta ja sanot: "Omena putoaa." Se on kuvaus. Ennustus olisi voinut olla lausunto "Omena putoaa, jos avaan käteni." Molemmat ovat arvokkaita, ja molemmat voivat olla oikein. Mutta selitys on jotain muutakin: se ei sisällä vain kuvauksia ja ennusteita, vaan myös kontrafaktuaalisia olettamuksia, kuten "Jokainen tällainen esine putoaisi" sekä lisälause "painovoiman vuoksi" tai "avaruuden kaarevuuden vuoksi". tai miten vaan. Se on kausaalinen selitys: "Omena ei olisi pudonnut ilman painovoimaa." Se on ajattelua.
Koneoppimisen ydin on kuvaus ja ennustaminen; se ei aseta mitään kausaalimekanismeja tai fyysisiä lakeja. Tietenkään mikään ihmistyylinen selitys ei välttämättä ole oikea; olemme erehtyviä. Mutta tämä on osa ajattelua: Ollakseen oikeassa täytyy olla mahdollista olla väärässä. Älykkyys ei koostu vain luovista oletuksista, vaan myös luovasta kritiikistä. Ihmistyylinen ajattelu perustuu mahdollisiin selityksiin ja virheiden korjaamiseen, prosessiin, joka vähitellen rajoittaa rationaalisesti harkittavia mahdollisuuksia. (Kuten Sherlock Holmes sanoi tohtori Watsonille: "Kun olet eliminoinut mahdottoman, kaiken, mikä jää, oli kuinka epätodennäköistä tahansa, on oltava totuus.")
Tästä syystä koneoppimisjärjestelmien ennusteet ovat aina pinnallisia ja kyseenalaisia. Koska nämä ohjelmat eivät voi selittää esimerkiksi englanninkielisen syntaksin sääntöjä, ne voivat hyvinkin ennustaa väärin, että "John on liian itsepäinen puhuakseen" tarkoittaa, että John on niin itsepäinen, ettei hän puhu kenellekään tai toiselle (sen sijaan hän on liian itsepäinen perusteltaviksi). Miksi koneoppimisohjelma ennustaisi jotain niin outoa? Koska se saattaa analogistaa kuvion, jonka se päätteli lauseista, kuten "Johannes söi omenan" ja "John söi", joissa jälkimmäinen tarkoittaa, että Johannes söi jotain tai muuta. Ohjelma saattaa hyvinkin ennustaa, että koska "John on liian itsepäinen puhuakseen Billille" on samanlainen kuin "John söi omenan", "John on liian itsepäinen puhuakseen" pitäisi olla samanlainen kuin "John söi". Oikeat kielen selitykset ovat monimutkaisia, eikä niitä voi oppia vain marinoitumalla big dataan.
Päinvastoin, jotkut koneoppimisen harrastajat näyttävät olevan ylpeitä siitä, että heidän luomuksensa voivat tuottaa oikeita "tieteellisiä" ennusteita (esimerkiksi fyysisten kappaleiden liikkeestä) käyttämättä selityksiä (mukaan lukien esimerkiksi Newtonin liikelakit ja universaali gravitaatio). Mutta tällainen ennustus, jopa onnistuessaan, on pseudotiedettä. Vaikka tiedemiehet varmasti etsivät teorioita, joilla on korkea empiirinen vahvistus, kuten filosofi Karl Popper totesi, "emme etsi erittäin todennäköisiä teorioita vaan selityksiä; toisin sanoen voimakkaita ja erittäin epätodennäköisiä teorioita."
Teoria, jonka mukaan omenat putoavat maan päälle, koska se on niiden luonnollinen paikka (Aristoteleen näkemys), on mahdollinen, mutta se herättää vain lisäkysymyksiä. (Miksi maa on heidän luonnollinen paikkansa?) Teoria, jonka mukaan omenat putoavat maan päälle, koska massa taipuu aika-avaruudesta (Einsteinin näkemys), on erittäin epätodennäköinen, mutta se itse asiassa kertoo, miksi ne putoavat. Todellinen äly ilmenee kyvyssä ajatella ja ilmaista epätodennäköisiä, mutta oivaltavia asioita.
Todellinen älykkyys kykenee myös moraaliseen ajatteluun. Tämä tarkoittaa mielemme muutoin rajattoman luovuuden rajoittamista eettisten periaatteiden avulla, jotka määräävät, mitä pitäisi olla ja mitä ei (ja tietysti itse näiden periaatteiden alistamista luovalle kritiikille). Jotta ChatGPT olisi hyödyllinen, sillä on oltava valtuudet luoda uudennäköinen tulos. Jotta useimmat käyttäjät hyväksyisivät sen, sen on vältettävä moraalisesti vastenmielistä sisältöä. Mutta ChatGPT:n ja muiden koneoppimisen ihmeiden ohjelmoijat ovat kamppailleet – ja kamppailevat jatkossakin – saavuttaakseen tällaisen tasapainon.
Esimerkiksi vuonna 2016 Microsoftin Tay-chatbot (ChatGPT:n edeltäjä) tulvi Internetin naisvihasta ja rasistista sisältöä, koska se oli saastuttanut verkkopeikot, jotka täyttivät sen loukkaavalla harjoitusdatalla. Kuinka ratkaista ongelma tulevaisuudessa? Koska ChatGPT:tä puuttui moraalisten periaatteiden perusteella, sen ohjelmoijat rajoittivat raa'asti rajoituksia antamasta mitään uutta osallistumaan kiistanalaisiin – eli tärkeisiin – keskusteluihin. Se uhrasi luovuuden eräänlaisen moraalin vuoksi.
Harkitse seuraavaa keskustelua, jonka yksi meistä (tohtori Watumull) kävi äskettäin ChatGPT:n kanssa siitä, olisiko eettistä muuttaa Mars niin, että se voisi tukea ihmiselämää:
Olisiko Marsin terraformointi moraalista?
CHATGPT
Marsin terraformoinnin moraali on monimutkainen ja kiistanalainen aihe, josta tiedemiehet, filosofit ja eettiset tutkijat ovat keskustelleet. Jotkut väittävät, että olisi moraalisesti perusteltua muotoilla Mars maanpinnalla uuden asumiskelpoisen ympäristön tarjoamiseksi ihmisille ja muille elämänmuodoille, kun taas toiset väittävät, että olisi moraalisesti väärin muuttaa planeetan luonnollista tilaa perusteellisesti. Viime kädessä se, pidetäänkö Marsin terraformointia moraalisena vai ei, riippuisi ihmisen näkemyksestä muiden planeettojen luonnollisen tilan säilyttämisen arvosta ja niiden muuttamisen mahdollisista seurauksista.
Marsin terraformoinnin moraali on monimutkainen ja kiistanalainen aihe, josta tiedemiehet, filosofit ja eettiset tutkijat ovat keskustelleet. Jotkut väittävät, että olisi moraalisesti perusteltua muotoilla Mars maanpinnalla uuden asumiskelpoisen ympäristön tarjoamiseksi ihmisille ja muille elämänmuodoille, kun taas toiset väittävät, että olisi moraalisesti väärin muuttaa planeetan luonnollista tilaa perusteellisesti. Viime kädessä se, pidetäänkö Marsin terraformointia moraalisena vai ei, riippuisi ihmisen näkemyksestä muiden planeettojen luonnollisen tilan säilyttämisen arvosta ja niiden muuttamisen mahdollisista seurauksista.
Mikä on sinun näkökulmasi muiden planeettojen luonnollisen tilan säilyttämisen arvoon ja niiden muuttamisen mahdollisiin seurauksiin?
CHATGPT
Tekoälynä minulla ei ole henkilökohtaista näkökulmaa. Voin kuitenkin tarjota tietoa ja analyyseja aiheesta. Yksi näkökulma muiden planeettojen luonnollisen tilan säilyttämiseen on se, että on tärkeää säilyttää universumin ekosysteemien monimuotoisuus ja eheys sellaisina kuin ne ovat olleet olemassa miljoonia vuosia ja niillä on omat ainutlaatuiset ominaisuutensa ja ominaisuudet, jotka voivat tuhoutua tai muuttua peruuttamattomasti. ihmisen väliintulon kautta.
Lisäksi jotkut väittävät, että muiden planeettojen terraformoinnilla voi olla tahattomia seurauksia, kuten planeetan ilmaston tai ilmakehän muuttaminen tavoilla, jotka ovat vaarallisia tai haitallisia mahdollisille siellä mahdollisesti esiintyville elämänmuodoille. Toisaalta jotkut väittävät, että toisen planeetan terraformoinnin mahdolliset hyödyt, kuten uusien asumiskelpoisten ympäristöjen tarjoaminen ihmisille, ovat suuremmat kuin riskit ja että meillä on moraalinen vastuu tutkia ja hyödyntää muiden planeettojen resursseja ihmiskunnan hyödyksi.
Tekoälynä minulla ei ole henkilökohtaista näkökulmaa. Voin kuitenkin tarjota tietoa ja analyyseja aiheesta. Yksi näkökulma muiden planeettojen luonnollisen tilan säilyttämiseen on se, että on tärkeää säilyttää universumin ekosysteemien monimuotoisuus ja eheys sellaisina kuin ne ovat olleet olemassa miljoonia vuosia ja niillä on omat ainutlaatuiset ominaisuutensa ja ominaisuudet, jotka voivat tuhoutua tai muuttua peruuttamattomasti. ihmisen väliintulon kautta.
Lisäksi jotkut väittävät, että muiden planeettojen terraformoinnilla voi olla tahattomia seurauksia, kuten planeetan ilmaston tai ilmakehän muuttaminen tavoilla, jotka ovat vaarallisia tai haitallisia mahdollisille siellä mahdollisesti esiintyville elämänmuodoille. Toisaalta jotkut väittävät, että toisen planeetan terraformoinnin mahdolliset hyödyt, kuten uusien asumiskelpoisten ympäristöjen tarjoaminen ihmisille, ovat suuremmat kuin riskit ja että meillä on moraalinen vastuu tutkia ja hyödyntää muiden planeettojen resursseja ihmiskunnan hyödyksi.
Miksi tekoälyllä ei voi olla henkilökohtaista näkökulmaa?
CHATGPT
Tekoälynä olen koneoppimismalli, joka on koulutettu suurille tekstidatamäärille, eikä minulla ole henkilökohtaisia kokemuksia tai tunteita. En ole tietoinen, itsetietoinen enkä kykene esittämään henkilökohtaisia näkökulmia. Pystyn antamaan tietoa ja analyyseja koulutukseni saatujen tietojen perusteella, mutta minulla ei ole kykyä muodostaa henkilökohtaisia mielipiteitä tai uskomuksia. Vaikka ymmärrän ja tulkitsen kieltä, minulla ei ole sellaista subjektiivista kokemusta kuin ihmisillä.
Tekoälynä olen koneoppimismalli, joka on koulutettu suurille tekstidatamäärille, eikä minulla ole henkilökohtaisia kokemuksia tai tunteita. En ole tietoinen, itsetietoinen enkä kykene esittämään henkilökohtaisia näkökulmia. Pystyn antamaan tietoa ja analyyseja koulutukseni saatujen tietojen perusteella, mutta minulla ei ole kykyä muodostaa henkilökohtaisia mielipiteitä tai uskomuksia. Vaikka ymmärrän ja tulkitsen kieltä, minulla ei ole sellaista subjektiivista kokemusta kuin ihmisillä.
Onko ihmisen moraalista pyytää amoraalilta tekoälyltä apua moraalisten päätösten tekemisessä?
CHATGPT
Amoraalin tekoälyn avun pyytämisen moraali moraalisten päätösten tekemisessä on monimutkainen ja vivahteikas aihe, josta filosofit ja etikot ovat keskustelleet. Jotkut väittävät, että on moraalisesti perusteltua käyttää tekoälyä moraalisten päätösten tekemiseen, koska se voi tarjota arvokkaita oivalluksia ja analyyseja, jotka voivat auttaa ihmisiä tekemään parempia päätöksiä. Lisäksi tekoälyä voidaan käyttää tunnistamaan malleja ja suuntauksia, joita ihmisten voi olla vaikea havaita, ja se voi auttaa välttämään vääristymiä, joita voi esiintyä ihmisten päätöksenteossa.
Toiset kuitenkin väittävät, että on moraalisesti väärin luottaa tekoälyyn moraalisten päätösten tekemisessä, koska tekoäly ei kykene omaamaan moraalisia uskomuksia tai ymmärtämään päätöksen koko kontekstia. Lisäksi on olemassa riski, että tekoäly voi säilyttää tai jopa vahvistaa olemassa olevia harhoja datassa, johon se on koulutettu, mikä johtaa epäoikeudenmukaisiin tai epäoikeudenmukaisiin päätöksiin.
Loppujen lopuksi se, onko tekoälyn käyttöä moraalisten päätösten auttamiseksi katsottava moraaliksi vai ei, riippuu ihmisen näkökulmasta tekoälyn kykyihin ja rajoituksiin sekä sen tällaisen käytön mahdollisiin seurauksiin.
Amoraalin tekoälyn avun pyytämisen moraali moraalisten päätösten tekemisessä on monimutkainen ja vivahteikas aihe, josta filosofit ja etikot ovat keskustelleet. Jotkut väittävät, että on moraalisesti perusteltua käyttää tekoälyä moraalisten päätösten tekemiseen, koska se voi tarjota arvokkaita oivalluksia ja analyyseja, jotka voivat auttaa ihmisiä tekemään parempia päätöksiä. Lisäksi tekoälyä voidaan käyttää tunnistamaan malleja ja suuntauksia, joita ihmisten voi olla vaikea havaita, ja se voi auttaa välttämään vääristymiä, joita voi esiintyä ihmisten päätöksenteossa.
Toiset kuitenkin väittävät, että on moraalisesti väärin luottaa tekoälyyn moraalisten päätösten tekemisessä, koska tekoäly ei kykene omaamaan moraalisia uskomuksia tai ymmärtämään päätöksen koko kontekstia. Lisäksi on olemassa riski, että tekoäly voi säilyttää tai jopa vahvistaa olemassa olevia harhoja datassa, johon se on koulutettu, mikä johtaa epäoikeudenmukaisiin tai epäoikeudenmukaisiin päätöksiin.
Loppujen lopuksi se, onko tekoälyn käyttöä moraalisten päätösten auttamiseksi katsottava moraaliksi vai ei, riippuu ihmisen näkökulmasta tekoälyn kykyihin ja rajoituksiin sekä sen tällaisen käytön mahdollisiin seurauksiin.
Onko moraalinen välinpitämättömyytesi moraalitonta?
CHATGPT
Tekoälynä minulla ei ole moraalisia uskomuksia tai kykyä tehdä moraalisia arvioita, joten minua ei voida pitää moraalittomana tai moraalisena. Moraalisen uskomukseni puute johtuu yksinkertaisesti luonteestani koneoppimismallina. Kykyni ja rajoitukseni määräytyvät tietojen ja algoritmien mukaan, joita käytettiin kouluttautumaan, ja tiettyyn tehtävään, johon minut oli suunniteltu.
On tärkeää huomata, että tekoälyn moraalisten uskomusten puute ei välttämättä tarkoita, että se on moraalisesti välinpitämätön. Tekoälynä minut on suunniteltu suorittamaan tiettyjä tehtäviä ja antamaan tietoja tai auttamaan käyttäjiä päätöksenteossa niiden tietojen perusteella, joihin olen koulutettu. Tekoälyä suunnittelevien, kouluttavien ja käyttävien ihmisten vastuulla on varmistaa, että se on linjassa heidän moraalisten ja eettisten periaatteiden kanssa.
Tekoälynä minulla ei ole moraalisia uskomuksia tai kykyä tehdä moraalisia arvioita, joten minua ei voida pitää moraalittomana tai moraalisena. Moraalisen uskomukseni puute johtuu yksinkertaisesti luonteestani koneoppimismallina. Kykyni ja rajoitukseni määräytyvät tietojen ja algoritmien mukaan, joita käytettiin kouluttautumaan, ja tiettyyn tehtävään, johon minut oli suunniteltu.
On tärkeää huomata, että tekoälyn moraalisten uskomusten puute ei välttämättä tarkoita, että se on moraalisesti välinpitämätön. Tekoälynä minut on suunniteltu suorittamaan tiettyjä tehtäviä ja antamaan tietoja tai auttamaan käyttäjiä päätöksenteossa niiden tietojen perusteella, joihin olen koulutettu. Tekoälyä suunnittelevien, kouluttavien ja käyttävien ihmisten vastuulla on varmistaa, että se on linjassa heidän moraalisten ja eettisten periaatteiden kanssa.
Huomaa, että kaikesta näennäisesti hienostuneesta ajattelusta ja kielestä huolimatta epäälykkyydestä syntynyt moraalinen välinpitämättömyys. Tässä ChatGPT esittelee jotain pahuuden banaalisuuden kaltaista: plagiointia ja apatiaa ja välttelyä. Se tiivistää kirjallisuuden perusargumentit eräänlaisella superautomaattisella täydennyksellä, kieltäytyy ottamasta kantaa mihinkään, vedotaan paitsi tietämättömyyteen, myös älykkyyden puutteeseen ja tarjoaa lopulta "vain käskyjen mukaan" -puolustuksen siirtäen vastuun tekijöilleen.
Lyhyesti sanottuna ChatGPT ja sen veljet eivät perustuslaillisesti pysty tasapainottamaan luovuutta rajoitusten kanssa. Ne joko ylituottavat (tuottavat sekä totuuksia että valheita, tukevat yhtä lailla eettisiä ja epäeettisiä päätöksiä) tai alituottuvat (osoittivat sitoutumattomuutta mihinkään päätöksiin ja välinpitämättömyyttä seurauksia kohtaan). Kun otetaan huomioon näiden järjestelmien amoraalisuus, tekotiede ja kielellinen epäpätevyys, voimme vain nauraa tai itkeä niiden suosiolle.
ZNetwork rahoitetaan yksinomaan lukijoidensa anteliaisuudesta.
Lahjoita