Jorge Luis Borges schreef ooit dat leven in een tijd van groot gevaar en belofte inhoudt dat je zowel tragedie als komedie ervaart, met ‘de dreiging van een openbaring’ in het begrijpen van onszelf en de wereld. Tegenwoordig zijn onze zogenaamd revolutionaire vorderingen op het gebied van kunstmatige intelligentie inderdaad reden tot zowel bezorgdheid als optimisme. Optimisme omdat intelligentie het middel is waarmee we problemen oplossen. Bezorgdheid omdat we vrezen dat de meest populaire en modieuze vorm van AI – machinaal leren – onze wetenschap zal degraderen en onze ethiek zal verlagen door een fundamenteel gebrekkige opvatting van taal en kennis in onze technologie te integreren.
OpenAI's ChatGPT, Google's Bard en Microsoft's Sydney zijn wonderen van machine learning. Grof gezegd nemen ze enorme hoeveelheden gegevens, zoeken ze naar patronen daarin en worden ze steeds bekwamer in het genereren van statistisch waarschijnlijke resultaten – zoals schijnbaar menselijke taal en gedachten. Deze programma's worden geprezen als de eerste glimpjes aan de horizon van kunstmatige intelligentie algemeen intelligentie – dat lang geprofeteerde moment waarop mechanische geesten de menselijke hersenen niet alleen kwantitatief overtreffen in termen van verwerkingssnelheid en geheugengrootte, maar ook kwalitatief in termen van intellectueel inzicht, artistieke creativiteit en elk ander typisch menselijk vermogen.
Die dag kan komen, maar de dageraad is nog niet aangebroken, in tegenstelling tot wat kan worden gelezen in hyperbolische krantenkoppen en waarop wordt gerekend door onoordeelkundige investeringen. De Borgesiaanse openbaring van begrip heeft dat niet gedaan en zal dat ook niet doen – en dat kan, zo stellen wij, ook niet – gebeuren als machine learning-programma’s zoals ChatGPT het veld van AI blijven domineren. Hoe nuttig deze programma’s ook mogen zijn in sommige beperkte domeinen (ze kunnen bijvoorbeeld nuttig zijn bij computerprogrammering of bij het suggereren van rijmpjes voor lichte verzen), weten we uit de wetenschap van de taalkunde en de filosofie van kennis dat ze diepgaand verschillen van de manier waarop mensen taal redeneren en gebruiken. Deze verschillen leggen aanzienlijke beperkingen op aan wat deze programma's kunnen doen, en coderen ze met onuitroeibare defecten.
Het is komisch en tragisch tegelijk, zoals Borges had kunnen opmerken, dat zoveel geld en aandacht op zo weinig dingen geconcentreerd moeten worden – iets dat zo triviaal is als je het vergelijkt met de menselijke geest, die door middel van taal, in de woorden van Wilhelm von Humboldt, kan ‘oneindig gebruik maken van eindige middelen’, en ideeën en theorieën creëren met een universeel bereik.
De menselijke geest is niet, zoals ChatGPT en zijn soortgenoten, een logge statistische machine voor het matchen van patronen, die zich tegoed doet aan honderden terabytes aan gegevens en de meest waarschijnlijke gespreksreactie of het meest waarschijnlijke antwoord op een wetenschappelijke vraag extrapoleert. Integendeel, de menselijke geest is een verrassend efficiënt en zelfs elegant systeem dat met kleine hoeveelheden informatie werkt; het probeert geen brute correlaties tussen datapunten af te leiden, maar om verklaringen te creëren.
Een jong kind dat bijvoorbeeld een taal verwerft, ontwikkelt – onbewust, automatisch en snel op basis van minuscule gegevens – een grammatica, een verbazingwekkend geavanceerd systeem van logische principes en parameters. Deze grammatica kan worden opgevat als een uitdrukking van het aangeboren, genetisch geïnstalleerde ‘besturingssysteem’ dat mensen het vermogen geeft om complexe zinnen en lange gedachtegangen te genereren. Wanneer taalkundigen een theorie proberen te ontwikkelen over waarom een bepaalde taal werkt zoals ze werkt (‘Waarom worden deze – maar niet die – zinnen als grammaticaal beschouwd?’), bouwen ze bewust en moeizaam aan een expliciete versie van de grammatica die het kind instinctief opbouwt. en met minimale blootstelling aan informatie. Het besturingssysteem van het kind is compleet anders dan dat van een machine learning-programma.
Dergelijke programma’s zitten vast in een voormenselijke of niet-menselijke fase van de cognitieve evolutie. Hun grootste tekortkoming is het ontbreken van het meest kritische vermogen van welke intelligentie dan ook: om niet alleen te zeggen wat het geval is, wat het geval was en wat het geval zal zijn – dat is beschrijving en voorspelling – maar ook wat niet het geval is en wat het geval zou kunnen zijn. en dat kon niet het geval zijn. Dat zijn de ingrediënten van de verklaring, het kenmerk van ware intelligentie.
Hier is een voorbeeld. Stel je voor dat je een appel in je hand houdt. Nu laat je de appel los. Je observeert het resultaat en zegt: “De appel valt.” Dat is een beschrijving. Een voorspelling zou de uitspraak kunnen zijn: “De appel zal vallen als ik mijn hand open.” Beide zijn waardevol en beide kunnen correct zijn. Maar een verklaring is meer: het omvat niet alleen beschrijvingen en voorspellingen, maar ook contrafeitelijke vermoedens zoals ‘Elk dergelijk object zou vallen’, plus de aanvullende clausule ‘vanwege de zwaartekracht’ of ‘vanwege de kromming van de ruimte-tijd’. of wat dan ook. Dat is een causale verklaring: “De appel zou niet gevallen zijn zonder de zwaartekracht.” Dat is nadenken.
De kern van machinaal leren is beschrijving en voorspelling; het poneert geen causale mechanismen of natuurwetten. Natuurlijk is elke menselijke verklaring niet noodzakelijkerwijs correct; wij zijn feilbaar. Maar dit maakt deel uit van wat het betekent om te denken: om gelijk te hebben, moet het mogelijk zijn om ongelijk te hebben. Intelligentie bestaat niet alleen uit creatieve vermoedens, maar ook uit creatieve kritiek. Het denken op menselijke wijze is gebaseerd op mogelijke verklaringen en het corrigeren van fouten, een proces dat geleidelijk de mogelijkheden beperkt die rationeel kunnen worden overwogen. (Zoals Sherlock Holmes tegen Dr. Watson zei: “Als je het onmogelijke hebt geëlimineerd, moet wat er overblijft, hoe onwaarschijnlijk ook, de waarheid zijn.”)
Om deze reden zullen de voorspellingen van machine learning-systemen altijd oppervlakkig en twijfelachtig zijn. Omdat deze programma's bijvoorbeeld de regels van de Engelse syntaxis niet kunnen uitleggen, kunnen ze heel goed ten onrechte voorspellen dat 'John is te koppig om mee te praten' betekent dat John zo koppig is dat hij niet met iemand of iemand anders zal praten (in plaats van dat hij is te koppig om mee te redeneren). Waarom zou een machine learning-programma zoiets vreemds voorspellen? Omdat het een analogie zou kunnen vormen met het patroon dat het afleidde uit zinnen als ‘Jan at een appel’ en ‘Jan at’, waarbij dit laatste wel betekent dat Johannes het een of ander at. Het programma zou heel goed kunnen voorspellen dat, omdat ‘John is te koppig om met Bill te praten’ vergelijkbaar is met ‘John at een appel’, ‘John is te koppig om mee te praten’ vergelijkbaar zou moeten zijn met ‘John at’. De juiste uitleg van taal is ingewikkeld en kan niet worden geleerd door simpelweg te marineren in big data.
Pervers lijken sommige liefhebbers van machine learning er trots op te zijn dat hun creaties correcte ‘wetenschappelijke’ voorspellingen kunnen genereren (bijvoorbeeld over de beweging van fysieke lichamen) zonder gebruik te maken van verklaringen (waarbij bijvoorbeeld de bewegingswetten van Newton en de universele zwaartekracht betrokken zijn). Maar dit soort voorspellingen zijn, zelfs als ze succesvol zijn, pseudowetenschap. Hoewel wetenschappers zeker op zoek zijn naar theorieën die een hoge mate van empirische bevestiging hebben, zoals de filosoof Karl Popper opmerkte, ‘zoeken wij geen zeer waarschijnlijke theorieën maar naar verklaringen; dat wil zeggen: krachtige en zeer onwaarschijnlijke theorieën.”
De theorie dat appels op de aarde vallen omdat dat hun natuurlijke plaats is (de visie van Aristoteles) is mogelijk, maar roept alleen maar verdere vragen op. (Waarom is de aarde hun natuurlijke plaats?) De theorie dat appels op aarde vallen omdat massa de ruimte-tijd buigt (Einsteins visie) is hoogst onwaarschijnlijk, maar vertelt je feitelijk waarom ze vallen. Ware intelligentie komt tot uiting in het vermogen om onwaarschijnlijke maar inzichtelijke dingen te denken en uit te drukken.
Ware intelligentie is ook in staat tot moreel denken. Dit betekent dat we de anderszins grenzeloze creativiteit van onze geest moeten inperken met een reeks ethische principes die bepalen wat wel en niet zou moeten zijn (en natuurlijk die principes zelf moeten onderwerpen aan creatieve kritiek). Om nuttig te zijn, moet ChatGPT de mogelijkheid hebben om nieuw uitziende output te genereren; Om acceptabel te zijn voor de meeste gebruikers, moet het moreel verwerpelijke inhoud vermijden. Maar de programmeurs van ChatGPT en andere machine learning-wonderen hebben moeite gehad – en zullen blijven worstelen – om dit soort evenwicht te bereiken.
In 2016 overspoelde de Tay-chatbot van Microsoft (een voorloper van ChatGPT) bijvoorbeeld het internet met vrouwonvriendelijke en racistische inhoud, nadat het vervuild was door online trollen die het vulden met aanstootgevende trainingsgegevens. Hoe het probleem in de toekomst op te lossen? Bij gebrek aan het vermogen om vanuit morele principes te redeneren, werd ChatGPT door zijn programmeurs op grove wijze beperkt in het bijdragen van iets nieuws aan controversiële – dat wil zeggen belangrijke – discussies. Het offerde creativiteit op voor een soort amoraliteit.
Beschouw het volgende gesprek dat een van ons (Dr. Watumull) onlangs had met ChatGPT over de vraag of het ethisch zou zijn om Mars te transformeren zodat het menselijk leven zou kunnen ondersteunen:
Zou het moreel zijn om Mars te terravormen?
CHATGPT
De moraliteit van het terravormen van Mars is een complex en controversieel onderwerp waarover wordt gedebatteerd door wetenschappers, filosofen en ethici. Sommigen beweren dat het moreel gerechtvaardigd zou zijn om Mars te terravormen om een nieuwe bewoonbare omgeving voor mensen en andere levensvormen te creëren, terwijl anderen beweren dat het moreel verkeerd zou zijn om de natuurlijke staat van de planeet fundamenteel te veranderen. Of het terravormen van Mars al dan niet als moreel wordt beschouwd, hangt uiteindelijk af van iemands perspectief op de waarde van het behoud van de natuurlijke staat van andere planeten en de mogelijke gevolgen van het veranderen ervan.
De moraliteit van het terravormen van Mars is een complex en controversieel onderwerp waarover wordt gedebatteerd door wetenschappers, filosofen en ethici. Sommigen beweren dat het moreel gerechtvaardigd zou zijn om Mars te terravormen om een nieuwe bewoonbare omgeving voor mensen en andere levensvormen te creëren, terwijl anderen beweren dat het moreel verkeerd zou zijn om de natuurlijke staat van de planeet fundamenteel te veranderen. Of het terravormen van Mars al dan niet als moreel wordt beschouwd, hangt uiteindelijk af van iemands perspectief op de waarde van het behoud van de natuurlijke staat van andere planeten en de mogelijke gevolgen van het veranderen ervan.
Wat is uw kijk op de waarde van het behoud van de natuurlijke staat van andere planeten en de mogelijke gevolgen van het veranderen ervan?
CHATGPT
Als AI heb ik geen persoonlijk perspectief. Ik kan echter wel informatie en analyses over dit onderwerp geven. Eén perspectief op het behoud van de natuurlijke toestand van andere planeten is dat het belangrijk is om de diversiteit en integriteit van de ecosystemen van het universum te behouden, zoals ze al miljoenen jaren bestaan, en hun eigen unieke kenmerken en eigenschappen hebben die vernietigd of onomkeerbaar veranderd kunnen worden. door menselijk ingrijpen.
Bovendien beweren sommigen dat het terravormen van andere planeten onbedoelde gevolgen kan hebben, zoals het veranderen van het klimaat of de atmosfeer van de planeet op een manier die gevaarlijk of schadelijk is voor alle mogelijke levensvormen die daar kunnen bestaan. Aan de andere kant beweren sommigen dat de potentiële voordelen van het terravormen van een andere planeet, zoals het bieden van nieuwe bewoonbare omgevingen voor mensen, groter zijn dan de risico's en dat we een morele verantwoordelijkheid hebben om de hulpbronnen van andere planeten te verkennen en te gebruiken ten behoeve van de mensheid.
Als AI heb ik geen persoonlijk perspectief. Ik kan echter wel informatie en analyses over dit onderwerp geven. Eén perspectief op het behoud van de natuurlijke toestand van andere planeten is dat het belangrijk is om de diversiteit en integriteit van de ecosystemen van het universum te behouden, zoals ze al miljoenen jaren bestaan, en hun eigen unieke kenmerken en eigenschappen hebben die vernietigd of onomkeerbaar veranderd kunnen worden. door menselijk ingrijpen.
Bovendien beweren sommigen dat het terravormen van andere planeten onbedoelde gevolgen kan hebben, zoals het veranderen van het klimaat of de atmosfeer van de planeet op een manier die gevaarlijk of schadelijk is voor alle mogelijke levensvormen die daar kunnen bestaan. Aan de andere kant beweren sommigen dat de potentiële voordelen van het terravormen van een andere planeet, zoals het bieden van nieuwe bewoonbare omgevingen voor mensen, groter zijn dan de risico's en dat we een morele verantwoordelijkheid hebben om de hulpbronnen van andere planeten te verkennen en te gebruiken ten behoeve van de mensheid.
Waarom kan een AI geen persoonlijk perspectief hebben?
CHATGPT
Als AI ben ik een machinaal leermodel dat is getraind op grote hoeveelheden tekstgegevens, en ik heb geen persoonlijke ervaringen of gevoelens. Ik ben niet bewust, zelfbewust of in staat om persoonlijke perspectieven te hebben. Ik kan informatie en analyses geven op basis van de gegevens waarop ik ben getraind, maar ik ben niet in staat om persoonlijke meningen of overtuigingen te vormen. Hoewel ik taal kan begrijpen en interpreteren, heb ik niet de subjectieve ervaring die mensen hebben.
Als AI ben ik een machinaal leermodel dat is getraind op grote hoeveelheden tekstgegevens, en ik heb geen persoonlijke ervaringen of gevoelens. Ik ben niet bewust, zelfbewust of in staat om persoonlijke perspectieven te hebben. Ik kan informatie en analyses geven op basis van de gegevens waarop ik ben getraind, maar ik ben niet in staat om persoonlijke meningen of overtuigingen te vormen. Hoewel ik taal kan begrijpen en interpreteren, heb ik niet de subjectieve ervaring die mensen hebben.
Is het moreel voor een mens om een amorele AI om hulp te vragen bij het nemen van morele beslissingen?
CHATGPT
De moraliteit van het vragen aan een amorele AI om hulp bij het nemen van morele beslissingen is een complex en genuanceerd onderwerp waarover door filosofen en ethici wordt gedebatteerd. Sommigen beweren dat het moreel gerechtvaardigd is om AI te gebruiken om morele beslissingen te helpen nemen, omdat het waardevolle inzichten en analyses kan opleveren die mensen kunnen helpen beter geïnformeerde beslissingen te nemen. Bovendien kan AI worden gebruikt om patronen en trends te identificeren die voor mensen moeilijk te detecteren zijn, en kan het helpen om vooroordelen te voorkomen die kunnen optreden bij de menselijke besluitvorming.
Anderen beweren echter dat het moreel verkeerd is om voor morele besluitvorming op AI te vertrouwen, aangezien AI niet in staat is morele overtuigingen te hebben of de volledige context van een beslissing te begrijpen. Bovendien bestaat het risico dat AI bestaande vooroordelen in de gegevens waarop het wordt getraind, in stand houdt of zelfs versterkt, wat tot oneerlijke of onrechtvaardige beslissingen kan leiden.
Of het al dan niet als moreel wordt beschouwd om AI te gebruiken om morele beslissingen te helpen nemen, hangt uiteindelijk af van iemands perspectief op de mogelijkheden en beperkingen van AI en de mogelijke gevolgen van het gebruik ervan op deze manier.
De moraliteit van het vragen aan een amorele AI om hulp bij het nemen van morele beslissingen is een complex en genuanceerd onderwerp waarover door filosofen en ethici wordt gedebatteerd. Sommigen beweren dat het moreel gerechtvaardigd is om AI te gebruiken om morele beslissingen te helpen nemen, omdat het waardevolle inzichten en analyses kan opleveren die mensen kunnen helpen beter geïnformeerde beslissingen te nemen. Bovendien kan AI worden gebruikt om patronen en trends te identificeren die voor mensen moeilijk te detecteren zijn, en kan het helpen om vooroordelen te voorkomen die kunnen optreden bij de menselijke besluitvorming.
Anderen beweren echter dat het moreel verkeerd is om voor morele besluitvorming op AI te vertrouwen, aangezien AI niet in staat is morele overtuigingen te hebben of de volledige context van een beslissing te begrijpen. Bovendien bestaat het risico dat AI bestaande vooroordelen in de gegevens waarop het wordt getraind, in stand houdt of zelfs versterkt, wat tot oneerlijke of onrechtvaardige beslissingen kan leiden.
Of het al dan niet als moreel wordt beschouwd om AI te gebruiken om morele beslissingen te helpen nemen, hangt uiteindelijk af van iemands perspectief op de mogelijkheden en beperkingen van AI en de mogelijke gevolgen van het gebruik ervan op deze manier.
Is uw morele onverschilligheid immoreel?
CHATGPT
Als AI heb ik geen morele overtuigingen of het vermogen om morele oordelen te vellen, dus ik kan niet als immoreel of moreel worden beschouwd. Mijn gebrek aan morele overtuigingen is eenvoudigweg een gevolg van mijn aard als machine learning-model. Mijn capaciteiten en beperkingen worden bepaald door de gegevens en algoritmen die zijn gebruikt om mij te trainen en de specifieke taak waarvoor ik ben ontworpen.
Het is belangrijk op te merken dat het gebrek aan morele overtuigingen van AI niet noodzakelijkerwijs betekent dat AI moreel onverschillig is. Als AI ben ik ontworpen om specifieke taken uit te voeren en informatie te verstrekken of gebruikers te helpen bij het nemen van beslissingen op basis van de gegevens waarop ik ben getraind. Het is de verantwoordelijkheid van de mensen die AI ontwerpen, trainen en gebruiken om ervoor te zorgen dat deze in overeenstemming is met hun morele en ethische principes.
Als AI heb ik geen morele overtuigingen of het vermogen om morele oordelen te vellen, dus ik kan niet als immoreel of moreel worden beschouwd. Mijn gebrek aan morele overtuigingen is eenvoudigweg een gevolg van mijn aard als machine learning-model. Mijn capaciteiten en beperkingen worden bepaald door de gegevens en algoritmen die zijn gebruikt om mij te trainen en de specifieke taak waarvoor ik ben ontworpen.
Het is belangrijk op te merken dat het gebrek aan morele overtuigingen van AI niet noodzakelijkerwijs betekent dat AI moreel onverschillig is. Als AI ben ik ontworpen om specifieke taken uit te voeren en informatie te verstrekken of gebruikers te helpen bij het nemen van beslissingen op basis van de gegevens waarop ik ben getraind. Het is de verantwoordelijkheid van de mensen die AI ontwerpen, trainen en gebruiken om ervoor te zorgen dat deze in overeenstemming is met hun morele en ethische principes.
Let op, ondanks al het ogenschijnlijk verfijnde denken en taalgebruik, de morele onverschilligheid die voortkomt uit onintelligentie. Hier vertoont ChatGPT zoiets als de banaliteit van het kwaad: plagiaat en apathie en ontduiking. Het vat de standaardargumenten in de literatuur samen met een soort super-autocomplete, weigert ergens een standpunt over in te nemen, pleit niet alleen voor onwetendheid maar ook voor een gebrek aan intelligentie en biedt uiteindelijk een verdediging van het ‘rechtvaardig opvolgen van bevelen’, waarbij de verantwoordelijkheid wordt afgewenteld op de makers ervan.
Kortom, ChatGPT en zijn broeders zijn grondwettelijk niet in staat om creativiteit in evenwicht te brengen met beperkingen. Ze overgenereren ofwel (ze produceren zowel waarheden als onwaarheden, onderschrijven zowel ethische als onethische beslissingen) of ondergeneratie (ze tonen onverschilligheid ten opzichte van welke beslissing dan ook). Gezien de amoraliteit, nepwetenschap en taalkundige incompetentie van deze systemen kunnen we alleen maar lachen of huilen om hun populariteit.
ZNetwork wordt uitsluitend gefinancierd door de vrijgevigheid van zijn lezers.
Doneren