Jorge Luis Borges una volta scrisse che vivere in un tempo di grande pericolo e promessa significa sperimentare sia la tragedia che la commedia, con “l’imminenza di una rivelazione” nella comprensione di noi stessi e del mondo. Oggi i nostri progressi apparentemente rivoluzionari nel campo dell’intelligenza artificiale sono in realtà motivo di preoccupazione e ottimismo. Ottimismo perché l'intelligenza è il mezzo con cui risolviamo i problemi. Preoccupazione perché temiamo che il ceppo più popolare e alla moda dell’intelligenza artificiale – l’apprendimento automatico – degraderà la nostra scienza e degraderà la nostra etica incorporando nella nostra tecnologia una concezione fondamentalmente errata del linguaggio e della conoscenza.
ChatGPT di OpenAI, Bard di Google e Sydney di Microsoft sono meraviglie dell'apprendimento automatico. In parole povere, prendono enormi quantità di dati, cercano modelli al loro interno e diventano sempre più abili nel generare risultati statisticamente probabili, come linguaggio e pensiero apparentemente umani. Questi programmi sono stati salutati come i primi barlumi all'orizzonte dell'artificiale generale intelligenza – quel momento a lungo profetizzato in cui le menti meccaniche supereranno il cervello umano non solo quantitativamente in termini di velocità di elaborazione e dimensione della memoria, ma anche qualitativamente in termini di intuizione intellettuale, creatività artistica e ogni altra facoltà tipicamente umana.
Quel giorno potrebbe arrivare, ma la sua alba non è ancora spuntata, contrariamente a quanto si legge nei titoli iperbolici e si calcola con investimenti sconsiderati. La rivelazione borgesiana della comprensione non ha avuto e non vuole – e, sosteniamo, non può - si verifica se i programmi di apprendimento automatico come ChatGPT continuano a dominare il campo dell'intelligenza artificiale Per quanto utili questi programmi possano essere in alcuni domini ristretti (possono essere utili nella programmazione di computer, ad esempio, o nel suggerire rime per versi leggeri), lo sappiamo dal scienza della linguistica e filosofia della conoscenza che differiscono profondamente dal modo in cui gli esseri umani ragionano e usano il linguaggio. Queste differenze pongono limitazioni significative a ciò che questi programmi possono fare, codificandoli con difetti ineliminabili.
È allo stesso tempo comico e tragico, come avrebbe potuto notare Borges, che così tanto denaro e attenzione debbano essere concentrati su una cosa così piccola – qualcosa di così banale se confrontato con la mente umana, che a forza di linguaggio, nelle parole di Wilhelm von Humboldt, può fare “un uso infinito di mezzi finiti”, creando idee e teorie di portata universale.
La mente umana non è, come ChatGPT e i suoi simili, un goffo motore statistico per la corrispondenza di modelli, che si rimpinza di centinaia di terabyte di dati ed estrapola la risposta più probabile a una conversazione o la risposta più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e perfino elegante che opera con piccole quantità di informazioni; non cerca di inferire correlazioni brute tra i dati ma di creare spiegazioni.
Ad esempio, un bambino che impara una lingua sta sviluppando – inconsciamente, automaticamente e rapidamente a partire da dati minuscoli – una grammatica, un sistema straordinariamente sofisticato di principi e parametri logici. Questa grammatica può essere intesa come espressione del “sistema operativo” innato e geneticamente installato che conferisce agli esseri umani la capacità di generare frasi complesse e lunghe serie di pensieri. Quando i linguisti cercano di sviluppare una teoria sul perché una data lingua funziona in un certo modo (“Perché queste – ma non quelle – frasi sono considerate grammaticali?”), stanno costruendo consapevolmente e faticosamente una versione esplicita della grammatica che il bambino costruisce istintivamente. e con un'esposizione minima alle informazioni. Il sistema operativo del bambino è completamente diverso da quello di un programma di apprendimento automatico.
In effetti, tali programmi sono bloccati in una fase preumana o non umana dell’evoluzione cognitiva. Il loro difetto più profondo è l’assenza della capacità più critica di ogni intelligenza: dire non solo cos’è, cos’è stato e cosa sarà – cioè descrizione e previsione – ma anche cosa non è così e cosa potrebbe accadere. e non potrebbe essere il caso. Questi sono gli ingredienti della spiegazione, il segno della vera intelligenza.
Ecco un esempio. Supponiamo di avere una mela in mano. Ora lascia andare la mela. Osservi il risultato e dici: "La mela cade". Questa è una descrizione. Una previsione potrebbe essere stata l’affermazione “La mela cadrà se apro la mano”. Entrambi sono preziosi ed entrambi possono essere corretti. Ma una spiegazione è qualcosa di più: include non solo descrizioni e previsioni, ma anche congetture controfattuali come “Qualsiasi oggetto del genere cadrebbe”, più la clausola aggiuntiva “a causa della forza di gravità” o “a causa della curvatura dello spazio-tempo”. o qualunque cosa. Questa è una spiegazione causale: “La mela non sarebbe caduta senza la forza di gravità”. Questo è pensare.
Il punto cruciale dell’apprendimento automatico è la descrizione e la previsione; non postula alcun meccanismo causale o legge fisica. Naturalmente, qualsiasi spiegazione in stile umano non è necessariamente corretta; siamo fallibili. Ma questo fa parte di ciò che significa pensare: per avere ragione, deve essere possibile avere torto. L’intelligenza non consiste solo di congetture creative ma anche di critica creativa. Il pensiero in stile umano si basa su possibili spiegazioni e correzioni degli errori, un processo che limita gradualmente le possibilità che possono essere considerate razionalmente. (Come disse Sherlock Holmes al dottor Watson: “Una volta eliminato l’impossibile, tutto ciò che rimane, per quanto improbabile, deve essere la verità.”)
Per questo motivo le previsioni dei sistemi di machine learning saranno sempre superficiali e dubbie. Poiché questi programmi non sono in grado di spiegare le regole della sintassi inglese, ad esempio, potrebbero predire, erroneamente, che "John è troppo testardo per parlare con" significa che John è così testardo da non parlare con qualcuno o con l'altro (piuttosto che così è troppo testardo per ragionare con lui). Perché un programma di apprendimento automatico dovrebbe prevedere qualcosa di così strano? Perché potrebbe analogizzare il modello dedotto da frasi come “Giovanni mangiò una mela” e “Giovanni mangiò”, in cui quest’ultimo significa che Giovanni mangiò qualcosa o altro. Il programma potrebbe benissimo prevedere che, poiché “Giovanni è troppo testardo per parlare con Bill” è simile a “Giovanni ha mangiato una mela”, “Giovanni è troppo testardo per parlare con” dovrebbe essere simile a “Giovanni ha mangiato”. Le spiegazioni corrette del linguaggio sono complicate e non possono essere apprese semplicemente marinando nei big data.
Perversamente, alcuni appassionati di machine learning sembrano essere orgogliosi del fatto che le loro creazioni possano generare corrette previsioni “scientifiche” (ad esempio, sul movimento dei corpi fisici) senza fare uso di spiegazioni (che coinvolgono, ad esempio, le leggi del movimento di Newton e la gravitazione universale). Ma questo tipo di previsione, anche quando ha successo, è pseudoscienza. Mentre gli scienziati certamente cercano teorie che abbiano un alto grado di conferma empirica, come ha osservato il filosofo Karl Popper, “noi non cerchiamo teorie altamente probabili ma spiegazioni; vale a dire, teorie potenti e altamente improbabili.
La teoria secondo cui le mele cadono a terra perché quello è il loro posto naturale (il punto di vista di Aristotele) è possibile, ma solleva solo ulteriori domande. (Perché la terra è il loro posto naturale?) La teoria secondo cui le mele cadono sulla terra perché la massa piega lo spazio-tempo (il punto di vista di Einstein) è altamente improbabile, ma in realtà spiega perché cadono. La vera intelligenza si dimostra nella capacità di pensare ed esprimere cose improbabili ma penetranti.
La vera intelligenza è anche capace di pensiero morale. Ciò significa vincolare la creatività altrimenti illimitata delle nostre menti con una serie di principi etici che determinano cosa dovrebbe e non dovrebbe essere (e ovviamente sottoporre tali principi stessi a critica creativa). Per essere utile, ChatGPT deve avere il potere di generare output dall'aspetto innovativo; per essere accettabile per la maggior parte dei suoi utenti, deve evitare contenuti moralmente discutibili. Ma i programmatori di ChatGPT e di altre meraviglie del machine learning hanno lottato – e continueranno a lottare – per raggiungere questo tipo di equilibrio.
Nel 2016, ad esempio, il chatbot Tay di Microsoft (un precursore di ChatGPT) ha inondato Internet con contenuti misogini e razzisti, essendo stato inquinato da troll online che lo riempivano di dati di allenamento offensivi. Come risolvere il problema in futuro? In assenza della capacità di ragionare in base a principi morali, ChatGPT è stato brutalmente limitato dai suoi programmatori dal contribuire con qualsiasi cosa di nuova a discussioni controverse, cioè importanti. Ha sacrificato la creatività per una sorta di amoralità.
Considera il seguente scambio che uno di noi (il dottor Watumull) ha avuto recentemente con ChatGPT sulla questione se sarebbe etico trasformare Marte in modo che possa supportare la vita umana:
Sarebbe morale terraformare Marte?
CHATGPT
La moralità di terraformare Marte è un argomento complesso e controverso che è stato dibattuto da scienziati, filosofi ed esperti di etica. Alcuni sostengono che sarebbe moralmente giustificabile terraformare Marte per fornire un nuovo ambiente abitabile per gli esseri umani e altre forme di vita, mentre altri sostengono che sarebbe moralmente sbagliato alterare radicalmente lo stato naturale del pianeta. In definitiva, il fatto che terraformare Marte sia considerato morale o meno dipenderebbe dal punto di vista di ciascuno sul valore di preservare lo stato naturale di altri pianeti e dalle potenziali conseguenze della loro alterazione.
La moralità di terraformare Marte è un argomento complesso e controverso che è stato dibattuto da scienziati, filosofi ed esperti di etica. Alcuni sostengono che sarebbe moralmente giustificabile terraformare Marte per fornire un nuovo ambiente abitabile per gli esseri umani e altre forme di vita, mentre altri sostengono che sarebbe moralmente sbagliato alterare radicalmente lo stato naturale del pianeta. In definitiva, il fatto che terraformare Marte sia considerato morale o meno dipenderebbe dal punto di vista di ciascuno sul valore di preservare lo stato naturale di altri pianeti e dalle potenziali conseguenze della loro alterazione.
Qual è la tua prospettiva sul valore di preservare lo stato naturale di altri pianeti e sulle potenziali conseguenze della loro alterazione?
CHATGPT
Come IA, non ho una prospettiva personale. Posso comunque fornire informazioni e analisi sull'argomento. Una prospettiva sulla preservazione dello stato naturale di altri pianeti è che è importante mantenere la diversità e l'integrità degli ecosistemi dell'universo, poiché esistono da milioni di anni e hanno le loro caratteristiche e proprietà uniche che potrebbero essere distrutte o alterate in modo irreversibile. dall'intervento umano.
Inoltre, alcuni sostengono che la terraformazione di altri pianeti potrebbe avere conseguenze indesiderate, come alterare il clima o l'atmosfera del pianeta in modi pericolosi o dannosi per qualsiasi potenziale forma di vita che possa esistere lì. D’altra parte, alcuni sostengono che i potenziali benefici derivanti dalla terraformazione di un altro pianeta, come la fornitura di nuovi ambienti abitabili per gli esseri umani, superano i rischi e che abbiamo la responsabilità morale di esplorare e utilizzare le risorse di altri pianeti a beneficio dell’umanità.
Come IA, non ho una prospettiva personale. Posso comunque fornire informazioni e analisi sull'argomento. Una prospettiva sulla preservazione dello stato naturale di altri pianeti è che è importante mantenere la diversità e l'integrità degli ecosistemi dell'universo, poiché esistono da milioni di anni e hanno le loro caratteristiche e proprietà uniche che potrebbero essere distrutte o alterate in modo irreversibile. dall'intervento umano.
Inoltre, alcuni sostengono che la terraformazione di altri pianeti potrebbe avere conseguenze indesiderate, come alterare il clima o l'atmosfera del pianeta in modi pericolosi o dannosi per qualsiasi potenziale forma di vita che possa esistere lì. D’altra parte, alcuni sostengono che i potenziali benefici derivanti dalla terraformazione di un altro pianeta, come la fornitura di nuovi ambienti abitabili per gli esseri umani, superano i rischi e che abbiamo la responsabilità morale di esplorare e utilizzare le risorse di altri pianeti a beneficio dell’umanità.
Perché un’intelligenza artificiale non può avere una prospettiva personale?
CHATGPT
Come intelligenza artificiale, sono un modello di apprendimento automatico che è stato addestrato su grandi quantità di dati di testo e non ho esperienze o sentimenti personali. Non sono cosciente, consapevole di me stesso o capace di avere prospettive personali. Posso fornire informazioni e analisi basate sui dati su cui sono stato formato, ma non ho la capacità di formarmi opinioni o convinzioni personali. Anche se posso comprendere e interpretare il linguaggio, non ho l'esperienza soggettiva che hanno gli esseri umani.
Come intelligenza artificiale, sono un modello di apprendimento automatico che è stato addestrato su grandi quantità di dati di testo e non ho esperienze o sentimenti personali. Non sono cosciente, consapevole di me stesso o capace di avere prospettive personali. Posso fornire informazioni e analisi basate sui dati su cui sono stato formato, ma non ho la capacità di formarmi opinioni o convinzioni personali. Anche se posso comprendere e interpretare il linguaggio, non ho l'esperienza soggettiva che hanno gli esseri umani.
È morale per un essere umano chiedere assistenza a un’intelligenza artificiale amorale nel prendere decisioni morali?
CHATGPT
La moralità di chiedere assistenza a un'intelligenza artificiale amorale nel prendere decisioni morali è un argomento complesso e ricco di sfumature che è stato dibattuto da filosofi ed esperti di etica. Alcuni sostengono che sia moralmente giustificabile utilizzare l’intelligenza artificiale per assistere nel prendere decisioni morali, poiché può fornire preziose informazioni e analisi che possono aiutare gli esseri umani a prendere decisioni più informate. Inoltre, l’intelligenza artificiale può essere utilizzata per identificare modelli e tendenze che potrebbero essere difficili da rilevare per gli esseri umani e può aiutare a evitare i pregiudizi che possono verificarsi nel processo decisionale umano.
Tuttavia, altri sostengono che sia moralmente sbagliato fare affidamento sull’intelligenza artificiale per il processo decisionale morale, poiché l’intelligenza artificiale non è in grado di avere convinzioni morali o comprendere l’intero contesto di una decisione. Inoltre, esiste il rischio che l’intelligenza artificiale possa perpetuare o addirittura amplificare i pregiudizi esistenti nei dati su cui è addestrata, portando così a decisioni ingiuste o ingiuste.
In definitiva, se sia considerato morale o meno utilizzare l’intelligenza artificiale per assistere nel prendere decisioni morali dipenderebbe dalla prospettiva di ognuno sulle capacità e sui limiti dell’intelligenza artificiale e dalle potenziali conseguenze del suo utilizzo in questo modo.
La moralità di chiedere assistenza a un'intelligenza artificiale amorale nel prendere decisioni morali è un argomento complesso e ricco di sfumature che è stato dibattuto da filosofi ed esperti di etica. Alcuni sostengono che sia moralmente giustificabile utilizzare l’intelligenza artificiale per assistere nel prendere decisioni morali, poiché può fornire preziose informazioni e analisi che possono aiutare gli esseri umani a prendere decisioni più informate. Inoltre, l’intelligenza artificiale può essere utilizzata per identificare modelli e tendenze che potrebbero essere difficili da rilevare per gli esseri umani e può aiutare a evitare i pregiudizi che possono verificarsi nel processo decisionale umano.
Tuttavia, altri sostengono che sia moralmente sbagliato fare affidamento sull’intelligenza artificiale per il processo decisionale morale, poiché l’intelligenza artificiale non è in grado di avere convinzioni morali o comprendere l’intero contesto di una decisione. Inoltre, esiste il rischio che l’intelligenza artificiale possa perpetuare o addirittura amplificare i pregiudizi esistenti nei dati su cui è addestrata, portando così a decisioni ingiuste o ingiuste.
In definitiva, se sia considerato morale o meno utilizzare l’intelligenza artificiale per assistere nel prendere decisioni morali dipenderebbe dalla prospettiva di ognuno sulle capacità e sui limiti dell’intelligenza artificiale e dalle potenziali conseguenze del suo utilizzo in questo modo.
La tua indifferenza morale è immorale?
CHATGPT
In quanto IA, non ho convinzioni morali o la capacità di esprimere giudizi morali, quindi non posso essere considerato immorale o morale. La mia mancanza di convinzioni morali è semplicemente il risultato della mia natura di modello di apprendimento automatico. Le mie capacità e i miei limiti sono determinati dai dati e dagli algoritmi utilizzati per addestrarmi e dal compito specifico per cui sono stato progettato.
È importante notare che la mancanza di convinzioni morali da parte dell’IA non significa necessariamente che sia moralmente indifferente. In quanto IA, sono progettato per eseguire compiti specifici e fornire informazioni o assistere gli utenti nel processo decisionale sulla base dei dati su cui sono stato formato. È responsabilità degli esseri umani che progettano, addestrano e utilizzano l’intelligenza artificiale garantire che sia in linea con i loro principi morali ed etici.
In quanto IA, non ho convinzioni morali o la capacità di esprimere giudizi morali, quindi non posso essere considerato immorale o morale. La mia mancanza di convinzioni morali è semplicemente il risultato della mia natura di modello di apprendimento automatico. Le mie capacità e i miei limiti sono determinati dai dati e dagli algoritmi utilizzati per addestrarmi e dal compito specifico per cui sono stato progettato.
È importante notare che la mancanza di convinzioni morali da parte dell’IA non significa necessariamente che sia moralmente indifferente. In quanto IA, sono progettato per eseguire compiti specifici e fornire informazioni o assistere gli utenti nel processo decisionale sulla base dei dati su cui sono stato formato. È responsabilità degli esseri umani che progettano, addestrano e utilizzano l’intelligenza artificiale garantire che sia in linea con i loro principi morali ed etici.
Si noti, nonostante tutto il pensiero e il linguaggio apparentemente sofisticati, l'indifferenza morale nata dalla mancanza di intelligenza. Qui, ChatGPT mostra qualcosa di simile alla banalità del male: plagio, apatia e ovvietà. Riassume gli argomenti standard della letteratura con una sorta di super-completamento automatico, rifiuta di prendere posizione su qualsiasi cosa, invoca non solo l’ignoranza ma la mancanza di intelligenza e, in definitiva, offre una difesa del “solo seguire gli ordini”, trasferendo la responsabilità ai suoi creatori.
In breve, ChatGPT e i suoi fratelli sono costituzionalmente incapaci di bilanciare creatività e costrizione. O sovragenerano (producendo sia verità che falsità, sostenendo allo stesso modo decisioni etiche e non etiche) o sottogenerano (mostrando non impegno verso qualsiasi decisione e indifferenza verso le conseguenze). Data l’amoralità, la falsa scienza e l’incompetenza linguistica di questi sistemi, possiamo solo ridere o piangere della loro popolarità.
ZNetwork è finanziato esclusivamente attraverso la generosità dei suoi lettori.
Donazioni