L’intelligenza artificiale (AI) sta conquistando il mondo. Sta trasformando ogni ambito della vita e sta sollevando nel processo importanti preoccupazioni etiche per la società e il futuro dell’umanità. ChatGPT, che sta dominando i social media, è un chatbot basato sull'intelligenza artificiale sviluppato da OpenAI. È un sottoinsieme dell’apprendimento automatico e si basa su quelli che vengono chiamati modelli linguistici di grandi dimensioni che possono generare risposte simili a quelle umane. Il potenziale di applicazione di tale tecnologia è davvero enorme, motivo per cui ci sono già richieste per regolamentare l’intelligenza artificiale come ChatGPT.
L’intelligenza artificiale può superare in astuzia gli umani? Costituisce una minaccia pubblica? In effetti, l’intelligenza artificiale può diventare una minaccia esistenziale? Il linguista più importante del mondo Noam Chomsky, e uno degli intellettuali pubblici più stimati di tutti i tempi, la cui statura intellettuale è stata paragonata a quella di Galileo, Newton e Cartesio, affronta queste fastidiose domande nell'intervista che segue.
CJ Polychroniou: Come disciplina scientifica, l'intelligenza artificiale (AI) risale agli anni '1950, ma negli ultimi due decenni si è fatta strada in tutti i tipi di campi, tra cui quello bancario, assicurativo, manifatturiero automobilistico, musicale e della difesa. In effetti, è stato dimostrato che in alcuni casi l’uso delle tecniche di intelligenza artificiale supera le capacità umane, come nel gioco degli scacchi. È probabile che le macchine diventino più intelligenti degli esseri umani?
Noam Chomsky: Giusto per chiarire la terminologia, il termine “macchina” qui significa Programma, fondamentalmente una teoria scritta in una notazione che può essere eseguita da un computer – e un tipo insolito di teoria in modi interessanti che possiamo mettere da parte qui.
Possiamo fare una distinzione approssimativa tra ingegneria pura e scienza. Non esiste un confine netto, ma è una prima approssimazione utile. L'ingegneria pura cerca di produrre un prodotto che possa essere di qualche utilità. La scienza cerca la comprensione. Se l'argomento è l'intelligenza umana o le capacità cognitive di altri organismi, la scienza cerca la comprensione di questi sistemi biologici.
A quanto ho capito, i fondatori dell’intelligenza artificiale – Alan Turing, Herbert Simon, Marvin Minsky e altri – la consideravano una scienza, parte delle scienze cognitive allora emergenti, che faceva uso di nuove tecnologie e scoperte nella teoria matematica del calcolo per anticipare la comprensione. Nel corso degli anni tali preoccupazioni sono svanite e sono state in gran parte sostituite da un orientamento ingegneristico. Le preoccupazioni precedenti vengono ora comunemente respinte, a volte con condiscendenza, come GOFAI: la buona intelligenza artificiale vecchio stile.
Continuando con la domanda, è probabile che verranno ideati programmi che supereranno le capacità umane? Dobbiamo stare attenti alla parola “capacità”, per ragioni sulle quali tornerò. Ma se prendiamo il termine in riferimento alla prestazione umana, allora la risposta è: sicuramente sì. In realtà esistono da molto tempo: la calcolatrice nel laptop, per esempio. Può superare di gran lunga ciò che possono fare gli esseri umani, se non altro a causa della mancanza di tempo e memoria. Per i sistemi chiusi come gli scacchi, già negli anni '50 si sapeva bene che prima o poi, con l'avanzare di enormi capacità di calcolo e un lungo periodo di preparazione, si sarebbe potuto ideare un programma in grado di sconfiggere un grande maestro che gioca con un limite di memoria. E tempo. Il risultato ottenuto anni dopo fu praticamente una sorta di PR per IBM. Molti organismi biologici superano le capacità cognitive umane in modi molto più profondi. Le formiche del deserto nel mio cortile hanno cervelli minuscoli, ma superano di gran lunga le capacità di navigazione umane, in linea di principio, non solo le prestazioni. Non esiste una Grande Catena dell’Essere con gli esseri umani al vertice.
I prodotti dell’ingegneria dell’intelligenza artificiale vengono utilizzati in molti campi, nel bene e nel male. Anche quelli semplici e familiari possono essere molto utili: nell'area linguistica, programmi come compilazione automatica, trascrizione live, google traduttore, tra gli altri. Con una potenza di calcolo notevolmente maggiore e una programmazione più sofisticata, dovrebbero esserci altre applicazioni utili, anche nel campo delle scienze. Ce ne sono già stati alcuni: l'assistenza allo studio del ripiegamento delle proteine è un caso recente in cui la tecnologia di ricerca massiccia e rapida ha aiutato gli scienziati ad affrontare un problema critico e recalcitrante.
I progetti di ingegneria possono essere utili o dannosi. Entrambe le domande sorgono nel caso dell’intelligenza artificiale ingegneristica. Il lavoro attuale con i Large Language Models (LLM), compresi i chatbot, fornisce strumenti per la disinformazione, la diffamazione e l’inganno dei non informati. Le minacce vengono potenziate quando vengono combinate con immagini artificiali e replicazione della voce. Con preoccupazioni diverse in mente, decine di migliaia di ricercatori sull’intelligenza artificiale lo hanno recentemente fatto detto per una moratoria sullo sviluppo a causa dei potenziali pericoli che percepiscono.
Come sempre, i possibili benefici della tecnologia devono essere valutati rispetto ai potenziali costi.
Domande completamente diverse sorgono quando ci rivolgiamo all’intelligenza artificiale e alla scienza. Qui è necessaria cautela a causa delle affermazioni esorbitanti e sconsiderate, spesso amplificate dai media. Per chiarire la questione, consideriamo dei casi, alcuni ipotetici, altri reali.
Ho menzionato la navigazione degli insetti, che è un risultato sorprendente. Gli scienziati degli insetti hanno fatto molti progressi nello studio di come si ottiene, anche se la neurofisiologia, una questione molto difficile, rimane sfuggente, insieme all’evoluzione dei sistemi. Lo stesso vale per le incredibili imprese degli uccelli e delle tartarughe marine che viaggiano per migliaia di chilometri e ritornano infallibilmente al luogo di origine.
Supponiamo che Tom Jones, un sostenitore dell’ingegneria dell’intelligenza artificiale, arrivi e dica: “Il tuo lavoro è stato tutto confutato. Il problema è risolto. I piloti delle compagnie aeree commerciali ottengono sempre gli stessi risultati, se non addirittura migliori”.
Se anche solo ci prendessimo la briga di rispondere, rideremo.
Prendiamo il caso delle imprese marinare dei polinesiani, ancora vivi tra le tribù indigene, che utilizzavano le stelle, il vento e le correnti per far atterrare le loro canoe in un punto designato a centinaia di miglia di distanza. Anche questo è stato oggetto di molte ricerche per scoprire come lo fanno. Tom Jones ha la risposta: “Smettila di sprecare il tuo tempo; le navi da guerra lo fanno continuamente”.
Stessa risposta.
Passiamo ora ad un caso reale, l'acquisizione del linguaggio. Negli ultimi anni è stato oggetto di ricerche estese e altamente illuminanti, che hanno dimostrato che i bambini hanno una conoscenza molto ricca del linguaggio (o dei linguaggi) ambientali, ben oltre ciò che mostrano durante la performance. Si ottiene con poche prove e in alcuni casi cruciali senza alcuna prova. Nella migliore delle ipotesi, come hanno dimostrato attenti studi statistici, i dati disponibili sono scarsi, in particolare quando si tiene conto della frequenza di rango (“legge di Zipf”).
Entra Tom Jones: “Sei stato confutato. Non prestando attenzione alle tue scoperte, gli LLM che analizzano quantità astronomiche di dati possono trovare regolarità statistiche che consentono di simulare i dati su cui sono addestrati, producendo qualcosa che assomiglia molto al normale comportamento umano. Chatbot."
Questo caso è diverso dagli altri. Innanzitutto, è reale. In secondo luogo, le persone non ridono; in effetti, molti sono intimoriti. In terzo luogo, a differenza dei casi ipotetici, i risultati effettivi sono lontani da quanto affermato.
Queste considerazioni sollevano un piccolo problema con l'attuale entusiasmo del LLM: la sua totale assurdità, come nei casi ipotetici in cui lo riconosciamo immediatamente. Ma ci sono problemi molto più seri dell'assurdità.
Il primo è che i sistemi LLM sono progettati in modo tale da non poterci dire nulla sulla lingua, sull’apprendimento o su altri aspetti della cognizione, una questione di principio irrimediabile. Raddoppiate i terabyte di dati scansionati, aggiungete altri trilioni di parametri, usate ancora più energia della California e la simulazione del comportamento migliorerà, rivelando più chiaramente il fallimento in linea di principio dell'approccio nel produrre qualsiasi comprensione. La ragione è elementare: i sistemi funzionano altrettanto bene con le lingue impossibili che i bambini non possono acquisire così come con quelle che acquisiscono rapidamente e virtualmente in modo riflessivo.
È come se un biologo dicesse: “Ho una nuova, fantastica teoria sugli organismi. Ne elenca molti che esistono e molti che non possono esistere, e non posso dirti nulla sulla distinzione.
Ancora una volta, rideremo. O dovrebbe.
Non Tom Jones, ora mi riferisco a casi reali. Perseverando nel suo radicale allontanamento dalla scienza, Tom Jones risponde: "Come fai a sapere tutto questo finché non hai studiato tutte le lingue?" A questo punto l’abbandono della scienza normale diventa ancora più evidente. A parità di argomentazione, possiamo eliminare la genetica e la biologia molecolare, la teoria dell'evoluzione e il resto delle scienze biologiche, che non hanno campionato più di una piccola frazione di organismi. E per buona misura, possiamo eliminare tutta la fisica. Perché credere nelle leggi del movimento? Quanti oggetti sono stati effettivamente osservati in movimento?
C'è poi la piccola questione dell'onere della prova. Coloro che propongono una teoria hanno la responsabilità di dimostrare che essa ha un senso, in questo caso, dimostrando che fallisce per i linguaggi impossibili. Non è responsabilità degli altri confutare la proposta, anche se in questo caso sembra abbastanza facile farlo.
Spostiamo l'attenzione sulla scienza normale, dove le cose diventano interessanti. Anche un singolo esempio di acquisizione del linguaggio può fornire una visione approfondita della distinzione tra lingue possibili e impossibili.
Le ragioni sono semplici e familiari. Tutta la crescita e lo sviluppo, compreso quello che viene chiamato “apprendimento”, è un processo che inizia con uno stato dell’organismo e lo trasforma passo dopo passo verso gli stadi successivi.
L'acquisizione del linguaggio è un tale processo. Lo stato iniziale è la dotazione biologica della facoltà del linguaggio, che ovviamente esiste, anche se si tratta, come alcuni credono, di una particolare combinazione di altre capacità. Ciò è altamente improbabile per ragioni ormai note, ma non è rilevante per le nostre preoccupazioni qui, quindi possiamo metterlo da parte. Evidentemente esiste una dotazione biologica per la facoltà umana del linguaggio. La più semplice verità.
La transizione procede verso uno stato relativamente stabile, modificato solo superficialmente oltre: la conoscenza della lingua. I dati esterni innescano e modellano parzialmente il processo. Studiando lo stato raggiunto (conoscenza della lingua) e i dati esterni, possiamo trarre conclusioni di vasta portata sullo stato iniziale, la dotazione biologica che rende possibile l'acquisizione della lingua. Le conclusioni sullo stato iniziale impongono una distinzione tra lingue possibili e impossibili. La distinzione vale per tutti coloro che condividono lo stato iniziale: tutti gli esseri umani, per quanto è noto; non sembra esserci alcuna differenza nella capacità di acquisire il linguaggio tra i gruppi umani esistenti.
Tutto questo è scienza normale e ha ottenuto molti risultati.
L'esperimento ha dimostrato che lo stato stabile si ottiene sostanzialmente molto presto, dai tre ai quattro anni di età. È inoltre assodato che la facoltà del linguaggio ha proprietà fondamentali specifiche dell'uomo, quindi che è una vera proprietà della specie: comune ai gruppi umani e fondamentalmente un attributo umano unico.
Molto viene tralasciato in questo resoconto schematico, in particolare il ruolo della legge naturale nella crescita e nello sviluppo: nel caso di un sistema computazionale come il linguaggio, i principi dell’efficienza computazionale. Ma questa è l'essenza della questione. Ancora una volta, scienza normale.
È importante essere chiari sulla distinzione di Aristotele tra possesso della conoscenza e uso della conoscenza (nella terminologia contemporanea, competenza e prestazione). Nel caso della lingua, lo stato stabile ottenuto è il possesso della conoscenza, codificata nel cervello. Il sistema interno determina una serie illimitata di espressioni strutturate, ciascuna delle quali possiamo considerare come formulante un pensiero, ciascuna esternabilizzabile in qualche sistema sensomotorio, solitamente sonoro sebbene possa essere segno o anche (con difficoltà) tatto.
Si accede al sistema codificato internamente utilizzando la conoscenza (prestazione). La performance include l'uso interno del linguaggio nel pensiero: riflessione, pianificazione, raccoglimento e molto altro ancora. Statisticamente parlando si tratta di un uso di gran lunga eccessivo del linguaggio. È inaccessibile all’introspezione, anche se possiamo imparare molto al riguardo con i normali metodi della scienza, dall’“esterno”, metaforicamente parlando. Ciò che viene chiamato “discorso interno” è, infatti, frammenti di linguaggio esternalizzato con l'apparato articolatorio disattivato. È solo un riflesso remoto dell'uso interno del linguaggio, questioni importanti che non posso approfondire qui.
Altre forme di uso del linguaggio sono la percezione (analisi) e la produzione, quest'ultima che coinvolge in modo cruciale proprietà che rimangono misteriose per noi oggi come quando venivano guardate con reverenza e stupore da Galileo e dai suoi contemporanei agli albori della scienza moderna.
Lo scopo principale della scienza è scoprire il sistema interno, sia nel suo stato iniziale nella facoltà umana del linguaggio, sia nelle forme particolari che assume nell'acquisizione. Nella misura in cui questo sistema interno è compreso, possiamo procedere a indagare come entra nella performance, interagendo con molti altri fattori che entrano nell'uso del linguaggio.
I dati sulle prestazioni forniscono prove sulla natura del sistema interno, in particolare quando vengono perfezionati mediante esperimenti, come nel lavoro standard sul campo. Ma anche la raccolta di dati più massiccia è necessariamente fuorviante in modi cruciali. Si attiene a ciò che viene prodotto normalmente, non alla conoscenza del linguaggio codificato nel cervello, oggetto primario di indagine per chi vuole comprendere la natura del linguaggio e il suo utilizzo. Quell’oggetto interno determina infinite possibilità che non verranno utilizzate nel comportamento normale a causa di fattori irrilevanti per il linguaggio, come i vincoli della memoria a breve termine, argomenti studiati 60 anni fa. I dati osservati includeranno anche molto di ciò che si trova al di fuori del sistema codificato nel cervello, spesso l’uso consapevole del linguaggio in modi che violano le regole per scopi retorici. Queste sono verità ovvie note a tutti i ricercatori sul campo, che si affidano a tecniche di elicitazione con informatori, fondamentalmente esperimenti, per produrre un corpus raffinato che escluda restrizioni irrilevanti ed espressioni devianti. Lo stesso vale quando i linguisti si servono come informatori, una procedura perfettamente sensata e normale, comune nella storia della psicologia fino ai giorni nostri.
Procedendo ulteriormente con la scienza normale, troviamo che i processi interni e gli elementi del linguaggio non possono essere rilevati esaminando i fenomeni osservati. Spesso questi elementi non compaiono nemmeno nel parlato (o nella scrittura), anche se i loro effetti, spesso sottili, possono essere rilevati. Questo è ancora un altro motivo per cui la restrizione ai fenomeni osservati, come negli approcci LLM, limita fortemente la comprensione dei processi interni che sono gli oggetti centrali dell’indagine sulla natura del linguaggio, sulla sua acquisizione e utilizzo. Ma ciò non è rilevante se l’interesse per la scienza e la comprensione è stato abbandonato a favore di altri obiettivi.
Più in generale nelle scienze, per millenni, le conclusioni sono state raggiunte attraverso esperimenti – spesso esperimenti mentali – ciascuno dei quali rappresentava un’astrazione radicale dai fenomeni. Gli esperimenti sono guidati dalla teoria e cercano di scartare gli innumerevoli fattori irrilevanti che entrano nei fenomeni osservati, come la performance linguistica. Tutto ciò è così elementare che raramente se ne parla. E familiare. Come notato, la distinzione fondamentale risale alla distinzione di Aristotele tra possesso della conoscenza e uso della conoscenza. Il primo è l'oggetto centrale di studio. Studi secondari (e piuttosto seri) indagano il modo in cui il sistema di conoscenza immagazzinato internamente viene utilizzato nelle prestazioni, insieme ai numerosi fattori non linguistici che entrano in ciò che viene osservato direttamente.
Potremmo anche ricordare un'osservazione del biologo evoluzionista Theodosius Dobzhansky, famoso soprattutto per il suo lavoro con la Drosophila: ogni specie è unica e gli esseri umani sono i più unici di tutti. Se siamo interessati a comprendere che tipo di creature siamo – seguendo l’ingiunzione dell’Oracolo Delfico di 2,500 anni fa – ci occuperemo principalmente di ciò che rende l’uomo il più unico di tutti, in primo luogo linguaggio e pensiero, strettamente intrecciati, come riconosciuti in un ricca tradizione che risale alla Grecia classica e all’India. La maggior parte dei comportamenti è abbastanza di routine, quindi in una certa misura prevedibile. Ciò che ci fornisce una visione reale di ciò che ci rende unici è ciò che non è routine, che troviamo, a volte attraverso l’esperimento, a volte attraverso l’osservazione, dai bambini normali ai grandi artisti e scienziati.
Un ultimo commento a questo proposito. La società è stata tormentata per un secolo da massicce campagne aziendali per incoraggiare il disprezzo per la scienza, argomenti ben studiati, tra gli altri, da Naomi Oreskes. Tutto è iniziato con le multinazionali i cui prodotti sono letali: piombo, tabacco, amianto e poi combustibili fossili. Le loro motivazioni sono comprensibili. L’obiettivo di un’impresa in una società capitalista è il profitto, non il benessere umano. Questo è un fatto istituzionale: se non stai al gioco sei fuori, sostituito da qualcuno che lo farà.
I dipartimenti PR aziendali hanno riconosciuto subito che sarebbe stato un errore negare le crescenti prove scientifiche sugli effetti letali dei loro prodotti. Ciò sarebbe facilmente confutato. Meglio seminare il dubbio, incoraggiare l'incertezza, il disprezzo per questi vestiti a punta che non hanno mai dipinto una casa ma vengono da Washington a dirmi di non usare vernice al piombo, distruggendo la mia attività (un caso reale, facilmente moltiplicabile). Ha funzionato fin troppo bene. In questo momento ci sta conducendo su un percorso verso la distruzione della vita umana organizzata sulla terra.
Nei circoli intellettuali, effetti simili sono stati prodotti dalla critica postmoderna della scienza, smontato di Jean Bricmont e Alan Sokal, ma ancora molto vivo in alcuni ambienti.
Potrebbe essere scortese proporre la domanda, ma credo sia giusto chiedersi se i Tom Jones e coloro che ripetono acriticamente e addirittura amplificano le loro sconsiderate dichiarazioni stiano contribuendo alle stesse tendenze dannose.
CJP: ChatGPT è un chatbot basato sul linguaggio naturale che utilizza l'intelligenza artificiale per consentire conversazioni simili a quelle umane. In un recente articolo su Il New York Times, insieme ad altri due autori, avete chiuso i nuovi chatbot come una montatura pubblicitaria perché semplicemente non possono eguagliare la competenza linguistica degli esseri umani. Non è tuttavia possibile che le future innovazioni nel campo dell’intelligenza artificiale possano produrre progetti ingegneristici che eguaglieranno e forse addirittura supereranno le capacità umane?
NC: Il merito dell'articolo va dato al vero autore, Jeffrey Watumull, un bravo matematico-linguista-filosofo. I due coautori elencati erano consulenti, che sono d'accordo con l'articolo ma non lo hanno scritto.
È vero che i chatbot non possono in linea di principio eguagliare la competenza linguistica degli esseri umani, per le ragioni sopra ripetute. La loro concezione di base impedisce loro di raggiungere la condizione minima di adeguatezza per una teoria del linguaggio umano: distinguere le lingue possibili da quelle impossibili. Poiché questa è una proprietà del design, non può essere superata da future innovazioni in questo tipo di intelligenza artificiale. Tuttavia, è del tutto possibile che i futuri progetti di ingegneria eguaglieranno e addirittura supereranno le capacità umane, se intendiamo la capacità umana di agire, la prestazione. Come accennato in precedenza, alcuni lo fanno da tempo: ad esempio i calcolatori automatici. Ancora più interessante, come accennato, gli insetti con cervelli minuscoli superano le capacità umane intese come competenza.
CJP: Nell'articolo sopra citato si osservava anche che gli odierni progetti di intelligenza artificiale non possiedono una facoltà morale umana. Questo fatto ovvio rende i robot IA meno pericolosi per la razza umana? Ritengo che l'argomentazione possa essere che questo li rende forse ancora di più.
NC: È infatti un fatto ovvio, intendendo la “facoltà morale” in senso ampio. Se non controllata attentamente, l’ingegneria dell’intelligenza artificiale può rappresentare una grave minaccia. Supponiamo, ad esempio, che la cura dei pazienti sia automatizzata. Gli inevitabili errori che verrebbero superati dal giudizio umano potrebbero produrre una storia dell’orrore. Oppure supponiamo che gli esseri umani siano esclusi dalla valutazione delle minacce determinate dai sistemi di difesa missilistica automatizzati. Come un documento storico scioccante Informa noi, quella sarebbe la fine della civiltà umana.
Se non controllata attentamente, l’ingegneria dell’intelligenza artificiale può rappresentare una grave minaccia.
CJP: I regolatori e le forze dell'ordine in Europa stanno sollevando preoccupazioni sulla diffusione di ChatGPT mentre un atto legislativo dell'Unione Europea recentemente presentato sta cercando di affrontare l'intelligenza artificiale classificando tali strumenti in base al livello di rischio percepito. Sei d'accordo con coloro che temono che ChatGPT rappresenti una seria minaccia pubblica? Inoltre, pensate davvero che l’ulteriore sviluppo degli strumenti di intelligenza artificiale possa essere bloccato finché non saranno introdotte delle misure di salvaguardia?
NC: Posso facilmente simpatizzare con gli sforzi volti a cercare di controllare le minacce poste dalla tecnologia avanzata, compreso questo caso. Sono però scettico riguardo alla possibilità di farlo. Ho il sospetto che il genio sia uscito dalla lampada. Gli attori dannosi – istituzionali o individuali – possono probabilmente trovare il modo di eludere le garanzie. Tali sospetti ovviamente non sono un motivo per non provarci e per esercitare vigilanza.
ZNetwork è finanziato esclusivamente attraverso la generosità dei suoi lettori.
Donazioni