Il dibattito sui pericoli dell’intelligenza artificiale, reali o immaginari, è diventato frenetico, in gran parte indotto dal crescente mondo dei chatbot generativi. Quando si esaminano i critici, si dovrebbe prestare attenzione alle loro motivazioni. Cosa possono guadagnare dall’adottare una posizione particolare? Nel caso di Geoffrey Hinton, visto immodestamente come il “Padrino dell’intelligenza artificiale”, l’esame accurato dovrebbe essere più accurato di molti altri.
Hinton proviene dalla scuola di pensiero “connessionista” nell’intelligenza artificiale, il campo un tempo screditato che prevede reti neurali che imitano il cervello umano e, più in generale, il comportamento umano. Tale visione è in contrasto con i “simbolisti”, che si concentrano sull’intelligenza artificiale come governata dalle macchine, appannaggio di simboli e regole specifici.
John Thornhill, scrittura per l' Financial Times, nota l'ascesa di Hinton, insieme ad altri membri della tribù connessionista: "Man mano che i computer diventavano più potenti, i set di dati esplodevano in dimensioni e gli algoritmi diventavano più sofisticati, i ricercatori che studiavano il deep learning, come Hinton, furono in grado di produrre risultati sempre più impressionanti che non potrebbe più essere ignorato dalla comunità principale dell’intelligenza artificiale”.
Col tempo, i sistemi di deep learning sono diventati di gran moda e il mondo della grande tecnologia ha cercato nomi come quello di Hinton. Lui, insieme ai suoi colleghi, è arrivato a comandare stipendi assurdi ai vertici di Google, Facebook, Amazon e Microsoft. Presso Google, Hinton è stato vicepresidente e ricercatore di ingegneria.
L'uscita di Hinton da Google, e più specificatamente il suo ruolo di capo del team Google Brain, ha fatto girare la ruota delle speculazioni. Una linea di pensiero era che fosse avvenuto in modo che potesse criticare proprio l'azienda di cui aveva aiutato i risultati nel corso degli anni. Era certamente un po' ricco, dato il ruolo di Hinton nello spingere il carro dell'intelligenza artificiale generativa. Nel 2012, è stato il pioniere di una rete neurale autoaddestrante in grado di identificare oggetti comuni nelle immagini con notevole precisione.
Interessante è anche la tempistica. Poco più di un mese prima, an lettera aperta è stato pubblicato dal Future of Life Institute mettendo in guardia sui terribili effetti dell'intelligenza artificiale oltre la malvagità del GPT-4 di OpenAI e di altri sistemi affini. Sono state poste una serie di domande: “Dovremmo lasciare che le macchine inondano i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli appaganti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci in numero, in astuzia, obsolete e sostituirci? Dovremmo rischiare di perdere il controllo della nostra civiltà?
Nel chiedere una pausa di sei mesi nello sviluppo di progetti di intelligenza artificiale su larga scala, la lettera ha attirato una serie di nomi che hanno in qualche modo sminuito il valore degli avvertimenti; molti firmatari, dopotutto, hanno svolto un ruolo tutt’altro che trascurabile nel creare automazione, obsolescenza e nell’incoraggiare la “perdita di controllo della nostra civiltà”. A tal fine, quando personaggi del calibro di Elon Musk e Steve Wozniak firmano un progetto che chiede una pausa negli sviluppi tecnologici, i rilevatori di stronzate in tutto il mondo dovrebbero attivarsi.
Gli stessi principi dovrebbero applicarsi a Hinton. Sta ovviamente cercando altri pascoli e, così facendo, si pavoneggia con una pesante autopromozione. Questo assume la forma di lieve condanna della stessa cosa di cui era responsabile. “L’idea che queste cose potessero effettivamente diventare più intelligenti delle persone – alcune persone ci credevano. Ma la maggior parte delle persone pensava che fosse lontano. E pensavo che fosse lontano. […] Ovviamente non lo penso più”. Lui, penseresti, dovrebbe saperlo meglio di molti altri.
Su Twitter, Hinton metti da parte ogni suggerimento che stava lasciando Google con una nota amara, o che aveva intenzione di scaricare le sue operazioni. “Nel NYT di oggi, Cade Metz lascia intendere che ho lasciato Google per poter criticare Google. In realtà, me ne sono andato per poter parlare dei pericoli dell'intelligenza artificiale senza considerare l'impatto che questa ha su Google. Google ha agito in modo molto responsabile”.
Questa forma di ragionamento un po’ bizzarra suggerisce che qualsiasi critica all’intelligenza artificiale esisterà indipendentemente dalle stesse aziende che sviluppano e traggono profitto da tali progetti, lasciando nel contempo gli sviluppatori – come Hinton – immuni da qualsiasi accusa di complicità. Il fatto che sembrasse incapace di sviluppare critiche all’intelligenza artificiale o di suggerire quadri normativi all’interno di Google stessa, mina la sincerità della mossa.
In reagendo Alla partenza del suo collega di lunga data, Jeff Dean, chief scientist e capo di Google DeepMind, ha rivelato che le acque sono rimaste calme, con soddisfazione di tutti. “Geoff ha compiuto passi avanti fondamentali nel campo dell’intelligenza artificiale e apprezziamo il suo decennio di contributi a Google […] Essendo una delle prime aziende a pubblicare i principi dell’intelligenza artificiale, restiamo impegnati in un approccio responsabile all’intelligenza artificiale. Impariamo continuamente a comprendere i rischi emergenti e allo stesso tempo a innovare con coraggio”.
Molti nella comunità dell’intelligenza artificiale avevano la sensazione che qualcos’altro fosse in atto. L'informatico Roman Yampolskiy, in risponde alle osservazioni di Hinton, ha osservato in modo pertinente che le preoccupazioni per la sicurezza dell'intelligenza artificiale non si escludono a vicenda per la ricerca all'interno dell'organizzazione, né dovrebbero esserlo. “Dovremmo normalizzare la preoccupazione per la sicurezza dell’intelligenza artificiale senza dover lasciare il tuo lavoro [sic] di ricercatore di intelligenza artificiale”.
Google ha certamente quello che potrebbe essere definito un problema etico quando si tratta di sviluppo dell’intelligenza artificiale. L’organizzazione è stata piuttosto propensa a mettere a tacere le discussioni interne sull’argomento. Margaret Mitchell, ex membro del team Ethical AI di Google, da lei cofondato nel 2017, era dato il sussulto dopo aver condotto un'indagine interna sul licenziamento di Timnit Gebru, che era stato membro della stessa squadra.
Gebru è stato successivamente scalpato nel dicembre 2020 lavoro di coautore che ha contestato i pericoli derivanti dall’utilizzo di un’intelligenza artificiale addestrata e rimpinzata di enormi quantità di dati. Sia Gebru che Mitchell sono stati critici anche riguardo alla vistosa mancanza di diversità nel campo, descritta da quest'ultimo come un “mare di ragazzi”.
Per quanto riguarda i dilemmi filosofici di Hinton, sono tutt'altro che sofisticati ed è improbabile che turbino il suo sonno. Qualunque sia il ruolo che Frankenstein abbia avuto nella creazione del mostro da cui ora mette in guardia, è improbabile che il suo sonno sia turbato. "Mi consolo con la scusa normale: se non l'avessi fatto io, lo avrebbe fatto qualcun altro", Hinton ha spiegato Vai all’email New York Times. "È difficile vedere come si possa impedire ai cattivi attori di usarlo per cose cattive."
ZNetwork è finanziato esclusivamente attraverso la generosità dei suoi lettori.
Donazioni