È orribile da immaginare un mondo in cui le macchine governate dall’intelligenza artificiale (AI) sostituiscono sistematicamente gli esseri umani nella maggior parte delle funzioni aziendali, industriali e professionali. Dopotutto, come ci hanno avvertito eminenti scienziati informatici, i sistemi governati dall’intelligenza artificiale lo sono incline a errori critici e “allucinazioni” inspiegabili, con risultati potenzialmente catastrofici. Ma c’è uno scenario ancora più pericoloso immaginabile a causa della proliferazione di macchine super-intelligenti: la possibilità che queste entità non umane possano finire per combattere tra loro, cancellando nel frattempo tutta la vita umana.
L’idea che i computer super-intelligenti possano impazzire e massacrare gli esseri umani è, ovviamente, da tempo un punto fermo della cultura popolare. Nel profetico Pellicola 1983 "WarGames", un supercomputer noto come WOPR (per War Operation Plan Response e, non a caso, pronunciato "whopper") quasi provoca una catastrofica guerra nucleare tra gli Stati Uniti e l'Unione Sovietica prima di essere disabilitato da un hacker adolescente (interpretato da Matthew Broderick). IL "TerminatorLa serie di film, a partire dal film originale del 1984, immaginava in modo simile un supercomputer autocosciente chiamato “Skynet” che, come WOPR, è stato progettato per controllare le armi nucleari statunitensi ma sceglie invece di spazzare via l’umanità, vedendoci come una minaccia alla sua esistenza. .
Sebbene una volta confinato nel regno della fantascienza, il concetto che i supercomputer uccidano gli esseri umani è ora diventato una possibilità concreta nel mondo reale del prossimo futuro. Oltre a sviluppare un’ampia varietà di “autonomo", o dispositivi di combattimento robotici, anche le principali potenze militari si stanno affrettando a creare sistemi decisionali automatizzati sul campo di battaglia, o quello che potrebbe essere chiamato "generali robot.” Nelle guerre di un futuro non troppo lontano, tali sistemi basati sull’intelligenza artificiale potrebbero essere impiegati per impartire ordini di combattimento ai soldati americani, dettando dove, quando e come uccidere le truppe nemiche o prendere fuoco dai loro avversari. In alcuni scenari, i decisori robot potrebbero persino finire per esercitare il controllo sulle armi atomiche americane, consentendo loro potenzialmente di innescare una guerra nucleare che porterebbe alla fine dell’umanità.
Ora, prendi fiato per un momento. L’installazione di un sistema di comando e controllo (C2) basato sull’intelligenza artificiale come questo può sembrare una possibilità lontana. Tuttavia, il Dipartimento della Difesa americano sta lavorando duramente per sviluppare l’hardware e il software necessari in modo sistematico e sempre più rapido. Nella sua proposta di bilancio per il 2023, ad esempio, l’Aeronautica Militare richiesto 231 milioni di dollari per sviluppare il Sistema avanzato di gestione del campo di battaglia (ABMS), una complessa rete di sensori e computer abilitati all'intelligenza artificiale progettati per raccogliere e interpretare i dati sulle operazioni nemiche e fornire ai piloti e alle forze di terra un menu di opzioni di attacco ottimali. Con l'avanzare della tecnologia, il sistema sarà capace di inviare istruzioni di “fuoco” direttamente ai “tiratori”, aggirando in gran parte il controllo umano.
"Uno strumento di scambio di dati da macchina a macchina che fornisce opzioni per la deterrenza, o per una rampa [una dimostrazione di forza militare] o un impegno precoce", è stato il modo in cui Will Roper, assistente segretario dell'Air Force per l'acquisizione, la tecnologia e logistica, descritta il sistema ABMS in un'intervista del 2020. Suggerendo che “dobbiamo cambiare il nome” man mano che il sistema si evolve, Roper ha aggiunto: “Penso che Skynet sia uscito, per quanto mi piacerebbe farlo come una cosa di fantascienza. Semplicemente non penso che possiamo andare lì.
E anche se lui non può andarci, è proprio lì che il resto di noi potrebbe andare.
Intendiamoci, questo è solo l'inizio. Infatti, l'ABMS dell'Aeronautica Militare è destinato a costituire il nucleo di una più ampia costellazione di sensori e computer che si collegheranno contro tutti i Forze di combattimento statunitensi, il sistema di comando e controllo congiunto di tutti i domini (JADC2, pronunciato “Jad-C-two”). "JADC2 intende consentire ai comandanti di prendere decisioni migliori raccogliendo dati da numerosi sensori, elaborando i dati utilizzando algoritmi di intelligenza artificiale per identificare gli obiettivi, quindi raccomandando l'arma ottimale... per ingaggiare l'obiettivo", ha affermato il Congressional Research Service. segnalati in 2022.
L'intelligenza artificiale e il grilletto nucleare
Inizialmente, JADC2 sarà progettato per coordinare le operazioni di combattimento tra le forze americane “convenzionali” o non nucleari. Alla fine, tuttavia, è previsto che ciò accada collegarsi con i sistemi di comando-controllo-comunicazione nucleare del Pentagono (NC3), dando potenzialmente ai computer un controllo significativo sull’uso dell’arsenale nucleare americano. "JADC2 e NC3 sono intrecciati", ha affermato il generale John E. Hyten, vicepresidente dei capi di stato maggiore congiunti. indicato in un'intervista del 2020. Di conseguenza, ha aggiunto nel tipico pentagonese, “NC3 deve informare JADC2 e JADC2 deve informare NC3”.
Non è necessaria una grande immaginazione per immaginare un momento in un futuro non troppo lontano in cui una crisi di qualche tipo – ad esempio uno scontro militare USA-Cina nel Mar Cinese Meridionale o vicino a Taiwan – provocherà combattimenti ancora più intensi tra le forze aeree opposte. e forze navali. Immaginiamo quindi che il JADC2 ordini l’intenso bombardamento delle basi nemiche e dei sistemi di comando nella stessa Cina, innescando attacchi reciproci contro le strutture statunitensi e la decisione fulminea del JADC2 di reagire con armi nucleari tattiche, innescando un olocausto nucleare a lungo temuto.
La possibilità che scenari da incubo di questo tipo possano provocare lo scoppio accidentale o involontario di una guerra nucleare preoccupa da tempo gli analisti nella comunità del controllo degli armamenti. Ma la crescente automazione dei sistemi militari C2 ha generato ansia non solo tra loro ma anche tra gli alti funzionari della sicurezza nazionale.
Già nel 2019, quando interrogai il tenente generale Jack Shanahan, allora direttore del Centro congiunto di intelligenza artificiale del Pentagono, su una possibilità così rischiosa, mi disse risposto, “Non troverete un sostenitore più forte dell’integrazione delle capacità di intelligenza artificiale all’interno del Dipartimento della Difesa, ma c’è un’area in cui mi soffermo, e ha a che fare con il comando e controllo nucleare”. Questa “è la decisione umana definitiva che deve essere presa” e quindi “dobbiamo stare molto attenti”. Data l’“immaturità” della tecnologia, ha aggiunto, abbiamo bisogno di “molto tempo per testare e valutare [prima di applicare l’intelligenza artificiale a NC3]”.
Negli anni successivi, nonostante tali avvertimenti, il Pentagono ha continuato a correre avanti con lo sviluppo di sistemi C2 automatizzati. Nella sua proposta di bilancio per il 2024, il Dipartimento della Difesa richiesto 1.4 miliardi di dollari per il JADC2 al fine di “trasformare la capacità di guerra fornendo vantaggi informativi alla velocità della pertinenza in tutti i settori e partner”. Uh Oh! E poi, ha richiesto altri 1.8 miliardi di dollari per altri tipi di ricerca sull’intelligenza artificiale legata al settore militare.
I funzionari del Pentagono riconoscono che ci vorrà del tempo prima che i generali robot comanderanno un gran numero di truppe statunitensi (e armi autonome) in battaglia, ma hanno già lanciato diversi progetti intesi a testare e perfezionare proprio tali collegamenti. Un esempio è quello dell'Esercito Convergenza del progetto, che prevede una serie di esercitazioni sul campo progettate per convalidare i sistemi componenti ABMS e JADC2. In un test tenutosi nell'agosto 2020 allo Yuma Proving Ground in Arizona, ad esempio, l'esercito ha utilizzato una varietà di sensori aerei e terrestri per tracciare le forze nemiche simulate e quindi elaborare tali dati utilizzando computer abilitati all'intelligenza artificiale presso la Joint Base Lewis. McChord nello stato di Washington. Quei computer, a loro volta, impartivano istruzioni di fuoco all'artiglieria di terra a Yuma. "Si suppone che l'intera sequenza sia stata completata in 20 secondi", ha riferito in seguito il Congressional Research Service segnalati.
Si sa meno dell'equivalente AI della Marina, "Project Overmatch", poiché molti aspetti della sua programmazione sono stati tenuti segreti. Secondo l'ammiraglio Michael Gilday, capo delle operazioni navali, Overmatch lo è destinato “per consentire una Marina che sciami in mare, fornendo effetti letali e non letali sincronizzati da vicino e da lontano, da ogni asse e da ogni dominio”. Poco altro è stato rivelato sul progetto.
“Flash Wars” ed estinzione umana
Nonostante tutta la segretezza che circonda questi progetti, si può pensare ad ABMS, JADC2, Convergence e Overmatch come elementi costitutivi di una futura mega-rete di supercomputer simile a Skynet progettata per comandare tutte le forze statunitensi, comprese quelle nucleari, in forze armate. combattere. Più il Pentagono si muoverà in quella direzione, più ci avvicineremo al momento in cui l’intelligenza artificiale avrà potere di vita o di morte su tutti i soldati americani insieme alle forze opposte e su tutti i civili coinvolti nel fuoco incrociato.
Una tale prospettiva dovrebbe essere motivo di ampia preoccupazione. Per cominciare, consideriamo il rischio di errori e calcoli errati da parte degli algoritmi alla base di tali sistemi. Come ci hanno avvertito i migliori scienziati informatici, questi algoritmi lo sono capace di errori straordinariamente inspiegabili e, per usare il termine AI del momento, “allucinazioni” – cioè risultati apparentemente ragionevoli ma del tutto illusori. Date le circostanze, non è difficile immaginare che tali computer “allucinino” un imminente attacco nemico e scatenino una guerra che altrimenti avrebbe potuto essere evitata.
E questo non è il peggiore dei pericoli da considerare. Dopotutto, c'è l'ovvia probabilità che anche gli avversari dell'America equipaggeranno le loro forze con generali robot. In altre parole, è probabile che le guerre future vengano combattute da una serie di sistemi di intelligenza artificiale contro un altro, entrambi collegati ad armi nucleari, con risultati del tutto imprevedibili, ma potenzialmente catastrofici.
Non si sa molto (almeno da fonti pubbliche) sugli sforzi russi e cinesi per automatizzare i loro sistemi di comando e controllo militare, ma si ritiene che entrambi i paesi stiano sviluppando reti paragonabili alla JADC2 del Pentagono. Già nel 2014, infatti, la Russia ha inaugurato a Mosca un Centro di controllo della difesa nazionale (NDCC), un posto di comando centralizzato per valutare le minacce globali e avviare qualsiasi azione militare ritenuta necessaria, sia di natura non nucleare che nucleare. Come JADC2, l’NDCC lo è progettato raccogliere informazioni sulle mosse nemiche da più fonti e fornire agli ufficiali superiori indicazioni sulle possibili risposte.
Si dice che la Cina stia perseguendo un’impresa ancora più elaborata, seppur simile, sotto la rubrica “Multi-Domain Precision Warfare” (MDPW). Secondo il rapporto del Pentagono del 2022 sugli sviluppi militari cinesi, il suo esercito, l’Esercito popolare di liberazione, è essere formati e attrezzati utilizzare sensori e reti di computer abilitati all’intelligenza artificiale per “identificare rapidamente le principali vulnerabilità nel sistema operativo statunitense e quindi unire le forze congiunte tra i domini per lanciare attacchi di precisione contro tali vulnerabilità”.
Immaginate, quindi, una futura guerra tra Stati Uniti e Russia o Cina (o entrambi) in cui il JADC2 comanda tutte le forze statunitensi, mentre l’NDCC russo e l’MDPW cinese comandano le forze di quei paesi. Considera, inoltre, che è probabile che tutti e tre i sistemi subiscano errori e allucinazioni. Quanto saranno sicuri gli esseri umani quando i generali robot decideranno che è ora di "vincere" la guerra bombardando i loro nemici?
Se questo vi sembra uno scenario bizzarro, ripensateci, almeno secondo la leadership della Commissione per la sicurezza nazionale sull’intelligenza artificiale, un’impresa su mandato del Congresso presieduta da Eric Schmidt, ex capo di Google, e Robert Work, ex vice segretario. di difesa. "Mentre la Commissione ritiene che sistemi d'arma autonomi e abilitati all'intelligenza artificiale adeguatamente progettati, testati e utilizzati apporteranno sostanziali benefici militari e persino umanitari, l'uso globale incontrollato di tali sistemi rischia potenzialmente un'escalation involontaria dei conflitti e l'instabilità delle crisi", ha affermato. ha affermato nella sua relazione finale. Tali pericoli potrebbero sorgere, si afferma, “a causa delle complessità impegnative e non testate dell’interazione tra i sistemi d’arma abilitati all’intelligenza artificiale e quelli autonomi sul campo di battaglia” – quando, cioè, l’intelligenza artificiale combatte l’intelligenza artificiale.
Anche se questo può sembrare uno scenario estremo, è del tutto possibile che sistemi di intelligenza artificiale avversari possano innescare una catastrofica “guerra lampo” – l’equivalente militare di un “crollo lampo” a Wall Street, quando enormi transazioni effettuate da algoritmi di trading super-sofisticati scatenano vendite dettate dal panico prima gli operatori umani possono ristabilire l’ordine. Nel famigerato “Flash Crash” del 6 maggio 2010, il trading computerizzato ha fatto precipitare il valore del mercato azionario del 10%. Secondo Paul Scharre del Center for a New American Security, che per primo ha studiato il fenomeno, “l’equivalente militare di tali crisi” a Wall Street si verificherebbe quando i sistemi di comando automatizzati delle forze opposte “rimangono intrappolati in una cascata di scontri crescenti”. In una situazione del genere, ha osservato, “le armi autonome potrebbero portare alla morte accidentale e alla distruzione su scala catastrofica in un istante”.
Al momento, non esistono praticamente misure in atto per prevenire una futura catastrofe di questo tipo e nemmeno colloqui tra le maggiori potenze per ideare tali misure. Tuttavia, come ha osservato la Commissione per la sicurezza nazionale sull’intelligenza artificiale, tali misure di controllo della crisi sono urgentemente necessarie per integrare “avviatori di escalation automatizzata” in tali sistemi “che impedirebbero l’escalation automatizzata del conflitto”. Altrimenti, una versione catastrofica della Terza Guerra Mondiale sembra fin troppo possibile. Considerata la pericolosa immaturità di tale tecnologia e la riluttanza di Pechino, Mosca e Washington a imporre restrizioni sull’utilizzo dell’intelligenza artificiale come arma, il giorno in cui le macchine potrebbero scegliere di annientarci potrebbe arrivare molto prima di quanto immaginiamo e l’estinzione dell’umanità potrebbe essere il danno collaterale di una simile guerra futura.
Copyright 2023 Michael T. Klare
ZNetwork è finanziato esclusivamente attraverso la generosità dei suoi lettori.
Donazioni