Sì, è già ora di preoccuparsi, molto preoccupato. Mentre iniziano le guerre Ucraina ed Gaza hanno dimostrato, i primi droni equivalenti ai “robot assassini” sono arrivati sul campo di battaglia e dimostrato essere armi devastanti. Ma almeno rimangono in gran parte sotto il controllo umano. Immaginate, per un momento, un mondo di guerra in cui quei droni aerei (o i loro equivalenti terrestri e marittimi) ci controllassero, piuttosto che viceversa. Allora ci troveremmo su un pianeta distruttivamente diverso in un modo che oggi potrebbe sembrare quasi inimmaginabile. Purtroppo, però, è tutt’altro che inimmaginabile, dato il lavoro sull’intelligenza artificiale (AI) e sugli armamenti robotici che le grandi potenze hanno già iniziato. Ora, lascia che ti porti in quel mondo arcano e provi a immaginare cosa potrebbe significare il futuro della guerra per il resto di noi.
Combinando l’intelligenza artificiale con la robotica avanzata, le forze armate statunitensi e quelle di altre potenze avanzate sono già al lavoro per creare una serie di sistemi d’arma “autonomi” autoguidati: droni da combattimento che possono impiegare la forza letale indipendentemente da qualsiasi ufficiale umano destinato a comandarli. . Chiamati dai critici “robot assassini”, tali dispositivi includono una varietà di aerei, carri armati, navi e sottomarini senza equipaggio o “senza pilota” in grado di operare autonomamente. L’aeronautica americana, ad esempio, sta sviluppando il suo “aerei da combattimento collaborativi”, un veicolo aereo senza pilota (UAV) destinato a unirsi agli aerei pilotati in missioni ad alto rischio. Allo stesso modo, l’Esercito sta testando una varietà di veicoli terrestri autonomi senza pilota (UGV), mentre la Marina sta sperimentando sia navi di superficie senza pilota (USV) che navi sottomarine senza pilota (UUV o sottomarini droni). CinaAnche Russia, Australia e Israele stanno lavorando su tali armi per i campi di battaglia del futuro.
L’imminente comparsa di queste macchine per uccidere ha generato preoccupazione e polemiche a livello globale, con alcuni paesi che già cercano di vietarle totalmente e altri, compresi gli Stati Uniti, che pianificano di autorizzarne l’uso solo sotto condizioni di supervisione umana. A Ginevra, un gruppo di Stati ha addirittura cercato di vietare lo spiegamento e l’uso di armi completamente autonome, citando un trattato delle Nazioni Unite del 1980, il Convenzione su alcune armi convenzionali, che mira a limitare o mettere al bando le munizioni non nucleari ritenute particolarmente dannose per i civili. Nel frattempo, a New York, l’Assemblea generale delle Nazioni Unite ha tenuto la sua prima discussione sulle armi autonome lo scorso ottobre e sta pianificando una revisione su vasta scala dell’argomento il prossimo autunno.
Per la maggior parte, il dibattito sull’uso sul campo di battaglia di tali dispositivi dipende dalla possibilità che abbiano il potere di uccidere vite umane senza la supervisione umana. Molte organizzazioni religiose e della società civile discutere che tali sistemi non saranno in grado di distinguere tra combattenti e civili sul campo di battaglia e quindi dovrebbero essere vietati per proteggere i non combattenti dalla morte o dal ferimento, come richiesto dal diritto umanitario internazionale. I funzionari americani, invece, contendere che tali armi possono essere progettate per funzionare perfettamente entro i vincoli legali.
Tuttavia, nessuna delle due parti in questo dibattito ha affrontato l'aspetto potenzialmente più snervante del loro utilizzo in battaglia: la probabilità che, prima o poi, saranno in grado di comunicare tra loro senza intervento umano e, essendo "intelligenti", saranno in grado di elaborare le proprie tattiche non scritte per sconfiggere un nemico - o qualcos'altro di completamente diverso. Questo pensiero di gruppo guidato dai computer, etichettato come “comportamento emergente” dagli scienziati informatici, apre una serie di pericoli che non sono ancora stati presi in considerazione dai funzionari di Ginevra, Washington o delle Nazioni Unite.
Per il momento, la maggior parte degli armamenti autonomi sviluppati dall’esercito americano saranno versioni senza pilota (o, come a volte dicono, “disabitate”) delle piattaforme di combattimento esistenti e saranno progettate per funzionare insieme alle loro controparti con equipaggio. Anche se potrebbero avere la capacità di comunicare tra loro, faranno parte di una squadra di combattimento “in rete” la cui missione sarà dettata e supervisionata da comandanti umani. Ci si aspetta che lo faccia il Collaborative Combat Aircraft, ad esempio servire come “fedele gregario” del caccia stealth F-35 con equipaggio, mentre conduceva missioni ad alto rischio nello spazio aereo contestato. L’Esercito e la Marina hanno seguito in gran parte una traiettoria simile nel loro approccio allo sviluppo di armi autonome.
Il fascino degli “sciami” di robot
Tuttavia, alcuni strateghi americani hanno sostenuto un approccio alternativo all’uso di armi autonome sui futuri campi di battaglia in cui servirebbero non come colleghi junior in squadre guidate da esseri umani ma come membri coeguali di sciami di robot autodiretti. Tali formazioni consisterebbero in decine o addirittura centinaia di UAV, USV o UGV abilitati all’intelligenza artificiale, tutti in grado di comunicare tra loro, condividere dati sulle mutevoli condizioni del campo di battaglia e alterare collettivamente le loro tattiche di combattimento come la mente del gruppo lo ritiene necessario.
“Le tecnologie robotiche emergenti consentiranno alle forze di domani di combattere come uno sciame, con massa, coordinazione, intelligenza e velocità maggiori rispetto alle forze interconnesse di oggi”, previsto Paul Scharre, uno dei primi entusiasti del concetto, in un rapporto del 2014 per il Center for a New American Security (CNAS). “I sistemi autonomi cooperativi e in rete”, scrisse allora, “saranno capaci di un vero sciame: un comportamento cooperativo tra elementi distribuiti che dà origine a un insieme coerente e intelligente”.
Come Scharre ha chiarito nel suo rapporto profetico, qualsiasi piena realizzazione del concetto di sciame richiederebbe lo sviluppo di algoritmi avanzati che consentirebbero ai sistemi di combattimento autonomi di comunicare tra loro e di “votare” sulle modalità di attacco preferite. Ciò, ha osservato, comporterebbe la creazione di un software in grado di imitare formiche, api, lupi e altre creature che mostrano un comportamento da “sciame” in natura. Come ha affermato Scharre, “Proprio come i lupi in branco presentano al nemico una serie di minacce in continua evoluzione provenienti da tutte le direzioni, i veicoli disabitati in grado di coordinare manovre e attacchi potrebbero essere significativamente più efficaci dei sistemi non coordinati che operano in massa. "
Nel 2014, tuttavia, la tecnologia necessaria per rendere possibile questo comportamento delle macchine era ancora agli inizi. Per ovviare a questa grave carenza, il Dipartimento della Difesa ha provveduto a finanziare la ricerca nel campo dell’intelligenza artificiale e della robotica, anche se ha anche acquisito tale tecnologia da aziende private come Google e Microsoft. Una figura chiave in quella spinta fu Robert lavoro, ex collega di Paul Scharre al CNAS e uno dei primi entusiasti della guerra degli sciami. Ha lavorato dal 2014 al 2017 come vicesegretario alla Difesa, posizione che gli ha permesso destinare somme sempre crescenti di denaro allo sviluppo di armamenti ad alta tecnologia, in particolare sistemi senza pilota e autonomi.
Dal mosaico al replicatore
Gran parte di questo sforzo è stato delegato a l'Agenzia per i progetti di ricerca avanzata della difesa (DARPA), l'organizzazione di ricerca high-tech interna al Pentagono. Nell’ambito di una spinta allo sviluppo dell’intelligenza artificiale per tali operazioni collaborative sugli sciami, la DARPA ha avviato il suo programma “Mosaic”, una serie di progetti intesi a perfezionare gli algoritmi e altre tecnologie necessarie per coordinare le attività dei sistemi di combattimento con e senza equipaggio nei futuri sistemi di combattimento ad alta intensità. combattere con la Russia e/o la Cina.
“Applicare la grande flessibilità del concetto di mosaico alla guerra”, ha spiegato Dan Patt, vicedirettore dello Strategic Technology Office della DARPA, “sistemi a basso costo e meno complessi possono essere collegati insieme in un vasto numero di modi per creare effetti desiderati e intrecciati su misura per qualsiasi scenario. Le singole parti di un mosaico sono attribuibili [superflue], ma insieme hanno un valore inestimabile per il modo in cui contribuiscono al tutto”.
Questo concetto di guerra sembra essere alla base della nuova strategia “Replicator” annunciata dal Vice Segretario alla Difesa Kathleen Hicks proprio l’estate scorsa. “Replicator ha lo scopo di aiutarci a superare il più grande vantaggio [della Cina], che è la massa. Più navi. Altri missili. Più persone", lei detto funzionari dell’industria degli armamenti lo scorso agosto. Dispiegando migliaia di UAV, USV, UUV e UGV autonomi, ha suggerito, l’esercito americano sarebbe in grado di superare in astuzia, manovrare e sopraffare l’esercito cinese, l’Esercito popolare di liberazione (PLA). "Per restare al passo, creeremo un nuovo stato dell'arte... Contrasteremo la massa del PLA con la nostra massa, ma la nostra sarà più difficile da pianificare, più difficile da colpire, più difficile da battere."
Per ottenere sia l’hardware che il software necessari per implementare un programma così ambizioso, il Dipartimento della Difesa sta ora cercando proposte da parte dei tradizionali appaltatori della difesa come Boeing e Raytheon, nonché da startup di intelligenza artificiale come Andurillo ed Scudo AI. Mentre dispositivi su larga scala come i velivoli da combattimento collaborativi dell'aeronautica militare e della marina Orca Extra-Large UUV possano essere inclusi in questo impulso, l'accento è posto sulla rapida produzione di sistemi più piccoli e meno complessi come quello di AeroVironment Drone d'attacco con coltello a serramanico, ora utilizzato dalle truppe ucraine per eliminare carri armati e veicoli corazzati russi dietro le linee nemiche.
Allo stesso tempo, il Pentagono sta già invitando le startup tecnologiche a sviluppare il software necessario per facilitare la comunicazione e il coordinamento tra unità robotiche così disparate e le relative piattaforme con equipaggio. Per facilitare ciò, l’Air Force ha chiesto al Congresso 50 milioni di dollari nel suo budget per l’anno fiscale 2024 per sottoscrivere ciò che definisce sinistramente Progetto VENOMo "Sperimentazione Viper e modello operativo di prossima generazione". Con VENOM, l’Air Force convertirà gli aerei da caccia esistenti in UAV governati dall’intelligenza artificiale e li utilizzerà per testare software autonomo avanzato in operazioni multi-drone. IL Army ed marina stanno testando sistemi simili.
Quando gli sciami scelgono la propria strada
In altre parole, è solo questione di tempo prima che le forze armate statunitensi (e presumibilmente quelle di Cina, Russia e forse quelle di poche altre potenze) siano in grado di schierare sciami di sistemi d’arma autonomi dotati di algoritmi che consentono loro di comunicare tra loro. altri e scegliere insieme manovre di combattimento nuove e imprevedibili mentre sono in movimento. A qualsiasi membro robotico partecipante di tali sciami verrebbe assegnato un obiettivo di missione (“cercare e distruggere tutti i radar nemici e le batterie di missili antiaerei situati all’interno di queste coordinate geografiche [specificate]”) ma non ricevere istruzioni precise su come farlo. Ciò consentirebbe loro di selezionare le proprie tattiche di battaglia consultandosi tra loro. Se i dati di test limitati di cui disponiamo sono qualcosa su cui basarsi, questo potrebbe significare impiegando tattiche altamente non convenzionali mai concepite per (e impossibili da replicare da) piloti e comandanti umani.
La propensione di tali sistemi di intelligenza artificiale interconnessi a impegnarsi in risultati nuovi e non pianificati è ciò che gli esperti informatici chiamano “comportamento emergente”. COME ScienceDirect, una raccolta di riviste scientifiche, lo spiega, “Un comportamento emergente può essere descritto come un processo attraverso il quale emergono modelli più ampi attraverso interazioni tra entità più piccole o più semplici che di per sé non mostrano tali proprietà”. In termini militari, ciò significa che uno sciame di armi autonome potrebbe decidere congiuntamente di adottare tattiche di combattimento per cui nessuno dei singoli dispositivi è stato programmato, ottenendo forse risultati sorprendenti sul campo di battaglia, ma anche plausibilmente impegnarsi in atti di escalation non voluti e imprevisti da parte dei loro comandanti umani, inclusa la distruzione di infrastrutture civili critiche o di strutture di comunicazione utilizzate per operazioni nucleari e convenzionali.
A questo punto, ovviamente, è quasi impossibile prevedere cosa una mente di gruppo aliena potrebbe scegliere di fare se armata di più armi e tagliata fuori dalla supervisione umana. Presumibilmente, tali sistemi sarebbero dotati di meccanismi di sicurezza richiedendo che ritornino alla base se le comunicazioni con i loro supervisori umani vengono perse, a causa di interferenze nemiche o per qualsiasi altro motivo. Chissà, tuttavia, come funzionerebbero tali macchine pensanti nelle impegnative condizioni del mondo reale o se, in effetti, la mente del gruppo si dimostrerebbe capace di ignorare tali direttive e di agire da sola.
Cosa poi? Potrebbero scegliere di continuare a combattere oltre i limiti preprogrammati, provocando un’escalation involontaria – anche, plausibilmente, di tipo nucleare? Oppure sceglierebbero di fermare i loro attacchi contro le forze nemiche e invece di interferire con le operazioni di quelle amiche, magari sparando su di loro e devastandole (come fa Skynet nel classico film di fantascienza Terminator serie di film)? Oppure potrebbero assumere comportamenti che, nel bene e nel male, vanno completamente oltre la nostra immaginazione?
Gli alti funzionari militari e diplomatici degli Stati Uniti insistono sul fatto che l’intelligenza artificiale può effettivamente essere utilizzata senza incorrere in tali rischi futuri e che questo paese impiegherà solo dispositivi che incorporino garanzie del tutto adeguate contro qualsiasi futuro comportamento scorretto pericoloso. Questo è infatti il punto essenziale realizzato in la “Dichiarazione politica sull’uso militare responsabile dell’intelligenza artificiale e dell’autonomia” rilasciata dal Dipartimento di Stato nel febbraio 2023. Molti eminenti funzionari della sicurezza e della tecnologia sono, tuttavia, fin troppo consapevoli dei potenziali rischi di comportamenti emergenti nelle future armi robotiche e continuano a emettere avvertimenti contro il rapido utilizzo dell’intelligenza artificiale in guerra.
Di particolare rilievo è il rapporto finale pubblicato dalla Commissione per la sicurezza nazionale sull'intelligenza artificiale nel febbraio 2021. Co-presieduto da Robert Work (di ritorno al CNAS dopo il suo periodo al Pentagono) e Eric Schmidt, ex amministratore delegato di Google, la commissione ha raccomandato il rapido utilizzo dell'intelligenza artificiale da parte delle forze armate statunitensi per garantire la vittoria in qualsiasi futuro conflitto con la Cina e/o la Russia. Tuttavia, ha anche espresso preoccupazione per i potenziali pericoli dei campi di battaglia saturi di robot.
“L’uso globale incontrollato di tali sistemi rischia potenzialmente un’escalation involontaria dei conflitti e l’instabilità delle crisi”, si legge nel rapporto noto. Ciò potrebbe verificarsi per una serie di ragioni, tra cui “a causa delle complessità impegnative e non testate dell’interazione tra sistemi d’arma abilitati all’intelligenza artificiale e autonomi [cioè comportamenti emergenti] sul campo di battaglia”. Dato questo pericolo, ha concluso, “i paesi devono intraprendere azioni che si concentrino sulla riduzione dei rischi associati ai sistemi d’arma autonomi e abilitati all’intelligenza artificiale”.
Quando i principali sostenitori delle armi autonome ci dicono di essere preoccupati per i pericoli non intenzionali posti dal loro uso in battaglia, il resto di noi dovrebbe essere davvero preoccupato. Anche se non abbiamo le competenze matematiche per comprendere il comportamento emergente dell’intelligenza artificiale, dovrebbe essere ovvio che l’umanità potrebbe affrontare un rischio significativo per la sua esistenza, se le macchine per uccidere acquisissero la capacità di pensare in modo autonomo. Forse sorprenderebbero tutti e deciderebbero di assumere il ruolo di peacekeeper internazionali, ma dato che sono stati progettati per combattere e uccidere, è molto più probabile che scelgano semplicemente di eseguire tali istruzioni in modo indipendente ed estremo.
Se è così, non potrebbe esserci nessuno in giro a mettere un RIP sulla lapide dell'umanità.
ZNetwork è finanziato esclusivamente attraverso la generosità dei suoi lettori.
Donazioni