Tecnulugie emergenti, cumprese l'intelligenza artificiale, i sistemi d'armi autonomi letali, è i missili ipersonichi ponenu una minaccia potenzialmente esistenziale chì sottolinea l'imperativu di e misure di cuntrollu di l'arme per rallentà u ritmu di l'arme, secondu un novu rapportu publicatu marti.
U rapportu di l'Associazione Arms Control - intitulatu Evaluazione di i Periculi: Tecnulugie Militari Emergente è Stabilità Nucleare (In).- "scomprime u cuncettu di "tecnulugii emergenti" è riassume u dibattitu annantu à a so utilizazione per scopi militari è u so impattu nantu à a stabilità strategica".
A publicazione nota chì e putenzi militari di u mondu "hanu cercatu di sfruttà tecnulugie avanzate - intelligenza artificiale, autonomia, cibernetica è ipersonica, trà l'altri - per ottene vantaghji di u campu di battaglia", ma avvirtenu chì troppu pocu hè statu dettu di i periculi chì queste armi rapprisentanu.
"Alcuni ufficiali è analisti ponenu chì tali tecnulugia emergenti rivoluzionaranu a guerra, rendendu obsoleti l'armi è e strategie di u passatu", dice u rapportu. "Eppuru, prima chì e putenze maiò avanzanu rapidamente avanti cù l'armamentu di queste tecnulugia, ci hè una grande necessità per i decisori pulitichi, i funzionari di difesa, i diplomati, i ghjurnalisti, i educatori è i membri di u publicu per capisce megliu i risultati imprevisti è periculosi di queste tecnulugia. ."
Sistemi d'armi autonomi letali - definiti da a Campaign to Stop Killer Robots cum'è armamenti chì operanu indipendentemente da "cuntrollu umanu significativu" - sò sviluppati da nazioni cumpresi Cina, Israele, Russia, Corea di u Sud, Regnu Unitu è Stati Uniti. U sistema di cuntrollu autonomu di Skyborg di fantascienza di l'Armata Aerea di i Stati Uniti, attualmente in fase di sviluppu, hè, secondu u rapportu, "destinatu à cuntrullà più aerei di droni simultaneamente è li permettenu di operà in 'sciame', coordinendu e so azzioni cù l'altri cù supervisione minima da i piloti umani ".
"Ancu se u rapidu dispiegamentu di tali sistemi pare assai desiderabile per parechji ufficiali militari, u so sviluppu hà generatu una alarma considerableu trà i diplomati, i militanti di i diritti umani, i difensori di u cuntrollu di l'armi, è altri chì temenu chì l'implementazione di armi completamente autonome in battaglia riduce seriamente a supervisione umana operazioni di cummattimentu, possibbilmente risultatu in violazioni di u dirittu internaziunale, è puderanu debilitatu e barriere chì frenanu l'escalation da a guerra convenzionale à a guerra nucleare ", nota u rapportu.
L'ultima mità di u XXu seculu hà vistu numerosi chjama chjude nucleari, assai basati nantu à misinterpretations, limitazioni, o fallimenti diretti di a tecnulugia. Mentre e tecnulugia cum'è l'intelligenza artificiale (AI) sò spessu presentate cum'è immune à a fallibilità umana, a ricerca suggerisce chì tali rivendicazioni è arroganza puderanu avè cunsequenze mortali è impreviste.
"I putenzi maiò si precipitanu avanti cù l'armamentu di e tecnulugia avanzate prima ch'elli anu cunsideratu cumplettamente - per ùn esse micca pruvatu à mitigà - e cunsequenze di fà cusì".
"Una dipendenza aumentata di l'IA puderia purtà à novi tipi di sbagli catastròfichi", un 2018 rapportu da a Rand Corporation hà avvistatu. "Ci pò esse pressione per usà prima ch'ellu sia maturu tecnologicu; pò esse suscettibile à a suvversione avversaria; o l'avversarii ponu crede chì l'IA hè più capace di ciò chì hè, purtendu à fà sbagli catastròfichi ".
Mentre chì u Pentagonu in u 2020 hà aduttatu cinque principii per ciò chì chjama l'usu "eticu" di l'IA, assai eticisti sustene l'unicu cursu sicuru d'azzione hè una pruibizione tutale di i sistemi d'armi autonomi letali.
I missili ipersonici, chì ponu viaghjà à velocità di Mach 5 - cinque volte a velocità di u sonu - o più veloce, sò avà parte di almenu l'arsenali di i Stati Uniti, i Cinesi è i Russi. L'annu passatu, ufficiali russi ricunnisciute sparghje missili ipersonichi Kinzhal trè volte durante l'invasione di u paese di l'Ucraina in ciò chì si crede chì hè u primu usu di tali armi in cumbattimentu. In l'ultimi anni, a Cina hà pruvatu multiple varianti di missile ipersonicu chì utilizanu palloni à alta altitudine apposta. I paesi cumpresi l'Australia, a Francia, l'India, u Giappone, a Germania, l'Iran è a Corea di u Nordu sviluppanu ancu armi ipersoniche.
U rapportu avvirta ancu di u potenziale escalatoriu di a guerra cibernetica è di a decisione automatizata di u campu di battaglia.
"Comu era u casu durante a Prima è a Seconda Guerra Munniali, e putenzi maiò si precipiteghjanu avanti cù l'armamentu di tecnulugii avanzati prima ch'elli anu cunsideratu pienamente - per ùn esse micca pruvatu à mitigà - e cunsequenze di fà cusì, cumpresu u risicu di vittimi civili significativi è l'escalation accidentale o inadvertita di cunflittu ", hà dettu Michael Klare, un membru di u cunsigliu di l'Associazione di Cuntrollu di l'Armi è l'autore principale di u rapportu. affirmazioni.
"Mentre i media è u Cungressu di i Stati Uniti anu dedicatu assai attenzione à i presunti benefici di sfruttà e tecnulugia di punta per l'usu militare, assai menu hè statu dettu di i risichi implicati", aghjunse.
U rapportu affirmeghja chì l'accordi bilaterali è multilaterali trà i paesi chì "apprezzanu i risichi escalatori di l'armamentu di e tecnulugia emergenti" sò critichi per minimizzà quelli periculi.
"Com'è un esempiu di un primu passu utile, i capi di e putenzi nucleari maiò puderanu prumessu inseme à evità i ciberattacchi" contr'à i sistemi di cumandamentu, cuntrollu, cumunicazione è informazione (C3I) di l'altri, u rapportu dice. Un codice di cunducta chì guverna l'usu militare di l'intelligenza artificiale basatu nantu à i principii di l'etica AI di u Pentagonu hè ancu cunsigliatu.
"Se e putenzi maiò sò pronti à discutiri di restrizioni vincolanti à l'usu militare di tecnulugii destabilizzanti, certe priorità anu a priorità", sustene u documentu. "U primu seria un accordu o accordi chì pruibiscenu l'attacchi à i sistemi nucleari C3I di un altru statu per mezu di u ciberspaziu o per via di missili, in particulare attacchi ipersonici".
"Un'altra priorità principale seria misure destinate à prevene l'attacchi di sciame da armi autonome nantu à i sottomarini missilistici di un altru statu, ICBM mobili, è altri sistemi di ripresa di seconda attaccu", cuntinua u rapportu, riferenu à i missili balistici intercontinentali. "Limitazioni strette duveranu esse imposte à l'usu di sistemi automatizati di supportu di decisione cù a capacità di informà o di inizià e decisioni maiò di u campu di battaglia, cumpresu un requisitu chì l'omu esercitanu u cuntrollu ultimu di tali dispositi".
"Senza l'adopzione di misure cum'è queste, tecnulugie d'avanguardia seranu cunvertite in sistemi militari à un ritmu sempre crescente, è i periculi per a sicurità mundiale creceranu in furia", hà cunclusu a publicazione. "Una cunniscenza più approfondita di e minacce distintive à a stabilità strategica presentata da queste tecnulugia è l'imposizione di restrizioni à u so usu militare andaranu assai per riduce i risichi di Armageddon".
ZNetwork hè finanzatu solu da a generosità di i so lettori.
Donate