Πηγή: TomDispatch.com
Φωτογραφία Phil Pasquini/Shutterstock
Εδώ είναι μια σενάριο προς εξέταση: μια στρατιωτική δύναμη αγόρασε ένα εκατομμύριο φθηνά ιπτάμενα drones μιας χρήσης το καθένα σε μέγεθος μιας τράπουλας, το καθένα ικανό να μεταφέρει τρία γραμμάρια εκρηκτικών — αρκετά για να σκοτώσει ένα άτομο ή, σεδιαμορφωμένο φορτίο», τρυπήστε έναν ατσάλινο τοίχο. Έχουν προγραμματιστεί να αναζητούν και να «εμπλακούν» (σκοτώνουν) ορισμένα ανθρώπινα όντα, με βάση συγκεκριμένα χαρακτηριστικά «υπογραφής», όπως η μεταφορά όπλου, ας πούμε, ή το συγκεκριμένο χρώμα δέρματος. Ταιριάζουν σε ένα μόνο κοντέινερ αποστολής και μπορούν να αναπτυχθούν από απόσταση. Μόλις εκτοξευθούν, θα πετάξουν και θα σκοτώσουν αυτόνομα χωρίς περαιτέρω ανθρώπινη δράση.
Επιστημονική φαντασία? Όχι πραγματικά. Θα μπορούσε να συμβεί αύριο. Η τεχνολογία υπάρχει ήδη.
Στην πραγματικότητα, τα θανατηφόρα αυτόνομα οπλικά συστήματα (LAWS) έχουν μακρά ιστορία. Την άνοιξη του 1972 πέρασα λίγες μέρες που καταλαμβάνει το κτίριο της φυσικής στο Πανεπιστήμιο Κολούμπια στη Νέα Υόρκη. Με εκατό άλλους μαθητές, κοιμήθηκα στο πάτωμα, έφαγα δωρεές σε πακέτο και άκουσα τον Άλαν Γκίνσμπεργκ όταν εμφανίστηκε για να μας τιμήσει με λίγη από την αυτοσχέδια ποίησή του. Έγραψα φυλλάδια τότε, παραγγέλνοντας μια μηχανή Xerox να τα εκτυπώσει.
Και γιατί, από όλα τα κτίρια της πανεπιστημιούπολης, επιλέξαμε αυτό που στεγάζει το τμήμα Φυσικής; Η απάντηση: να πειστούν πέντε φυσικοί της σχολής της Κολούμπια να διακόψουν τις σχέσεις τους με τη Συμβουλευτική Ομάδα Άμυνας του Πενταγώνου, ένα πρόγραμμα που προσφέρει χρήματα και εργαστηριακό χώρο για την υποστήριξη της βασικής επιστημονικής έρευνας που μπορεί να αποδειχθεί χρήσιμη για τις πολεμικές προσπάθειες των ΗΠΑ. Η συγκεκριμένη ένστασή μας: στη συμμετοχή των επιστημόνων του Jason στο σχεδιασμό τμημάτων αυτού που τότε ήταν γνωστό ως «αυτοματοποιημένο πεδίο μάχης» για ανάπτυξη στο Βιετνάμ. Αυτό το σύστημα θα αποδεικνυόταν πράγματι ένας πρόδρομος των θανατηφόρων αυτόνομων οπλικών συστημάτων που είναι έτοιμες να γίνουν ένα δυνητικά σημαντικό μέρος του οπλισμού αυτής της χώρας —και του κόσμου—.
Πρώιμα (ημι-)αυτόνομα όπλα
Η Ουάσιγκτον αντιμετώπισε αρκετά στρατηγικά προβλήματα στη δίωξη του πολέμου της στην Ινδοκίνα, συμπεριλαμβανομένης της γενικής διαφθοράς και της αντιδημοφιλίας του καθεστώτος του Νοτίου Βιετνάμ που υποστήριζε. Η μεγαλύτερη στρατιωτική του πρόκληση, ωστόσο, ήταν πιθανώς η συνεχής διείσδυση προσωπικού και προμηθειών του Βορείου Βιετνάμ σε αυτό που ονομαζόταν μονοπάτι Χο Τσι Μινχ, το οποίο έτρεχε από βορρά προς νότο. κατά μήκος των συνόρων της Καμπότζης και του Λάος. Το Trail ήταν, στην πραγματικότητα, ένα δίκτυο από εύκολα επισκευαζόμενους χωματόδρομους και μονοπάτια, ρυάκια και ποτάμια, που βρισκόταν κάτω από έναν παχύ θόλο της ζούγκλας που καθιστούσε σχεδόν αδύνατο να ανιχνευθεί η κίνηση από τον αέρα.
Η απάντηση των ΗΠΑ, που αναπτύχθηκε από τον Jason το 1966 και αναπτύχθηκε το επόμενο έτος, ήταν μια προσπάθεια να αποτραπεί αυτή η διείσδυση από δημιουργία ένα αυτοματοποιημένο πεδίο μάχης που αποτελείται από τέσσερα μέρη, ανάλογα με τα μάτια, τα νεύρα, τον εγκέφαλο και τα άκρα ενός ανθρώπινου σώματος. Τα μάτια ήταν μια ευρεία ποικιλία αισθητήρων - ακουστικών, σεισμικών, ακόμη και χημικών (για την ανίχνευση των ανθρώπινων ούρων) - οι περισσότεροι πέφτουν με αέρα στη ζούγκλα. Τα ισοδύναμα νεύρων μετέδιδαν σήματα στον «εγκέφαλο». Ωστόσο, δεδομένου ότι οι αισθητήρες είχαν μέγιστη εμβέλεια μετάδοσης μόνο περίπου 20 μίλια, ο στρατός των ΗΠΑ έπρεπε να πετά συνεχώς αεροσκάφη πάνω από το φύλλωμα για να πιάσει οποιοδήποτε σήμα που θα μπορούσε να σκοντάψει περνώντας στρατεύματα ή μεταφορικά μέσα του Βορείου Βιετνάμ. Στη συνέχεια, τα αεροπλάνα μετέφεραν τα νέα στον εγκέφαλο. (Αρχικά προοριζόταν για τηλεχειρισμό, αυτά τα αεροσκάφη είχαν τόσο κακή απόδοση που συνήθως ήταν απαραίτητοι άνθρωποι πιλότοι.)
Και αυτός ο εγκέφαλος, μια υπέροχη στρατιωτική εγκατάσταση που χτίστηκε κρυφά στο Nakhon Phanom της Ταϊλάνδης, στέγαζε δύο υπερσύγχρονους υπολογιστές mainframe της IBM. Ένας μικρός στρατός προγραμματιστών έγραψε και ξαναέγραψε τον κώδικα για να συνεχίσουν να χτυπούν, καθώς προσπαθούσαν να κατανοήσουν τη ροή δεδομένων που μεταδίδονταν από αυτά τα αεροπλάνα. Οι συντεταγμένες στόχων που κατέληξαν μεταδόθηκαν στη συνέχεια σε αεροσκάφη επίθεσης, τα οποία ήταν τα ισοδύναμα των άκρων. Η ομάδα που έτρεχε αυτό το αυτοματοποιημένο πεδίο μάχης ονομάστηκε Task Force Alpha και το όλο έργο πήγε με την κωδική ονομασία Igloo White.
Όπως αποδείχθηκε, το Igloo White ήταν σε μεγάλο βαθμό μια ακριβή αποτυχία, κοστίζει περίπου α δισεκατομμύρια δολάρια ένα χρόνο για πέντε χρόνια (σχεδόν $ 40 δισεκατομμύρια σύνολο σε σημερινά δολάρια). Η χρονική καθυστέρηση μεταξύ της ενεργοποίησης του αισθητήρα και της πτώσης των πυρομαχικών έκανε το σύστημα αναποτελεσματικό. Ως αποτέλεσμα, μερικές φορές η Task Force Alpha απλώς βομβάρδιζε περιοχές όπου ένας μόνο αισθητήρας μπορεί να είχε σβήσει. Οι Βορειοβιετναμέζοι συνειδητοποίησαν γρήγορα πώς λειτουργούσαν αυτοί οι αισθητήρες και ανέπτυξαν μεθόδους για να τους ξεγελάσουν, από την αναπαραγωγή ηχογραφήσεων με ανάφλεξη φορτηγών μέχρι το φύτεμα κουβάδων με ούρα.
Δεδομένης της ιστορίας των ημιαυτόματων οπλικών συστημάτων όπως τα drones και οι «έξυπνες βόμβες» στα χρόνια που μεσολάβησαν, πιθανότατα δεν θα εκπλαγείτε αν μάθετε ότι αυτό το πρώτο αυτοματοποιημένο πεδίο μάχης δεν μπορούσε να κάνει διακρίσεις μεταξύ στρατιωτών και αμάχων. Σε αυτό, απλώς συνέχισαν μια τάση που υπήρχε τουλάχιστον από τον δέκατο όγδοο αιώνα, όπου οι πόλεμοι σκοτώνουν συνήθως περισσότερους αμάχους παρά μαχητές.
Καμία από αυτές τις ελλείψεις δεν εμπόδισε τους αξιωματούχους του Υπουργείου Άμυνας να αντιμετωπίσουν με δέος το αυτοματοποιημένο πεδίο μάχης. Άντριου Κόκμπερν περιγράφεται αυτή τη λατρευτική στάση στο βιβλίο του Kill Chain: The Rise of the High-Tech Assassins, αναφέροντας τον Λέοναρντ Σάλιβαν, υψηλόβαθμο αξιωματούχο του Πενταγώνου που επισκέφτηκε το Βιετνάμ το 1968: «Όπως είναι σχεδόν αδύνατο να είσαι αγνωστικιστής στον καθεδρικό ναό της Παναγίας των Παρισίων, έτσι είναι δύσκολο να μην παρασυρθείς από την ομορφιά και τη μεγαλοπρέπεια του ναού της Task Force Alpha."
Ποιος ή τι, ίσως αναρωτιέστε, θα λατρευόταν σε έναν τέτοιο ναό;
Οι περισσότερες πτυχές αυτού του «αυτοματοποιημένου» πεδίου μάχης της εποχής του Βιετνάμ απαιτούσαν στην πραγματικότητα ανθρώπινη παρέμβαση. Τα ανθρώπινα όντα έβαζαν τους αισθητήρες, προγραμμάτιζαν τους υπολογιστές, οδηγούσαν τα αεροπλάνα και απελευθέρωναν τις βόμβες. Με ποια έννοια, λοιπόν, ήταν αυτό το πεδίο μάχης «αυτοματοποιημένο»; Ως προάγγελος του τι επρόκειτο να ακολουθήσει, το σύστημα είχε εξαλείψει την ανθρώπινη παρέμβαση σε ένα μόνο κρίσιμο σημείο της διαδικασίας: την απόφαση να σκοτώσει. Σε αυτό το αυτοματοποιημένο πεδίο μάχης, οι υπολογιστές αποφάσισαν πού και πότε να ρίξουν τις βόμβες.
Το 1969, ο Αρχηγός του Επιτελείου Στρατού Γουίλιαμ Γουέστμορλαντ εξέφρασε τον ενθουσιασμό του για αυτή την αφαίρεση του ακατάστατου ανθρώπινου στοιχείου από την πολεμική. Απευθυνόμενος σε γεύμα για την Ένωση του Αμερικανικού Στρατού, μια ομάδα λόμπι, δήλωσε:
«Στο πεδίο της μάχης του μελλοντικού εχθρού, οι δυνάμεις του εχθρού θα εντοπίζονται, θα παρακολουθούνται και θα στοχεύονται σχεδόν ακαριαία μέσω της χρήσης συνδέσμων δεδομένων, της αξιολόγησης πληροφοριών με τη βοήθεια υπολογιστή και του αυτοματοποιημένου ελέγχου πυρός. Με τις πιθανότητες θανάτωσης του πρώτου γύρου να πλησιάζουν στη βεβαιότητα και με συσκευές επιτήρησης που μπορούν να παρακολουθούν συνεχώς τον εχθρό, η ανάγκη για μεγάλες δυνάμεις για να διορθώσουν την αντίθεση θα είναι λιγότερο σημαντική».
Αυτό που εννοούσε ο Westmoreland με το «διορθώστε την αντιπολίτευση» ήταν να σκοτώσει τον εχθρό. Ένας άλλος στρατιωτικός ευφημισμός στον εικοστό πρώτο αιώνα είναι η «δέσμευση». Και στις δύο περιπτώσεις, το νόημα είναι το ίδιο: ο ρόλος των θανατηφόρων αυτόνομων οπλικών συστημάτων είναι να βρίσκουν και να σκοτώνουν αυτόματα ανθρώπινα όντα, χωρίς ανθρώπινη παρέμβαση.
Νέοι ΝΟΜΟΙ για μια Νέα Εποχή — Θανατηφόρα Αυτόνομα Συστήματα Όπλων
Κάθε φθινόπωρο, η British Broadcasting Corporation χορηγεί μια σειρά τεσσάρων διαλέξεων που δίνονται από έναν ειδικό σε κάποιο σημαντικό τομέα σπουδών. Το 2021, το BBC κάλεσε τον Stuart Russell, καθηγητή της επιστήμης των υπολογιστών και ιδρυτή του Κέντρου για Ανθρώπινη Συμβατή Τεχνητή Νοημοσύνη στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ, για να παραδώσει αυτές τις «Διαλέξεις Reith». Το γενικό του θέμα ήταν το μέλλον της τεχνητής νοημοσύνης (AI) και η δεύτερη διάλεξη είχε τίτλο «Ο μελλοντικός ρόλος της τεχνητής νοημοσύνης στον πόλεμο». Σε αυτό, εξέτασε το ζήτημα των θανατηφόρων αυτόνομων οπλικών συστημάτων ή LAWS, τα οποία τα Ηνωμένα Έθνη ορίζουν ως «όπλα που εντοπίζουν, επιλέγουν και εμπλέκουν ανθρώπινους στόχους χωρίς ανθρώπινη επίβλεψη».
Το κύριο σημείο του Ράσελ, εύγλωττα φτιαγμένο, ήταν ότι, αν και πολλοί άνθρωποι πιστεύουν ότι τα θανατηφόρα αυτόνομα όπλα είναι ένας πιθανός μελλοντικός εφιάλτης, που κατοικούν στη σφαίρα της επιστημονικής φαντασίας, «Δεν είναι. Μπορείτε να τα αγοράσετε σήμερα. Διαφημίζονται στον Ιστό».
Δεν έχω δει ποτέ καμία από τις ταινίες του Terminator franchise, αλλά προφανώς οι στρατιωτικοί σχεδιαστές και οι δημόσιες σχέσεις τους υποθέτουν ότι οι περισσότεροι άνθρωποι αντλούν την κατανόησή τους για τέτοιους ΝΟΜΟΥΣ από αυτόν τον φανταστικό δυστοπικό κόσμο. Οι αξιωματούχοι του Πενταγώνου συχνά προσπαθούν να εξηγήσουν γιατί τα όπλα που αναπτύσσουν δεν είναι στην πραγματικότητα ισοδύναμα του SkyNet - του παγκόσμιου δικτύου επικοινωνίας που, σε αυτές τις ταινίες, συνειδητοποιεί τον εαυτό του και αποφασίζει να εξοντώσει την ανθρωπότητα. Μην ανησυχείτε, όπως είπε στον Russell ένας αναπληρωτής υπουργός Άμυνας, «Ακούσαμε προσεκτικά αυτά τα επιχειρήματα και οι ειδικοί μου με διαβεβαίωσαν ότι δεν υπάρχει κίνδυνος να δημιουργήσω κατά λάθος το SkyNet».
Το σημείο του Russell, ωστόσο, ήταν ότι ένα οπλικό σύστημα δεν χρειάζεται αυτογνωσία για να ενεργεί αυτόνομα ή να αποτελεί απειλή για αθώα ανθρώπινα όντα. Αυτό που χρειάζεται είναι:
- Μια φορητή πλατφόρμα (οτιδήποτε μπορεί να κινηθεί, από ένα μικροσκοπικό τετρακόπτερο έως ένα αεροσκάφος με σταθερά φτερά)
- Αισθητηριακή ικανότητα (η ικανότητα ανίχνευσης οπτικών ή ηχητικών πληροφοριών)
- Η ικανότητα λήψης τακτικών αποφάσεων (η ίδια ικανότητα που υπάρχει ήδη σε προγράμματα υπολογιστών που παίζουν σκάκι)
- Η ικανότητα να «εμπλακεί», δηλαδή να σκοτώσει (που μπορεί να είναι τόσο περίπλοκη όσο η εκτόξευση ενός πυραύλου ή η ρίψη βόμβας, ή τόσο στοιχειώδης όσο η αυτοκτονία ρομπότ χτυπώντας έναν στόχο και εκρήγνυται)
Η πραγματικότητα είναι ότι τέτοια συστήματα υπάρχουν ήδη. Πράγματι, μια κρατική εταιρεία όπλων στην Τουρκία διαφήμισε πρόσφατα το drone της Kargu — ένα τετρακόπτερο «στο μέγεθος ενός πιάτου», όπως το περιέγραψε ο Russell, το οποίο μπορεί να μεταφέρει ένα κιλό εκρηκτικών και είναι ικανό να κάνει «αυτόνομα χτυπήματα κατά προσωπικού " με "επιλεγμένους στόχους στις εικόνες και την αναγνώριση προσώπου." Το site της εταιρείας ήταν από τότε μεταβάλλεται για να τονίσει την προσήλωσή του σε μια υποτιθέμενη αρχή «man-in-the-loop». Ωστόσο, ο ΟΗΕ έχει αναφέρει ότι ένα πλήρως αυτόνομο Kargu-2 αναπτύχθηκε στην πραγματικότητα στη Λιβύη το 2020.
Μπορείς να αγοράστε το δικό σας τετρακόπτερο αυτή τη στιγμή στο Amazon, αν και θα πρέπει ακόμα να εφαρμόσετε κάποιες δεξιότητες υπολογιστή DIY εάν θέλετε να το κάνετε να λειτουργεί αυτόνομα.
Η αλήθεια είναι ότι τα θανατηφόρα αυτόνομα οπλικά συστήματα είναι λιγότερο πιθανό να μοιάζουν με κάτι από το Terminator ταινίες παρά σαν σμήνη μικροσκοπικών ρομπότ δολοφόνων. Η μικρογραφία υπολογιστή σημαίνει ότι η τεχνολογία υπάρχει ήδη για τη δημιουργία αποτελεσματικών ΝΟΜΩΝ. Εάν το smartphone σας μπορούσε να πετάξει, θα μπορούσε να είναι ένα αυτόνομο όπλο. Τα νεότερα τηλέφωνα χρησιμοποιούν λογισμικό αναγνώρισης προσώπου για να «αποφασίσουν» εάν θα επιτρέπεται η πρόσβαση. Δεν είναι άλμα η δημιουργία ιπτάμενων όπλων μεγέθους τηλεφώνων, προγραμματισμένων να «αποφασίζουν» να επιτεθούν σε συγκεκριμένα άτομα ή άτομα με συγκεκριμένα χαρακτηριστικά. Πράγματι, είναι πιθανό να υπάρχουν ήδη τέτοια όπλα.
Μπορούμε να θέσουμε εκτός νόμου ΝΟΜΟΥΣ;
Λοιπόν, τι συμβαίνει με τους ΝΟΜΟΥΣ, και έχει νόημα να προσπαθήσουμε να τους θέσουμε εκτός νόμου; Μερικοί αντίπαλοι υποστηρίζουν ότι το πρόβλημα είναι ότι εξαλείφουν την ανθρώπινη ευθύνη για τη λήψη θανατηφόρων αποφάσεων. Τέτοιοι επικριτές προτείνουν ότι, σε αντίθεση με ένα ανθρώπινο ον που στοχεύει και πατά τη σκανδάλη ενός τουφεκιού, ένα LAWS μπορεί να επιλέξει και να πυροβολήσει στους δικούς του στόχους. Εκεί, υποστηρίζουν, έγκειται ο ειδικός κίνδυνος αυτών των συστημάτων, τα οποία αναπόφευκτα θα κάνουν λάθη, όπως θα αναγνωρίσει οποιοσδήποτε του οποίου το iPhone αρνήθηκε να αναγνωρίσει το πρόσωπό του.
Κατά την άποψή μου, το ζήτημα δεν είναι ότι τα αυτόνομα συστήματα απομακρύνουν τα ανθρώπινα όντα από θανατηφόρες αποφάσεις. Στο βαθμό που τα όπλα αυτού του είδους κάνουν λάθη, τα ανθρώπινα όντα θα εξακολουθούν να φέρουν ηθική ευθύνη για την ανάπτυξη τέτοιων ατελών θανατηφόρων συστημάτων. Οι ΝΟΜΟΙ σχεδιάζονται και εφαρμόζονται από ανθρώπινα όντα, τα οποία επομένως παραμένουν υπεύθυνα για τις επιπτώσεις τους. Όπως τα ημιαυτόνομα drones της παρούσας στιγμής (συχνά πιλοτικά από μισό κόσμο μακριά), τα θανατηφόρα αυτόνομα οπλικά συστήματα δεν αφαιρούν την ανθρώπινη ηθική ευθύνη. Απλώς αυξάνουν την απόσταση μεταξύ δολοφόνου και στόχου.
Επιπλέον, όπως τα ήδη απαγορευμένα όπλα, συμπεριλαμβανομένων των χημικών και βιολογικών όπλων, αυτά τα συστήματα έχουν την ικανότητα να σκοτώνουν αδιακρίτως. Αν και μπορεί να μην παρακάμπτουν την ανθρώπινη ευθύνη, μόλις ενεργοποιηθούν, σίγουρα θα ξεφύγουν από τον ανθρώπινο έλεγχο, όπως ακριβώς το δηλητηριώδες αέριο ή ένας οπλισμένος ιός.
Και όπως συμβαίνει με τα χημικά, βιολογικά και πυρηνικά όπλα, η χρήση τους θα μπορούσε να αποτραπεί αποτελεσματικά από το διεθνές δίκαιο και τις συνθήκες. Αλήθεια, απατεώνες ηθοποιοί, όπως ο Το καθεστώς Άσαντ στη Συρία ή του αμερικανικού στρατού στην πόλη Φαλούτζα του Ιράκ, μπορεί περιστασιακά να παραβιάζει τέτοιους περιορισμούς, αλλά ως επί το πλείστον, οι απαγορεύσεις για τη χρήση ορισμένων ειδών δυνητικά καταστροφικών όπλων ισχύουν, σε ορισμένες περιπτώσεις για πάνω από έναν αιώνα.
Ορισμένοι Αμερικανοί εμπειρογνώμονες στον τομέα της άμυνας υποστηρίζουν ότι, εφόσον οι αντίπαλοι αναπόφευκτα θα αναπτύξουν ΝΟΜΟΥΣ, η κοινή λογική απαιτεί από αυτή τη χώρα να κάνει το ίδιο, υπονοώντας ότι η καλύτερη άμυνα ενάντια σε ένα δεδομένο οπλικό σύστημα είναι η ίδια. Αυτό είναι τόσο λογικό όσο η καταπολέμηση της φωτιάς με φωτιά όταν, στις περισσότερες περιπτώσεις, η χρήση νερού είναι πολύ καλύτερη επιλογή.
Η Σύμβαση για ορισμένα συμβατικά όπλα
Ο τομέας του διεθνούς δικαίου που διέπει τη μεταχείριση των ανθρώπων στον πόλεμο είναι: για ιστορικούς λόγους, που ονομάζεται διεθνές ανθρωπιστικό δίκαιο (IHL). Το 1995, οι Ηνωμένες Πολιτείες επικύρωσαν μια προσθήκη στο ΔΑΔ: το 1980 Σύμβαση του ΟΗΕ για ορισμένα συμβατικά όπλα. (Ο πλήρης τίτλος του είναι πολύ μεγαλύτερος, αλλά το όνομά του είναι γενικά συντομογραφημένο ως CCW.) Διέπει τη χρήση, για παράδειγμα, εμπρηστικών όπλων όπως το ναπάλμ, καθώς και βιολογικών και χημικών παραγόντων.
Οι υπογράφοντες της CCW συναντώνται περιοδικά για να συζητήσουν ποια άλλα όπλα ενδέχεται να εμπίπτουν στη δικαιοδοσία και τις απαγορεύσεις της, συμπεριλαμβανομένων των ΝΟΜΩΝ. Το πιο πρόσφατο συνέδριο πραγματοποιήθηκε τον Δεκέμβριο του 2021. Αν και μεταγραφές από τις εργασίες, έχει εκδοθεί μόνο ένα σχέδιο τελικού εγγράφου —που συντάχθηκε πριν από την έναρξη της διάσκεψης. Αυτό μπορεί να οφείλεται στο ότι δεν επιτεύχθηκε καν συναίνεση σχετικά με τον ορισμό τέτοιων συστημάτων, πόσο μάλλον για το εάν θα έπρεπε να απαγορευθούν. Η Ευρωπαϊκή Ένωση, ο ΟΗΕ, τουλάχιστον 50 υπογράφοντες χώρες και (σύμφωνα με δημοσκοπήσεις), το μεγαλύτερο μέρος του παγκόσμιου πληθυσμού πιστεύει ότι τα αυτόνομα οπλικά συστήματα πρέπει να τεθούν εκτός νόμου. Οι ΗΠΑ, το Ισραήλ, το Ηνωμένο Βασίλειο και η Ρωσία διαφωνούν, μαζί με μερικά άλλα ακραία στοιχεία.
Πριν από αυτές τις συνεδριάσεις της CCW, μια Ομάδα Κυβερνητικών Εμπειρογνωμόνων (GGE) συγκαλείται, φαινομενικά για να παράσχει τεχνική καθοδήγηση για τις αποφάσεις που θα ληφθούν από τα «υψηλά συμβαλλόμενα μέρη» της Συνέλευσης. Το 2021, η GGE δεν μπόρεσε να καταλήξει σε συναίνεση σχετικά με το εάν τέτοια όπλα θα έπρεπε να τεθούν εκτός νόμου. Οι Ηνωμένες Πολιτείες έκριναν ότι ακόμη και ο ορισμός ενός φονικού αυτόνομου όπλου ήταν περιττός (ίσως επειδή, αν μπορούσαν να οριστούν, θα μπορούσαν να τεθούν εκτός νόμου). Η αντιπροσωπεία των ΗΠΑ το θέσω έτσι:
«Οι Ηνωμένες Πολιτείες εξήγησαν την άποψή μας ότι δεν πρέπει να συνταχθεί ένας λειτουργικός ορισμός με σκοπό την περιγραφή των όπλων που πρέπει να απαγορευθούν. Αυτό θα ήταν —όπως έχουν ήδη επισημάνει ορισμένοι συνάδελφοι— πολύ δύσκολο να επιτευχθεί συναίνεση και αντιπαραγωγικό. Επειδή δεν υπάρχει τίποτα εγγενές στις αυτόνομες δυνατότητες που θα καθιστούσε ένα όπλο απαγορευμένο βάσει του ΔΑΔ, δεν είμαστε πεπεισμένοι ότι η απαγόρευση όπλων με βάση τους βαθμούς αυτονομίας, όπως πρότειναν οι Γάλλοι συνάδελφοί μας, είναι μια χρήσιμη προσέγγιση».
Η αντιπροσωπεία των ΗΠΑ ήταν επίσης πρόθυμη να εξαλείψει οποιαδήποτε γλώσσα που θα μπορούσε να απαιτήσει «ανθρώπινο έλεγχο» τέτοιων οπλικών συστημάτων:
«[Κατά την άποψή μας] το ΔΑΔ δεν θεσπίζει απαίτηση για «ανθρώπινο έλεγχο» καθαυτή… Η εισαγωγή νέων και αόριστων απαιτήσεων όπως αυτή του ανθρώπινου ελέγχου θα μπορούσε, πιστεύουμε, να μπερδέψει, παρά να διευκρινίσει, ειδικά εάν αυτές οι προτάσεις δεν συνάδουν με μακροχρόνιες μόνιμη, αποδεκτή πρακτική στη χρήση πολλών κοινών οπλικών συστημάτων με αυτόνομες λειτουργίες».
Στην ίδια συνάντηση, αυτή η αντιπροσωπεία επέμενε επανειλημμένα ότι τα φονικά αυτόνομα όπλα θα ήταν πραγματικά καλά για εμάς, γιατί σίγουρα θα αποδεικνύονταν καλύτερα από τα ανθρώπινα όντα στη διάκριση μεταξύ αμάχων και μαχητών.
Α, και αν πιστεύετε ότι η προστασία των αμάχων είναι ο λόγος που η βιομηχανία όπλων επενδύει δισεκατομμύρια δολάρια για την ανάπτυξη αυτόνομων όπλων, έχω ένα κομμάτι γης για να σας πουλήσω στον Άρη που είναι φθηνά.
Η καμπάνια για να σταματήσουμε τα ρομπότ δολοφόνων
Η Κυβερνητική Ομάδα Εμπειρογνωμόνων έχει επίσης περίπου 35 μη κρατικά μέλη, συμπεριλαμβανομένων μη κυβερνητικών οργανώσεων και πανεπιστημίων. ο Εκστρατεία για να σταματήσουμε τα ρομπότ δολοφόνων, ένας συνασπισμός 180 οργανώσεων, μεταξύ των οποίων η Διεθνής Αμνηστία, το Παρατηρητήριο Ανθρωπίνων Δικαιωμάτων και το Παγκόσμιο Συμβούλιο Εκκλησιών, είναι μία από αυτές. Ξεκίνησε το 2013, αυτή η ζωντανή ομάδα παρέχει σημαντικά σχόλια για τα τεχνικά, νομικά και ηθικά ζητήματα που παρουσιάζονται από το LAWS και προσφέρει σε άλλους οργανισμούς και άτομα έναν τρόπο να εμπλακούν στον αγώνα για την απαγόρευση τέτοιων δυνητικά καταστροφικών οπλικών συστημάτων.
Η συνεχής κατασκευή και ανάπτυξη ρομπότ δολοφόνων δεν είναι αναπόφευκτη. Πράγματι, η πλειοψηφία του κόσμου θα ήθελε να τα δει να απαγορεύονται, συμπεριλαμβανομένου του Γενικού Γραμματέα του ΟΗΕ Αντόνιο Γκουτέρες. Ας του δώσουμε το τελευταία λέξη: «Μηχανές με τη δύναμη και τη διακριτικότητα να αφαιρούν ανθρώπινες ζωές χωρίς ανθρώπινη συμμετοχή είναι πολιτικά απαράδεκτες, ηθικά αποκρουστικές και θα πρέπει να απαγορεύονται από το διεθνές δίκαιο».
Δεν μπορούσα να συμφωνήσω περισσότερο.
Πνευματικά δικαιώματα 2022 Rebecca Gordon
Ρεμπέκα Γκόρντον, α TomDispatch κανονικό, διδάσκει στο Πανεπιστήμιο του Σαν Φρανσίσκο. Είναι η συγγραφέας του Ενσωμάτωση βασανιστηρίων, Αμερικανική Νυρεμβέργη: Οι Αμερικανοί υπάλληλοι που θα πρέπει να δικαστούν για εγκλήματα πολέμου μετά το 9 / 11 και τώρα εργάζεται για ένα νέο βιβλίο για την ιστορία των βασανιστηρίων στις Ηνωμένες Πολιτείες.
Αυτό το άρθρο εμφανίστηκε για πρώτη φορά στο TomDispatch.com, ένα ιστολόγιο του Ινστιτούτου Έθνους, το οποίο προσφέρει μια σταθερή ροή εναλλακτικών πηγών, ειδήσεων και απόψεων από τον Tom Engelhardt, μακροχρόνιο συντάκτη εκδόσεων, συνιδρυτή του American Empire Project, συγγραφέα του The End of Victory Culture, ως μυθιστόρημα, The Last Days of Publishing. Το τελευταίο του βιβλίο είναι το A Nation Unmade By War (Haymarket Books).
Το ZNetwork χρηματοδοτείται αποκλειστικά από τη γενναιοδωρία των αναγνωστών του.
Κάνε μια δωρεά