Otrdien atbalstu guva iekšēja petīcija, kurā tika aicināts Google palikt ārpus "kara biznesa", un tiek ziņots, ka daži strādnieki atteicās, protestējot pret sadarbību ar ASV armiju.
Tiek ziņots, ka aptuveni 4,000 Google darbinieku ir parakstījuši petīciju, kas sāka izplatīties pirms aptuveni trim mēnešiem, mudinot interneta gigantu atturēties no mākslīgā intelekta izmantošanas, lai ASV militārie bezpilota lidaparāti labāk atpazītu to, ko tie uzrauga.
Tehnisko ziņu vietne Gizmodo šonedēļ ziņoja, ka aptuveni ducis Google darbinieku pamet ētikas nostāju.
Kalifornijā bāzētais uzņēmums nekavējoties neatbildēja uz jautājumiem par projektu Maven, kas, kā ziņots, izmanto mašīnmācīšanos un inženierijas talantus, lai atšķirtu cilvēkus un objektus Aizsardzības departamenta dronu videoklipos.
"Mēs uzskatām, ka Google nevajadzētu iesaistīties kara biznesā," teikts petīcijā saskaņā ar tiešsaistē ievietotajām kopijām.
"Tāpēc mēs lūdzam atcelt projektu Maven un Google izstrādāt, publiskot un ieviest skaidru politiku, kurā teikts, ka ne Google, ne tā līgumslēdzēji nekad neveidos karadarbības tehnoloģiju."
“Soli prom” no slepkavas droniem
Interneta tiesību grupa Electronic Frontier Foundation un Starptautiskā robotieroču kontroles komiteja (ICRAC) bija vieni no tiem, kas atbalstīja.
Lai gan ziņojumos norādīts, ka mākslīgā intelekta atklājumus pārskatīs cilvēku analītiķi, šī tehnoloģija varētu pavērt ceļu automatizētām mērķēšanas sistēmām uz bruņotiem bezpilota lidaparātiem, ICRAC argumentēja atklātā atbalsta vēstulē Google darbiniekiem pret projektu.
"Tā kā militārie komandieri objektu atpazīšanas algoritmus uzskata par uzticamiem, būs vilinoši vājināt vai pat atcelt cilvēku veikto šo sistēmu pārraudzību," teikts ICRAC vēstulē.
"Tad mēs esam tikai īsa soļa attālumā, lai atļautu autonomiem bezpilota lidaparātiem nogalināt automātiski, bez cilvēka uzraudzības vai jēgpilnas cilvēka kontroles."
Uzņēmums Google ir pieminējis, ka tā darbs, lai uzlabotu iekārtu spēju atpazīt objektus, nav paredzēts aizskarošam lietojumam, taču publicētajos dokumentos ir redzams "tumšāks" attēls, pagājušajā mēnesī tiešsaistes ierakstā sacīja EZF pārstāve Sindija Kona un Pīters Ekerslijs.
"Ja mūsu nolasījums publiskajā ierakstā ir pareizs, sistēmas, kuras atbalsta vai veido Google, atzīmētu cilvēkus vai objektus, ko redz bezpilota lidaparāti, lai tos varētu pārbaudīt, un dažos gadījumos tas izraisītu turpmākus raķešu triecienus šiem cilvēkiem vai objektiem," sacīja Kons. un Ekerslijs.
"Tās ir lielas ētiskas likmes, pat ja cilvēki atrodas tālāk pa "nogalināšanas ķēdi"."
EZF un citi atzinīgi novērtēja iekšējās Google debates, uzsverot vajadzību pēc morālas un ētiskas sistēmas attiecībā uz mākslīgā intelekta izmantošanu ieročos.
"AI izmantošana ieroču sistēmās ir ļoti svarīga tēma, un tā ir pelnījusi starptautisku publisku diskusiju un, iespējams, dažus starptautiskus nolīgumus, lai nodrošinātu globālo drošību," sacīja Kons un Ekerslijs.
"Uzņēmumiem, piemēram, Google, kā arī to kolēģiem visā pasaulē, ir jāapsver sekas un jāpieprasa patiesa atbildība un uzvedības standarti no militārajām aģentūrām, kas meklē viņu zināšanas, un no viņiem pašiem."
ZNetwork tiek finansēts tikai ar lasītāju dāsnumu.
Ziedot