Mənbə: TomDispatch.com
Foto: Phil Pasquini/Shutterstock
İşdə bir nəzərdən keçirmək üçün ssenari: Hərbi qüvvə hər biri bir kart göyərtəsi ölçüsündə milyonlarla ucuz, birdəfəlik uçan pilotsuz təyyarə alıb, hər biri üç qram partlayıcı daşıya bilir – bir nəfəri öldürmək üçün kifayətdir və ya “formalı yük,” polad divarı deşmək. Onlar, məsələn, silah gəzdirmək və ya müəyyən dəri rənginə malik olmaq kimi xüsusi “imza” xüsusiyyətlərinə əsaslanaraq müəyyən insanları axtarmaq və “məşğul etmək” (öldürmək) üçün proqramlaşdırılmışdır. Onlar tək bir göndərmə konteynerinə yerləşdirilir və uzaqdan yerləşdirilə bilər. İstifadə edildikdən sonra onlar heç bir insan hərəkəti olmadan uçacaq və avtonom şəkildə öldürəcəklər.
Elmi fantastika? Həqiqətən yox. Sabah baş verə bilər. Texnologiya artıq mövcuddur.
Əslində, ölümcül avtonom silah sistemləri (LAWS) uzun bir tarixə malikdir. 1972-ci ilin yazında bir neçə gün keçirdim fizika binasını tutur Nyu Yorkdakı Kolumbiya Universitetində. Digər yüz tələbə ilə mən yerdə yatdım, hədiyyə edilən yeməkləri yedim və Alan Ginsberq bəzi ekstemporativ şeirləri ilə bizi şərəfləndirmək üçün gələndə onu dinlədim. Mən vərəqələr yazdım, onları çap etmək üçün Xerox maşınına əmr verdim.
Bəs niyə biz bütün kampus binalarından Fizika fakültəsinin yerləşdiyi binanı seçdik? Cavab: beş Kolumbiya fakültəsi fiziklərini ABŞ-ın müharibə yaratma səyləri üçün faydalı ola biləcək əsas elmi tədqiqatları dəstəkləmək üçün pul və laboratoriya sahəsi təklif edən Pentaqonun Ceyson Müdafiə Məsləhət Qrupu ilə əlaqələrini kəsməyə inandırmaq. Bizim xüsusi etirazımız: Jason alimlərinin Vyetnamda yerləşdirilmək üçün o zamanlar “avtomatlaşdırılmış döyüş sahəsi” kimi tanınan hissələrin layihələndirilməsində iştirakına. Bu sistem həqiqətən də bu ölkənin və dünyanın silah anbarının potensial əhəmiyyətli hissəsinə çevrilməyə hazırlaşan ölümcül avtonom silah sistemlərinin qabaqcıl olduğunu sübut edəcəkdir.
Erkən (Yarı) Avtonom Silahlar
Vaşinqton Hind-Çindəki müharibəsini təqib etməkdə bir sıra strateji problemlərlə, o cümlədən dəstək verdiyi Cənubi Vyetnam rejiminin ümumi korrupsiyası və qeyri-populyarlığı ilə üzləşdi. Bununla belə, onun ən böyük hərbi problemi, ehtimal ki, Şimali Vyetnamın şimaldan cənuba uzanan Ho Chi Minh Trail adlanan yerə daimi personal və təchizat sızması idi. Kamboca və Laos sərhədləri boyunca. Trail, əslində, havadan hərəkəti aşkar etməyi demək olar ki, qeyri-mümkün edən qalın cəngəllik örtüyü altında uzanan asanlıqla təmir olunan torpaq yollar və piyada yolları, çaylar və çaylar şəbəkəsi idi.
1966-cı ildə Ceyson tərəfindən hazırlanmış və növbəti il tətbiq edilən ABŞ-ın cavabı bu sızmanın qarşısını almaq cəhdi idi. yaratmaq insan bədəninin gözləri, əsəbləri, beyni və əzalarına bənzər dörd hissədən ibarət avtomatlaşdırılmış döyüş meydanı. Gözlər çox müxtəlif sensorlar idi - akustik, seysmik, hətta kimyəvi (insan sidiyini hiss etmək üçün) - əksəriyyəti hava ilə cəngəlliyə atılır. Sinir ekvivalentləri siqnalları "beyin"ə ötürdü. Bununla belə, sensorlar cəmi 20 mil maksimum ötürmə diapazonuna malik olduğundan, ABŞ ordusu Şimali Vyetnam qoşunları və ya nəqliyyat vasitələrinin yanından keçməklə bağlı hər hansı siqnalı tutmaq üçün daim təyyarələri yarpaqların üstündən uçurmalı idi. Daha sonra təyyarələr xəbəri beyinə ötürürdü. (Əvvəlcə uzaqdan idarə edilməsi nəzərdə tutulmuşdu, bu təyyarələr o qədər zəif performans göstərdilər ki, adətən insan pilotlarına ehtiyac duyulurdu.)
Və o beyin, Taylandın Nakhon Phanom-da gizli şəkildə qurulmuş möhtəşəm hərbi qurğuda iki ən müasir IBM əsas kompüteri yerləşirdi. Kiçik bir proqramçı ordusu, bu təyyarələr tərəfindən ötürülən məlumat axınını anlamağa çalışarkən, onları işarələmək üçün kodu yazdı və yenidən yazdı. Onların tapdıqları hədəf koordinatları daha sonra ekstremitələrin ekvivalentləri olan hücum təyyarələrinə ötürülürdü. Bu avtomatlaşdırılmış döyüş sahəsini idarə edən qrup Alpha Task Force təyin edildi və bütün layihə Igloo White kod adı altında keçdi.
Məlum oldu ki, Igloo White əsasən idi bahalı uğursuzluq, təxminən a milyard dollar beş il üçün bir il (demək olar ki, $ 40 milyard cəmi bugünkü dollarla). Sensorun işə düşməsi ilə sursatların atılması arasındakı vaxt fasiləsi sistemi təsirsiz hala gətirdi. Nəticədə, bəzən Task Force Alpha sadəcə bir sensorun sönmüş ola biləcəyi əraziləri xalça ilə bombaladı. Şimali Vyetnamlılar bu sensorların necə işlədiyini tez başa düşdülər və yük maşınının alovlanması qeydlərini səsləndirməkdən tutmuş sidik vədrələri əkməyə qədər onları aldatmaq üsullarını inkişaf etdirdilər.
Aradan keçən illərdə pilotsuz təyyarələr və “ağıllı bombalar” kimi yarı avtomatlaşdırılmış silah sistemlərinin tarixini nəzərə alsaq, bu ilk avtomatlaşdırılmış döyüş meydanının əsgərlər və mülki şəxslər arasında ayrı-seçkilik edə bilməyəcəyini öyrənsəniz, yəqin ki, təəccüblənməyəcəksiniz. Bununla onlar, sadəcə olaraq, ən azı XVIII əsrdən bəri mövcud olan bir tendensiyanı davam etdirdilər, burada müharibələr mütəmadi olaraq döyüşçülərdən daha çox mülki vətəndaşı öldürür.
Bu çatışmazlıqların heç biri Müdafiə Departamentinin əməkdaşlarını avtomatlaşdırılmış döyüş sahəsinə heyranlıqla yanaşmaqdan çəkindirdi. Endryu Kokbern təsvir edilmişdir kitabında bu ibadət mövqeyi Kill Zəncir: Yüksək Texnologiya Assassins Yüksələn, 1968-ci ildə Vyetnama səfər etmiş yüksək rütbəli Pentaqonun rəsmisi Leonard Sullivandan sitat gətirərək: “Notr-Dam Katedralində aqnostik olmaq demək olar ki, mümkün olmadığı kimi, gözəllik və əzəmətə qapılmaqdan çəkinmək çətindir. Tapşırıq Qrupunun Alfa məbədi”.
Belə bir məbəddə kimə və ya nəyə ibadət edilməli olduğunu düşünə bilərsiniz?
Vyetnam dövründəki "avtomatlaşdırılmış" döyüş sahəsinin əksər aspektləri əslində insan müdaxiləsini tələb edirdi. İnsanlar sensorlar yerləşdirir, kompüterləri proqramlaşdırır, təyyarələri idarə edir və bombalar buraxırdılar. Bəs o döyüş meydanı hansı mənada “avtomatlaşdırılmış” idi? Gələcəklərin xəbərçisi olaraq, sistem prosesin yeganə həlledici nöqtəsində insan müdaxiləsini aradan qaldırdı: öldürmək qərarı. Həmin avtomatlaşdırılmış döyüş meydanında kompüterlər bombaların hara və nə vaxt atılacağına qərar verirdilər.
1969-cu ildə Ordunun Baş Qərargah rəisi Uilyam Vestmorlend həvəsini ifadə etdi Müharibədən qarışıq insan elementinin bu şəkildə çıxarılması üçün. Lobbi qrupu olan ABŞ Ordusu Assosiasiyasının naharında çıxış edərək, o, bəyan etdi:
“Gələcək düşmənin döyüş meydanında məlumat bağlantıları, kompüter dəstəyi ilə kəşfiyyatın qiymətləndirilməsi və avtomatlaşdırılmış atəşə nəzarət vasitəsilə demək olar ki, ani şəkildə yerləşəcək, izləniləcək və hədəf alınacaq. Birinci raundda öldürülmə ehtimalları əminliyə yaxınlaşdıqca və düşməni daim izləyə bilən müşahidə cihazları ilə müxalifəti düzəltmək üçün böyük qüvvələrə ehtiyac daha az əhəmiyyət kəsb edəcək”.
Vestmorlandın “müxalifəti düzəltmək” dedikdə nəzərdə tutduğu şey düşməni öldürmək idi. İyirmi birinci əsrdə başqa bir hərbi evfemizm “məşğul olmaq”dır. Hər iki halda məna eynidir: ölümcül avtonom silah sistemlərinin rolu insan müdaxiləsi olmadan avtomatik olaraq insanları tapmaq və öldürməkdir.
Yeni Dövr üçün Yeni QANUNLAR - Ölümcül Avtonom Silah Sistemləri
Hər ilin payızında Britaniya Yayım Korporasiyası mühüm tədqiqat sahəsində ekspert tərəfindən verilən dörd mühazirədən ibarət silsilə sponsorluq edir. 2021-ci ildə BBC kompüter elmləri professoru və Berkli Kaliforniya Universitetində İnsana Uyğun Süni İntellekt Mərkəzinin təsisçisi Stüart Rasseli həmin “Reith Mühazirələri”ni vermək üçün dəvət etdi. Onun ümumi mövzusu süni intellektin (AI) gələcəyi idi və ikinci mühazirə “Müharibədə AI-nin gələcək rolu” adlanırdı. O, Birləşmiş Millətlər Təşkilatının "insan nəzarəti olmadan insan hədəflərini tapan, seçən və cəlb edən silahlar" olaraq təyin etdiyi ölümcül avtonom silah sistemləri və ya QANUNLAR məsələsinə toxundu.
Rasselin əsas fikri, məharətlə hazırlanmışdır, bir çox insanlar ölümcül avtonom silahların potensial gələcək kabus olduğuna inansalar da, elmi fantastika sferasında yaşayırlar, “Onlar deyil. Onları bu gün ala bilərsiniz. Onları internetdə reklam edirlər”.
Mən heç vaxt filmlərin heç birini görməmişəm Terminator franchise, lakin görünür, hərbi planlaşdırıcılar və onların PR flacks insanların çoxu belə QANUNLAR haqqında anlayışlarını bu uydurma distopiya dünyasından götürdüyünü güman edirlər. Pentaqon rəsmiləri tez-tez inkişaf etdirdikləri silahların əslində SkyNet-in real həyatdakı ekvivalentləri olmadığını izah etmək üçün çox əziyyət çəkirlər - bu filmlərdə özünü dərk edən və bəşəriyyəti məhv etməyə qərar verən dünya miqyasında rabitə şəbəkəsi. Narahat olmayın, müdafiə nazirinin müavini Rasselə dediyi kimi, “Biz bu arqumentləri diqqətlə dinlədik və ekspertlərim məni əmin etdilər ki, təsadüfən SkyNet yaratmaq riski yoxdur”.
Rasselin fikri o idi ki, bir silah sisteminin avtonom hərəkət etmək və ya günahsız insanlara təhlükə yaratmaq üçün özünü dərk etməsinə ehtiyac yoxdur. Ona lazım olan budur:
- Mobil platforma (kiçik kvadrokopterdən sabit qanadlı təyyarəyə qədər hərəkət edə bilən hər şey)
- Hiss qabiliyyəti (vizual və ya səsli məlumatları aşkar etmək qabiliyyəti)
- Taktiki qərarlar qəbul etmək bacarığı (eyni qabiliyyət artıq şahmat oynayan kompüter proqramlarında tapılıb)
- “Məşğul olmaq”, yəni öldürmək bacarığı (bu, raket atmaq və ya bomba atmaq qədər mürəkkəb ola bilər və ya hədəfə çırpılaraq partlayaraq robotun intiharı qədər ibtidai ola bilər)
Reallıq budur ki, belə sistemlər artıq mövcuddur. Həqiqətən də, Türkiyədə bir dövlətə məxsus silah şirkəti bu yaxınlarda özünün Kargu pilotsuz uçan aparatını – Rasselin təsvir etdiyi kimi “yemək qabı ölçüsündə” kvadrokopterini reklam etdi, o, bir kiloqram partlayıcı daşıya bilir və “anti-personal avtonom zərbələr vura bilir”. ” ilə “şəkillər və üz tanıma üzərində seçilmiş hədəflər”. Şirkətin saytı o vaxtdan fəaliyyət göstərir dəyişdirilə güman edilən “man-in-the-loop” prinsipinə sadiqliyini vurğulamaq. Bununla belə, BMT bildirmişdir Tam muxtar Karqu-2-nin əslində 2020-ci ildə Liviyada yerləşdirildiyini söylədi.
Siz öz kvadrokopterinizi alın hal-hazırda Amazon-da, baxmayaraq ki, onun avtonom işləməsini istəyirsinizsə, hələ də bəzi DIY kompüter bacarıqlarını tətbiq etməli olacaqsınız.
Həqiqət budur ki, ölümcül avtonom silah sistemlərinin bir şey kimi görünmə ehtimalı azdır Terminator filmlər kiçik qatil botların sürüləri kimidir. Kompüterin miniatürləşdirilməsi effektiv QANUNLAR yaratmaq üçün texnologiyanın artıq mövcud olması deməkdir. Ağıllı telefonunuz uça bilsəydi, o, avtonom bir silah ola bilər. Daha yeni telefonlar girişə icazə verib-verməməyə “qərar vermək” üçün üz tanıma proqramından istifadə edir. Telefon ölçüsündə, konkret şəxslərə və ya xüsusi xüsusiyyətləri olan şəxslərə hücum etmək üçün “qərar vermək” üçün proqramlaşdırılmış uçan silahlar yaratmaq sıçrayış deyil. Həqiqətən, çox güman ki, belə silahlar artıq mövcuddur.
QANUNLARI QAYDA EDƏ bilərikmi?
Beləliklə, QANUNLARDA nə səhvdir və onları qanundan kənarlaşdırmağa çalışmağın mənası varmı? Bəzi opponentlər problemin ölümcül qərarlar qəbul etmək üçün insan məsuliyyətini aradan qaldırmaqda olduğunu iddia edirlər. Bu cür tənqidçilər deyirlər ki, tüfəngin tətiğini hədəfə alan və çəkən insandan fərqli olaraq, QANUNLAR öz hədəflərini seçib atəşə tuta bilər. Onlar iddia edirlər ki, bu sistemlərin xüsusi təhlükəsi, istər-istəməz səhvlərə yol verəcək, iPhone-u onun üzünü tanımaqdan imtina edən hər kəsin etiraf edəcəyi kimi.
Mənim fikrimcə, məsələ avtonom sistemlərin insanları ölümcül qərarlardan uzaqlaşdırmasında deyil. Bu cür silahlar nə qədər səhv edərsə, insanlar bu cür qeyri-kamil ölümcül sistemləri yerləşdirmək üçün yenə də mənəvi məsuliyyət daşıyacaqlar. QANUNLAR insanlar tərəfindən tərtib edilir və tətbiq edilir və buna görə də onların təsirlərinə görə məsuliyyət daşıyırlar. İndiki anın yarı avtonom dronları kimi (çox vaxt dünyanın yarısından idarə olunur), ölümcül avtonom silah sistemləri insanın mənəvi məsuliyyətini aradan qaldırmır. Onlar sadəcə qatillə hədəf arasındakı məsafəni artırırlar.
Bundan əlavə, kimyəvi və bioloji silahlar da daxil olmaqla, artıq qadağan edilmiş silahlar kimi, bu sistemlər də ayrı-seçkilik etmədən öldürmək qabiliyyətinə malikdir. Onlar insan məsuliyyətinin qarşısını ala bilməsələr də, aktivləşdirildikdən sonra, zəhərli qaz və ya silahlanmış virus kimi insan nəzarətindən qaçacaqlar.
Kimyəvi, bioloji və nüvə silahlarında olduğu kimi, onların istifadəsinin qarşısı beynəlxalq hüquq və müqavilələrlə effektiv şəkildə alına bilər. Düzdür, yaramaz aktyorlar kimi Suriyada Əsəd rejimi ya da ABŞ ordusu İraqın Fəllucə şəhərində, vaxtaşırı bu cür sərtlikləri poza bilər, lakin əksər hallarda potensial dağıdıcı silahların müəyyən növlərinin istifadəsinə dair qadağalar bəzi hallarda bir əsrdən artıqdır ki, saxlanılır.
Bəzi amerikalı müdafiə ekspertləri iddia edirlər ki, düşmənlər qaçılmaz olaraq QANUNLARI inkişaf etdirəcəklər, sağlam düşüncə bu ölkədən də bunu tələb edir və bu, müəyyən bir silah sisteminə qarşı ən yaxşı müdafiənin eyni olduğunu bildirir. Əksər hallarda sudan istifadənin daha yaxşı seçim olduğu halda bu, yanğınla odla mübarizə aparmaq qədər məntiqlidir.
Bəzi Adi Silahlar haqqında Konvensiya
Müharibə zamanı insanlara münasibəti tənzimləyən beynəlxalq hüququn sahəsi, tarixi səbəblərə görə, beynəlxalq humanitar hüquq (IHL) adlanır. 1995-ci ildə ABŞ IHL-ə əlavəni ratifikasiya etdi: 1980 Bəzi Adi Silahlar haqqında BMT Konvensiyası. (Onun tam adı daha uzundur, lakin adı ümumiyyətlə CCW kimi qısaldılır.) O, məsələn, napalm kimi yandırıcı silahların, həmçinin bioloji və kimyəvi maddələrin istifadəsini tənzimləyir.
CCW-ni imzalayanlar, QANUNLAR da daxil olmaqla, hansı digər silahların onun yurisdiksiyasına və qadağalarına aid ola biləcəyini müzakirə etmək üçün vaxtaşırı görüşürlər. Ən son konfrans 2021-ci ilin dekabrında baş tutdu. Baxmayaraq ki transkriptlər Proseslərdən yalnız konfransın açılışından əvvəl hazırlanmış yekun sənəd layihəsi buraxılmışdır. Bunun səbəbi ola bilər ki, bu cür sistemlərin necə müəyyən ediləcəyi, hətta onların qadağan edilib-edilməməsi ilə bağlı heç bir konsensus əldə olunmayıb. Avropa İttifaqı, BMT, ən azı 50 imzalayan ölkə və (sorğulara görə) dünya əhalisinin əksəriyyəti avtonom silah sistemlərinin qanundan kənarlaşdırılmalı olduğuna inanır. ABŞ, İsrail, Böyük Britaniya və Rusiya bir neçə digər kənar tərəflərlə razılaşmır.
CCW-nin bu cür görüşlərindən əvvəl, Konvensiyanın “yüksək müqavilə bağlayan tərəfləri” tərəfindən qəbul ediləcək qərarlar üçün guya texniki rəhbərliyi təmin etmək üçün Hökumət Ekspertləri Qrupu (GGE) toplanır. 2021-ci ildə GGE bu cür silahların qadağan edilib-edilməməsi ilə bağlı konsensusa gələ bilmədi. Birləşmiş Ştatlar belə hesab edirdi ki, ölümcül avtonom silahın müəyyənləşdirilməsi belə lazımsızdır (bəlkə də ona görə ki, əgər onlar müəyyən edilə bilsəydilər, onlar qanunsuz sayıla bilərdi). ABŞ nümayəndə heyəti bu şəkildə qoyun:
“Birləşmiş Ştatlar bizim perspektivimizi izah etdi ki, qadağan edilməli olan silahları təsvir etmək məqsədilə işlək tərif hazırlanmamalıdır. Bu, - bəzi həmkarların artıq qeyd etdiyi kimi - konsensusa nail olmaq çox çətin və əks-məhsuldar olardı. Avtonom imkanlarda IHL çərçivəsində silahı qadağan edən heç bir daxili heç nə olmadığına görə, fransız həmkarlarımızın təklif etdiyi kimi, muxtariyyət dərəcələrinə görə silahların qadağan edilməsinin faydalı bir yanaşma olduğuna əmin deyilik”.
ABŞ nümayəndə heyəti də eyni şəkildə bu cür silah sistemlərinə “insan nəzarəti” tələb edə biləcək hər hansı bir dili aradan qaldırmaq niyyətində idi:
“[Bizim fikrimizcə] IHL “insan nəzarəti” üçün belə bir tələb müəyyən etmir... İnsan nəzarəti kimi yeni və qeyri-müəyyən tələblərin tətbiqi, xüsusilə bu təkliflər uzunmüddətli tələblərə uyğun gəlmirsə, aydınlaşdırmaq əvəzinə, çaşdıra bilər. avtonom funksiyaları olan bir çox ümumi silah sistemlərindən istifadə etmək üçün daimi, qəbul edilmiş təcrübə.
Həmin görüşdə həmin nümayəndə heyəti dəfələrlə təkid edirdi ki, ölümcül avtonom silahlar əslində bizim üçün faydalı olacaq, çünki onlar mülki şəxslərlə döyüşçüləri ayırd etməkdə şübhəsiz ki, insanlardan daha yaxşı olduğunu sübut edəcəklər.
Oh, əgər siz düşünürsünüzsə, silah sənayesinin muxtar silahların hazırlanmasına milyardlarla dollar sərmayə qoymasının səbəbi mülki insanları qorumaqdır, mənim Marsda sizə ucuz qiymətə satmaq üçün bir torpaq sahəsim var.
Qatil Robotları dayandırmaq üçün kampaniya
Hökumət Ekspertlər Qrupunun həmçinin qeyri-hökumət təşkilatları və universitetlər də daxil olmaqla 35-ə yaxın qeyri-dövlət üzvü var. The Killer robotlarını dayandırmaq üçün kampaniyaAmnesty International, Human Rights Watch və Ümumdünya Kilsələr Şurasının da daxil olduğu 180 təşkilatdan ibarət koalisiya bunlardan biridir. 2013-cü ildə fəaliyyətə başlayan bu canlı qrup LAWS tərəfindən təqdim olunan texniki, hüquqi və etik məsələlər üzrə mühüm şərhlər təqdim edir və digər təşkilatlara və şəxslərə bu cür potensial dağıdıcı silah sistemlərini qanundan kənarlaşdırmaq üçün mübarizədə iştirak etmək üçün bir yol təklif edir.
Qatil robotların davamlı qurulması və yerləşdirilməsi qaçılmaz deyil. Həqiqətən də, dünyanın əksəriyyəti BMT-nin Baş katibi Antonio Quterreş də daxil olmaqla, onların qadağan edilməsini istəyir. Ona verək son söz: "İnsanların iştirakı olmadan insan həyatını almaq gücünə və mülahizəsinə malik maşınlar siyasi baxımdan qəbuledilməzdir, mənəvi cəhətdən iyrəncdir və beynəlxalq hüquqla qadağan edilməlidir."
Daha çox razılaşa bilmədim.
Müəlliflik hüququ 2022 Rebecca Gordon
Fikrət Qordon, a TomDispatch müntəzəm, San Fransisko Universitetində dərs deyir. O, müəllifidir İşgəncə təhsili, American Nuremberg: Post-9 / 11 müharibə cinayətləri üçün məhkəmə iclasını kimə təqdim etməlidir? və hazırda ABŞ-da işgəncə tarixinə dair yeni kitab üzərində işləyir.
Bu məqalə ilk dəfə nəşriyyatda uzun müddət redaktor olmuş, Amerika İmperiyası Layihəsinin həmtəsisçisi, müəllifi Tom Engelhardtın alternativ mənbələri, xəbərləri və fikirlərinin davamlı axınını təklif edən Nation İnstitutunun vebloqu olan TomDispatch.com-da çıxdı. Qələbə Mədəniyyətinin Sonu, bir roman kimi, Nəşrin son günləri. Onun son kitabı Müharibə Olmayan Millətdir (Haymarket Kitabları).
ZNetwork yalnız oxucularının səxavəti hesabına maliyyələşdirilir.
ianə vermək