Süni intellektin təhlükələri haqqında danışın, faktiki və ya xəyali, qızdırmalı hala gəldi, bunun çoxu generativ söhbət botlarının artan dünyası ilə əlaqədardır. Tənqidçiləri araşdırarkən onların motivasiyasına diqqət yetirilməlidir. Müəyyən bir mövqe tutmaqdan nə qazanacaqlar? Təvazökarcasına "AI-nin xaç atası" kimi görünən Geoffrey Hinton vəziyyətində, nəzarət çoxlarından daha kəskin olmalıdır.
Hinton, insan beynini və daha geniş mənada insan davranışını təqlid edən neyron şəbəkələri nəzərdə tutan bir vaxtlar nüfuzdan düşmüş süni intellekt sahəsində “bağlayıcı” düşüncə məktəbindən gəlir. Belə bir fikir süni intellektə maşın tərəfindən idarə olunan, konkret simvol və qaydaların qorunması kimi diqqət yetirən “simvolistlər”lə ziddiyyət təşkil edir.
John Thornhill, yazı üçün Financial Times, Hintonun digər birləşmə üzvləri ilə birlikdə yüksəlişini qeyd edir: “Kompüterlər gücləndikcə məlumat dəstləri ölçüləri artdıqca və alqoritmlər daha təkmilləşdikcə, Hinton kimi dərin öyrənən tədqiqatçılar getdikcə daha təsir edici nəticələr əldə edə bildilər. əsas süni intellekt icması tərəfindən artıq göz ardı edilə bilməz.
Vaxt keçdikcə dərin öyrənmə sistemləri bütün qəzəbləndi və böyük texnologiya dünyası Hinton kimi adlar axtardı. O, həmkarları ilə birlikdə Google, Facebook, Amazon və Microsoft-un zirvələrində absurd maaşlara əmr verməyə gəldi. Google-da Hinton vitse-prezident və mühəndislik üzrə işçi kimi çalışıb.
Hintonun Google-dan ayrılması və daha dəqiq desək, onun Google Brain komandasının rəhbəri kimi rolu fərziyyələrin sükanı arxasına keçib. Bir düşüncə xətti bu idi ki, bu, illər ərzində kömək etdiyi şirkətləri tənqid edə bilsin. Hintonun generativ AI arabasını itələməsindəki rolunu nəzərə alsaq, bu, əlbəttə ki, bir qədər zəngin idi. 2012-ci ildə o, şəkillərdəki ümumi obyektləri kifayət qədər dəqiqliklə müəyyən etməyə qadir olan özünü öyrədən neyroşəbəkəyə öncülük etdi.
Zamanlama da maraq doğurur. Bir aydan çox əvvəl, bir açıq məktub OpenAI-nin GPT-4 və digər qohum sistemlərinin pisliyindən başqa süni intellektin dəhşətli təsirləri barədə xəbərdarlıq edən Həyatın Gələcəyi İnstitutu tərəfindən nəşr edilmişdir. Bir sıra suallar verildi: “Biz maşınların informasiya kanallarımızı təbliğat və yalanla doldurmasına icazə verməliyikmi? Bütün işləri, o cümlədən yerinə yetirənləri avtomatlaşdırmalıyıq? Biz nəhayət sayca çox ola biləcək, qabaqlayacaq, köhnələcək və bizi əvəz edə biləcək qeyri-insani şüurları inkişaf etdirməliyikmi? Sivilizasiyamıza nəzarəti itirmək riski ilə üzləşməliyikmi?
Bu cür geniş miqyaslı AI layihələrinin inkişafı üçün altı aylıq fasilə tələb edən məktub, xəbərdarlıqların dəyərini bir qədər azaldan bir sıra adları cəlb etdi; Nəticə etibarı ilə bir çox imzalayanlar avtomatlaşdırmanın yaradılmasında, köhnəlməsində və “sivilizasiyamıza nəzarətin itirilməsinin” təşviqində əhəmiyyətsiz rol oynamışlar. Bu məqsədlə, Elon Musk və Steve Wozniak kimi insanlar texnoloji inkişaflarda fasiləyə çağıran bir layihəyə imzalarını əlavə etdikdə, bütün dünyada boşboğazlıq detektorları hərəkətə keçməlidir.
Eyni prinsiplər Hinton üçün də tətbiq edilməlidir. O, açıq-aydın başqa otlaqlar axtarır və bununla da özünü hansısa ağır reklamla ört-basdır edir. Bu formasını alır yumşaq qınaq yaratmağa cavabdeh olan şeydən. “Bu şeylərin əslində insanlardan daha ağıllı ola biləcəyi fikri - bir neçə insan buna inanırdı. Ancaq insanların çoxu bunun uzaq olduğunu düşünürdü. Və düşündüm ki, uzaqdır. […] Açığı, mən artıq bunu düşünmürəm.” Sizcə, o, çoxlarından yaxşı bilməlidir.
Twitter-də Hinton hər hansı bir təklifi yatağa qoyun o, Google-dan acınacaqlı şəkildə ayrıldığını və ya onun əməliyyatlarını dayandırmaq niyyətində olduğunu söylədi. “Bu gün NYT-də Cade Metz Google-u tənqid etmək üçün Google-dan ayrıldığımı nəzərdə tutur. Əslində, Google-a necə təsir etdiyini düşünmədən süni intellektin təhlükələri haqqında danışa bilmək üçün ayrıldım. Google çox məsuliyyətli davrandı”.
Bu bir qədər qəribə mülahizə forması onu göstərir ki, süni intellektlə bağlı hər hansı bir tənqid bu cür layihələri inkişaf etdirən və onlardan qazanc əldə edən şirkətlərdən asılı olmayaraq mövcud olacaq, eyni zamanda Hinton kimi tərtibatçıları hər hansı bir iştirakçılıq ittihamından immunitetə qoyurlar. Onun süni intellektlə bağlı tənqidi fikirlər hazırlamaqda və ya Google-un özündə tənzimləyici çərçivələr təklif etməkdə aciz görünməsi bu addımın səmimiliyinə xələl gətirir.
In reaksiya Google DeepMind-in baş alimi və rəhbəri Ceff Din uzun müddətdir ki, həmkarının gedişindən sonra hamını qane edən suların sakit qaldığını açıqladı. “Geoff süni intellektdə əsaslı irəliləyişlər etdi və biz onun Google-a onillik töhfələrini yüksək qiymətləndiririk [...] Süni intellekt prinsiplərini dərc edən ilk şirkətlərdən biri kimi biz süni intellektə məsuliyyətli yanaşmaya sadiq qalırıq. Biz cəsarətlə yeniliklər etməklə yanaşı, yaranan riskləri dərk etməyi daim öyrənirik."
AI cəmiyyətindəki bir sıra başqa bir şeyin olduğunu hiss etdi. Kompüter alimi Roman Yampolskiy, in cavab verir Hintonun sözlərinə görə, AI Təhlükəsizliyi ilə bağlı narahatlıqların təşkilat daxilində araşdırmalar üçün bir-birini istisna etmədiyini və olmamalıdır. "Biz süni intellekt tədqiqatçısı kimi işinizi tərk etmədən AI Təhlükəsizliyi ilə bağlı narahatlığımızı normallaşdırmalıyıq."
Google, şübhəsiz ki, süni intellektin inkişafına gəldikdə etik problem adlandırıla biləcək bir problemə malikdir. Təşkilat bu mövzuda daxili müzakirələri dayandırmağa kifayət qədər can atırdı. Margaret Mitchell, əvvəllər 2017-ci ildə həmtəsisçisi olduğu Google-un Ethical AI komandasının üzvü idi. hea-ho verilmişdir eyni komandanın üzvü olmuş Timnit Gebrunun işdən çıxarılması ilə bağlı daxili araşdırma apardıqdan sonra.
Gebru 2020-ci ilin dekabrında dərisi soyulduqdan sonra həmmüəlliflik işi Bu, böyük miqdarda məlumatların öyrədilmiş və sızan süni intellektdən istifadəsindən yaranan təhlükələrlə bağlı problem yaratdı. Həm Gebru, həm də Mitçel, sonuncunun "dostlar dənizi" kimi təsvir etdiyi sahədəki gözə çarpan müxtəlifliyin olmaması ilə bağlı tənqidi fikirlər səsləndiriblər.
Hintonun öz fəlsəfi dilemmalarına gəlincə, onlar mürəkkəb deyil və çətin ki, onun yuxusunu narahat etsin. İndi xəbərdar etdiyi canavarın yaradılmasında hansı Frankenşteyn rolunu oynamasından asılı olmayaraq, onun yuxusu çətin ki, narahat olsun. "Mən özümü normal bəhanə ilə təsəlli edirəm: mən bunu etməsəydim, başqası edəcəkdi" Hinton izah qədər New York Times. "Pis aktyorların ondan pis şeylər üçün istifadə etmələrinin qarşısını necə ala biləcəyinizi görmək çətindir."
ZNetwork yalnız oxucularının səxavəti hesabına maliyyələşdirilir.
ianə vermək