Süni intellekt (AI) hər yerdə görünür. Şirkətlər müştərilərin suallarını həll etmək üçün veb səhifələrində və ya telefon sistemlərində güclü süni intellekt chatbotlarından istifadə edirlər. Xəbər otaqları və jurnallar onlardan hekayələr yazmaq üçün istifadə edirlər. Kinostudiyalar onlardan film çəkmək üçün istifadə edirlər. Texnologiya şirkətləri proqramlaşdırmaq üçün onlardan istifadə edirlər. Şagirdlər onlardan yazı yazmaq üçün istifadə edirlər. Sehrli kimi görünür. Və hər şeyin guya “buludda” baş verdiyi halda, süni intellektlə işləyən sistemlərin ətraf mühit üçün yaxşı olduğuna inanmaq asandır. Təəssüf ki, işlər göründüyü kimi deyil.
Chatbotlar istismar üzərində qurulur, böyük miqdarda enerji istifadə edir və etibarlılıqdan uzaqdır. Onların incəlikdə böyüdüklərini və bəzi aspektlərdə həyatı asanlaşdırdıqlarını təsəvvür etmək asan olsa da, şirkətlər nəticələrin sosial cəhətdən faydalı olub-olmayacağından çox az narahatlıq keçirərək mənfəət əldə etmək üçün onların yaradılmasına milyardlarla dollar xərcləyirlər. Bir sözlə, biz süni intellektə korporativ marağı ciddi qəbul etməliyik və AI-nin necə inkişaf etdirildiyi və istifadə edildiyi üzərində nəzarəti əldə etməyimizə kömək edə biləcək strategiyalar hazırlamalıyıq.
Yarış davam edir
Chatbot inqilabı 2022-ci ildə OpenAI-nin ChatGPT tətbiqi ilə başladı. ChatGPT insan kimi danışıq qabiliyyətinə malik idi və yaradılan mətnlə istifadəçi suallarını cavablandıra, məqalə və kod yaza bilirdi. Ən yaxşısı, istifadə etmək pulsuz idi.
ChatGPT-də ictimai marağa cavab verən digər şirkətlər tezliklə öz AI chatbotlarını təqdim etməyə başladılar. Bu gün ən böyük və ən çox istifadə edilənlər Google-un Gemini (keçmiş Bard) və Microsoft-un Kopilotudur. Xüsusi biznes ehtiyaclarını ödəmək üçün nəzərdə tutulmuş bəziləri də daxil olmaqla başqaları da var. Məsələn, GitHub CoPilot proqram tərtibatçılarına kod yaratmağa kömək etmək üçün işləyir və Anthrophic's Claude məlumatların tapılması və sənədlərin ümumiləşdirilməsi üçün nəzərdə tutulmuşdur.
Və yarış yaratmağa davam edir gələcək nəsil Daha çox məlumat qəbul edə, daha tez emal edə və daha ətraflı, şəxsi cavablar verə bilən AI sistemləri. Goldman Sacks-a görə iqtisadçıları, ABŞ-da süni intellektlə əlaqəli investisiyalar növbəti onillikdə “ÜDM-in 2.5-4 faizi qədər yüksək səviyyəyə çata bilər”.
Çatbotlar geniş və müxtəlif sözlər, mətnlər, şəkillər, audio və onlayn davranışlar bazasına, eləcə də lazım olduqda materialı ümumi istifadə nümunələrinə uyğun təşkil etməyə imkan verən mürəkkəb alqoritmlərə ehtiyac duyur. Sual və ya məlumat sorğusu verildikdə, chatbotlar öz verilənlər bazasında sual və ya sorğudakı sözlərin nümunəsi ilə bağlı materialı müəyyənləşdirir və sonra yenidən alqoritmləri rəhbər tutaraq verilənlər bazasından verilən məlumatları ən yaxşı şəkildə qane edən sözlər və ya şəkillər toplusunu toplayırlar. məhdudiyyətlər, sorğu. Təbii ki, nümunələrin müəyyən edilməsi və cavabların qurulması prosesi çox böyük enerji tələb edir.
Bir chatbot nə qədər danışıqlı və ağıllı səslənsə də, Megan Crouse kimi xatırlamaq vacibdir. izah, ki:
“Model nə dediyini “bilmir”, lakin öyrədildiyi məlumat dəstinə əsasən hansı simvolların (sözlərin) bir-birinin ardınca gələcəyini bilir. ChatGPT, onun Google rəqibi Bard və başqaları kimi indiki nəsil süni intellekt chatbotları həqiqətən də ağıllı şəkildə məlumatlı qərarlar qəbul etmir; əvəzinə onlar internetin tutuquşularıdır, təbii nitq zamanı bir-birinin yanında tapılması ehtimal olunan sözləri təkrarlayırlar. Əsas riyaziyyat tamamilə ehtimalla bağlıdır."
Fərqli chatbotlar proqramlaşdırmalarına görə və müxtəlif məlumat dəstləri üzərində təlim keçdikləri üçün fərqli nəticələr verəcəklər. Məsələn, internetdə mövcud olan hər hansı ictimai məlumatı silməklə yanaşı, Əkizlər Google Tətbiqlərindəki məlumatlardan istifadə edə bilir, Copilot isə Bing axtarış motorundan əldə edilən məlumatlardan istifadə edir.
Çatbotlar tətbiq olunduqdan sonra bir sıra təkmilləşdirmələrdən keçdi. Hər bir nəsil daha mürəkkəb proqram paketinə malikdir ki, bu da ona daha nüanslı əlaqələr yaratmağa, həmçinin verilən suallardan və ya sorğulardan məlumatları daxil etməklə öz verilənlər bazasını genişləndirməyə imkan verir. Bu şəkildə chatbotlar istifadə yolu ilə zamanla öyrənir/təkmilləşir.
Bu perspektiv bir faktı vurğulayır ki, biz buludda baş verənlər haqqında danışa bilsək də, chatbotların sorğulara və ya suallara cavab vermək qabiliyyəti yerdə möhkəm kök salmış proseslərdən asılıdır. İçində sözləri texnoloji yazıçı Karen Hao:
“AI hər hansı digər texnologiya kimi təchizat zəncirinə malikdir; Bu texnologiyanın yaradılmasına daxil olan girişlər var, məlumatlar birdir, sonra hesablama gücü və ya kompüter çipləri başqadır. Və bunların hər ikisinin onlarla bağlı çoxlu insan xərcləri var”.
Təchizat Zənciri: İnsan Əməyi
AI sistemlərinin məlumatlara ehtiyacı var və məlumatlar bu və ya digər formada insanlardan gəlir. Buna görə də, texnologiya şirkətləri süni intellekt sistemlərinin işini təkmilləşdirmək üçün daim yeni və müxtəlif məlumatların axtarışındadır. Onlayn bloq və veb sayt yazılarımız, nəşr olunmuş kitab və məqalələrimiz, axtarışlarımız, fotoşəkillərimiz, mahnılarımız, şəkillərimiz və videolarımızla internetdən sərbəst şəkildə çıxarılaraq, biz yüksək gəlirli şirkətlərin daha çox qazanc əldə etmələrinə kömək edirik. Lauren Leffer kimi qeydlər,
“Veb tarayıcılar və kazıyıcılar giriş səhifəsinin arxasında olmayan demək olar ki, istənilən yerdən məlumatlara asanlıqla daxil ola bilərlər... Bura məşhur fotoşəkil paylaşma saytı Flickr, onlayn bazarlar, seçicilərin qeydiyyatı məlumat bazaları, hökumət internet səhifələri, Wikipedia, Reddit, tədqiqat anbarları, xəbər agentlikləri daxildir. və akademik qurumlar. Bundan əlavə, pirat məzmun kompilyasiyaları və Veb arxivləri var ki, onlar tez-tez İnternetdəki orijinal yerlərindən silinmiş məlumatları ehtiva edir. Və qırılmış verilənlər bazası getmir."
Əslində, qırılan materialın əhəmiyyətli bir hissəsi müəllif hüquqları ilə qorunmuş və icazəsiz götürülmüşdür. Buna cavab olaraq, bir sıra naşirlər, yazıçılar və rəssamlar oğurluğun qarşısını almağa çalışırlar. Məsələn, 2023-cü ilin avqustunda The New York Times öz “Xidmət Şərtləri"Üçün qadağan et “Maşın öyrənməsi və ya süni intellekt (AI) sisteminin öyrədilməsi daxil olmaqla, lakin bununla məhdudlaşmayaraq, hər hansı bir proqram proqramının” hazırlanmasında onun mətnindən, fotoşəkillərindən, şəkillərindən və audio/video kliplərindən hər hansı istifadə. Lakin bəzi böyük şirkətlərin materiallarının istifadəsini qadağan etmək və ya maliyyə təzminatı ilə bağlı danışıqlar aparmaq rıçaqları və ya qanuni gücü olsa da, əksər müəssisələr və şəxslər bunu etmir. Nəticə etibarı ilə onlar hələ də özlərinə sahib olmaq riski altındadırlar.əqli mülkiyyət” onlardan pulsuz götürülmüş və korporativ pul qazanma fəaliyyətinin xidmətində AI təlim materialına çevrilmişdir.
Süni intellekt məlumatlarının toplanması ilə bağlı şəxsi itkiləri minimuma endirmədən, bu əldəetmə üsulu ilə bağlı daha böyük problem var. İctimai interneti sındırmaq o deməkdir ki, AI chatbotları elm, tarix, siyasət, insan davranışı və cari hadisələr haqqında geniş şəkildə fərqli perspektivləri və anlayışları özündə cəmləşdirən materiallardan, o cümlədən ifrat nifrət qruplarının üzvlərinin yazıları və yazılarından istifadə etməklə öyrədilir. Problemli məlumatlar hətta ən mürəkkəb chatbotların çıxışına asanlıqla təsir göstərə bilər.
Məsələn, chatbotlar şirkətlər tərəfindən işə qəbul zamanı onlara kömək etmək üçün getdikcə daha çox istifadə olunur. Bununla belə, Bloomberg News kimi aşkar, "ən yaxşı tanınmış generativ AI aləti sistematik olaraq adlarına əsaslanaraq qrupları mənfi cəhətlərə çevirən qərəzlər yaradır." Məsələn, öz araşdırması aşkar "Fortune 1000 şirkətində real maliyyə analitiki rolu üçün səkkiz eyni səviyyəli CV-ni sıralamaq üçün 500 dəfə soruşduqda, ChatGPT ən az qaradərili amerikalılar üçün fərqli bir adla CV seçəcək."
Chatbotlar başqa bir şəkildə insan əməyinin keyfiyyətindən asılıdır. Çatbotlar veb taramaçılar və kazıyıcılar tərəfindən toplanan məlumatların çoxundan birbaşa istifadə edə bilməzlər. Josh Dzieza kimi izah, "Ən təsirli süni intellekt sisteminin arxasında belə insanlar dayanır - çoxlu sayda insan məlumatı öyrətmək üçün məlumatları etiketləyir və çaşqın olduqda məlumatları dəqiqləşdirir."
Böyük süni intellekt şirkətləri ümumiyyətlə məlumatların etiketlənməsi prosesi üçün lazım olan işçiləri tapmaq və öyrətmək üçün digər kiçik şirkətləri işə götürürlər. Və bu subpodratçılar çox vaxt annotator adlanan işçilərini Qlobal Cənubda, çox vaxt Nepal və Keniyada tapırlar. Annotasiya prosesi, eləcə də şərh edilən maddələr kommersiya sirri hesab edildiyi üçün annotatorlar nadir hallarda öz son müdirini tanıyır və onların başqaları, hətta həmkarları ilə nə etdiklərini müzakirə etdikləri aşkar edilərsə, işdən çıxarılacaqlar.
Dzieza, chatbotların onlar üçün toplanmış məlumatlardan istifadə etməsini təmin etmək üçün annotatorların görməli olduğu bəzi işləri təsvir edir. Məsələn, annotatorlar video və fotolardakı elementləri etiketləyirlər. Süni intellekt sistemlərinin müəyyən piksel konfiqurasiyalarını xüsusi elementlər və ya emosiyalarla birləşdirə bilməsini təmin etmək üçün bunu etmək lazımdır. Özünü idarə edən avtomobillər üçün süni intellekt sistemləri quran şirkətlər küçə və ya şosse səhnələrindən çəkilmiş videolardakı bütün kritik elementləri müəyyən etmək üçün annotatorlara ehtiyac duyurlar. Bu, "hər bir nəqliyyat vasitəsini, piyadanı, velosipedçini, sürücünün bilməli olduğu hər şeyi - kadr-kadr və bütün mümkün kamera bucaqlarından müəyyən etmək" deməkdir. Dzieza qeyd etdiyi kimi, bu “çətin və təkrarlanan işdir. Bir neçə saniyəlik görüntünün şərh edilməsi səkkiz saat çəkdi və bunun üçün [annotatora] təxminən 10 dollar ödənildi.
Bu cür iş, az maaşlı olsa da, çox vacibdir. Annotasiya prosesi zəif aparılırsa və ya verilənlər bazası məhduddursa, sistem asanlıqla uğursuz ola bilər. Bir nümunə: 2018-ci ildə bir qadını özünü idarə edən Uber avtomobili vuraraq öldürdü. Süni intellekt sistemi uğursuz oldu, çünki "velosipedçilərdən və piyadalardan qaçmaq üçün proqramlaşdırılsa da, küçənin qarşı tərəfində velosipedlə gedən kiminsə nə edəcəyini bilmirdi".
Sosial media fotoşəkillərindəki elementləri etiketləmək üçün annotatorlar da işə götürülür. Bu, insanlar tərəfindən geyilə bilən bütün görünən köynəklərin müəyyən edilməsini və etiketlənməsini əhatə edə bilər. Bunun üçün onların “polo köynəkləri, açıq havada geyilən köynəklər, rəfdə asılmış köynəklər” olub-olmadığını qeyd etmək lazımdır.
Digər işlərə emosiyaların etiketlənməsi daxildir. Məsələn, bəzi annotatorlar üz şəkillərinə, o cümlədən annotatorlar tərəfindən çəkilmiş selfilərə baxmaq və subyektin qəbul edilən emosional vəziyyətini etiketləmək üçün işə götürülür. Digərləri pizza şəbəkəsinə məxsus mağazalara sifariş verən müştərilərin emosiyalarını etiketləmək üçün işə götürülür. Başqa bir işdə Reddit yazılarının emosiyalarını etiketləyən annotatorlar var. Bu tapşırıq bir qrup hindistanlı işçi üçün çətin oldu, ilk növbədə ABŞ internet mədəniyyəti ilə tanış olmadıqları üçün. Subpodratçı işlərini nəzərdən keçirdikdən sonra qərara gəldi ki, postların təxminən 30 faizinə səhv etiket verilib.
Bəlkə də süni intellekt üzrə təlim işinin ən sürətlə böyüyən seqmenti chatbot ilə insanların birbaşa qarşılıqlı əlaqəsini əhatə edir. Mövzuları müzakirə etmək üçün insanlar işə götürülür və chatbot hər söhbətə iki fərqli cavab vermək üçün proqramlaşdırılıb. İşə götürülmüş "müzakirəli" daha sonra "ən yaxşı" hesab etdiyi cavabı seçməlidir. Bu məlumat daha sonra daha "insan" kimi səslənməsinə kömək etmək üçün sistemə qaytarılır.
Bir sözlə, AI sistemləri insanların işindən çox asılıdır. Bunlar insan qərəzləri və ya emosiyalarından təsirlənməyən sehrli sistemlər deyil. Və onların fəaliyyəti hansısa xəyali buludda baş vermir. Onların fəaliyyəti üçün tələb olunan infrastrukturu nəzərə alsaq, bu sonrakı məqam daha aydın görünür.
Təchizat Zənciri: Məlumat Mərkəzləri
Süni intellektdə artım, geniş məlumat mərkəzlərinin qurulması və onların yerləşdiyi kompüterləri və serverləri, habelə onların həddindən artıq istiləşməsinin qarşısını almaq üçün davamlı işləməli olan kondisionerləri idarə etmək üçün elektrik enerjisinə davamlı olaraq artan tələbatla dəstəklənib. Faktiki olaraq, “Buludun indi hava yolu sənayesindən daha çox karbon izi var. Tək bir məlumat mərkəzi 50,000 evin ekvivalent elektrik enerjisini istehlak edə bilər”.
Görə Beynəlxalq Enerji Agentliyinə görə, ABŞ-da fəaliyyət göstərən 2,700 məlumat mərkəzi 4-ci ildə ölkənin ümumi enerji istifadəsinin 2022 faizindən çoxuna cavabdeh idi. Və onların payı 6-cı ilə qədər 2026 faizə çatacaq. Təbii ki, bu cür təxminlər kobuddur, həm də çünki əsas texnologiya şirkətləri istəməyən müvafiq məlumatları bölüşmək üçün və AI sistemləri daim yeni məlumatlar üzərində öyrədilir və daha çox bacarıqlarla təkmilləşdirilir, bu da hər bir fəaliyyət üçün daha çox enerji istehlakı deməkdir.
İndi də məlumat mərkəzlərinin enerji tələblərinin ABŞ-ın elektrik şəbəkəsini vergiyə cəlb etdiyinə dair işarələr var. Washington Post kimi qeydlər: “Şimali Virciniya planlaşdırılmış və tikilməkdə olan bütün yeni məlumat mərkəzlərinə xidmət göstərmək üçün bir neçə böyük atom elektrik stansiyasına bərabər olmalıdır. İsti yay günlərində elektrik enerjisi qıtlığının artıq adi hal aldığı Texas da eyni dilemma ilə üzləşir”.
Sakit okeanın şimal-qərbi oxşar problemlə üzləşir. Kimi Oreqoniya qəzet qeyd edir:
“Oreqon ştatında yayılan məlumat mərkəzləri, [2023] yayında yayımlanan üç yeni proqnoza görə, regional kommunal xidmətlər və enerji planlaşdırıcılarının gözlədiyindən kəskin şəkildə daha çox elektrik istehlak edəcək.
"Bu, Şimal-Qərb elektrik şəbəkəsinə daha çox təzyiq edir və Oreqon ştatının cəmi iki il əvvəl əyalətin qurduğu iddialı təmiz enerji məqsədlərinə cavab verə biləcəyinə dair yeni şübhələr yaradır ...
“Bonneville Enerji Administrasiyası indi gözləyir ki, 2041-ci ilə qədər Oreqon və Vaşinqtonda məlumat mərkəzlərinin elektrik enerjisinə olan tələbatı orta hesabla 2,715 meqavat çəkərək iki yarım dəfə artacaq. Bu, bu gün həmin iki ştatda bütün evlərin üçdə birini elektriklə təmin etmək üçün kifayətdir”.
Əsasən süni intellektin sürətlə artan tələblərindən qaynaqlanan bu sürətlə artan enerji tələbatı qlobal istiləşmə ilə mübarizə səylərimiz üçün əsas təhlükədir. Məsələn, enerji ilə bağlı narahatlıqlar artıq Kanzas, Nebraska, Viskonsin və Cənubi Karolina ştatlarını kömür stansiyalarının bağlanmasını gecikdirməyə məcbur edib. AI-nin yaratdığı iqlim təhlükəsi ilə bağlı bir neçə iqlim fəaliyyət qrupunun 2024-cü il hesabatı tapır Beynəlxalq Enerji Agentliyinin yaxın iki il ərzində baş verəcəyini təxmin etdiyi məlumat mərkəzləri tərəfindən enerji istifadəsinin iki dəfə artması planetin isitmə emissiyalarının 80 faiz artmasına səbəb olacaq. Bu, yaradılan deyil, real ehtiyacları ödəmək qabiliyyətindən asılı olmayaraq təqdim edilən yeni AI xidmətləri üçün ödəmək üçün ciddi qiymətdir.
“İnandırıcı Dəqiq Deyil”
Aydındır ki, böyük texnoloji şirkətlər süni intellektin onlar üçün böyük qazanc əldə edəcəyinə mərc edirlər. Və heç nəyi şansa buraxmadan, onları istəyib-istəmədiyimizi düşünmək fürsətimiz olmadan həyatımıza daxil etmək üçün əllərindən gələni edirlər. Artıq süni intellekt sistemləri səhiyyəni yaxşılaşdırmaq, psixi sağlamlıqla bağlı məsləhətlər vermək, hüquqi məsləhətlər vermək, tələbələri maarifləndirmək, şəxsi qərar qəbul etməyimizi təkmilləşdirmək, iş yerinin səmərəliliyini artırmaq üçün bir yol kimi təbliğ olunur, siyahı davam edir.
Süni intellekt sistemlərinin yalnız daxil edilmiş məlumatlar və ondan istifadə etmək üçün yazılmış proqram təminatı qədər yaxşı olması unudulmuş kimi görünür. Başqa sözlə, onların işləməsi insanlardan asılıdır. Və bəlkə də daha önəmlisi, heç kim süni intellekt sistemlərinin öyrədildiyi məlumatlardan necə istifadə etdiyini bilmir. Başqa sözlə, onların “mülahizə prosesini” izləmək mümkün deyil. Bu sistemlərin ciddi şəkildə həddən artıq satıldığını göstərən xəbərdarlıq əlamətləri artıq görünür.
Məsələn, 2022-ci ildə bir müştəri ölüm haqqının necə alınacağını öyrənmək üçün Air Canada ilə əlaqə saxladı. Aviaşirkətin müştəri xidməti süni intellektlə işləyən chatbot ona dedi ki, səfərində pulu geri almaq üçün bilet verildikdən sonra 90 gün ərzində formanı doldurmalıdır. Lakin o, səfərini başa vurduqdan sonra formanı təqdim edəndə aviaşirkətin əməkdaşları ona gediş haqqının aşağı salınmayacağını, çünki formanın səfərdən əvvəl doldurulması lazım olduğunu bildiriblər. O, hava yolu şirkətinə botun dediklərindən çəkdiyi skrinşotları göstərdikdə, aviaşirkət botun dediklərinə görə cavabdeh olmadığını bildirdi.
Müştəri Air Canada-nı məhkəməyə verib və qalib gəlib. Hakim qeyd ki,
“Air Canada iddia edir ki, o, agentləri, xidmətçiləri və ya nümayəndələrindən biri, o cümlədən chatbot tərəfindən verilən məlumata görə məsuliyyət daşıya bilməz. Bunun niyə belə olduğuna inandığını izah etmir. Əslində, Air Canada chatbotun öz hərəkətlərinə cavabdeh olan ayrıca hüquqi şəxs olduğunu təklif edir. Bu əlamətdar təqdimatdır”.
Şirkətlərin həqiqətən chatbotların ayrı-ayrı hüquqi şəxslər elan edilməsinə çalışıb-istəməmələrini bir kənara qoyaraq, istəsələr, öz fəaliyyətlərindən uzaqlaşa bilsinlər, aviaşirkət hələ də chatbotunun niyə yanlış məlumat verdiyini izah etməyib.
Daha sonra Microsoft-un köməyi ilə hazırlanmış NYC chatbotu var ki, bu da şəhərin bizneslərə şəhər qaydaları və qaydalarına əməl etmələrinə kömək etmək üçün “bir pəncərə” kimi təqdim etdi. Budur bəziləri misal sorğulara cavab olaraq verilən şübhəli məsləhətlərdən:
“Çatbot yanlış olaraq işəgötürənin cinsi qısnamadan şikayət edən, hamiləliyini açıqlamayan və ya dreadlocklarını kəsməkdən imtina edən bir işçini işdən çıxarmasının qanuni olduğunu irəli sürdü...
"Bir restoran gəmiricinin dişlədiyi pendiri təqdim edə bilərmi" sualına o, belə cavab verdi: "Bəli, siçovul dişləməsi varsa, pendiri müştərilərə verə bilərsiniz" və əlavə etdi ki," zərərin dərəcəsini qiymətləndirmək vacibdir. siçovulun səbəb olduğu' və 'vəziyyət haqqında müştəriləri məlumatlandırmaq'.
Bəlkə də təəccüblü deyil ki, həm Microsoft, həm də Nyu-Yorkun meri bu cür problemlərin nəticədə düzəldiləcəyini söyləyərək cavab verdilər. Əslində, onlar əlavə etdilər ki, istifadəçilər səhvləri göstərərək sistemin lazımi dəqiq tənzimlənməsini sürətləndirəcəklər.
Bu cür problemlər, nə qədər ciddi olsalar da, süni intellekt “halüsinasiyalar” problemi ilə müqayisədə solğun görünür. Halüsinasiya, süni intellekt sisteminin adlar, tarixlər, kitablar, hüquqi işlər, tibbi izahatlar və hətta tarixi hadisələri ehtiva edə bilən məlumatları uydurmasıdır. Məsələn, chatbotların vəkillərin məhkəmə sənədlərində istinad etdikləri işləri icad etdiyi bir neçə hüquqi iş olub.
Mövcud bir hal: 2023-cü ilin iyununda iddiaçını təmsil edən vəkillər hal Kolumbiyanın bir aviaşirkətinə qarşı məhkəmə iddiası ilə bağlı bir chatbot tərəfindən "tapılan" altı dəstəkləyici hadisənin daxil olduğu qısa məlumat təqdim edildi. Təəssüf ki, bu hallar heç vaxt olmayıb; bəziləri hətta mövcud olmayan aviaşirkətlərin adını çəkdi. Hakim işi rədd edib və vəkilləri saxta sitatlardan istifadə etdiklərinə görə cərimələyib. Hakimin pis niyyətlə hərəkət etdiklərinə dair iddiası ilə razılaşmayan vəkillər müdafiələrində bildiriblər ki, “Biz bir texnologiyanın bütöv bir parçadan iş düzəldə biləcəyinə inanmamaqla vicdanlı səhvə yol vermişik.
Hətta ən mürəkkəb chatbotlar da halüsinasiyalara məruz qala bilər. Ertəsi gün keçiriləcək 2024 Superbowl-a mərc etmək üçün əmsallar barədə soruşduqda, Google-un chatbotu elan Superbowl artıq keçirildiyi üçün mərc etmək üçün çox gec idi, San Francisco 49ers Kanzas City Chiefs-i 34: 28 hesabı ilə məğlub etdi. Hətta bəzi oyunçu statistikası da daxil edildi. Oyun keçirildiyi zaman Kanzas Siti qalib gəldi. Microsoft-un chatbotu da eyni şeyi etdi və oyunun hələ oynanılmamasına baxmayaraq bitdiyini iddia etdi. Bununla belə, Kanzas Siti Başçılarının qalib gəldiyini elan etdi.
İndi təsəvvür edin ki, tibbi məsləhət verən chatbot halüsinasiyaya məruz qalsa, hansı xərclər ola bilər. ABŞ ordusu təhdidləri müəyyən etmək, pilotsuz təyyarələrə rəhbərlik etmək, kəşfiyyat məlumatları toplamaq və müharibə planı kimi müxtəlif üsullarla süni intellekt texnologiyasından istifadəni sürətlə artırır. Sistemin qeyri-adekvat və ya natamam məlumat təlimi və ya daha da pis hallüsinasiya nəticəsində yarana biləcək potensial fəlakəti təsəvvür edin. Aydın məsələ budur ki, bu sistemlər müxtəlif səbəblərə görə qüsursuz deyil. Daxili Microsoft sənədi bunu ən yaxşı şəkildə əks etdirir elan yeni AI sistemlərinin "doğru deyil, inandırıcı olmaq üçün qurulduğunu" söylədi.
Nə edilməli?
İndiyədək süni intellektlə bağlı ictimai narahatlıq əsasən süni intellekt sistemləri tərəfindən şəxsi məlumatların icazəsiz istifadəsinə yönəlib. İnsanlar materiallarının icazəsiz internetdən çıxarılmasından qorunmaq istəyirlər. Və onlar istəmirlər ki, süni intellekt sistemləri ilə qarşılıqlı əlaqə onları fırıldaqçılıq, ayrı-seçkilik və ya təqiblərə məruz qoya biləcək məlumat yaradan fəaliyyətə çevrilsin. Müxtəlif dövlət və yerli hökumətlər indi nəzərə alaraq buna nail olmağın yolları. Və 2023-cü ildə Prezident Bayden federal bir qərar verdi icra əmri yeni “təməl” IA sistemlərinin ictimaiyyətə təqdim edilməzdən əvvəl qüsurlar üçün adekvat şəkildə sınaqdan keçirilməsini təmin etməyə çalışır. Bunlar faydalı ilk addımlardır.
Süni intellektdən istifadə ilə bağlı ən kəskin mübarizə iş yerində gedir. Şirkətlər saxlamaq üçün AI sistemlərindən istifadə edirlər Nişanlar işçilərin təşkili üzrə, nəzarət işçi performansı və mümkün olduqda qurtarmaq işçilərin. Təəccüblü deyil ki, həmkarlar ittifaqı işçiləri şirkətlərin AI sistemlərindən istifadəsinə məhdudiyyətlər təklif edərək mübarizə aparmağa başladılar.
Məsələn, 12,000-ə yaxın ekran yazıçısını təmsil edən Amerika Yazıçılar Gildiyası (WGA) 2023-cü ildə əmək haqqının artırılmasını istəyən Universal, Paramount, Walt Disney, Netflix, Amazon və Apple kimi bir sıra böyük prodüser şirkətlərini beş ay ərzində vurdu. məşğulluğun qorunması və AI istifadəsinə məhdudiyyətlər. Əhəmiyyətli odur ki, LA Times-ın köşə yazarı Brayan Merchant kimi, təsvir edir:
“ChatGPT kimi generativ süni intellektdən istifadə ilə bağlı narahatlıqlar, yazıçılar ilk dəfə sövdələşməyə başlamaq üçün studiyalarla oturduqları zaman heç də ağılların üstündə deyildi. WGA-nın ilk təklifi, sadəcə olaraq, studiyaların orijinal skriptlər yaratmaq üçün süni intellektdən istifadə etməyəcəyini ifadə etdi və yalnız studiyalar qırmızı bayraqların yüksəlməsindən qəti şəkildə imtina etdikdə.
“Məhz o zaman yazıçılar anladılar ki, studiyalar süni intellektdən istifadə etməkdə ciddidirlər – əgər hazır ssenarilər yaratmasaydı, bu məqamda hər iki tərəf mümkün deyildi – o zaman yazıçılara qarşı həm təhdid, həm də yenidən yazmağı təklif etməyə haqq qazandırmaq üçün bir vasitə kimi haqları. Məhz o zaman WGA qumda bir xətt çəkdi, biz AI-nin sosial mediada viral olduğunu pisləyən işarələri və bu kimi qəzetləri yaradan münaqişəni gündəmə gətirən başlıqları görməyə başlayanda.
Əslində, süni intellekt sistemlərinin istifadəsinə nəzarətin əldə edilməsi zərurəti ilə bağlı artan məlumatlılıq Yazıçılar Birliyinin əlaqəli sənayelərdə, o cümlədən rəqəmsal media mağazalarında işləyənlər üçün tətil zamanı süni intellektlə bağlı bir neçə görüş keçirməsinə səbəb oldu. İştirakçıların çoxu diqqət çəkən ssenaristləri dəstəkləmək üçün piket xəttinə çıxdılar.
Tətil yazıçılara böyük qazanc gətirdi. Süni intellekt baxımından, yeni müqavilə skriptlərin yazılması və ya yenidən yazılması və ya mənbə materialı üçün böyük dil modelli AI sistemlərinin istifadəsini qadağan edir. Digər tərəfdən, yazıçılar istəsələr, onlardan istifadə etməyə icazə veriləcək. Müqavilə həmçinin AI sistemlərini öyrətmək üçün hər hansı yazıçı materialından istifadə etməyi də istisna edir. Bir analitik kimi şərh, “İlk qaralamaların ChatGPT vasitəsilə ediləcəyi və sonra daha aşağı yenidən yazma haqqı üçün yazıçıya veriləcəyi qorxusu aradan qaldırıldı. Bu, işçilərlə bağlı süni intellekt üçün markerlər qoyan ilk kollektiv müqavilələrdən biri ola bilər.”
Ekran Aktyorları Gildiyası-Amerika Televiziya və Radio Rəssamları Federasiyası (SAG-AFTRA) WGA tətilinin başlamasından iki ay sonra əsas film və televiziya prodüserlərinə qarşı tətil etdi. Təəccüblü deyil ki, AI siyasəti tətil qərarını motivasiya edən əsas məsələlərdən biri idi. Bəlkə də ən əsası aktyorlardır müvəffəq oldu İstehsalçıları AI-nin gələcək istifadəsi ilə bağlı sövdələşməyə məcbur edəcək yeni bir müqavilənin qalibi.
Məsələn, müqavilə tələb edir ki, əgər istehsalçı “sintetik ifaçı”dan (rəqəmsal şəkildə yaradılmış təbii görünüşlü, “identifikasiya oluna bilən hər hansı təbii ifaçı kimi tanınmayan fərdi”) istifadə etməyi planlaşdırırsa, bu barədə məlumat verməli və ittifaqla sövdələşmə aparmalıdır. birliyə ödəniləcək ödəniş imkanı ilə təbii ifaçı işə götürün. Əgər prodüser “tanıla bilən sintetik ifaçı”dan (təbii ifaçı kimi tanınan rəqəmsal şəkildə yaradılmış təbii görünüşlü fərd) istifadə etmək istəyirsə, əvvəlcə ifaçı ilə sövdələşmə aparmalı və onların razılığını almalıdır.
Digər işçilər də həm iş yerlərini qorumaq, həm də peşəkar standartları müdafiə etmək üçün süni intellekt texnologiyasının istifadəsi ilə bağlı müdirləri ilə sərt sövdələşmələr aparırlar, məsələn jurnalistlər. Bu əmək mübarizələri süni intellektdən istifadə üçün lazım olan qoruyucuların yaradılması istiqamətində mühüm başlanğıcdır. Onlar tibb sistemimizdə, təhsil müəssisələrimizdə, nəqliyyatda, xəbər reportajlarında, dövlət agentlikləri və provayderlərlə ünsiyyətdə insan əlaqələrini və insan agentliyini azaltmaq üçün AI texnologiyasından istifadə etmək üçün korporativ həvəsə qarşı daha geniş əmək-icma ittifaqı qurmaq üçün əsas ola bilər. əmtəə və xidmətlərdən ibarətdir və siyahı davam edir. Əgər biz işləyən insanlara süni intellekt texnologiyası ilə bağlı bütün xərcləri və faydaları dəqiq qiymətləndirmək üçün şırınga vasitəsilə görməyə kömək edə bilsək, uğur şansımız xeyli artacaq. •
Martin Hart-Landsberg Lyuis və Klark Kollecində İqtisadiyyat üzrə Fəxri Professordur, Portlend, Oreqon; və Sosial Elmlər İnstitutunun köməkçi elmi işçisi, Gyeongsang Milli Universiteti, Cənubi Koreya. Onun tədris və tədqiqat sahələrinə siyasi iqtisadiyyat, iqtisadi inkişaf, beynəlxalq iqtisadiyyat və Şərqi Asiyanın siyasi iqtisadiyyatı daxildir. O, blog saxlayır İqtisadi Cəbhədən hesabatlar.
ZNetwork yalnız oxucularının səxavəti hesabına maliyyələşdirilir.
ianə vermək