Atrodo, kad dirbtinis intelektas (AI) yra visur. Įmonės savo tinklalapiuose arba telefono sistemose naudoja galingus AI pokalbių robotus, kad galėtų tvarkyti klientų klausimus. Naujienų skyriai ir žurnalai juos naudoja rašydami istorijas. Juos kino studijos naudoja filmams gaminti. Technologijos įmonės juos naudoja programavimui. Mokiniai juos naudoja rašydami referatus. Atrodo kaip magija. Ir viskas, kas tariamai vyksta „debesyje“, nesunku patikėti, kad dirbtinio intelekto sistemos yra naudingos aplinkai. Deja, viskas nėra taip, kaip atrodo.
Pokalbių robotai sukurti išnaudojimo pagrindu, sunaudoja daug energijos ir toli gražu nėra patikimi. Ir nors lengva įsivaizduoti, kad jos vis labiau tobulėja ir tam tikrais atžvilgiais palengvina gyvenimą, įmonės išleidžia milijardus dolerių į savo kūrimą, kad gautų pelno, nesijaudindamos, ar rezultatai bus socialiai naudingi. Trumpai tariant, turime rimtai žiūrėti į įmonių susidomėjimą dirbtiniu intelektu ir sukurti strategijas, kurios padėtų mums kontroliuoti, kaip kuriamas ir naudojamas AI.
Lenktynės vyksta
Pokalbių robotų revoliucija prasidėjo 2022 m., kai OpenAI pristatė ChatGPT. „ChatGPT“ galėjo bendrauti kaip žmogus ir galėjo atsakyti į vartotojų klausimus sugeneruotu tekstu, taip pat rašyti straipsnius ir kodą. Geriausia, kad juo buvo galima naudotis nemokamai.
Kitos įmonės, reaguodamos į visuomenės susidomėjimą ChatGPT, netrukus pradėjo pristatyti savo AI pokalbių robotus. Didžiausias ir plačiausiai naudojamas šiandien yra Google Gemini (anksčiau Bard) ir Microsoft Copilot. Taip pat yra ir kitų, įskaitant kai kuriuos, skirtus konkretiems verslo poreikiams tenkinti. Pavyzdžiui, „GitHub CoPilot“ padeda programinės įrangos kūrėjams kurti kodą, o „Anthrophic's Claude“ buvo sukurta informacijai rasti ir dokumentams apibendrinti.
Ir lenktynės toliau kuria Kita karta AI sistemos, kurios gali priimti daugiau informacijos, greičiau ją apdoroti ir pateikti išsamesnius asmeninius atsakymus. Pasak Goldman Sacks ekonomistai, su dirbtiniu intelektu susijusios investicijos Jungtinėse Valstijose per ateinantį dešimtmetį „gali pasiekti 2.5–4 procentus BVP“.
Pokalbių robotams reikia didelės ir įvairios duomenų, teksto, vaizdų, garso ir internetinės elgsenos duomenų bazės bei sudėtingų algoritmų, kad prireikus galėtų tvarkyti medžiagą pagal įprastus naudojimo būdus. Gavus klausimą arba informacijos užklausą, pokalbių robotai savo duomenų bazėje identifikuoja medžiagą, susijusią su klausime ar užklausoje pateiktų žodžių šablonu, ir vėlgi pagal algoritmus surenka žodžių ar vaizdų rinkinį iš savo duomenų bazės, kuris geriausiai tenkina pateiktus duomenis. apribojimai, tyrimas. Žinoma, modelių nustatymo ir atsakymų konstravimo procesas atima milžiniškus energijos kiekius.
Kad ir kaip skambėtų pokalbių robotas, svarbu atsiminti, kaip sako Megan Crouse paaiškina, kad:
„Modelis „nežino“, ką sako, bet žino, kokie simboliai (žodžiai) gali būti vienas po kito, remiantis duomenų rinkiniu, pagal kurį jis buvo apmokytas. Dabartinės kartos dirbtinio intelekto pokalbių robotai, tokie kaip „ChatGPT“, „Google“ konkurentas Bardas ir kiti, tikrai nepriima protingai pagrįstų sprendimų; Vietoj to, jie yra interneto papūgos, kartojančios žodžius, kurie gali būti randami vienas šalia kito natūralios kalbos eigoje. Pagrindinė matematika susijusi su tikimybe.
Skirtingi pokalbių robotai duos skirtingus rezultatus dėl savo programavimo ir dėl to, kad jie buvo išmokyti naudoti skirtingus duomenų rinkinius. Pavyzdžiui, „Gemini“ gali ne tik rinkti bet kokius žiniatinklyje esančius viešus duomenis, bet ir naudoti duomenis iš „Google Apps“, o „Copilot“ naudoja duomenis, sugeneruotus iš „Bing“ paieškos variklio.
Nuo tada, kai buvo pristatyti pokalbių robotai, buvo atlikta daug atnaujinimų. Kiekviena karta turi sudėtingesnį programinės įrangos paketą, leidžiantį užmegzti niuansesnius ryšius, taip pat išplėsti duomenų bazę įtraukiant duomenis iš užduodamų klausimų ar užklausų. Tokiu būdu pokalbių robotai laikui bėgant mokosi / tobulėja.
Ši perspektyva pabrėžia faktą, kad nors galime kalbėti apie debesyje vykstančius dalykus, pokalbių robotų gebėjimas reaguoti į raginimus ar klausimus priklauso nuo procesų, kurie yra tvirtai įsišakniję žemėje. Viduje žodžiai technologijų rašytojos Karen Hao:
„AI turi tiekimo grandinę kaip ir bet kuri kita technologija; yra įvestis, kuri naudojama kuriant šią technologiją: duomenys yra vieni, o skaičiavimo galia arba kompiuterio lustai yra kiti. Ir su jais abiem susijusi daug žmogiškųjų išlaidų.
Tiekimo grandinė: žmogaus darbas
AI sistemoms reikia duomenų, o duomenys viena ar kita forma gaunami iš žmonių. Todėl technologijų įmonės nuolatos ieško naujų ir įvairių duomenų, kad pagerintų savo dirbtinio intelekto sistemų veikimą. Interneto tinklaraščio ir svetainės įrašais, publikuotomis knygomis ir straipsniais, paieškomis, nuotraukomis, dainomis, paveikslėliais ir vaizdo įrašais, laisvai iškrapštytiems iš interneto, padedame garantuoti labai pelningoms įmonėms, siekiančioms dar didesnio pelno. Kaip Lauren Leffer pažymi,,
„Žiniatinklio tikrinimo programos ir skreperiai gali lengvai pasiekti duomenis iš beveik bet kurios vietos, kurioje nėra prisijungimo puslapio... Tai apima viską, kas yra populiarioje nuotraukų dalijimosi svetainėje Flickr, internetinėse prekyvietėse, rinkėjų registracijos duomenų bazėse, vyriausybės tinklalapiuose, Vikipedijoje, Reddit, tyrimų saugyklose, naujienų leidiniuose. ir akademinės institucijos. Be to, yra piratinio turinio rinkinių ir žiniatinklio archyvų, kuriuose dažnai yra duomenų, kurie vėliau buvo pašalinti iš pradinės vietos internete. Ir iškrapštytos duomenų bazės niekur nedingsta.
Tiesą sakant, didelė dalis nubrauktos medžiagos buvo saugoma autorių teisių ir paimta be leidimo. Reaguodama į tai, daugelis leidėjų, rašytojų ir menininkų dabar siekia sustabdyti vagystę. Pavyzdžiui, 2023 m. rugpjūčio mėn. „The New York Times“ atnaujino savo „Paslaugų teikimo sąlygos“Į uždrausti bet koks jos teksto, nuotraukų, vaizdų ir garso / vaizdo klipų naudojimas kuriant „bet kokią programinę įrangą, įskaitant, bet neapsiribojant, mašininio mokymosi arba dirbtinio intelekto (AI) sistemos mokymą“. Tačiau nors kai kurios didžiosios įmonės turi svertų arba teisinių galių uždrausti arba derėtis dėl finansinės kompensacijos už jų medžiagos naudojimą, dauguma įmonių ir asmenų to neturi. Dėl to jiems vis dar gresia pavojus, kad jų „intelektinė nuosavybė“, paimta iš jų nemokamai ir paversta AI mokymo medžiaga, skirta įmonės pinigų uždirbimo veiklai.
Nesumažinus asmeninių nuostolių, susijusių su AI duomenų rinkimu, šis gavimo būdas kelia daug daugiau problemų. Viešasis internetas reiškia, kad dirbtinio intelekto pokalbių robotai yra mokomi naudojant medžiagą, apimančią labai skirtingus požiūrius ir supratimą apie mokslą, istoriją, politiką, žmonių elgesį ir dabartinius įvykius, įskaitant ekstremalios neapykantos grupių narių įrašus ir raštus. Ir probleminiai duomenys gali lengvai paveikti net ir pačių sudėtingiausių pokalbių robotų išvestį.
Pavyzdžiui, įmonės vis dažniau naudoja pokalbių robotus, kad padėtų joms įdarbinti. Tačiau, kaip rašo „Bloomberg News“. atrado„Geriausiai žinomas generacinis AI įrankis sistemingai sukuria šališkumą, kuris nepalankiai nuteikia grupėms pagal jų pavadinimus“. Pavyzdžiui, savo studiją steigti „Kai 1000 kartų buvo paprašyta reitinguoti aštuonis vienodai kvalifikuotus gyvenimo aprašymus, skirtus tikro finansų analitiko vaidmeniui „Fortune 500“ sąraše esančioje įmonėje, „ChatGPT“ buvo mažiausiai tikėtina, kad pasirinktų CV pavadinimu, kuris skiriasi nuo juodaodžių amerikiečių.
Pokalbių robotai dar kitu būdu priklauso nuo žmogaus darbo kokybės. Pokalbių robotai negali tiesiogiai pasinaudoti daugybe duomenų, kuriuos surinko žiniatinklio tikrinimo programos ir grandikliai. Kaip Joshas Dzieza paaiškina, „už net įspūdingiausios AI sistemos slypi žmonės – daugybė žmonių žymi duomenis, kad juos išmokytų, ir paaiškina duomenis, kai jie susipainioja“.
Didžiosios dirbtinio intelekto įmonės paprastai samdo kitas mažesnes įmones, kad surastų ir apmokytų darbuotojus, reikalingus duomenų ženklinimo procesui. Ir šie subrangovai dažniausiai randa savo darbuotojus, vadinamus anotatoriais, globaliuose pietuose, dažnai Nepale ir Kenijoje. Kadangi anotacijos procesas ir anotuojami elementai laikomi komercinėmis paslaptimis, komentatoriai retai žino savo pagrindinį viršininką ir bus atleisti, jei bus aptikti, kad aptars, ką daro su kitais, net su bendradarbiais.
Dzieza aprašo kai kuriuos darbus, kuriuos turi atlikti anotatoriai, kad pokalbių robotai galėtų pasinaudoti jiems surinktais duomenimis. Pavyzdžiui, komentatoriai pažymi elementus vaizdo įrašuose ir nuotraukose. Tai turi būti padaryta siekiant užtikrinti, kad AI sistemos galėtų susieti konkrečias pikselių konfigūracijas su konkrečiais elementais ar emocijomis. Įmonėms, kuriančioms dirbtinio intelekto sistemas savarankiškai važiuojančioms transporto priemonėms, reikia anotatorių, kurie identifikuotų visus svarbiausius elementus vaizdo įrašuose, kuriuose užfiksuotos gatvės ar greitkelių scenos. Tai reiškia „identifikuoti kiekvieną transporto priemonę, pėsčiąjį, dviratininką ir viską, ką vairuotojas turi žinoti – kadras po kadro ir visais įmanomais kameros kampais“. Kaip praneša Dzieza, tai „sunkus ir pasikartojantis darbas. Kelių sekundžių trukmės filmuota medžiaga komentuoti užtruko aštuonias valandas, už tai [anotatoriui] buvo sumokėta apie 10 USD.
Toks darbas, nors ir mažai apmokamas, yra labai svarbus. Jei anotavimo procesas atliktas prastai arba duomenų bazė yra ribota, sistema gali lengvai sugesti. Pavyzdys: 2018 m. moteris buvo partrenkta ir nužudyta savarankiškai važiuojančio Uber automobilio. Dirbtinio intelekto sistema nepavyko, nes nors „ji buvo užprogramuota vengti dviratininkų ir pėsčiųjų, ji nežinojo, ką daryti, kai kas nors eina dviračiu per gatvę“.
Anotatoriai taip pat samdomi, kad ženklintų elementus socialinės žiniasklaidos nuotraukose. Tai gali apimti visų matomų marškinių, kuriuos galėtų dėvėti žmonės, identifikavimą ir ženklinimą. Tam reikės įrašyti, ar tai „polo marškinėliai, marškiniai, dėvimi lauke, marškiniai, kabantys ant kabyklos“ ir pan.
Kiti darbai susiję su emocijų etiketėmis. Pavyzdžiui, kai kurie komentatoriai pasamdomi žiūrėti į veidų nuotraukas, įskaitant komentatorių padarytas asmenukes, ir pažymėti subjekto suvokiamą emocinę būseną. Kiti samdomi tam, kad paženklintų klientų, kurie skambino į picų tinklui priklausančias parduotuves, emocijas. Kitas darbas turi anotatorius, žyminčius Reddit įrašų emocijas. Vienai Indijos darbuotojų grupei ši užduotis pasirodė sudėtinga, visų pirma dėl to, kad jie nėra susipažinę su JAV interneto kultūra. Subrangovas, peržiūrėjęs jų darbą, nusprendė, kad apie 30 procentų etatų buvo neteisingai pažymėtos.
Ko gero, greičiausiai augantis AI mokymo darbo segmentas apima tiesioginį žmogaus sąveiką su pokalbių robotu. Žmonės samdomi temoms aptarti, o pokalbių robotas yra užprogramuotas taip, kad kiekvienam pokalbiui pateiktų du skirtingus atsakymus. Pasamdytas „diskutantas“ turi pasirinkti atsakymą, jo nuomone, „geriausią“. Tada ši informacija grąžinama į sistemą, kad ji atrodytų „žmogiškesnė“.
Trumpai tariant, AI sistemos labai priklauso nuo žmonių darbo. Tai nėra stebuklingos sistemos, veikiančios be žmogaus šališkumo ar emocijų. Ir jų veikla nevyksta kokiame nors įsivaizduojamame debesyje. Šis vėlesnis dalykas tampa dar akivaizdesnis, kai atsižvelgiame į infrastruktūrą, reikalingą jų veikimui.
Tiekimo grandinė: duomenų centrai
Dirbtinio intelekto augimą palaikė didžiulis duomenų centrų skaičius ir nuolat didėjantis elektros energijos poreikis kompiuteriams ir serveriams, taip pat oro kondicionieriams, kurie turi veikti nuolat, kad jie neperkaistų. Iš tikrųjų„Dabar debesys turi didesnį anglies pėdsaką nei oro linijų pramonė. Vienas duomenų centras gali suvartoti tiek pat elektros energijos, kiek 50,000 XNUMX namų.
Pagal Tarptautinei energetikos agentūrai, 2,700 duomenų centrų, veikiančių JAV, sudarė daugiau nei 4 procentus viso šalies energijos suvartojimo 2022 m. Ir tikėtina, kad iki 6 m. jų dalis pasieks 2026 procentus. Žinoma, tokie skaičiavimai yra apytikriai. nes didžiosios technologijų įmonės yra nenori dalytis svarbia informacija ir dėl to, kad dirbtinio intelekto sistemos yra nuolat mokomos naujų duomenų ir tobulinamos suteikiant daugiau įgūdžių, o tai reiškia, kad vienai veiklai sunaudojama daugiau energijos.
Net ir dabar yra požymių, kad duomenų centrų energijos poreikiai apmokestina JAV elektros tinklą. Kaip „Washington Post“. pažymi,: „Šiaurės Virdžinijai reikia kelių didelių atominių elektrinių ekvivalento, kad būtų galima aptarnauti visus naujus planuojamus ir statomus duomenų centrus. Teksasas, kur karštomis vasaros dienomis elektros trūkumas jau yra įprastas dalykas, susiduria su ta pačia dilema.
Ramiojo vandenyno šiaurės vakarai susiduria su panašiu iššūkiu. Kaip ir Oregonų kalba laikraštis nurodo:
„Remiantis trimis naujomis prognozėmis, paskelbtomis 2023 m. vasarą, Oregone besidauginantys duomenų centrai sunaudos žymiai daugiau elektros, nei tikėjosi regioninės komunalinės paslaugos ir energijos planuotojai.
„Tai daro didesnį spaudimą šiaurės vakarų elektros tinklui ir sukelia naujų abejonių, ar Oregonas gali pasiekti ambicingus švarios energijos tikslus, kuriuos valstybė nustatė vos prieš dvejus metus…
„Bonneville Power Administration dabar tikisi, kad iki 2041 m. duomenų centrų elektros energijos poreikis Oregone ir Vašingtone padidės du su puse karto ir sudarys 2,715 megavatų. To pakanka, kad šiandien maitintų trečdalį visų namų šiose dviejose valstijose.
Šis sparčiai augantis energijos poreikis, kurį daugiausia skatina sparčiai augantys AI poreikiai, kelia didelę grėsmę mūsų pastangoms kovoti su visuotiniu atšilimu. Pavyzdžiui, dėl elektros energijos problemų Kanzasas, Nebraska, Viskonsinas ir Pietų Karolina jau atidėliojo anglies jėgainių uždarymą. 2024 m. kelių klimato veiksmų grupių ataskaita apie AI keliamą klimato grėsmę radiniai kad per ateinančius dvejus metus, Tarptautinės energetikos agentūros skaičiavimais, padvigubėjus duomenų centrų energijos suvartojimui, planetos šildymo išmetamų teršalų kiekis padidės 80 proc. Tai didelė kaina, kurią reikia mokėti už naujas DI paslaugas, kurios yra diegiamos nepaisant jų gebėjimo patenkinti tikrus, o ne sukurtus poreikius.
„Įtikinama, o ne tiesa“
Akivaizdu, kad didžiosios technologijų įmonės lažinasi, kad dirbtinis intelektas joms duos didžiulį pelną. Ir nieko nepalikdami atsitiktinumui, jie daro viską, ką gali, kad įterptų juos į mūsų gyvenimą, kol mes neturime galimybės pagalvoti, ar mes jų norime. Jau dabar AI sistemos reklamuojamos kaip būdas pagerinti sveikatos priežiūrą, teikti psichikos sveikatos konsultacijas, duoti teisines konsultacijas, šviesti studentus, pagerinti mūsų asmeninių sprendimų priėmimą, didinti darbo vietos efektyvumą.
Iš pažiūros pamirštamas faktas, kad dirbtinio intelekto sistemos yra tiek geros, kiek įvesti duomenys ir parašyta programinė įranga, skirta joms naudoti. Kitaip tariant, jų veikimas priklauso nuo žmonių. Ir, ko gero, dar svarbiau, kad niekas iš tikrųjų nežino, kaip AI sistemos naudoja duomenis, apie kuriuos jos buvo išmokytos. Kitaip tariant, neįmanoma atsekti jų „protavimo proceso“. Jau dabar matomi įspėjamieji ženklai, kad šios sistemos yra rimtai perparduotos.
Pavyzdžiui, 2022 m. klientas susisiekė su „Air Canada“, kad sužinotų, kaip gauti netekties bilietą. Aviakompanijos klientų aptarnavimo dirbtiniu intelektu varomas pokalbių robotas jam pasakė, kad jam tereikia užpildyti formą per 90 dienų nuo bilieto išdavimo, kad būtų grąžinti pinigai už kelionę. Tačiau kai baigęs kelionę jis pateikė formą, oro linijų darbuotojai jam pasakė, kad bilieto kaina nebus sumažinta, nes anketą reikia užpildyti prieš kelionę. Kai jis parodė oro bendrovei ekrano kopijas, kurias padarė iš to, ką jam pasakė robotas, oro linijų bendrovė atkirto, kad nėra atsakinga už tai, ką pasakė robotas.
Klientas padavė į teismą Air Canada ir laimėjo. Teisėjas pažymėti kad:
„Air Canada tvirtina, kad ji negali būti laikoma atsakinga už informaciją, kurią pateikė vienas iš jos agentų, tarnautojų ar atstovų, įskaitant pokalbių robotą. Jame nepaaiškinama, kodėl ji mano, kad taip yra. Iš tikrųjų „Air Canada“ siūlo, kad pokalbių robotas yra atskiras juridinis asmuo, atsakingas už savo veiksmus. Tai puikus pateikimas.
Neatsižvelgiant į tai, ar bendrovės iš tikrųjų gali siekti, kad pokalbių robotai būtų paskelbti atskirais juridiniais asmenimis, kad, jei pageidaujama, galėtų atsiriboti nuo savo veiksmų, oro linijų bendrovė dar nepaaiškino, kodėl jos pokalbių robotas pateikė neteisingą informaciją.
Taip pat yra NYC pokalbių robotas, sukurtas padedant „Microsoft“, kurį miestas reklamavo kaip „vieno langelio“ principą įmonėms, kad padėtų joms neatsilikti nuo miesto taisyklių ir taisyklių. Stai keleta pavyzdžiai iš abejotinų patarimų, pateiktų atsakant į paklausimus:
„Pokalbių robotas klaidingai pasiūlė, kad darbdavys legalu atleisti darbuotoją, kuris skundžiasi seksualiniu priekabiavimu, neatskleidžia nėštumo ar atsisako nusikirpti dredus...
„Paklaustas, ar restoranas gali patiekti graužiko sugraužtą sūrį, jis atsakė: „Taip, jūs vis tiek galite patiekti sūrį klientams, jei įkando žiurkės“, prieš pridurdamas, kad svarbu įvertinti „žalos mastą“. sukelta žiurkės“ ir „informuoti klientus apie situaciją“.
Galbūt nenuostabu, kad „Microsoft“ ir Niujorko meras atsakė sakydami, kad tokios problemos galiausiai bus ištaisytos. Tiesą sakant, jie naudingai pridūrė, kad vartotojai, nurodydami klaidas, pagreitins reikiamą sistemos koregavimą.
Tokios problemos, kad ir kokios rimtos jos būtų, nublanksta prieš AI „haliucinacijų“ problemą. Haliucinacija yra tada, kai dirbtinio intelekto sistema sukuria informaciją, kuri gali apimti vardus, datas, knygas, teisines bylas, medicininius paaiškinimus ir net istorinius įvykius. Pavyzdžiui, buvo keli teisiniai atvejai, kai pokalbių robotai išrado bylas, kurias teisininkai nurodė savo bylose.
Konkretus atvejis: ieškovui atstovaujantys advokatai 2023 m. birželio mėn atvejis Kolumbijos aviakompanija pateikė ieškinį, kuriame buvo šešios pagalbinės bylos, kurias „rasti“ pokalbių robotas. Deja, šių atvejų niekada nebuvo; kai kurie net paminėjo neegzistuojančias oro linijas. Teisėjas bylą nutraukė ir advokatams skyrė baudą už netikrų citatų naudojimą. Advokatai, nesutikdami su teisėjo teiginiu, kad jie elgėsi nesąžiningai, gindamiesi teigė, kad „padarėme sąžiningą klaidą, netikėdami, kad technologijos gabalas gali būti bylų kūrimas iš viso audinio.
Net ir patys sudėtingiausi pokalbių robotai gali patirti haliucinacijų. Paklaustas apie 2024 m. „Superbowl“, kuris turėjo įvykti kitą dieną, koeficientus, „Google“ pokalbių robotas paskelbė buvo per vėlu lažintis, nes „Superbowl“ jau buvo įvykęs, o San Francisco 49ers įveikė Kanzaso „Chiefs“ rezultatu 34:28. Tai netgi apėmė žaidėjų statistiką. Žaidimą, kai jis buvo žaidžiamas, laimėjo Kanzasas. „Microsoft“ pokalbių robotas padarė tą patį, teigdamas, kad žaidimas baigėsi, nors jis dar nebuvo žaidžiamas. Tačiau ji paskelbė, kad Kanzaso miesto vadovai laimėjo.
Dabar įsivaizduokite, kokios gali būti išlaidos, jei pokalbių robotas, teikiantis medicinines konsultacijas, patirtų haliucinaciją. JAV kariuomenė sparčiai plečia dirbtinio intelekto technologiją įvairiais būdais, įskaitant grėsmių nustatymą, nepilotuojamų orlaivių valdymą, žvalgybos duomenų rinkimą ir karo planavimą. Įsivaizduokite galimą nelaimę, kuri gali kilti dėl netinkamo ar neišsamaus sistemos duomenų mokymo arba, dar blogiau, haliucinacijos. Akivaizdu, kad šios sistemos toli gražu nėra patikimos ir dėl įvairių priežasčių. Vidinis „Microsoft“ dokumentas tai geriausiai užfiksuoja, kai jis pareiškia kad naujosios AI sistemos yra „sukurtos taip, kad būtų įtikinamos, o ne teisingos“.
Ką reikia padaryti?
Iki šiol visuomenės susirūpinimas dėl AI daugiausia buvo susijęs su nesankcionuotu AI sistemų asmens duomenų naudojimu. Žmonės nori apsaugoti nuo neteisėto jų medžiagos išmetimo internete. Ir jie nenori, kad jų sąveika su dirbtinio intelekto sistemomis taptų duomenų generavimo veikla, kuri galėtų sukelti sukčiavimą, diskriminaciją ar priekabiavimą. Dabar yra įvairios valstijos ir vietos valdžios institucijos atsižvelgiant būdų tai pasiekti. O 2023 m. prezidentas Bidenas išleido federalinį dokumentą vykdomoji tvarka kuria siekiama užtikrinti, kad naujos „pagrindinės“ IA sistemos būtų tinkamai patikrintos, ar prieš ją paskelbiant viešai, ar nėra trūkumų. Tai yra naudingi pirmieji žingsniai.
Aršiausia kova dėl AI naudojimo vyksta darbo vietoje. Įmonės naudoja dirbtinio intelekto sistemas, kad išlaikytų skirtukai apie darbuotojų organizavimą, monitorius darbuotojo našumą ir, kai įmanoma atsikratyti darbuotojų. Nenuostabu, kad profesinės sąjungos darbuotojai pradėjo kovoti, siūlydami riboti AI sistemų naudojimą įmonėje.
Pavyzdžiui, Amerikos rašytojų gildija (WGA), atstovaujanti apie 12,000 2023 ekranų rašytojų, XNUMX m. penkiems mėnesiams smogė daugeliui didelių prodiuserių kompanijų, įskaitant „Universal“, „Paramount“, „Walt Disney“, „Netflix“, „Amazon“ ir „Apple“, siekdama padidinti atlyginimus. užimtumo apsauga ir AI naudojimo apribojimai. Svarbu tai, kad Brianas Merchantas, „LA Times“ apžvalgininkas, apibūdina:
„Susirūpinimas dėl generatyvaus dirbtinio intelekto, pvz., ChatGPT, naudojimo nebuvo net mintis, kai rašytojai pirmą kartą susėdo su studijomis ir pradėjo derėtis. Pirmajame WGA pasiūlyme tiesiog teigiama, kad studijos nenaudos dirbtinio intelekto, kad sukurtų originalius scenarijus, ir tik tada, kai studijos kategoriškai atsisakė, raudonos vėliavėlės pakilo.
„Tuo metu rašytojai suprato, kad studijos rimtai žiūri į dirbtinio intelekto naudojimą – jei ne tam, kad sukurtų užbaigtus scenarijus, kurių abi pusės žinojo, kad šiuo metu tai buvo neįmanoma – tai kaip svertas prieš rašytojus, ir kaip grėsmė, ir kaip priemonė, pateisinanti sumažinto perrašymo siūlymą. mokesčiai. Tada WGA nubrėžė brūkšnį smėlyje, kai ant piketo eilučių pradėjome matyti ženklus, smerkiančius dirbtinį intelektą, plinta socialinėje žiniasklaidoje ir antraštes, kuriose reklamuojamas konfliktas, puošiantis laikraščius, kaip šis.
Tiesą sakant, augantis supratimas apie būtinybę kontroliuoti dirbtinio intelekto sistemų naudojimą paskatino Rašytojų gildiją surengti keletą susitikimų dėl dirbtinio intelekto per susijusių pramonės šakų darbuotojų streiką, įskaitant dirbančius skaitmeninės žiniasklaidos parduotuvėse. Daugelis dalyvių atsidūrė piketo linijoje, palaikydami įspūdingus scenaristus.
Streikas atnešė daug naudos rašytojams. Kalbant apie dirbtinį intelektą, naujoji sutartis draudžia naudoti didelių kalbinių modelių AI sistemas rašant ar perrašant scenarijus arba šaltinio medžiagą. Kita vertus, rašytojams bus leista jais pasinaudoti, jei jie to norės. Sutartis taip pat neleidžia naudoti bet kokios rašytojų medžiagos mokant dirbtinio intelekto sistemas. Kaip vienas analitikas komentarų„Baimė, kad pirmieji juodraščiai bus padaryti per ChatGPT, o paskui perduoti rašytojui už mažesnius perrašymo mokesčius, buvo pašalinta. Tai gali būti viena iš pirmųjų kolektyvinių sutarčių, kuriose nustatomi AI žymenys, susiję su darbuotojais.
Ekrano aktorių gildija – Amerikos televizijos ir radijo menininkų federacija (SAG-AFTRA) pradėjo streiką prieš pagrindinius kino ir televizijos prodiuserius, praėjus dviem mėnesiams nuo WGA streiko pradžios. Nenuostabu, kad dirbtinio intelekto politika buvo viena iš pagrindinių klausimų, motyvavusių sprendimą streikuoti. Galbūt svarbiausia – aktoriai pavyko laimėti naują sutartį, kuri privers gamintojus derėtis dėl AI naudojimo ateityje.
Pavyzdžiui, susitarime reikalaujama, kad jei gamintojas planuoja naudoti „sintetinį atlikėją“ (skaitmeniniu būdu sukurtą natūraliai atrodantį asmenį, kuris „neatpažįstamas kaip joks atpažįstamas natūralus atlikėjas“), jis turi pranešti sąjungai ir susitarti su sąjunga dėl sprendimo ne. samdyti natūralų atlikėją, su galimybe mokėti mokesčius sąjungai. Jei gamintojas nori naudoti „atpažįstamą sintetinį atlikėją“ (skaitmeniniu būdu sukurtą natūraliai atrodantį asmenį, atpažįstamą kaip natūralų atlikėją), pirmiausia jis turi derėtis su atlikėju ir gauti jo sutikimą.
Kiti darbuotojai taip pat dalyvauja sunkiose derybose su savo viršininkais dėl dirbtinio intelekto technologijos naudojimo, kad apsaugotų savo darbo vietas ir apgintų profesinius standartus, pavyzdžiui, žurnalistai. Šios darbo kovos yra svarbi pradžia kuriant reikiamus apsauginius turėklus, skirtus naudoti dirbtiniu intelektu. Jie gali būti pagrindas kurti platesnį darbo bendruomenės aljansą prieš įmonių siekį naudoti dirbtinio intelekto technologiją, siekiant sumažinti žmonių ryšius ir žmonių veiklą – mūsų medicinos sistemoje, švietimo įstaigose, transporte, naujienų reportažuose, bendraujant su viešosiomis agentūromis ir paslaugų teikėjais. prekių ir paslaugų, ir sąrašas tęsiasi. Mūsų sėkmės tikimybė labai padidės, jei galėsime padėti dirbantiems žmonėms peržvelgti ažiotažą ir tiksliai įvertinti visas su AI technologija susijusias sąnaudas ir naudą. •
Martin Hart-Landsberg yra ekonomikos profesorius emeritas Lewis ir Clark koledže, Portlande, Oregone; ir Socialinių mokslų instituto mokslinis bendradarbis, Gyeongsango nacionalinis universitetas, Pietų Korėja. Jo mokymo ir tyrimų sritys apima politinę ekonomiją, ekonominę plėtrą, tarptautinę ekonomiką ir Rytų Azijos politinę ekonomiką. Jis tvarko dienoraštį Ekonomikos fronto pranešimai.
„ZNetwork“ finansuojamas tik iš skaitytojų dosnumo.
Paaukoti