Kunsmatige intelligensie (KI) blyk oral te wees. Maatskappye gebruik kragtige KI-kletsbotte op hul webblaaie of telefoonstelsels om kliëntevrae te hanteer. Nuuskamers en tydskrifte gebruik dit om stories te skryf. Filmateljees gebruik dit om films te vervaardig. Tegniese maatskappye gebruik dit om te programmeer. Studente gebruik dit om vraestelle te skryf. Dit lyk soos magie. En met alles wat kwansuis “in die wolk” gebeur, is dit maklik om te glo dat KI-aangedrewe stelsels goed is vir die omgewing. Ongelukkig is dinge nie soos dit lyk nie.
Chatbots is gebou op uitbuiting, gebruik massiewe hoeveelhede energie en is ver van betroubaar. En hoewel dit maklik is om te dink dat hulle in gesofistikeerdheid groei en die lewe in sekere opsigte makliker maak, stort maatskappye miljarde dollars in hul skepping om wins te maak met min kommer oor of die resultate sosiaal voordelig sal wees. Kortom, ons moet die korporatiewe belangstelling in KI ernstig opneem en strategieë ontwikkel wat ons kan help om beheer te kry oor hoe KI ontwikkel en gebruik word.
Die wedloop is aan die gang
Die chatbot-revolusie het in 2022 begin met OpenAI se bekendstelling van ChatGPT. ChatGPT was in staat tot mens-agtige gesprek en kon gebruikersvrae beantwoord met gegenereerde teks sowel as artikels en kode skryf. Die beste van alles, dit was gratis om te gebruik.
Ander maatskappye, wat gereageer het op die openbare belangstelling in ChatGPT, het gou hul eie KI-kletsbotte begin bekendstel. Die grootste en mees gebruikte vandag is Google se Gemini (voorheen Bard) en Microsoft se Copilot. Daar is ook ander, insluitend sommige wat ontwerp is om aan spesifieke besigheidsbehoeftes te voldoen. GitHub CoPilot werk byvoorbeeld om sagteware-ontwikkelaars te help om kode te skep en Anthrophic se Claude is ontwerp vir inligtingontdekking en opsomming van dokumente.
En die wedloop bly skep volgende geslag KI-stelsels wat meer inligting kan inneem, dit vinniger kan verwerk en meer gedetailleerde, persoonlike antwoorde kan verskaf. Volgens Goldman Sacks ekonome, KI-verwante belegging in die Verenigde State "kan oor die volgende dekade 'n hoogtepunt van so hoog as 2.5 tot 4 persent van die BBP bereik".
Chatbots benodig 'n groot en diverse databasis van woorde, teks, beelde, oudio en aanlyngedrag sowel as gesofistikeerde algoritmes om hulle in staat te stel om die materiaal te organiseer wanneer dit nodig is in lyn met algemene gebruikspatrone. Wanneer 'n vraag of versoek om inligting gegee word, identifiseer kletsbotte materiaal in hul databasis wat verband hou met die patroon van woorde in die vraag of versoek en stel dan saam, weereens gelei deur algoritmes, 'n stel woorde of beelde uit hul databasis wat die gegewe data die beste bevredig beperkings, die ondersoek. Natuurlik verg die proses om patrone te identifiseer en reaksies te konstrueer enorme hoeveelhede energie.
Maak nie saak hoe geselsend en intelligent 'n kletsbot mag klink nie, dit is belangrik om te onthou, as Megan Crouse verduidelik, daardie:
“Die model 'weet' nie wat dit sê nie, maar dit weet wel watter simbole (woorde) waarskynlik na mekaar sal kom op grond van die datastel waarop dit opgelei is. Die huidige generasie kunsmatige intelligensie-kletsbotte, soos ChatGPT, sy Google-mededinger Bard en ander, neem nie regtig intelligent ingeligte besluite nie; in plaas daarvan is hulle die internet se papegaaie, wat woorde herhaal wat waarskynlik langs mekaar gevind sal word in die loop van natuurlike spraak. Die onderliggende wiskunde gaan alles oor waarskynlikheid.”
Verskillende kletsbotte sal verskillende resultate lewer as gevolg van hul programmering en omdat hulle op verskillende datastelle opgelei is. Byvoorbeeld, bykomend tot die skraap van enige publieke data wat op die web beskikbaar is, kan Gemini data van sy Google Apps gebruik terwyl Copilot data gebruik wat vanaf sy Bing-soekenjin gegenereer word.
Chatbots het sedert hul bekendstelling 'n aantal opgraderings ondergaan. Elke generasie het 'n meer komplekse sagtewarepakket wat dit toelaat om meer genuanseerde verbindings te maak, asook om sy databasis uit te brei deur data van gestelde vrae of versoeke in te sluit. Op hierdie manier leer/verbeter kletsbotte mettertyd deur gebruik.
Hierdie perspektief beklemtoon die feit dat, hoewel ons kan praat oor die dinge wat in die wolk gebeur, die vermoë van kletsbotte om op boodskappe of vrae te reageer, afhang van prosesse wat stewig in die grond gewortel is. In die woorde van die tegnologieskrywer Karen Hao:
“KI het ’n voorsieningsketting soos enige ander tegnologie; daar is insette wat ingaan by die skepping van hierdie tegnologie, data is een, en dan rekenkrag of rekenaarskyfies wat 'n ander is. En albei het baie menslike koste verbonde aan hulle.”
Die Voorsieningsketting: Menslike Arbeid
KI-stelsels het data nodig en die data kom van mense in een of ander vorm. Daarom is tegnologiemaatskappye voortdurend op soek na nuwe en diverse data om die werking van hul KI-stelsels te verbeter. Met ons aanlyn blog- en webwerfplasings, gepubliseerde boeke en artikels, soektogte, foto's, liedjies, prente en video wat vrylik van die internet af geskraap is, help ons om hoogs winsgewende maatskappye te onderskryf in hul strewe na nog groter winste. Soos Lauren Leffer notas,
“Webkruipers en -skrapers kan maklik toegang tot data verkry vanaf omtrent enige plek wat nie agter 'n aanmeldbladsy is nie... Dit sluit enigiets op die gewilde foto-deelwebwerf Flickr, aanlynmarkplekke, kieserregistrasiedatabasisse, regeringswebbladsye, Wikipedia, Reddit, navorsingsbewaarplekke, nuuswinkels in en akademiese instellings. Boonop is daar roofinhoudsamestellings en webargiewe, wat dikwels data bevat wat sedertdien van hul oorspronklike ligging op die web verwyder is. En geskrapte databasisse gaan nie weg nie.”
Trouens, 'n beduidende deel van die geskrapte materiaal was kopiereg en sonder toestemming geneem. In reaksie hierop probeer 'n aantal uitgewers, skrywers en kunstenaars nou die diefstal stop. Byvoorbeeld, in Augustus 2023 het The New York Times sy "Algemene Diens"Na verbied enige gebruik van die teks, foto's, beelde en oudio-/videogrepe in die ontwikkeling van "enige sagtewareprogram, insluitend, maar nie beperk nie tot, opleiding van 'n masjienleer- of kunsmatige intelligensie (KI)-stelsel." Maar hoewel sommige groot maatskappye die hefboom- of wetlike mag het om finansiële vergoeding vir die gebruik van hul materiaal te verbied of te beding, het die meeste besighede en individue dit nie. Gevolglik loop hulle steeds die risiko om hul "intellektuele eiendom” gratis van hulle geneem en in KI-opleidingsmateriaal verander in diens van korporatiewe geldmaakaktiwiteite.
Sonder om die persoonlike verliese wat verband hou met KI-data-insameling te verminder, is daar 'n veel groter probleem met hierdie metode van verkryging. Om die publieke internet te skraap, beteken dat KI-kletsbotte opgelei word met behulp van materiaal wat wyd verskillende perspektiewe en begrip insluit oor wetenskap, geskiedenis, politiek, menslike gedrag en huidige gebeure, insluitend plasings en skryfwerk deur lede van uiterste haatgroepe. En problematiese data kan maklik die uitset van selfs die mees gesofistikeerde chatbots beïnvloed.
Chatbots word byvoorbeeld toenemend deur maatskappye gebruik om hulle te help met hul werkswerwing. Tog, soos Bloomberg News ontdek, "die bekendste generatiewe KI-instrument produseer stelselmatig vooroordele wat groepe benadeel op grond van hul name." Byvoorbeeld, sy eie studie gevind dat "Toe ChatGPT 1000 keer gevra is om agt ewe gekwalifiseerde CV's vir 'n regte finansiële ontlederrol by 'n Fortune 500-maatskappy te rangskik, was ChatGPT die minste geneig om die CV te kies met 'n naam wat verskil van swart Amerikaners."
Chatbots is op nog 'n ander manier afhanklik van die kwaliteit van menslike arbeid. Chatbots kan nie regstreeks gebruik maak van baie van die data wat deur webkruipers en -skrapers ingesamel is nie. Soos Josh Dzieza verduidelik, "agter selfs die mees indrukwekkende KI-stelsel is mense - groot getalle mense etiketteer data om dit op te lei en verduidelik data wanneer dit deurmekaar raak."
Groot KI-maatskappye huur gewoonlik ander kleiner maatskappye om die werkers te vind en op te lei wat nodig is vir die data-etiketteringsproses. En hierdie subkontrakteurs vind meer dikwels as nie hul werkers, genoem annoteerders, in die Global South, dikwels in Nepal en Kenia. Omdat die annotasieproses sowel as die items wat geannoteer word as handelsgeheime beskou word, ken annoteerders selde hul uiteindelike baas en sal hulle afgedank word as hulle gevind word om te bespreek wat hulle doen met ander, selfs mede-werkers.
Dzieza beskryf van die werk wat annoteerders moet doen om kletsbotte in staat te stel om gebruik te maak van die data wat vir hulle ingesamel is. Byvoorbeeld, annoteerders etiketteer items in video's en foto's. Dit moet gedoen word om te verseker dat KI-stelsels spesifieke konfigurasies van pixels met spesifieke items of emosies sal kan verbind. Maatskappye wat KI-stelsels vir selfbesturende voertuie bou, benodig annoteerders om al die kritieke items in video's wat van straat- of snelwegtonele geneem is, te identifiseer. Dit beteken "om elke voertuig, voetganger, fietsryer, enigiets waarvan 'n bestuurder bewus moet wees, te identifiseer - raam vir raam en vanuit elke moontlike kamerahoek." Soos Dzieza berig, is dit “moeilike en herhalende werk. ’n Etlike sekonde-blik van beeldmateriaal het agt uur geneem om te annoteer, waarvoor [die annoteerder] sowat $10 betaal is.”
Hierdie soort werk, hoewel laag betaal, is van kritieke belang. As die annotasieproses swak gedoen is of die databasis beperk is, kan die stelsel maklik misluk. 'n Voorbeeld: in 2018 is 'n vrou deur 'n selfbesturende Uber-motor getref en vermoor. Die KI-stelsel het misluk, want hoewel "dit geprogrammeer is om fietsryers en voetgangers te vermy, het dit nie geweet wat om te maak van iemand wat met 'n fiets oor die straat stap nie."
Annoteerders word ook gehuur om items in sosialemediafoto's te etiketteer. Dit kan behels die identifisering en etikettering van al die sigbare hemde wat deur mense gedra kan word. Dit sal vereis dat dit aangeteken moet word of dit "polohemde, hemde wat buite gedra word, hemde wat aan 'n rek hang" is, ens.
Ander werke behels die etikettering van emosies. Sommige annoteerders word byvoorbeeld gehuur om na prente van gesigte te kyk, insluitend selfies wat deur die annoteerders geneem is, en die waargenome emosionele toestand van die onderwerp te benoem. Ander word gehuur om die emosies te benoem van kliënte wat in bestellings gebel het na winkels wat deur 'n pizza-ketting besit word. 'n Ander werk het annoteerders wat die emosies van Reddit-plasings benoem. Hierdie taak was uitdagend vir een groep Indiese werkers, hoofsaaklik as gevolg van hul gebrek aan vertroudheid met die Amerikaanse internetkultuur. Die subkontrakteur het, na 'n hersiening van hul werk, besluit dat sowat 30 persent van die poste verkeerd geëtiketteer is.
Miskien is die vinnigste groeiende segment van KI-opleidingswerk direkte menslike interaksie met 'n kletsbot. Mense word gehuur om onderwerpe te bespreek en die kletsbot is geprogrammeer om twee verskillende antwoorde op elke gesprek te gee. Die gehuurde "bespreker" moet dan die antwoord kies wat hulle "die beste" dink. Hierdie inligting word dan teruggevoer na die stelsel om dit te help om meer "menslik" te klink.
Kortom, KI-stelsels is baie afhanklik van die werk van mense. Dit is nie magiese stelsels wat onaangeraak word deur menslike vooroordele of emosies nie. En hul aktiwiteit vind nie in een of ander denkbeeldige wolk plaas nie. Hierdie latere punt word selfs meer voor die hand liggend as ons die infrastruktuur wat nodig is vir hul bedryf in ag neem.
Voorsieningsketting: Datasentrums
Die groei in KI is ondersteun deur 'n groot uitbou van datasentrums en 'n geleidelik stygende vraag na elektrisiteit om die rekenaars en bedieners wat hulle huisves te bestuur, sowel as die lugversorgers wat voortdurend moet werk om te verhoed dat hulle oorverhit word. In werklikheid, "die Wolk het nou 'n groter koolstofvoetspoor as die lugrederybedryf. ’n Enkele datasentrum kan die ekwivalente elektrisiteit van 50,000 XNUMX huise verbruik.”
Volgens aan die Internasionale Energieagentskap was die 2,700 4 datasentrums wat in die VSA werksaam is verantwoordelik vir meer as 2022 persent van die land se totale energieverbruik in 6. En hul aandeel sal waarskynlik teen 2026 XNUMX persent bereik. Natuurlik is sulke skattings rof, beide want die belangrikste tegnologiemaatskappye is onwillig om relevante inligting te deel en omdat KI-stelsels voortdurend opgelei word op nuwe data en opgegradeer word met meer vaardighede, wat groter energieverbruik per aktiwiteit beteken.
Selfs nou is daar tekens dat die energiebehoeftes van datasentrums die Amerikaanse kragnetwerk belas. Soos die Washington Post notas: “Noord-Virginia benodig die ekwivalent van verskeie groot kernkragsentrales om al die nuwe datasentrums te bedien wat beplan en in aanbou is. Texas, waar elektrisiteitstekorte reeds roetine is op warm somersdae, staar dieselfde dilemma in die gesig.”
Die Stille Oseaan Noordwes staar 'n soortgelyke uitdaging in die gesig. Soos die Oregonian koerant wys daarop:
“Datasentrums wat regoor Oregon versprei, sal dramaties meer elektrisiteit verbruik as wat streeknutsdienste en kragbeplanners verwag het, volgens drie nuwe voorspellings wat in die somer [2023] uitgereik is.
"Dit plaas meer druk op die Noordwes-elektriese netwerk en skep nuwe twyfel oor of Oregon die ambisieuse skoon energiedoelwitte kan bereik wat die staat net twee jaar gelede opgestel het ...
“Die Bonneville-kragadministrasie verwag nou dat datasentrums se elektrisiteitsbehoeftes in Oregon en Washington teen 2041 twee-en-'n-half keer sal toeneem, wat 2,715 XNUMX gemiddelde megawatt sal trek. Dit is genoeg om 'n derde van al die huise vandag in daardie twee state van krag te voorsien.”
Hierdie stygende energievraag, grootliks aangevuur deur die vinnig groeiende eise van KI, verteenwoordig 'n groot bedreiging vir ons pogings om aardverwarming te bekamp. Byvoorbeeld, kragbekommernisse het reeds daartoe gelei dat Kansas, Nebraska, Wisconsin en Suid-Carolina die sluiting van steenkoolaanlegte vertraag. 'n Verslag van 2024 deur verskeie klimaataksiegroepe oor die klimaatbedreiging wat KI inhou vind dat die verdubbeling van energiegebruik deur datasentrums, wat die Internasionale Energieagentskap skat oor die volgende twee jaar sal plaasvind, sal lei tot 'n 80 persent toename in die vrystelling van planeetverhitting. Dit is 'n hoë prys om te betaal vir nuwe KI-dienste wat ontplooi word, ongeag hul vermoë om aan werklike, eerder as geskepte, behoeftes te voldoen.
“Oorredend nie waaragtig nie”
Dit is duidelik dat groot tegnologiemaatskappye wed dat KI groot winste vir hulle sal genereer. En sonder om niks aan die toeval oor te laat nie, doen hulle alles wat hulle kan om hulle in ons lewens in te sluit voordat ons die geleentheid kry om te oorweeg of ons hulle wil hê. Reeds word KI-stelsels bevorder as 'n manier om gesondheidsorg te verbeter, geestesgesondheidsadvies te verskaf, regsadvies te gee, studente op te voed, ons persoonlike besluitneming te verbeter, werkplekdoeltreffendheid te verhoog, die lys gaan aan.
Oënskynlik vergeet is die feit dat KI-stelsels net so goed is soos die data wat ingevoer is en die sagteware wat geskryf is om dit te gebruik. Met ander woorde, hul werking hang van mense af. En, miskien nog belangriker, niemand weet regtig hoe KI-stelsels die data gebruik waarop hulle opgelei is nie. Met ander woorde, dit is onmoontlik om hul "redeneringsproses" op te spoor. Die waarskuwingstekens dat hierdie stelsels ernstig oorverkoop word, is reeds sigbaar.
Byvoorbeeld, in 2022 het 'n klant Air Canada gekontak om uit te vind hoe om 'n routarief te kry. Die lugredery se kliëntediens KI-aangedrewe kletsbot het vir hom gesê hy hoef net 'n vorm binne 90 dae na die uitgereikte kaartjie te voltooi om 'n terugbetaling op sy reis te kry. Maar toe hy die vorm ingedien het nadat hy sy reis voltooi het, het lugdienspersoneel vir hom gesê dat daar geen tariefvermindering sou wees nie, want die vorm moes voor die reis voltooi word. Toe hy vir die lugdiens die skermkiekies wys wat hy geneem het van wat die bot vir hom gesê het, het die lugdiens teengestaan dat dit nie verantwoordelik was vir wat die bot gesê het nie.
Die kliënt het Air Canada gedagvaar en gewen. Die regter opgemerk dat:
“Air Canada voer aan dit kan nie aanspreeklik gehou word vir inligting wat deur een van sy agente, bediendes of verteenwoordigers verskaf word nie – insluitend 'n kletsbot. Dit verduidelik nie hoekom hy glo dat dit die geval is nie. In werklikheid stel Air Canada voor dat die kletsbot 'n aparte regsentiteit is wat verantwoordelik is vir sy eie optrede. Dit is 'n merkwaardige voorlegging.”
Afgesien daarvan of maatskappye in werklikheid kan poog om kletsbotte as aparte regsentiteite te laat verklaar sodat hulle hulself van hul optrede kan distansieer indien verlang, moet die lugredery nog verduidelik hoekom sy kletsbot verkeerde inligting uitgegee het.
Dan is daar die NYC-kletsbot, ontwikkel met die hulp van Microsoft, wat die stad bevorder het as 'n "eenstopwinkel" vir besighede om hulle te help om op hoogte te bly van stadsreëls en -regulasies. Hier is 'n paar voorbeelde van die twyfelagtige advies wat in reaksie op navrae gegee is:
“Die chatbot het valslik voorgestel dat dit wettig is vir 'n werkgewer om 'n werker af te dank wat kla oor seksuele teistering, nie 'n swangerskap bekend maak nie of weier om hul dreadlocks te sny ...
“Op die vraag of 'n restaurant kaas kan bedien wat deur 'n knaagdier aangeknap word, het hy geantwoord: 'Ja, jy kan steeds die kaas aan klante bedien as dit rotbyte het' voordat hy bygevoeg het dat dit belangrik is om die 'omvang van die skade te bepaal nie. deur die rot veroorsaak' en om 'kliënte oor die situasie in te lig'.”
Miskien nie verbasend nie, beide Microsoft en die burgemeester van NYC het gereageer deur te sê sulke probleme sal uiteindelik reggestel word. Trouens, hulle het hulpvaardig bygevoeg dat gebruikers, deur foute uit te wys, die nodige fyninstelling van die stelsel sal bespoedig.
Hierdie soort probleme, so ernstig soos hulle is, bleek in vergelyking met die probleem van KI-“hallusinasies”. 'n Hallusinasie is wanneer 'n KI-stelsel inligting vervaardig, wat name, datums, boeke, regsake, mediese verduidelikings, selfs historiese gebeure kan insluit. Daar was byvoorbeeld verskeie regsake waar kletsbotte sake uitgevind het waarna prokureurs in hul hofaansoeke verwys het.
'n Geval in punt: Die prokureurs wat 'n eiser in 'n Junie 2023 verteenwoordig geval wat 'n regsgeding teen 'n Colombiaanse lugredery behels het 'n opdrag ingedien wat ses ondersteunende sake insluit wat deur 'n kletsbot "gevind" is. Ongelukkig het hierdie gevalle nooit bestaan nie; sommige het selfs lugrederye genoem wat nie bestaan het nie. Die regter het die saak van die hand gewys en die prokureurs beboet vir die gebruik van vals aanhalings. Die prokureurs, wat nie saamstem met die regter se bewering dat hulle te kwader trou opgetree het nie, het in hul verdediging gesê dat “Ons het 'n goeie trou fout gemaak deur te versuim om te glo dat 'n stuk tegnologie sake uit heel lap kan opmaak.
Selfs die mees gesofistikeerde chatbots kan hallusinasies ly. Toe hy gevra is oor die kans om op die 2024 Superbowl te wedden wat die volgende dag sou plaasvind, het Google se kletsbot aangekondig dit was te laat om te wed, aangesien die Superbowl reeds plaasgevind het, met die San Francisco 49ers wat die Kansas City Chiefs met 'n telling van 34 tot 28 geklop het. Dit het selfs 'n paar spelersstatistieke ingesluit. Die wedstryd, toe dit gespeel is, is deur Kansas City gewen. Microsoft se kletsbot het dieselfde gedoen en beweer dat die speletjie verby is, al is dit nog nie gespeel nie. Dit het egter verklaar dat die Kansas City Chiefs gewen het.
Stel jou nou voor wat die koste kan wees as 'n kletsbot wat mediese advies gee, 'n hallusinasie kry. Die Amerikaanse weermag verhoog vinnig sy gebruik van KI-tegnologie op verskeie maniere, insluitend om bedreigings te identifiseer, onbemande vliegtuie te lei, intelligensie in te samel en vir oorlog te beplan. Stel jou die potensiële ramp voor wat kan voortspruit uit onvoldoende of onvolledige data-opleiding van die stelsel of selfs erger 'n hallusinasie. Die ooglopende punt is dat hierdie stelsels ver van onfeilbaar is, en om verskeie redes. 'n Interne Microsoft-dokument vang dit die beste vas, wanneer dit verklaar dat die nuwe KI-stelsels "gebou is om oortuigend te wees, nie waaragtig nie."
Wat moet gedoen word?
Tot dusver het openbare kommer oor KI grootliks gefokus op die ongekeurde gebruik van persoonlike data deur KI-stelsels. Mense wil beskerming hê teen ongemagtigde webskrapping van hul materiaal. En hulle wil nie hê dat hul interaksies met KI-stelsels 'n datagenererende aktiwiteit word wat hulle aan bedrog, diskriminasie of teistering kan blootstel nie. Verskeie staats- en plaaslike regerings is nou oorweeg maniere om dit te bereik. En in 2023 het president Biden 'n federaal uitgereik uitvoerende bevel wat poog om te verseker dat nuwe "fundamentele" IA-stelsels voldoende getoets word vir gebreke voor openbare vrystelling. Dit is nuttige eerste stappe.
Die skerpste stryd oor die gebruik van KI vind plaas in die werkplek. Maatskappye gebruik KI-stelsels om te hou oortjies oor werkersorganisering, monitor werkerprestasie, en wanneer moontlik ontslae raak van werkers. Dit is nie verbasend dat vakbonde werkers begin terugveg het en beperkings op maatskappygebruik van KI-stelsels voorgestel het nie.
Byvoorbeeld, die Writers Guild of America (WGA), wat sowat 12,000 2023 draaiboekskrywers verteenwoordig, het 'n aantal groot produksiemaatskappye – insluitend Universal, Paramount, Walt Disney, Netflix, Amazon en Apple – vir vyf maande in XNUMX toegeslaan op soek na loonverhogings, indiensnemingsbeskerming, en beperkings op KI-gebruik. Dit is betekenisvol, soos Brian Merchant, 'n rubriekskrywer vir die LA Times, beskryf:
“Kommers oor die gebruik van generatiewe KI soos ChatGPT was nie eens bo-op die gedagte toe die skrywers die eerste keer by die ateljees gaan sit het om te begin beding nie. Die WGA se eerste voorstel het eenvoudig gesê die ateljees sal nie KI gebruik om oorspronklike skrifte te genereer nie, en dit was eers toe die ateljees botweg geweier het dat die rooi vlae opgegaan het.
"Dit was toe die skrywers besef het ateljees is ernstig daaroor om KI te gebruik - indien nie om voltooide skrifte te genereer nie, wat albei kante geweet het onmoontlik was op hierdie tydstip - dan as hefboom teen skrywers, beide as 'n bedreiging en as 'n manier om die aanbod van verlaagde herskryf te regverdig fooie. Dit is toe dat die WGA 'n streep in die sand getrek het, toe ons tekens op die stakinglyne begin sien het wat KI aan die kaak stel op sosiale media en opskrifte wat die konflik wat die koerante soos hierdie een aandui, voorhou.”
Trouens, die groeiende bewustheid van die behoefte om beheer oor die gebruik van KI-stelsels te verkry, het daartoe gelei dat die Skrywersgilde verskeie vergaderings oor KI gehou het tydens die staking vir werkers in verwante industrieë, insluitend dié wat in digitale mediawinkels werksaam is. Baie van die aanwesiges het op die kollig beland om die treffende draaiboekskrywers te ondersteun.
Die staking het groot winste vir die skrywers opgelewer. In terme van KI verbied die nuwe kontrak die gebruik van groot taalmodel KI-stelsels om skrifte of vir bronmateriaal te skryf of te herskryf. Skrywers, aan die ander kant, sal toegelaat word om daarvan gebruik te maak as hulle wil. Die kontrak sluit ook uit dat enige skrywersmateriaal gebruik word om KI-stelsels op te lei. As een ontleder kommentaar, "Die vrees dat eerste konsepte deur ChatGPT gedoen sou word en dan aan 'n skrywer oorhandig sou word vir laer herskryffooie, is gesteriliseer. Dit is dalk een van die eerste kollektiewe bedingingsooreenkomste om merkers vir KI neer te lê wat met werkers verband hou.”
Die Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) het twee maande ná die begin van die WGA-staking teen die groot rolprent- en televisievervaardigers begin staak. Dit is nie verbasend nie, KI-beleid was een van die belangrikste kwessies wat die besluit om te staak gemotiveer het. Miskien die belangrikste, die akteurs daarin geslaag om om 'n nuwe kontrak te wen wat produsente sal dwing om oor toekomstige gebruike van KI te beding.
Byvoorbeeld, die ooreenkoms vereis dat indien 'n produsent beplan om 'n "sintetiese kunstenaar" te gebruik ('n digitaal geskepte, natuurlike voorkoms wat "nie herkenbaar is as enige identifiseerbare natuurlike kunstenaar nie"), hulle moet in kennis stel en met die vakbond onderhandel oor die besluit om nie 'n natuurlike kunstenaar aanstel, met die moontlikheid dat fooie aan die vakbond betaal moet word. As 'n vervaardiger 'n "herkenbare sintetiese kunstenaar" wil gebruik ('n digitaal geskepte, natuurlike voorkoms wat herkenbaar is as 'n natuurlike kunstenaar), moet hulle eers met die kunstenaar beding en hul toestemming verkry.
Ander werkers is ook besig met harde bedinging met hul base oor die gebruik van KI-tegnologie, beide om hul werk te beskerm en om professionele standaarde te verdedig, byvoorbeeld joernaliste. Hierdie arbeidsstryd is 'n belangrike begin om die nodige vantrelings vir KI-gebruik te ontwikkel. Hulle kan 'n fondament wees waarop 'n breër arbeider-gemeenskap-alliansie gebou kan word teen die korporatiewe strewe om KI-tegnologie te gebruik om menslike verbindings en menslike agentskap te verminder - in ons mediese stelsel, opvoedkundige instellings, vervoer, nuusberiggewing, kommunikasie met openbare agentskappe en verskaffers van goedere en dienste, en die lys gaan aan. Ons kanse op sukses sal aansienlik verbeter as ons werkende mense kan help om deur die hype te kyk om die volle reeks koste en voordele wat met KI-tegnologie geassosieer word, akkuraat te evalueer. •
Martin Hart-Landsberg is emeritusprofessor in ekonomie aan Lewis and Clark College, Portland, Oregon; en Adjunk Navorser by die Instituut vir Sosiale Wetenskappe, Gyeongsang Nasionale Universiteit, Suid-Korea. Sy areas van onderrig en navorsing sluit in politieke ekonomie, ekonomiese ontwikkeling, internasionale ekonomie en die politieke ekonomie van Oos-Asië. Hy hou 'n blog Verslae van die Ekonomiese Front.
ZNetwork word uitsluitlik befonds deur die vrygewigheid van sy lesers.
skenk