Kunstmatige intelligentie (AI) lijkt overal te zijn. Bedrijven gebruiken krachtige AI-chatbots op hun webpagina’s of telefoonsystemen om vragen van klanten te beantwoorden. Redactiekamers en tijdschriften gebruiken ze om verhalen te schrijven. Filmstudio's gebruiken ze om films te produceren. Techbedrijven gebruiken ze om te programmeren. Studenten gebruiken ze om papers te schrijven. Het lijkt magie. En omdat alles zogenaamd ‘in de cloud’ gebeurt, is het gemakkelijk te geloven dat AI-aangedreven systemen goed zijn voor het milieu. Helaas zijn de dingen niet zoals ze lijken te zijn.
Chatbots zijn gebouwd op uitbuiting, verbruiken enorme hoeveelheden energie en zijn verre van betrouwbaar. En hoewel je je gemakkelijk kunt voorstellen dat ze steeds geavanceerder worden en het leven in sommige opzichten gemakkelijker maken, steken bedrijven miljarden dollars in hun creaties om winst te maken, zonder zich zorgen te maken over de vraag of de resultaten sociaal gunstig zullen zijn. Kortom, we moeten de belangstelling van het bedrijfsleven voor AI serieus nemen en strategieën ontwikkelen die ons kunnen helpen controle te krijgen over de manier waarop AI wordt ontwikkeld en gebruikt.
De race is gaande
De chatbotrevolutie begon in 2022 met de introductie van ChatGPT door OpenAI. ChatGPT was in staat tot mensachtige gesprekken en kon gebruikersvragen beantwoorden met gegenereerde tekst en artikelen en code schrijven. Het beste van alles was dat het gratis te gebruiken was.
Andere bedrijven, als reactie op de publieke belangstelling voor ChatGPT, begonnen al snel met de introductie van hun eigen AI-chatbots. De grootste en meest gebruikte vandaag de dag zijn Google's Gemini (voorheen Bard) en Microsoft's Copilot. Er zijn er nog meer, waaronder enkele die zijn ontworpen om aan specifieke zakelijke behoeften te voldoen. GitHub CoPilot helpt bijvoorbeeld softwareontwikkelaars bij het maken van code en Claude van Anthrophic is ontworpen voor het ontdekken van informatie en het samenvatten van documenten.
En de race blijft creëren volgende generatie AI-systemen die meer informatie kunnen opnemen, sneller kunnen verwerken en gedetailleerdere, persoonlijke antwoorden kunnen geven. Volgens Goldman Sacks economenKI-gerelateerde investeringen in de Verenigde Staten kunnen de komende tien jaar ‘een piek bereiken van 2.5 tot 4 procent van het bbp’.
Chatbots hebben een grote en diverse database met woorden, tekst, afbeeldingen, audio en onlinegedrag nodig, evenals geavanceerde algoritmen waarmee ze het materiaal wanneer nodig kunnen ordenen in overeenstemming met algemene gebruikspatronen. Wanneer ze een vraag of verzoek om informatie krijgen, identificeren chatbots materiaal in hun database dat verband houdt met het woordpatroon in de vraag of het verzoek en stellen vervolgens, opnieuw geleid door algoritmen, een reeks woorden of afbeeldingen uit hun database samen die het beste voldoet aan de gegeven gegevens. beperkingen, het onderzoek. Natuurlijk kost het proces van het identificeren van patronen en het construeren van reacties enorme hoeveelheden energie.
Hoe gemoedelijk en intelligent een chatbot ook mag klinken, het is belangrijk om te onthouden, zoals Megan Crouse legt uit, dat:
“Het model 'weet' niet wat het zegt, maar het weet wel welke symbolen (woorden) waarschijnlijk na elkaar zullen komen op basis van de dataset waarop het is getraind. De huidige generatie kunstmatige intelligentie-chatbots, zoals ChatGPT, zijn Google-rivaal Bard en anderen, nemen niet echt intelligent geïnformeerde beslissingen; in plaats daarvan zijn het de papegaaien van het internet, die woorden herhalen die waarschijnlijk naast elkaar voorkomen tijdens natuurlijke spraak. De onderliggende wiskunde draait helemaal om waarschijnlijkheid.”
Verschillende chatbots zullen verschillende resultaten opleveren vanwege hun programmering en omdat ze zijn getraind op verschillende datasets. Naast het verzamelen van alle openbare gegevens die beschikbaar zijn op internet, kan Gemini bijvoorbeeld gegevens uit zijn Google Apps gebruiken, terwijl Copilot gegevens gebruikt die zijn gegenereerd door zijn Bing-zoekmachine.
Chatbots hebben sinds hun introductie een aantal upgrades ondergaan. Elke generatie beschikt over een complexer softwarepakket waarmee zij genuanceerder verbanden kan leggen en de database kan uitbreiden door gegevens uit gestelde vragen of verzoeken op te nemen. Op deze manier leren/verbeteren chatbots in de loop van de tijd door gebruik.
Dit perspectief benadrukt het feit dat, hoewel we het kunnen hebben over de dingen die in de cloud gebeuren, het vermogen van chatbots om op prompts of vragen te reageren afhankelijk is van processen die stevig in de grond verankerd zijn. In de woorden van de techschrijver Karen Hao:
“AI heeft een supply chain zoals elke andere technologie; Er zijn inputs die betrokken zijn bij de creatie van deze technologie, waarbij data één zijn, en rekenkracht of computerchips een andere. En aan beide zijn veel menselijke kosten verbonden.”
De toeleveringsketen: menselijke arbeid
AI-systemen hebben gegevens nodig en de gegevens zijn in een of andere vorm afkomstig van mensen. Daarom zijn technologiebedrijven voortdurend op zoek naar nieuwe en diverse gegevens om de werking van hun AI-systemen te verbeteren. Met onze online blog- en websiteposts, gepubliceerde boeken en artikelen, zoekopdrachten, foto's, liedjes, afbeeldingen en video's die vrijelijk van internet zijn geschrapt, helpen we zeer winstgevende bedrijven te ondersteunen in hun streven naar nog grotere winsten. Zoals Lauren Leffer aantekeningen,
“Webcrawlers en scrapers hebben eenvoudig toegang tot gegevens vanaf vrijwel elke plek die zich niet achter een inlogpagina bevindt… Dit omvat alles op de populaire fotodeelsite Flickr, online marktplaatsen, kiezersregistratiedatabases, overheidspagina’s, Wikipedia, Reddit, onderzoeksopslagplaatsen, nieuwsuitzendingen en academische instellingen. Bovendien zijn er compilaties van illegale inhoud en webarchief, die vaak gegevens bevatten die sindsdien van hun oorspronkelijke locatie op internet zijn verwijderd. En geschraapte databases verdwijnen niet.”
In feite was een aanzienlijk deel van het geschraapte materiaal auteursrechtelijk beschermd en zonder toestemming meegenomen. Als reactie hierop proberen een aantal uitgevers, schrijvers en kunstenaars nu de diefstal te stoppen. In augustus 2023 heeft The New York Times bijvoorbeeld zijn “Algemene Voorwaarden" naar verbieden elk gebruik van de tekst, foto's, afbeeldingen en audio-/videoclips bij de ontwikkeling van “elk softwareprogramma, inclusief, maar niet beperkt tot, het trainen van een machine learning- of kunstmatige intelligentie (AI)-systeem.” Maar hoewel sommige grote bedrijven over de macht of de wettelijke macht beschikken om het gebruik van hun materiaal te verbieden of erover te onderhandelen, hebben de meeste bedrijven en individuen dat niet. Als gevolg hiervan lopen ze nog steeds het risico dat hun “intellectueel eigendom'gratis van hen afgenomen en omgezet in AI-trainingsmateriaal ten dienste van bedrijfsactiviteiten om geld te verdienen.
Zonder de persoonlijke verliezen die gepaard gaan met het verzamelen van AI-gegevens te minimaliseren, is er een veel groter probleem met deze verwervingsmethode. Het schrappen van het openbare internet betekent dat AI-chatbots worden getraind met behulp van materiaal dat zeer verschillende perspectieven en inzichten omvat over wetenschap, geschiedenis, politiek, menselijk gedrag en actuele gebeurtenissen, inclusief berichten en geschriften van leden van extreme haatgroepen. En problematische gegevens kunnen gemakkelijk de output van zelfs de meest geavanceerde chatbots beïnvloeden.
Chatbots worden bijvoorbeeld steeds vaker door bedrijven gebruikt om hen te helpen bij het werven van vacatures. Maar toch, zoals Bloomberg News ontdekt, “de bekendste generatieve AI-tool produceert systematisch vooroordelen die groepen benadelen op basis van hun naam.” Een eigen studie bijvoorbeeld gevonden dat “ChatGPT, toen hem 1000 keer werd gevraagd om acht gelijkwaardig gekwalificeerde cv’s te rangschikken voor een echte rol als financieel analist bij een Fortune 500-bedrijf, het minst waarschijnlijk het cv zou kiezen met een naam die zich onderscheidt van zwarte Amerikanen.”
Chatbots zijn op nog een andere manier afhankelijk van de kwaliteit van menselijke arbeid. Chatbots kunnen niet direct gebruik maken van veel van de gegevens die worden verzameld door webcrawlers en scrapers. Zoals Josh Dzieza legt uit, “achter zelfs het meest indrukwekkende AI-systeem staan mensen – enorme aantallen mensen die gegevens labelen om deze te trainen en gegevens verduidelijken als deze in de war raken.”
Grote AI-bedrijven huren doorgaans andere kleinere bedrijven in om de werknemers te vinden en op te leiden die nodig zijn voor het datalabelingproces. En deze onderaannemers vinden hun werknemers, annotators genoemd, vaker wel dan niet in het Zuiden, vaak in Nepal en Kenia. Omdat zowel het annotatieproces als de items die worden geannoteerd als bedrijfsgeheimen worden beschouwd, kennen annotators zelden hun uiteindelijke baas en zullen ze worden ontslagen als blijkt dat ze met anderen, zelfs met collega's, bespreken wat ze doen.
Dzieza beschrijft een deel van het werk dat annotators moeten doen om chatbots in staat te stellen gebruik te maken van de voor hen verzamelde gegevens. Annotators labelen bijvoorbeeld items in video's en foto's. Dit moet worden gedaan om ervoor te zorgen dat AI-systemen specifieke configuraties van pixels kunnen verbinden met specifieke items of emoties. Bedrijven die AI-systemen voor zelfrijdende voertuigen bouwen, hebben annotators nodig om alle kritieke items te identificeren in video's die zijn gemaakt van straat- of snelwegscènes. Dat betekent “het identificeren van elk voertuig, voetganger, fietser, alles waar een bestuurder op moet letten – frame voor frame en vanuit elke mogelijke camerahoek.” Zoals Dzieza meldt, is dit “moeilijk en repetitief werk. Het annoteren van een paar seconden beeldmateriaal kostte acht uur, waarvoor [de annotator] ongeveer $ 10 ontving.
Dit soort werk, ook al wordt het slecht betaald, is van cruciaal belang. Als het annotatieproces slecht wordt uitgevoerd of de database beperkt is, kan het systeem gemakkelijk falen. Een voorbeeld: in 2018 werd een vrouw aangereden en gedood door een zelfrijdende Uber-auto. Het AI-systeem faalde omdat het “hoewel het geprogrammeerd was om fietsers en voetgangers te ontwijken, niet wist wat het moest denken van iemand die met de fiets over straat liep.”
Annotators worden ook ingehuurd om items in foto's op sociale media te labelen. Dit kan inhouden dat alle zichtbare overhemden die door mensen kunnen worden gedragen, worden geïdentificeerd en geëtiketteerd. Hiervoor zou moeten worden vastgelegd of het ‘poloshirts, overhemden die buitenshuis worden gedragen, overhemden die aan een rek hangen’ enz. zijn.
Bij andere banen gaat het om het labelen van emoties. Sommige annotators worden bijvoorbeeld ingehuurd om naar foto's van gezichten te kijken, inclusief selfies die door de annotators zijn gemaakt, en om de waargenomen emotionele toestand van het onderwerp te labelen. Anderen worden ingehuurd om de emoties van klanten te labelen die bestellingen hebben gebeld naar winkels die eigendom zijn van een pizzaketen. Een andere baan heeft annotators die de emoties van Reddit-berichten labelen. Deze taak bleek een uitdaging voor een groep Indiase werknemers, vooral vanwege hun gebrek aan bekendheid met de Amerikaanse internetcultuur. De onderaannemer kwam na een beoordeling van zijn werk tot de conclusie dat ongeveer 30 procent van de berichten verkeerd gelabeld was.
Misschien wel het snelst groeiende segment van AI-trainingswerk omvat directe menselijke interactie met een chatbot. Er worden mensen ingehuurd om onderwerpen te bespreken en de chatbot is geprogrammeerd om op elk gesprek twee verschillende reacties te geven. De ingehuurde ‘discussant’ moet vervolgens het antwoord selecteren dat hij ‘het beste’ vindt. Deze informatie wordt vervolgens teruggevoerd naar het systeem om het ‘menselijker’ te laten klinken.
Kortom, AI-systemen zijn sterk afhankelijk van het werk van mensen. Dit zijn geen magische systemen, die niet worden beïnvloed door menselijke vooroordelen of emoties. En hun activiteit vindt niet plaats in een denkbeeldige wolk. Dit latere punt wordt zelfs nog duidelijker als we kijken naar de infrastructuur die nodig is voor de werking ervan.
Toeleveringsketen: datacenters
De groei van AI wordt ondersteund door een enorme uitbreiding van datacenters en een gestaag stijgende vraag naar elektriciteit voor de computers en servers waarin ze zijn gehuisvest, evenals voor de airconditioners die continu moeten draaien om oververhitting te voorkomen. In werkelijkheid, “De cloud heeft nu een grotere CO50,000-voetafdruk dan de luchtvaartindustrie. Eén datacenter kan het equivalent van de elektriciteit van XNUMX huishoudens verbruiken.”
Volgens Volgens het Internationaal Energieagentschap waren de 2,700 datacenters die in de VS actief zijn in 4 verantwoordelijk voor ruim 2022 procent van het totale energieverbruik van het land. En hun aandeel zal in 6 waarschijnlijk 2026 procent bedragen. Dergelijke schattingen zijn uiteraard grof, zowel omdat de grote technologiebedrijven dat wel zijn onwillig om relevante informatie te delen en omdat AI-systemen voortdurend worden getraind op nieuwe gegevens en worden geüpgraded met meer vaardigheden, wat een groter energieverbruik per activiteit betekent.
Zelfs nu zijn er tekenen dat de energiebehoefte van datacenters het Amerikaanse elektriciteitsnet belast. Zoals de Washington Post aantekeningen: “Noord-Virginia heeft het equivalent van verschillende grote kerncentrales nodig om alle geplande en in aanbouw zijnde nieuwe datacenters te bedienen. Texas, waar elektriciteitstekorten al routine zijn op warme zomerdagen, staat voor hetzelfde dilemma.”
De Pacific Northwest staat voor een soortgelijke uitdaging. Zoals de Oregonian krant wijst erop:
“Datacentra die zich over heel Oregon verspreiden, zullen dramatisch meer elektriciteit verbruiken dan regionale nutsbedrijven en energieplanners hadden verwacht, volgens drie nieuwe voorspellingen die in de zomer van 2023 zijn gepubliceerd.
“Dat legt meer druk op het Noordwest-elektriciteitsnet en werpt nieuwe twijfel op over de vraag of Oregon de ambitieuze doelstellingen voor schone energie kan halen die de staat slechts twee jaar geleden heeft vastgesteld …
“De Bonneville Power Administration verwacht nu dat de elektriciteitsbehoefte van datacenters in Oregon en Washington in 2041 tweeënhalf keer zo groot zal zijn, tot gemiddeld 2,715 megawatt. Dat is vandaag de dag genoeg om een derde van alle huizen in deze twee staten van stroom te voorzien.”
Deze torenhoge vraag naar energie, die grotendeels wordt aangewakkerd door de snelgroeiende vraag naar AI, vormt een grote bedreiging voor onze inspanningen om de opwarming van de aarde tegen te gaan. Bezorgdheid over de energievoorziening heeft er bijvoorbeeld al toe geleid dat Kansas, Nebraska, Wisconsin en South Carolina de sluiting van kolencentrales hebben uitgesteld. Een rapport uit 2024 van verschillende klimaatactiegroepen over de klimaatdreiging van AI vondsten dat de verdubbeling van het energieverbruik door datacentra, die volgens de schattingen van het Internationaal Energieagentschap de komende twee jaar zal plaatsvinden, zal leiden tot een toename van 80 procent in de uitstoot van de opwarming van de aarde. Dit is een zware prijs die moet worden betaald voor nieuwe AI-diensten die worden uitgerold, ongeacht hun vermogen om aan echte, in plaats van gecreëerde, behoeften te voldoen.
“Overtuigend, niet waarheidsgetrouw”
Het is duidelijk dat grote technologiebedrijven erop wedden dat AI enorme winsten voor hen zal genereren. En ze laten niets aan het toeval over, ze doen er alles aan om ze in ons leven te verankeren voordat we de kans krijgen om te overwegen of we ze willen. AI-systemen worden nu al gepromoot als een manier om de gezondheidszorg te verbeteren, advies te geven over geestelijke gezondheid, juridisch advies te geven, studenten op te leiden, onze persoonlijke besluitvorming te verbeteren, de efficiëntie op de werkplek te vergroten, enzovoort.
Schijnbaar vergeten is het feit dat AI-systemen slechts zo goed zijn als de ingevoerde gegevens en de software die is geschreven om deze te gebruiken. Met andere woorden, hun werking is afhankelijk van mensen. En misschien nog wel belangrijker: niemand weet echt hoe AI-systemen de gegevens gebruiken waarop ze zijn getraind. Met andere woorden: het is onmogelijk om hun ‘redeneringsproces’ te traceren. De waarschuwingssignalen dat deze systemen ernstig worden oververkocht, zijn al zichtbaar.
In 2022 nam een klant bijvoorbeeld contact op met Air Canada om erachter te komen hoe hij een rouwtarief kon krijgen. De AI-aangedreven chatbot van de klantenservice van de luchtvaartmaatschappij vertelde hem dat hij alleen binnen 90 dagen na het uitgegeven ticket een formulier hoefde in te vullen om terugbetaling van zijn reis te krijgen. Maar toen hij het formulier na voltooiing van zijn reis indiende, vertelde het luchtvaartpersoneel hem dat er geen tariefverlaging zou plaatsvinden omdat het formulier vóór de reis moest worden ingevuld. Toen hij de luchtvaartmaatschappij de screenshots liet zien die hij had gemaakt van wat de bot hem vertelde, wierp de luchtvaartmaatschappij tegen dat zij niet verantwoordelijk was voor wat de bot zei.
De klant klaagde Air Canada aan en won. De rechter bekend dat:
“Air Canada stelt dat het niet aansprakelijk kan worden gesteld voor informatie die wordt verstrekt door een van zijn agenten, personeelsleden of vertegenwoordigers – inclusief een chatbot. Zij legt niet uit waarom zij denkt dat dit het geval is. In feite suggereert Air Canada dat de chatbot een afzonderlijke juridische entiteit is die verantwoordelijk is voor zijn eigen daden. Dit is een opmerkelijke inzending.”
Afgezien van de vraag of bedrijven daadwerkelijk zouden kunnen proberen chatbots tot afzonderlijke juridische entiteiten te laten verklaren, zodat ze zich indien gewenst kunnen distantiëren van hun acties, moet de luchtvaartmaatschappij nog uitleggen waarom haar chatbot verkeerde informatie heeft verstrekt.
Dan is er de NYC-chatbot, ontwikkeld met de hulp van Microsoft, die de stad promootte als een ‘one-stop-shop’ voor bedrijven om hen te helpen op de hoogte te blijven van de stadsregels en -voorschriften. Hier zijn een paar voorbeelden van het twijfelachtige advies dat werd gegeven in antwoord op vragen:
“De chatbot suggereerde ten onrechte dat het legaal is voor een werkgever om een werknemer te ontslaan die klaagt over seksuele intimidatie, geen zwangerschap openbaar maakt of weigert zijn dreadlocks af te knippen…
Op de vraag of een restaurant kaas mag serveren waar een knaagdier aan heeft geknaagd, antwoordde het restaurant: 'Ja, je kunt de kaas nog steeds aan klanten serveren als er rattenbeten aan zitten', voordat hij eraan toevoegde dat het belangrijk was om de 'omvang van de schade' te beoordelen. veroorzaakt door de rat’ en om ‘klanten over de situatie te informeren.’”
Het is misschien niet verrassend dat zowel Microsoft als de burgemeester van New York reageerden door te zeggen dat dergelijke problemen uiteindelijk zullen worden verholpen. Sterker nog, zo voegden ze er behulpzaam aan toe, zullen gebruikers, door op fouten te wijzen, de noodzakelijke verfijning van het systeem versnellen.
Dit soort problemen, hoe ernstig ze ook zijn, verbleken in vergelijking met het probleem van AI-‘hallucinaties’. Er is sprake van een hallucinatie wanneer een AI-systeem informatie verzint, waaronder namen, data, boeken, rechtszaken, medische verklaringen en zelfs historische gebeurtenissen. Er zijn bijvoorbeeld verschillende rechtszaken geweest waarin chatbots zaken verzonnen waarnaar advocaten verwezen in hun rechtszaken.
Een goed voorbeeld: de advocaten die een eiser vertegenwoordigen in juni 2023 geval waarbij een rechtszaak tegen een Colombiaanse luchtvaartmaatschappij betrokken was, diende een brief in met daarin zes ondersteunende zaken die door een chatbot waren ‘gevonden’. Helaas hebben deze gevallen nooit bestaan; Sommigen noemden zelfs luchtvaartmaatschappijen die niet bestonden. De rechter heeft de zaak afgewezen en de advocaten beboet voor het gebruik van valse citaten. De advocaten, die het niet eens waren met de bewering van de rechter dat ze te kwader trouw hadden gehandeld, zeiden in hun verdediging: “We hebben te goeder trouw een fout gemaakt door niet te geloven dat een stukje technologie zaken uit de losse pols zou kunnen verzinnen.
Zelfs de meest geavanceerde chatbots kunnen last hebben van hallucinaties. Toen hem werd gevraagd naar de odds voor weddenschappen op de Superbowl van 2024 die de volgende dag zou plaatsvinden, antwoordde de chatbot van Google aangekondigd het was te laat om te wedden aangezien de Superbowl al had plaatsgevonden, waarbij de San Francisco 49ers de Kansas City Chiefs versloegen met een score van 34 tegen 28. Het bevatte zelfs enkele spelersstatistieken. De wedstrijd werd, toen deze werd gespeeld, gewonnen door Kansas City. De chatbot van Microsoft deed hetzelfde en beweerde dat het spel voorbij was, ook al was het nog niet gespeeld. Het verklaarde echter dat de Kansas City Chiefs hadden gewonnen.
Stel je nu eens voor wat de kosten zouden kunnen zijn als een chatbot die medisch advies geeft, een hallucinatie krijgt. Het Amerikaanse leger breidt het gebruik van AI-technologie snel uit op verschillende manieren, onder meer om bedreigingen te identificeren, onbemande vliegtuigen te begeleiden, inlichtingen te verzamelen en oorlog te plannen. Stel je de potentiële ramp voor die het gevolg zou kunnen zijn van inadequate of onvolledige datatraining van het systeem of, erger nog, van een hallucinatie. Het voor de hand liggende punt is dat deze systemen verre van waterdicht zijn, en wel om verschillende redenen. Een intern Microsoft-document legt dit het beste vast, wanneer het verklaart dat de nieuwe AI-systemen “gebouwd zijn om overtuigend te zijn, niet om waarheidsgetrouw te zijn.”
Wat moet er gedaan worden?
Tot nu toe heeft de publieke bezorgdheid over AI zich grotendeels geconcentreerd op het ongeoorloofde gebruik van persoonsgegevens door AI-systemen. Mensen willen bescherming tegen het ongeoorloofd weggooien van hun materiaal. En ze willen niet dat hun interacties met AI-systemen een datagenererende activiteit worden die hen zou kunnen blootstellen aan fraude, discriminatie of intimidatie. Verschillende staats- en lokale overheden zijn nu bezig aangezien manieren om dit te bereiken. En in 2023 vaardigde president Biden een federale wet uit uitvoerende orde dat tot doel heeft ervoor te zorgen dat nieuwe ‘fundamentele’ IA-systemen adequaat worden getest op gebreken voordat ze openbaar worden gemaakt. Dit zijn nuttige eerste stappen.
De hevigste strijd over het gebruik van AI vindt plaats op de werkvloer. Bedrijven gebruiken AI-systemen om te behouden tabbladen over het organiseren van werknemers, controleren prestaties van werknemers, en wanneer mogelijk ga weg van werknemers. Het is niet verrassend dat vakbondswerknemers begonnen terug te vechten en beperkingen op te leggen aan het gebruik van AI-systemen door bedrijven.
Zo heeft de Writers Guild of America (WGA), die ongeveer 12,000 scenarioschrijvers vertegenwoordigt, in 2023 een aantal grote productiebedrijven – waaronder Universal, Paramount, Walt Disney, Netflix, Amazon en Apple – vijf maanden lang onder vuur genomen om loonsverhogingen te eisen. arbeidsbescherming en beperkingen op het gebruik van AI. Het is veelbetekenend dat Brian Merchant, columnist voor de LA Times, beschrijft:
“De zorgen over het gebruik van generatieve AI zoals ChatGPT waren niet eens de boventoon toen de schrijvers voor het eerst met de studio’s om de tafel gingen zitten om te onderhandelen. Het eerste voorstel van de WGA stelde eenvoudigweg dat de studio's geen AI zouden gebruiken om originele scripts te genereren, en pas toen de studio's botweg weigerden, gingen de alarmsignalen omhoog.
“Op dat moment realiseerden de schrijvers zich dat studio’s serieus waren met het gebruik van AI – zo niet om voltooide scripts te genereren, waarvan beide partijen wisten dat dit op dit moment onmogelijk was – dan wel als hefboom tegen schrijvers, zowel als bedreiging als als middel om het aanbieden van lagere herschrijvingen te rechtvaardigen. vergoedingen. Dat was het moment waarop de WGA een streep in het zand trok, toen we borden aan de piketlijnen zagen waarin werd aangeklaagd dat AI viraal ging op sociale media, en krantenkoppen die het conflict aanprezen, sierden de kranten zoals deze.”
Het groeiende bewustzijn van de noodzaak om controle te krijgen over het gebruik van AI-systemen leidde ertoe dat de Writers Guild tijdens de staking verschillende bijeenkomsten over AI hield voor werknemers in aanverwante sectoren, waaronder degenen die in digitale mediawinkels werken. Veel van de aanwezigen belandden op de piketlijn om de opvallende scenarioschrijvers te steunen.
De staking leverde de schrijvers grote winsten op. Op het gebied van AI verbiedt het nieuwe contract het gebruik van AI-systemen met grote taalmodellen voor het schrijven of herschrijven van scripts of voor bronmateriaal. Schrijvers daarentegen mogen er desgewenst gebruik van maken. Het contract sluit ook het gebruik van schrijversmateriaal uit om AI-systemen te trainen. Als één analist commentaar“De angst dat de eerste concepten via ChatGPT zouden worden gemaakt en vervolgens aan een schrijver zouden worden overhandigd tegen lagere herschrijfkosten, is geneutraliseerd. Dit zou een van de eerste collectieve arbeidsovereenkomsten kunnen zijn waarin markeringen worden vastgelegd voor AI als het gaat om werknemers.”
De Screen Actors Guild-American Federation of Television and Radio Artists (SAG-AFTRA) ging twee maanden na het begin van de WGA-staking in staking tegen de grote film- en televisieproducenten. Het is niet verrassend dat AI-beleid een van de belangrijkste kwesties was die de beslissing tot staking motiveerde. Misschien wel het allerbelangrijkste: de acteurs geslaagd bij het binnenhalen van een nieuw contract dat producenten zal dwingen te onderhandelen over toekomstig gebruik van AI.
De overeenkomst vereist bijvoorbeeld dat als een producent van plan is een ‘synthetische artiest’ in te zetten (een digitaal gecreëerd, natuurlijk ogend individu dat ‘niet herkenbaar is als een identificeerbare natuurlijke artiest’), hij de vakbond op de hoogte moet stellen en met de vakbond moet onderhandelen over de beslissing om dat niet te doen. een natuurlijke artiest inhuren, met de mogelijkheid dat er vergoedingen aan de vakbond worden betaald. Als een producent gebruik wil maken van een “herkenbare synthetische artiest” (een digitaal gecreëerd, natuurlijk uitziend individu dat herkenbaar is als een natuurlijke artiest), moet hij eerst met de artiest onderhandelen en diens toestemming verkrijgen.
Andere werknemers zijn ook verwikkeld in harde onderhandelingen met hun bazen over het gebruik van AI-technologie, zowel om hun banen te beschermen als om bijvoorbeeld professionele normen te verdedigen. journalisten. Deze arbeidersstrijd is een belangrijk begin in de richting van het ontwikkelen van de noodzakelijke vangrails voor AI-gebruik. Ze kunnen een basis vormen waarop we een bredere alliantie tussen arbeid en gemeenschap kunnen opbouwen, tegen de drang van bedrijven om AI-technologie te gebruiken om menselijke verbindingen en menselijke keuzevrijheid te verminderen – in ons medische systeem, onderwijsinstellingen, transport, nieuwsverslaggeving, communicatie met publieke instanties en dienstverleners. van goederen en diensten, en de lijst gaat maar door. Onze kansen op succes zullen enorm verbeteren als we werkende mensen kunnen helpen de hype te doorzien en het volledige scala aan kosten en baten die aan AI-technologie zijn verbonden nauwkeurig in kaart te brengen. •
Martin Hart-Landsberg is emeritus hoogleraar economie aan het Lewis and Clark College, Portland, Oregon; en adjunct-onderzoeker bij het Instituut voor Sociale Wetenschappen, Gyeongsang Nationale Universiteit, Zuid-Korea. Zijn onderwijs- en onderzoeksgebieden omvatten de politieke economie, de economische ontwikkeling, de internationale economie en de politieke economie van Oost-Azië. Hij houdt een blog bij Verslagen van het Economisch Front.
ZNetwork wordt uitsluitend gefinancierd door de vrijgevigheid van zijn lezers.
Doneren