AMY GOODMAN: Tämä on Demokratia nyt!, demokracynow.org, Sodan ja rauhan raportti. Olen Amy Goodman, Nermeen Shaikhin kanssa.
Kun yhä useampi yleisö tulee tietoiseksi tekoälystä tai tekoälystä, senaatti järjesti tiistaina kuulemistilaisuuden sen sääntelemisestä. Senaatin oikeuslaitoksen alakomitean puheenjohtaja Richard Blumenthal avasi kuulemisen tekoälyn luomalla tallenteella hänen omasta äänestään, jota jotkut kutsuvat "syväksi väärennökseksi". (Vieritä alaspäin tämän haastattelun osaan 2.)
SEN. RICHARD BLUMENTHAL: Ja nyt muutama alkuhuomautus.
SEN. RICHARD BLUMENTHAL ÄÄNIKLONE: Liian usein olemme nähneet, mitä tapahtuu teknologian yli sääntelyn: henkilötietojen hillitöntä hyväksikäyttöä, disinformaation leviämistä ja yhteiskunnallisen eriarvoisuuden syvenemistä. Olemme nähneet, kuinka algoritmiset ennakkoluulot voivat jatkaa syrjintää ja ennakkoluuloja ja kuinka avoimuuden puute voi heikentää yleisön luottamusta. Tämä ei ole se tulevaisuus, jonka haluamme.
SEN. RICHARD BLUMENTHAL: Jos kuuntelit kotoa, olisit saattanut ajatella, että ääni oli minun ja sanat minulta. Mutta itse asiassa tuo ääni ei ollut minun, sanat eivät olleet minun, ja ääni oli tekoälyn äänikloonausohjelmisto, joka on koulutettu puheenvuoroihini. ChatGPT kirjoitti kommentit, kun minulta kysyttiin, kuinka avaisin tämän kuulemisen.
AMY GOODMAN: Google, Microsoft ja OpenAI – ChatGPT:n takana oleva startup – ovat joitakin yrityksiä, jotka luovat yhä tehokkaampaa tekoälyteknologiaa. OpenAI:n toimitusjohtaja Sam Altman todisti tiistain kuulemisessa ja varoitti sen vaaroista.
SAM ALTMAN: Uskon, että jos tämä tekniikka menee pieleen, se voi mennä pieleen. Ja haluamme olla äänekkäästi tästä asiasta. Haluamme tehdä yhteistyötä hallituksen kanssa estääksemme tämän tapahtuman. Mutta yritämme olla erittäin selkeitä sen suhteen, mikä on haittapuoli ja mitä meidän on tehtävä sen lieventämiseksi. … Se on yksi suurimmista huolenaiheistani, näiden mallien yleisempi kyky manipuloida, suostutella, tarjota eräänlaista henkilökohtaista, vuorovaikutteista disinformaatiota. … Olemme melko huolissamme tämän vaikutuksista vaaleihin. Tämä on mielestäni alue, jolla toivottavasti koko teollisuus ja hallitus voivat tehdä yhteistyötä nopeasti.
AMY GOODMAN: Tämä kaikki johtuu siitä, että Yhdysvallat on jäänyt tekoälyn säätelyssä jälkeen Euroopan unioniin ja Kiinaan verrattuna.
Lisätietoa saamme Marc Rotenbergiltä, AI- ja digitaalipolitiikan keskuksen toiminnanjohtajalta.
Marc, tervetuloa Demokratia nyt! On hienoa, että olet kanssamme. Nyt on erittäin tärkeää, että tämä tekoälyn toimitusjohtaja sanoo: "Säännelkää meitä." Mutta itse asiassa, eikö hän tee sitä siksi, että hän haluaa yritysten osallistuvan asetukseen? Keskustele siitä ja myös siitä, mitä tekoäly on, ihmisille, jotka eivät vain ymmärrä, mistä tässä on kyse.
MARC ROTENBERG: No, Amy, ensinnäkin, kiitos, että sait minut ohjelmaan.
Ja toiseksi, vain askel taaksepäin, Sam Altman sai paljon huomiota tällä viikolla, kun hän todisti kongressissa, mutta mielestäni on erittäin tärkeää tehdä selväksi keskustelumme alussa, että kansalaisyhteiskunnan organisaatiot, tekoälyn asiantuntijat, teknologia kehittäjät ovat sanoneet monta, monta vuotta, että tässä on ongelma. Ja mielestäni on erittäin tärkeää tässä politiikkakeskustelun vaiheessa tunnustaa, että nämä näkemykset ovat ilmaisseet henkilöt, kuten Timnit Gebru ja Stuart Russell ja Margaret Mitchell sekä oman organisaationi puheenjohtaja Merve Hickok, joka todisti maaliskuun alussa ennen. Edustajainhuoneen valvontakomitealle, että meillä ei yksinkertaisesti ole turvatoimia käytössä, meillä ei ole laillisia sääntöjä, meillä ei ole asiantuntemusta hallituksessa nyt tapahtuvaa nopeaa teknologista muutosta varten. Joten vaikka suhtaudumme myönteisesti herra Altmanin tukeen vahvalle lainsäädännölle, emme usko, että hänen pitäisi olla huomion keskipiste tässä poliittisessa keskustelussa.
Mitä tekoäly tarkoittaa ja miksi siinä on niin paljon huomiota? Osa tästä liittyy teknologiassa ja teknologiateollisuudessa tapahtuvaan erittäin nopeaan muutokseen, jota monet eivät yksinkertaisesti nähneet tapahtuvan sellaisenaan. Olemme tunteneet tekoälyongelmia monta, monta vuotta. Meillä on nykyään laajalti käytössä kaikkialla maassamme automatisoituja päätöksiä, jotka tekevät päätöksiä ihmisten mahdollisuuksista saada koulutusta, luottoa, työllistymistä, asumista, koeaikaa, jopa maahantuloa. Kaiken tämän tekevät automatisoidut järjestelmät, jotka turvautuvat yhä enemmän tilastotekniikoihin. Ja nämä tilastotekniikat tekevät ihmisistä päätöksiä, jotka ovat usein läpinäkymättömiä ja joita ei voida todistaa. Joten sinulla on itse asiassa tilanne, jossa suuret liittovaltion virastot ja suuret yritykset tekevät päätöksiä, ja jos palasit takaisin ja sanoit: "No, miksi minulta evättiin laina?" tai "Miksi viisumin hakeminen kestää niin monta vuotta?" järjestöillä itsellään ei ole hyviä vastauksia.
Joten se näkyi osittain Altmanin tämän viikon todistuksessa. Hän on uuden tekoälytekniikan etulinjassa, jota kutsutaan yleisesti generatiiviseksi tekoälyksi. Se tuottaa synteettistä tietoa. Ja jos saan selventää avaustasi senaattori Blumenthalin huomautuksista, ne eivät itse asiassa olleet äänite, mikä on meille hyvin tuttu termi. Sitä ajattelemme, kun kuulemme jonkun äänen toistettavan. Se oli itse asiassa synteettisesti luotu senaattori Blumenthalin aikaisempien lausuntojen perusteella. Ja siinä näemme yhteyden sellaisiin käsitteisiin kuin syvät väärennökset. Tätä ei ole olemassa todellisuudessa, mutta siksi, että tekoälyjärjestelmä loi sen.
Meillä on tällä hetkellä valtava haaste yrittää säännellä tätä uudentyyppistä tekoälyä sekä olemassa olevia järjestelmiä, jotka tekevät päätöksiä ihmisistä, usein sisältyen ennakkoluuloisuuteen ja toistaen paljon sosiaalista syrjintää fyysisessä maailmassamme. siirretään näissä tietosarjoissa digitaaliseen maailmaamme. Ja tarvitsemme lainsäädäntöä, jolla luodaan tarvittavat suojakaiteet.
NERMEEN SHAIKH: Marc Rotenberg, voitko tarkentaa sitä tosiasiaa, että niin monet tekoälytutkijat ovat itsekin huolissaan siitä, mihin tekoäly voi johtaa? Äskettäinen tutkimus osoitti, että puolet, 50 % tekoälytutkijoista, antaa tekoälylle vähintään 10 %:n mahdollisuuden aiheuttaa ihmisen sukupuuttoon. Voisitko puhua siitä?
MARC ROTENBERG: Kyllä, niin, ehdottomasti. Ja itse asiassa, minä olin yksi niistä ihmisistä, jotka allekirjoittivat tuon kirjeen, joka jaettiin aiemmin tänä vuonna. Se oli muuten kiistanalainen kirje, koska siinä oli taipumus keskittyä pitkän aikavälin eksistentiaalisiin riskeihin ja se sisälsi sellaisia huolenaiheita kuin näiden nyt kehitettävien järjestelmien hallinnan menettäminen. Tekoälyyhteisössä on toinenkin ryhmä, joka mielestäni aivan oikein sanoi eksistentiaalisista huolenaiheista, että meidän on myös keskityttävä välittömiin huolenaiheisiin. Ja puhuin esimerkiksi hetki sitten upotetusta puolueellisuudesta ja toistavasta syrjinnästä. Sitä tapahtuu juuri nyt. Ja se on ongelma, joka on ratkaistava nyt.
Oma näkemykseni, joka ei välttämättä ole kaikkien muiden näkemys, on, että molemmat ryhmät lähettävät voimakkaita varoituksia siitä, missä olemme. Uskon, että ryhmät, jotka sanovat, että meillä on hallinnan menettämisen riski, joihin kuuluu monia merkittäviä tietotekniikan tutkijoita, jotka ovat voittaneet Turing-palkinnon, joka on kuin tietojenkäsittelytieteen Nobelin palkinto, ovat mielestäni oikeassa. Mielestäni on olemassa todellinen riski hallinnan menettämisestä. Mutta olen myös samaa mieltä AI Now Instituten ja Distributed AI Research Instituten ihmisten kanssa siitä, että meidän on ratkaistava jo käytössä olevien järjestelmien ongelmat.
Ja tämä on myös syy siihen, että olin suoraan sanottuna erittäin iloinen senaatin tämän viikon kuulemisesta. Se oli erittäin hyvä kuulo. Siellä oli erittäin hyviä keskusteluja. Minusta valiokunnan jäsenet olivat hyvin valmistautuneita. He esittivät hyviä kysymyksiä. Keskustelua käytiin paljon konkreettisista ehdotuksista, avoimuusvelvoitteista, yksityisyyden suojasta, laskentarajoituksista ja tekoälykyvystä. Ja tuin suuresti sitä, mitä senaattori Blumenthal sanoi alussa. Tiedäthän, hän sanoi: "Meidän on luotava sääntöjä avoimuutta ja vastuullisuutta varten, ja meidän on asetettava joitain rajoituksia käytölle." Ajattelin, että se oli erinomainen paikka aloittaa keskustelu Yhdysvalloissa siitä, kuinka luoda suojakeinoja tekoälyn käytölle.
NERMEEN SHAIKH: Ja Marc Rotenberg, mitä etuja ihmiset puhuvat tekoälyn suhteen? Ja kun otetaan huomioon sen leviämisnopeus, kuten sanoit, tämä nopea teknologinen kehitys, onko mitään keinoa pysäyttää se tässä vaiheessa?
MARC ROTENBERG: Ei ole epäilystäkään siitä, että tekoäly, tarkoitan laajasti ottaen - ja tiedäthän, tietysti, se on laaja käsite, eivätkä edes asiantuntijat tietenkään ole täsmälleen samaa mieltä siitä, mitä tarkoitamme. mutta oletetaan, että tekoäly, laajasti ottaen, edistää innovaatioita lääketieteen alalla, esimerkiksi suuria läpimurtoja proteiinien laskostamisessa. Se edistää organisaatioiden hallinnon tehokkuutta, parempia tapoja tunnistaa tuotteiden ja kuljetusten turvallisuuspuutteita. Mielestäni ei ole riitaa. Tarkoitan, se on vähän kuin puhuisi tulesta tai sähköstä. Se on yksi näistä digitaaliajan perusresursseista, jota käytetään laajasti. Mutta kuten tulen tai sähkön kohdalla, ymmärrämme, että ylläpitääksesi – saadaksesi hyödyt, sinun on myös asetettava joitain suojatoimia ja joitain rajoituksia. Ja näet, että olemme itse asiassa juuri nyt hetkessä, jolloin tekoälytekniikoita otetaan laajalti käyttöön ilman mitään suojatoimia tai rajoituksia. Ja siksi niin monet tekoälyyhteisön ihmiset ovat huolissaan. Kyse ei ole siitä, etteivätkö he näkisi etuja. He näkevät riskit, jos jatkamme tällä tiellä.
AMY GOODMAN: No, haluamme puhua siitä, mitä näiden suojatoimien on oltava, ja kaivella lisää, kuinka tekoäly voi johtaa ihmisten sukupuuttoon maan päällä. Keskustelemme tekoäly- ja digitaalipolitiikan keskuksen toiminnanjohtajan Marc Rotenbergin kanssa. Me teemme Osa 2, laita se verkkoon osoitteessa democracynow.org. Olen Amy Goodman Nermeen Shaikhin kanssa.
Osa 2: Tekoälyn historia, miten se sisällyttää puolueellisuuden, syrjäyttää työntekijät, koska kongressi viivästyy sääntelyssä
AMY GOODMAN: Tämä on Demokratia nyt!, demokracynow.org, Sodan ja rauhan raportti. Olen Amy Goodman ja Nermeen Shaikh, kun tuomme sinulle osan 2 keskustelustamme Marc Rotenbergin, Center for AI and Digital Policyn johtajan kanssa.
Kun yhä useampi yleisö tulee tietoiseksi tekoälystä tai tekoälystä, senaatti järjesti tiistaina kuulemistilaisuuden sen sääntelemisestä. Kalifornian senaattori Alex Padilla ilmaisi huolensa siitä, että suurin osa tekoälytutkimuksesta on tehty englanniksi ja että muut kielet on laiminlyöty.
SEN. ALEX PADILLA: Ymmärtääkseni suurin osa oikeudenmukaisuuden haittojen arviointia ja lieventämistä koskevasta tutkimuksesta on keskittynyt englannin kieleen, kun taas muut kuin englannin kielet ovat saaneet suhteellisen vähän huomiota tai investointeja, ja olemme nähneet tämän ongelman ennenkin. Kerron sinulle, miksi nostan tämän esiin. Esimerkiksi sosiaalisen median yritykset eivät ole investoineet riittävästi sisällön moderointityökaluihin ja resursseihin ei-englanniksi – ei-englanniksi. Ja en jaa tätä vain huolistani ei-yhdysvaltalaisia käyttäjiä kohtaan, vaan monet yhdysvaltalaiset käyttäjät pitävät viestinnässään mieluummin muuta kieltä kuin englantia. Olen siis syvästi huolissani sosiaalisen median epäonnistumisen toistamisesta tekoälytyökaluissa ja -sovelluksissa.
AMY GOODMAN: Myös New Yorkin yliopiston psykologian ja neurotieteen emeritusprofessori Gary Marcus todisti istunnossa.
GARY MARCUS: Yksi niistä asioista, joista olen eniten huolissani GPT-4:ssä, on se, että emme tiedä, mihin se on koulutettu. Luulen, että Sam tietää, mutta me muut emme tiedä. Ja se, mihin se on koulutettu, vaikuttaa olennaisesti järjestelmän harhaan. Voisimme puhua siitä teknisesti, mutta se, miten nämä järjestelmät voivat johtaa ihmisiä, riippuu suuresti siitä, mitä tietoja niille on koulutettu. Ja siksi tarvitsemme avoimuutta tässä asiassa. Ja luultavasti tarvitsemme siellä tutkijoita, jotka tekevät analyyseja ymmärtääksemme, mitä poliittisia vaikutuksia esimerkiksi näillä järjestelmillä voi olla. Eikä kyse ole vain politiikasta. Kyse voi olla terveydestä. Kyse voi olla mistä tahansa. Nämä järjestelmät imevät paljon dataa, ja sitten se, mitä he sanovat, heijastelee näitä tietoja, ja ne tekevät sen eri tavalla sen mukaan, mitä datassa on. Joten sillä on eroa, jos he ovat koulutettuja Wall Street Journal toisin kuin New York Times tai Reddit. Tarkoitan itse asiassa, että he ovat suurelta osin koulutettuja kaikkeen tähän asiaan, mutta me emme oikein ymmärrä sen koostumusta. Ja niin meillä on tämä mahdollinen manipulointikysymys. Ja se on vielä monimutkaisempi, koska se on hienovaraista manipulointia. Ihmiset eivät välttämättä ole tietoisia siitä, mitä tapahtuu.
AMY GOODMAN: Jatkamme siis Marc Rotenbergin, Center for AI and Digital Policyn toiminnanjohtajan kanssa. Ja nämä ovat kaikki todella kriittisiä kohtia, jotka otettiin esille senaatin kuulemisessa. Mutta ennen kuin käsittelet niitä, kaikki esimerkiksi suurimmasta osasta englannin tekoälyn tutkimuksesta on kerrottu tekoälyn historiasta.
MARC ROTENBERG: No, se on hieno kysymys, Amy. Ja olen ollut tällä alalla nyt monta, monta vuotta. Muistan, tiedätkö – vau, palasin 1970-luvulle, ja ihmiset puhuivat siitä, voiko tietokone voittaa ihmisen shakinpelaajan. Ja alkuaikoina keskityttiin paljon tietokoneisiin ja shakkiin. Ja siellä tein varhaisen työni. Ja meillä oli tapana suunnitella niin sanottuja tekoälyjärjestelmiä; ne olivat itse asiassa asiantuntijajärjestelmiä, suuria sääntöpohjaisia päätöspuita. Ja voisit itse asiassa kirjoittaa tietokoneella vahvan ohjelman, joka arvioi tiettyä sijaintia tarkasteltaessa erilaisia vaihtoehtoja, arvostaa vaihtoehdot, valitsee parhaan vaihtoehdon, ennakoi parhaan liikkeen ja menisi yhä syvemmälle laskentatehoon perustuva päätöspuu. Ja niistä ohjelmista tuli itse asiassa melko vahvoja. Olin itse asiassa Philadelphiassa vuonna 1997, kun IBM-ohjelma Deep Blue voitti shakin maailmanmestarin Garry Kasparovin, mikä oli hetki, tiedätkö? Tarkoitan, että tietokone lyö ihmistä erittäin edistyneessä toiminnassa, kuten jotkut ihmiset sanoisivat.
Mutta tämä on tärkeä seikka, jonka kuuntelijat ymmärtävät. Jo tuolloin 1990-luvulla, kun tietokone voitti Kasparovin, voit avata ohjelman. Voit katsoa, kuinka liikkeet tuotettiin. Voisit jäljittää päätöspuun. Tiesitkö, että lisäisit suurmestarin asiantuntemusta loppupeliasemaan, jos tietokoneella oli vaikeuksia sen kanssa. Ja se todellakin oli jotain ihmisen hallinnassa, yhtä kehittynyttä kuin tekniikka oli. Mutta tekoäly alkoi muuttua, ja tekoäly siirtyi kohti koneoppimistekniikoita. Ja en todellakaan ole asiantuntija siinä, mutta voin sanoa, että yleisesti ottaen koneoppimistekniikat sisältävät paljon dataa ja paljon prosessointia ohjelman sisällä, jotta voidaan arvioida, kuinka löytää paras lopputulos.
Joten, kerron teille nyt toisesta shakkiottelusta, mitä tapahtui – joka tapahtui vuonna 2017. Ja sinä vuonna uusi koneoppimiseen perustuva ohjelma nimeltä AlphaZero voitti hallitsevan vanhan tyylin tietokoneohjelman nimeltä Stockfish. yksi, jossa on päätöspuut, jotka voit avata ja korjata. Ja ihmiset katsoivat tulosta, ja he olivat kuin järkyttyneitä. AlphaZero oli tehnyt loistavia liikkeitä. Se oli voittanut hallitsevan tietokonemestarin, joka oli jo parempi kuin hallitseva ihmismestari. Mutta ihmiset eivät pystyneet todistamaan tuloksia. He eivät pystyneet ymmärtämään, miksi ohjelma teki tietyn liikkeen, koska nyt harjoitustiedot olivat niin monimutkaisia, ja menettelyt ja tekniikat olivat niin monimutkaisia.
Ja luulen, että monille ihmisille tämä osoitti todellista huolta. Tiedät, toisaalta sinulla on tämä valtava saavutuksen tunne, jonka tiedän AlphaZeron ja DeepMindin henkilöiden tuon projektiin osallistuneen. Ja toisaalta kävelet pois siitä ja kysyt itseltäsi kysymyksen: entä jos jotakin näistä järjestelmistä käytettäisiin presidentin neuvontaan globaalissa konfliktissa tai lakien laatimiseen tai lääketieteellisen diagnoosin tuottamiseen? Haluatko todella tuloksia, joita ei voida todistaa, joita ei voida toistaa, jotka eivät noudata kaikkia tieteellisen menetelmän perinteisiä tekniikoita?
Ja tämä taustalla häilyvä huoli, sanotaan, kiihtyi äskettäin ChatGPT:n takia, koska nyt näit edistyneen tekoälyn – kutsukaamme sitä tällä hetkellä kehittyneeksi tekoälyksi – kyvyn tuottaa tekstiä, tuottaa puhetta, kuvien tuottamista, videon tuottamista, eivätkä edes järjestelmien luoneet ihmiset pystyneet selittämään sinulle tarkasti, kuinka se tapahtui.
Ja siksi esimerkiksi palatakseni alkuun klippeihin, senaattori Padilla on täysin oikeassa. Tarkoitan, kuinka arvioimme järjestelmän, kun tiedämme jo, että harjoitustiedoissa on harhaa, jos kaikki on englanninkielistä tekstiä? Ja Gary Marcus oli täysin oikeassa. Tarkoitan, hän kutsui tätä täydelliseksi myrskyksi. Tiedätkö, hän sanoi, että yhtiöt kilpailevat uusien tuotteiden kanssa, meillä ei ole suojakaiteita, ja meillä on valtava riski yleisölle, että nämä järjestelmät ovat sääntelemättömiä.
Joten käytän shakkiesimerkkiä auttaakseni ihmisiä ymmärtämään, että tekoälyyn on olemassa tapa, jossa säilytät hallinnan, edistät innovaatioita, saavutat näyttäviä tuloksia ja on olemassa tapa tehdä tekoäly, joka on suoraan sanottuna hieman pelottava.
NERMEEN SHAIKH: Ja mitkä ovat erityiset huolenaiheet? Tarkoitan ensinnäkin, Marc, jos voisit selittää yleisen tekoälyn ja mitä erityisiä huolenaiheita siihen liittyy? Tarkoitan, onko tämä AlphaZero - oliko se esimerkki yleisestä tekoälystä? Jos vain voisit selittää?
MARC ROTENBERG: Oikein. Joten yleisesti ottaen olemme aiemmin ajatellut tekoälyn auttavan ratkaisemaan tietyn ongelman, kuten silloin, kun radiologi yrittää tulkita röntgenkuvaa. Meillä on nyt tekoälyyn perustuvia tekniikoita, jotka perustuvat moniin harjoitustietoihin ja jotka tekevät erittäin hyvää työtä, tunnistavat syöpäriskit tutkimalla röntgenkuvan tuottamaa digitaalista kuvaa. Ja me ajattelisimme sitä, aivan kuten shakkia, eräänä tekoälyn sovelluksena.
Mielenkiintoinen kysymys on nyt, voimmeko kehittää tekoälyjärjestelmiä, jotka voivat liikkua useilla aloilla ja tarjota tietoa ilman koulutusta millään tietyllä alalla. Ja itse asiassa AlphaZeron tarjoama malli on esimerkki tästä, koska tuo ohjelma, vaikka se oli erittäin hyvä shakissa, ei ollut varsinaisesti koulutettu suurmestarien asiantuntemuksella. Se ei ollut vanhanaikainen asiantuntijajärjestelmä. Se oli itse asiassa sääntöihin perustuva järjestelmä, joka sanoi: "Kuinka tätä peliä pelataan? OK, nyt lähden pelaamaan itseäni 10 miljoonaa kertaa”, ja minusta tuli erittäin vahva.
Näemme tämän myös generatiivisessa tekoälyssä, joka on koulutettu Internetin tekstiin ja tavaramerkkihakemusten tekstiin ja koulutettu suurten kirjojen tekstiin. Kun sinulla on niin paljon tietoa, voit kysyä kysymyksen: "Keitä ovat viisi parasta renessanssin maalaria?" saat yllättävän hyvän vastauksen ja esitä sitten kysymys, tiedätkö: "Mitkä ovat parhaat turvatoimenpiteet, jos talo syttyy tuleen?" ja toinen erittäin hyvä vastaus. Tältä yleinen tekoäly alkaa tuntua, koska joku ei ole ennalta määritellyt tiettyä sovellusta varten.
NERMEEN SHAIKH: Marc, palataanpa tiistain kuulemiseen ja keskustellaan siitä, millä tavoilla tätä tekniikkaa voitaisiin säännellä. Senaatin oikeuslaitoksen alivaliokunnan puheenjohtaja Richard Blumenthal varoitti myös pykälän 230 virheiden toistamisen vaarasta, kaksi-kolme nolla, joka suojelee Internet-yrityksiä vastuulta käyttäjien lähettämästä laittomasta sisällöstä ja sallii niiden poistaa lailliset mutta sopimattomat viestit.
SEN. RICHARD BLUMENTHAL: Kun tekoälyyritykset ja heidän asiakkaat aiheuttavat vahinkoa, ne tulee asettaa vastuuseen. Meidän ei pidä toistaa aiempia virheiämme – esimerkiksi § 230. Yritysten pakottaminen ajattelemaan eteenpäin ja olemaan vastuussa liiketoimintapäätöstensä seurauksista voi olla tehokkain työkalu kaikista. Roskat sisään, roskat ulos – periaate pätee edelleen. Meidän tulee varoa roskia, menipä se näille alustoille tai tulee niistä ulos.
NERMEEN SHAIKH: Marc Rotenberg, jos voisit vastata siihen, mitä senaattori Blumenthal sanoi?
MARC ROTENBERG: Oikein. No, olin erittäin iloinen, että hän sanoi niin. Se oli itse asiassa näkemys, jonka molempien osapuolten jäsenet ilmaisivat käytävän toisella puolella. Tässä viitataan vuoden 1996 lain säännökseen, joka myönsi Internet-yrityksille laajan koskemattomuuden niiden julkaisemille tiedoille ja rehellisesti sanottuna hyötyivät vuosien mittaan kehittyneen mainosmallin kautta. Olin mukana lain valmistelussa vuonna 1996. Silloin se tuntui sopivalta. Internet oli vielä alkuaikoinaan, eivätkä suuret teknologiayritykset hallinneet, kuten nykyään.
Mutta luulen, että monille meistä - tiedän - tuli ilmeiseksi ajan myötä, että pykälä 230 oli uudistettava, ellei kumottava. Yksi tämän koskemattomuuden valitetuista seurauksista oli se, että Internet-yritykset saivat kerätä suuren osan perinteisten uutisorganisaatioiden lukijakunnasta ja tuloista. Joten paradoksaalista kyllä, Internet-yrityksiä suojellessaan se itse asiassa haittasi uutisorganisaatioita, jotka yrittivät saattaa työnsä saataville verkossa. Ja olin erittäin, hyvin huolissani siitä.
Mutta jälleen kerran, hyvä uutinen on, että senaattori Blumenthal ja muut ovat periaatteessa sanoneet, että tekoälyteollisuuden osalta he eivät aio tehdä sitä virhettä uudelleen. Ja on itse asiassa erittäin helppo nähdä, kuinka täsmälleen sama ongelma voi ilmaantua, koska nämä tekoälymallit, erityisesti generatiiviset tekoälymallit, keräävät periaatteessa niin paljon tietoa muilta kuin pystyvät, ja mielestäni sen ylläpitäminen on erittäin vaikeaa. itsenäisille yrityksille ja organisaatioille ilman parempaa lähestymistapaa vastuuseen. Se oli siis myönteinen signaali, ja mielestäni molempien puolueiden tuki oli olemassa.
AMY GOODMAN: Haluan kysyä sinulta, Marc Rotenberg, meneillään olevasta WGA-lakosta ja kuinka tämä liittyy tekoälyyn. Olet esimerkiksi – no, nyt alkaa kolmas viikkonsa – näyttelijä ja tietojenkäsittelytieteilijä Justine Bateman julkaissut twiitin, jossa kerrotaan, kuinka tekoäly voi häiritä viihdeteollisuutta, ja puhunut siitä, mitä näyttelijät voivat tehdä suojellakseen itseään. Mutta puhukaa siitä, mitkä WGA:n vaatimukset studioille ovat ja miksi tekoäly on niin keskeinen ja uhkaava työpaikoille.
MARC ROTENBERG: Oikein. Ymmärrän vähän WGA:n määräyksiä – olen pahoillani, kanta nykyisessä neuvottelussa. Satuin näkemään yhden neuvottelupisteistä, ja se koski sitä, voitaisiinko generatiivisia tekoälytekniikoita itse asiassa käyttää esimerkiksi skriptien kirjoittamiseen. Ja mielestäni ammattiliitto, aivan oikeutetusti, haluaa vetää siihen vahvan rajan ja sanoa: "Ei, emme halua, että työmme korvataan koneilla."
Ja näemme sen jo uutisteollisuudessa itse asiassa. Yksi uutisorganisaatioista – unohdan nimen, mutta he ilmoittivat irtisanomisista, koska he näkevät tehokkuutta ja taloudellisuutta, ja sitten suoraan sanoen lisää kannattavuutta, jos he voivat käyttää vaikkapa yhtä esimiestä ja 10 luovaa tekoälyohjelmaa, toisin kuin toimittaja ja 10 kirjoittajaa. IBM on itse asiassa äskettäin ilmoittanut, että se aikoo korvata suuren osan työntekijöistään ohjelmilla, joiden uskoo voivan ottaa nämä vastuut.
Nyt alalla on tietysti pitkään käyty mielenkiintoista keskustelua teknologian vaikutuksista työllisyyteen. Ja on näkemys, että vaikka jotkin työpaikat menetetään, uusia työpaikkoja syntyy, ja usein ne voivat olla parempia työpaikkoja. En ole tämän aiheen asiantuntija, mutta sanon tämän. Tällä hetkellä tapahtuva muutos tapahtuu niin nopeasti, että ihmettelen todella, ajattelevatko edes ne, jotka uskovat uusien työpaikkojen syntymiseen lopulta, sen tapahtuvan tarpeeksi nopeasti. Ja luku, jonka olen lukenut monilta johtavilta tekoälyn kannattajilta – tähän kuuluu esimerkiksi Kai-Fu Lee Kiinassa ja Eric Schmidt täällä Yhdysvalloissa – tiedäthän, että molemmat haluavat pitää hallituksen poissa tieltä ja haluavat AI otetaan laajasti käyttöön. He odottavat korkeaa työttömyyttä. Ja monet ovat alkaneet puhua, tiedäthän, kasvavasta tarpeesta saada yleisiä perustuloja ihmisten auttamiseksi, jotka menettävät työnsä tekoälyn takia. Joten minusta tämä hetki näyttää itse asiassa hieman painavammalta kuin perinteinen keskustelu teknologiasta ja työllisyydestä. Ja mielestäni on oikein, että Writers Guild ottaa nämä asiat nyt esille. Epäilen, että myös monet muut ovat.
AMY GOODMAN: Ja tiedäthän, täällä on tietysti paljon aakkoskeittoa, tekoälystä WGA:han, joka on, kuten juuri sanoit, Writers Guild of America. Nermeen?
NERMEEN SHAIKH: Joten, Marc, jos voisit myös selittää – tarkoitan, että on olemassa useita riskejä, joita ihmiset ovat huomauttaneet tavasta, jolla tekoäly saattaa mahdollisesti vaarantaa demokraattisen prosessin, ei vain täällä vaalien yhteydessä, vaan todella kaikkialla maailmassa. Jos voisit selittää, kuinka se voi tapahtua ja missä olemme jo nähneet sen?
MARC ROTENBERG: Oikein. Joten tämä on toinen alue, jolla tekoäly liikkuu erittäin nopeasti. Ja en usko, että meillä on riittävää asiantuntemusta tai sääntöjä reagoida seurauksiin, ja etenkään täällä Yhdysvalloissa, missä valitettavasti kasvaa epäluottamus instituutioita kohtaan, lisääntyy epäluottamus uutisraportointiin, todella kyvyttömyys päästä yhteisymmärrykseen. perusasioista. Voit vahvistaa ja nopeuttaa näitä trendejä tekoälytekniikoiden avulla.
Ja anna minun selittää lyhyesti, kuinka se toimii. Saatamme ajatella esimerkiksi, että perinteinen huolenaihe on propagandaa tai vääriä lausuntoja, joita julkaistaan hämmentämään ihmisiä, johtamaan ihmisiä harhaan. Tällaisessa viestinnässä ei ole mitään uutta – disinformaatiota, voisimme sitä myös kutsua. Tekoälytekniikoilla ja henkilötiedoilla on nyt mahdollisuus kohdistaa, profiloida, sitouttaa ja hoitaa yksilöitä, mikä on erittäin tehokasta, erittäin vakuuttavaa ja itse asiassa erittäin vaikeaa ennakoida tai arvioida. Tämä on itse asiassa yksi kysymyksistä, jonka Gary Marcus otti esille valiokunnan kanssa tällä viikolla. Tarkoitan, että olemme vuorovaikutuksessa ihmisten kanssa, vaikkapa puhelimen tai Zoomin kautta. Voimme arvioida kenen kanssa puhumme ja miksi he sanovat mitä he sanovat, ja meillä on tietty luontainen kyky arvioida ihmisten käyttäytymistä, mikä auttaa meitä ainakin selvittämään totuuden ja valheen. Generatiivisen tekoälyn ansiosta ihmisäänen, ihmissanojen, ihmiskuvien ja videon kopioiminen ihmisten vakuuttamiseksi tulee entistä helpommaksi ja halvemmaksi.
Joten, senaattori Blumenthal, tuossa alussa antamassasi klipissä, oli itse asiassa melko lempeä esimerkissään, koska hän pyysi ohjelmaa yksinkertaisesti sanomaan sanoja, jotka hän todennäköisesti oli sanonut aikaisempien lausuntojensa perusteella. Se itse asiassa kuulosti häneltä. Mutta kuvitellaanpa erilainen skenaario, ehkä senaattori Blumenthalin vastustajalta seuraavassa senaatin kilpailussa Connecticutissa, joka käyttää täsmälleen samaa tekniikkaa ja on saanut senaattori Blumenthalin sanomaan äänellään todella törkeitä asioita, eikö niin? Sellaisia asioita, joita sanot – jotka kuulet ja sanot: "Voi luoja! Sanoiko hän todella niin?" Ja sitten tietysti, tiedäthän, Blumenthal asetetaan tähän asemaan, jossa hän sanoo: "No, se en ollut minä. Tiedätkö, se oli vastustajani luoma tietokoneohjelma. En koskaan sanoisi tällaisia asioita." Ja ihmiset, joilla on nyt nämä kaksi ristiriitaista lausuntoa, ovat kuin: "Joo, mutta tiedätkö, se kuulosti paljon sinulta. Oisko?"
Ja tästä skenaariosta uskon, että monet tekoälymaailman ihmiset ovat todella huolissaan. Siellä on artikkeliLuulen, että juuri tällä viikolla Atlantic Tuftsin filosofi, joka puhuu väärennettyjen ihmisten luomisesta. Generatiivinen tekoäly mahdollistaa väärennettyjen ihmisten luomisen. Ja meidän on kehitettävä kriittisiä taitoja liikkuessamme tässä digitaalisessa ympäristössä, jotta voimme arvioida, mikä on totta ja mikä ei.
AMY GOODMAN: Tiedätkö, voit ajatella kaikenlaisia asioita. Esimerkiksi Donald Trumpin ehdolla presidentiksi – ei sillä, että hän välittäisi tosiasioista, vaan nauha hänestä vuosikymmeniä sitten, kun hän sanoi, kuinka hän uskoo täysin naisten oikeuteen valita abortti. Hän sanoi: "Tiedätkö, olen kotoisin New Yorkista. Joten siltä minusta tuntuu." Voin vain sanoa, että se on syvää väärennettyä tekniikkaa. Sinulla on nämä viimeisimmät Giuliani-nauhat, jotka tulevat ulos häntä vastaan nostetusta oikeudenkäynnistä. Nainen, joka syyttää häntä seksuaalisesta väkivallasta, tallensi useita asioita. Hän voi vain sanoa: "Tämä on syvää väärennöstä." Teillä on syvää tekoälyn tuottamaa väärennettyä teknologiaa, joka jo häiritsee Turkin demokraattisia vaaleja. Internetissä julkaistiin video, jonka väitetään olevan vuotanut seksinauha presidenttiehdokkaista ennen viime sunnuntain ensimmäistä äänestyskierrosta. Hän putosi kilpailusta sanoen, että se oli syvä väärennös, väärennösvideo, väärennetyt kuvat. Vastauksesi?
MARC ROTENBERG: No, Amy, pointtisi on itse asiassa erittäin tärkeä, koska kuvailin tietysti, kuinka tekoälytekniikoita voidaan käyttää ihmisten suostutteluun väärällä tiedolla, mutta myös tekoälytekniikoiden olemassaolo voi vaikeuttaa todellisuuden määrittämistä, koska toiset voivat sitten sanoa: "Voi, tiedätkö, tuo luomasi video", joka on muuten totta, "on luonut tekoäly, ja siksi ihmiset voivat sivuuttaa sen." Joten kun astumme aikakauteen, jolloin on entistä helpompaa sekä valmistaa ja vakuuttaa tekoälyn luomilla synteettisillä materiaaleilla että vähentää totta kyseenalaistamalla sen, mitä näemme digitaalisessa maailmassa, se on todella uhka julkiseen tarkoitukseen ja demokraattisiin instituutioihin.
Ja tämä myös - tiedäthän, sanon vain, että tein a arviot ei liian kauan sitten kirja Eric Schmidt ja Henry Kissinger, Huttenlocher at MIT, nimeltään Tekoälyn aikakausi. Ja he vaikuttivat yleisesti ottaen toiveikkailta mahdollisuudesta, että tekoäly johtaisi parempaan päätöksentekoon ja tukisi demokraattisia instituutioita. Ja luin sen kirjan ja katsoin heidän esimerkkejään, ja päädyin melkein päinvastaiseen johtopäätökseen. Tiedäthän, he sanoivat, että tämä vie meidät järjen iän yli, ja minä sanoin, että tämä vie meidät takaisin uskon aikakauteen, jossa meidän on yksinkertaisesti luotettava tekoälyjärjestelmien tuotteeseen ja menetettävä järkeilykykymme. keskustella ja keskustella demokratian yhteydessä.
Mutta ilman, että olen liian alas täällä, haluan jälleen kertoa teille, katsojillenne ja kuuntelijoillenne, senaatin tämän viikon kuuleminen oli erittäin hyvä. Se oli todella virstanpylväs ja myönteinen kehitys Yhdysvalloissa. Kuten sanoit tämän segmentin alussa, Yhdysvallat on jäänyt jälkeen muista maista. Tuotamme itse asiassa vuosiraportin nimeltä "Artificial Intelligence and Democratic Values Index", ja arvioimme ja luokittelemme maita niiden tekoälypolitiikan ja -käytäntöjen perusteella, jotka koskevat demokraattisten arvojen mukauttamista. Ja olemme olleet aidosti huolissamme Yhdysvalloista viime vuosien aikana – liian monta salaisia tapaamisia, liian monta tapaamista teknisten toimitusjohtajien kanssa, ei tarpeeksi edistystä lainsäädännössä. Mutta luulen, että olemme kääntymässä nurkkaan, ja mielestäni tämän viikon senaatin kuulemistilaisuus, joka, kuten sanoin alussa, itse asiassa vastasi joihinkin huolenaiheisiin, jotka kollegani Merve Hickok esitti edustajainhuoneen valvontaa koskevassa kuulemisessa maaliskuun alussa. on todella hyvä uutinen.
NERMEEN SHAIKH: Marc Rotenberg, voisitko myös selittää, mitä huolenaiheita on ilmaistu tekoälyn, kasvojentunnistusteknologian, biometriikan käytöstä poliisitoiminnassa ja maahanmuutossa?
MARC ROTENBERG: Oikein. Tämä on siis erittäin tärkeä aihe. Ja tämä itse asiassa vie meidät yhteen kriittisistä keskusteluista tekoälypolitiikasta, joka koskee sitä, pystyvätkö hallitukset todella vetämään punaisia viivoja luomaan kieltoja tietyille tekoälytekniikoille, jotka loukkaavat perusihmisoikeuksia. Teknologiamaailmassa on tapana sanoa, että kun ongelma tunnistetaan, "Oi, tiedätkö, sinä olet siellä. Katsotaan, voimmeko korjata sen. Ja sitten jatkamme järjestelmää, nyt kun olemme ratkaisseet ongelman." Luulen, että mitä kansalaisjärjestöt ja ihmisoikeusjärjestöt sanovat, on olemassa tiettyjä tekoälysovelluksia, joita ei pitäisi sallia.
Joten esimerkiksi tekoälyn käyttö kasvojen valvontaan. Ja käytän tätä termiä "kasvojen valvonta" pohjimmiltaan erottaakseni kasvojentunnistuksen, jota teemme, kun avaamme esimerkiksi iPhonemme, ja se on todennustekniikka, joka on sinun hallinnassasi. Se ei todellakaan ole ongelma. Mutta kun teet niin, ja se ei ole sinun vaan hallituksen hallinnassa, se on eräänlaista joukkovalvontaa, koska nyt sinulla ei ole vain kameroita kaduilla, vaan sinulla on kameroita kaduilla, joilla on kyky tunnistaa ihmisiä, eikä vain tunnista ihmisiä, vaan linkitä heidän kuvansa ja identiteettinsä tietokantaan, joka profiloi heidät ja ehkä jopa luokittelee heidät heidän liittonsa perusteella hallituksen kanssa. Joten tietysti tiedätte, että tämä järjestelmä on nyt laajalti käytössä Kiinassa. Sitä harkitaan muissa maissa. Tämän tyyppinen kasvojen valvonta, joukkovalvonta, meidän mielestämme pitäisi yksinkertaisesti kieltää. Uskomme, että biometrinen luokittelu, jossa yritetään poimia ihmisiä biometristen tekijöiden perusteella, pitäisi myös kieltää. Social scoring eli sosiaalinen pisteytys, joka on jälleen kerran pyrkimys kohdistaa henkilön identiteetti valtion tukemiseen.
Ja hyvä uutinen tässä, jos saan sanoa vielä pari sanaa, on se, että työskennellessämme kansainvälisen järjestön UNESCOn kanssa sen vuonna 2021 hyväksytyn tekoälyn etiikkaa koskevan suosituksen mukaisesti meillä on nyt ainakin periaatteessa 193 maata, jotka ovat sanoneet. Tekoälyä ei pitäisi käyttää massavalvontaan eikä tekoälyä sosiaaliseen pisteytykseen. Ja niin, kun senaattori Blumenthal tällä viikolla kuulemistilaisuuden alussa sanoi: "Meidän on luotava läpinäkyvyys ja vastuullisuus ja käytön rajoitukset", tiedäthän, minä ajattelin: "Vau! se on hieno hetki”, koska hänen sanomisensa "käyttörajoitukset" vastaa itse asiassa juuri esittämääsi kysymykseen ja kansalaisjärjestöjen ja ihmisoikeusryhmien esittämiin kohtiin: Tarvitsemme itse asiassa joitain kieltoja. Teknologiateollisuus voi sanoa: "No, voimme olla oikeudenmukaisia. Voimme olla avoimia. Voimme olla vastuullisia." Nuo sanat eivät riitä. Tarvitsemme kirkkaita linjoja.
AMY GOODMAN: Tiedätkö, kun olimme Sundancessa muutama vuosi sitten, siellä oli tämä hämmästyttävä dokumentti nimeltään Koodattu puolueellisuus, tutkimus MIT Media Labin tutkijan – hän on musta – Joy Buolamwini, löytö rotuharhasta tekoälyn kasvojentunnistuksessa ja miten sitä käytetään mustia, värillisiä ihmisiä vastaan. Voitko laajentaa sitä, Marc?
MARC ROTENBERG: Joo, se on itse asiassa loistava elokuva, ja olen suuri Joyn fani. Hän perusti Algorithmic Justice League -nimisen organisaation, joka oli todella yksi ensimmäisistä ryhmistä, ja hänen työnsä erityisesti kiinnittääkseen huomiota tekoälyn sulautetun ennakkoluulon ongelmaan.
Merkittävä tosiasia, jonka hän paljasti tehdessään tutkimusta MIT:ssä, oli se, että mustana naisena nämä järjestelmät eivät toimineet niin hyvin hänen tunnistamisessa kasvojen ominaisuuksien perusteella, mutta kun hän laittoi valkoisen naamion kasvoilleen, tunnistusjärjestelmä alkoi toimia. Ja se oli mielestäni erittäin jyrkkä muistutus moniin näistä järjestelmistä sisäänrakennetusta harhatyypistä. Ja tämä harha voi muuten tulla monista eri lähteistä. Tiedätkö, osa siitä liittyy dataan. Osa siitä liittyy ihmisiin, jotka koodaavat järjestelmiä. Osa siitä koskee järjestelmiä käyttöön ottavien yritysten rakennetta ja tarkoitusta. Se on itse asiassa olemassa monilla eri tasoilla.
Ja hänen elokuvansa, Koodattu puolueellisuus, on itse asiassa jotain, jonka näytämme AI Policy Clinic -klinikamme osallistujille, koska haluamme ihmisten ymmärtävän, miltä ongelma näyttää. Ja kuten sanoin aiemmin, tiedäthän, että vaikka olen samaa mieltä niiden kanssa, jotka ovat huolissaan pitkän aikavälin riskeistä, mielestäni meidän on nyt käsiteltävä tapaa, jolla tekoälyjärjestelmät sisällyttävät harhaan. Ja Joy ja Algorithmic Justice League ovat juuri tehneet valtavaa työtä kiinnittäessään huomion tähän ongelmaan.
NERMEEN SHAIKH: Ja, Marc, voisitko selittää - vain tarkentaa sitä, kuinka tekoäly sisältää jo ennakkoluuloja, kuten sanoit, jonka Joy huomautti ja ketä haastattelimme Sundancessa. Voitko selittää tarkalleen, miten se jo tapahtuu? Missä yhteydessä kyseistä tekniikkaa käytetään?
MARC ROTENBERG: Oikein. No, se on iso ja monimutkainen ala. Ja todella, toivon, että ohjelmassasi on muita keskustelemaan joistakin näistä asioista. Olen maininnut AI Now Instituten. Olen maininnut Distributed AI Research Instituten, monet ihmiset, jotka ovat tutkineet tätä aihetta enemmän kuin minä.
Mutta asianajajana sanon, että yksi skenaario, jonka ymmärrän varsin hyvin, syntyy rikosoikeusjärjestelmän ja tuomioiden yhteydessä. Ja tiedätkö, tarkoitan, että tuomarit ovat ylikuormitettuja, ja he käsittelevät monia tapauksia. Ja he saavat tuomion päätöksen, ja tiedäthän, syyttäjä voi sanoa: "Tälle nuorelle valkoiselle miehelle suosittelemme kuuden kuukauden tuomiota" ja tunnin kuluttua sanoa: "Tälle nuorelle mustalle miehelle me suositella yhdeksän kuukauden tuomiota." Ja tuomari, tiedätkö, kuulee nämä kaksi suositusta ja kysyy suoraan sanoen ilmeisen kysymyksen, tiedätkö: mikä on tuomiosuosituksen eroavaisuuden perusta? Ja vastaus Yhdysvalloista palaa yhä useammin: "No, nämä suositukset ovat peräisin erittäin hienostuneesta ohjelmasta, joka on tarkastellut paljon dataa ja joka analysoi kaksi henkilöä tuomioistuimessanne tänään, arvoisa kunnia. Ja myös joidenkin omistusoikeudellisten tietojen perusteella, joita emme itse asiassa voi paljastaa, mutta hyvällä raportoinnilla ja tilastollisilla arvioinnilla voimme vakuuttaa tuomioistuimelle, että jos tavoitteena on vähentää uusintarikollisuutta”, mikä on todennäköisyys uusiutumiseen. rikos, "tiedättekö, valkoinen rikollinen saa kuuden kuukauden tuomion ja musta rikollinen yhdeksän kuukauden tuomion."
Ja tiedäthän, mitä näet heti tässä laajasti huolestuttavassa skenaariossa, että ehkä yhdeksän kuukauden tuomio on perusteltu, ehkä kuuden kuukauden tuomio on perusteltu, mutta meillä ei itse asiassa ole kyky ymmärtää, kuinka nämä tulokset tuotettiin, kiistää tulokset. Ehkä he olivat väärässä. Ehkä jopa henkilön nimen tai iän tai osoitteen syöttämisessä oli virhe tai muut pisteytykseen vaikuttaneet tekijät. Ja näet, olemme palanneet vuoden 2017 shakkiohjelman tilanteeseen, jossa näemme tuloksen, emmekä tiedä kuinka se tuotettiin.
Ja olen itse asiassa puhunut liittovaltion tuomareiden kanssa tästä ongelmasta. Ja he sanovat: "No, puhutaan paljon ihmisestä silmukassa. Ja siksi emme tietenkään aio vain hyväksyä tekoälyn suositusta. Tiedätkö, siellä tulee olemaan henkilö, joka tekee lopullisen päätöksen." Mutta tuomarit myöntävät myös, että nämä järjestelmät ovat monimutkaisia. Heitä tukevat asiantuntijat. Tuomarin on vaikea kiistää lopputulosta. Ja itse asiassa niistä tulee kuin kumileimasin.
Joten jos voin jakaa toisen ajatuksen kuuntelijoidesi ja katsojien kanssa, olen todella siirtynyt pois tästä ihmissilmukan käsitteestä, vaikka se onkin erittäin suosittu tekoälymaailmassa. Mielestäni meidän on itse asiassa sanottava sen sijaan "AI-in-the-loop, ihmiset vastuussa." Ja tämä tarkoittaa, palatakseni tähän rikosoikeudelliseen tuomioesimerkkiin, jos tuomari ei ole vakuuttunut siitä, että hän voi ymmärtää ja perustella lopputuloksen, mielestäni me vain otamme tekoälyn pois. En usko, että meillä on tilanne, jossa oletamme, että tekoälyn tuottama tulos tulee olemaan oikea tulos. Ja tietysti tämä esimerkki, jonka tarjoan, alalla, josta tiedän vähän, tapahtuu asumista ja luottoa, työllisyyttä, maahanmuuttoa ja palkkaamista koskevissa päätöksissä. Sitä kopioidaan laajasti eri puolilla maata,
AMY GOODMAN: Marc, meillä ei ole paljon aikaa, mutta halusimme lopettaa kysymällä organisaatiostasi, AI- ja digitaalipolitiikan keskuksesta.
MARC ROTENBERG: No, kiitos, Amy. Ja kiitos vielä kerran mahdollisuudesta olla kanssasi tänä aamuna.
Perustimme tämän organisaation, koska ajattelimme, että tekoälytekniikat oli kiireesti yhdenmukaistettava demokraattisten arvojen kanssa ja koulutettava seuraavan sukupolven tekoälypolitiikan johtajia. Olemme opettaneet kursseja nyt useiden vuosien ajan ja toimittaneet sertifikaatteja mielestäni lähes 500 ihmiselle 60 maassa. He ovat oppineet demokraattisen politiikan kehyksistä, Unescon viitekehyksestä ja joistakin muista. Toivomme, että järjestön kautta pystymme tuottamaan ihmisiä, jotka ovat hyvin koulutettuja osallistumaan näihin keskusteluihin ja luomaan hyviä sääntöjä. Emme vastusta teknologiaa, mutta uskomme, että teknologian on aina pysyttävä ihmisen hallinnassa. Tuemme oikeusvaltioperiaatetta, demokraattisia arvoja ja perusoikeuksia. Se on todellakin tehtävämme.
AMY GOODMAN: No, Marc Rotenberg, haluamme kiittää sinua niin paljon, että olet kanssamme, Center for AI and Digital Policyn toiminnanjohtaja. Nähdä Osa 1 Siirry keskustelustamme osoitteeseen democracynow.org. Olen Amy Goodman Nermeen Shaikhin kanssa. Kiitos paljon, että liityit joukkoomme.
ZNetwork rahoitetaan yksinomaan lukijoidensa anteliaisuudesta.
Lahjoita