"Kým nebudú zavedené zmysluplné vládne záruky na ochranu verejnosti pred škodami spôsobenými generatívnou AI, potrebujeme pauzu."
Tak hovorí a správy o nebezpečenstvách umelej inteligencie (AI) zverejnil v utorok Verejný občan, s názvom Prepáčte vopred! Rýchly nápor na nasadenie generatívnej AI ohrozuje širokú škálu automatizovaných poškodeníCieľom analýzy výskumníkov Ricka Claypoola a Cheyenne Huntovej je „preformulovať konverzáciu o generatívnej AI, aby sa zabezpečilo, že verejnosť a tvorcovia politík budú môcť povedať, ako môžu tieto nové technológie zmeniť naše životy“.
Po novembrovom vydaní ChatGPT od OpenAI získavajú generatívne nástroje AI „veľký rozruch – najmä medzi veľkými technologickými korporáciami, ktoré majú z nich najlepšiu pozíciu,“ uvádza správa. „Najnadšivejší propagátori hovoria, že AI zmení svet spôsobmi, vďaka ktorým zbohatne každý – a niektorí kritici tvrdia, že by nás všetkých mohla zabiť. Oddelene od desivých hrozieb, ktoré sa môžu zhmotniť s vývojom technológie v reálnom svete, poškodzuje zhon s uvoľnením a speňažením týchto nástrojov, ktorý môže spôsobiť – a v mnohých prípadoch už spôsobuje.“
Claypool a Hunt kategorizovali tieto škody do „päť širokých oblastí záujmu“:
- Poškodzujúca demokraciu: Spamboty šíriace dezinformácie nie sú novinkou, ale generatívne nástroje AI ľahko umožňujú zlým hráčom hromadne produkovať klamlivý politický obsah. Čoraz výkonnejšie nástroje AI na produkciu zvuku a videa sťažujú odlíšenie autentického obsahu od syntetického obsahu.
- Obavy spotrebiteľov: Firmy, ktoré sa snažia maximalizovať zisky pomocou generatívnej AI, používajú tieto nástroje na hltanie používateľských údajov, manipuláciu so spotrebiteľmi a sústredenie výhod medzi najväčšie korporácie. Podvodníci ich využívajú na zapojenie sa do čoraz sofistikovanejších podvodných schém.
- Zhoršujúca sa nerovnosť: Generatívne nástroje AI riskujú, že udržia a zhoršia systémové predsudky, ako je [ako] rasizmus [a] sexizmus. Dávajú násilníkom a zneužívateľom nové spôsoby, ako ubližovať obetiam, a ak sa ich rozšírené nasadenie ukáže ako následné, riskujú výrazné zrýchlenie ekonomickej nerovnosti.
- Podkopávanie práv pracovníkov: Spoločnosti vyvíjajúce nástroje AI používajú texty a obrázky vytvorené ľuďmi na trénovanie svojich modelov a zamestnávajú pracovníkov s nízkymi mzdami v zahraničí, aby pomohli odfiltrovať rušivý a urážlivý obsah. Automatizácia vytvárania médií, ako to robí niektorá AI, riskuje, že sa odstráni a nahradí práca na produkcii médií, ktorú vykonávajú ľudia.
- Environmentálne obavy: Školenie a údržba generatívnych nástrojov AI si vyžaduje výrazné rozšírenie výpočtového výkonu – rozšírenie výpočtového výkonu, ktoré sa zvyšuje rýchlejšie ako schopnosť vývojárov technológií absorbovať požiadavky s pokrokom v efektivite. Očakáva sa, že masové nasadenie bude vyžadovať, aby niektoré z najväčších technologických spoločností zvýšili svoj výpočtový výkon – a tým aj svoju uhlíkovú stopu – štyri až päťkrát.
V vyhlásenie, Public Citizen varoval, že „podniky nasadzujú potenciálne nebezpečné nástroje AI rýchlejšie, než je možné pochopiť alebo zmierniť ich škody“.
„História neponúka dôvod domnievať sa, že korporácie môžu samoregulovať známe riziká – najmä preto, že mnohé z týchto rizík sú rovnako súčasťou generatívnej AI, ako aj korporátnej chamtivosti,“ pokračuje vyhlásenie. „Firmy, ktoré sa ponáhľajú zaviesť tieto nové technológie, hazardujú so životmi a živobytím ľudí a pravdepodobne aj so samotnými základmi slobodnej spoločnosti a životaschopného sveta.“
Vo štvrtok, 27. apríla, Public Citizen hostí hybridný osobný/zoom konferencie vo Washingtone, D.C., počas ktorej bude americký poslanec Ted Lieu (D-Kalifornia) a 10 ďalších panelistov diskutovať o hrozbách, ktoré predstavuje AI, a o tom, ako ovládnuť rýchlo rastúci, no prakticky neregulovaný priemysel. Záujemcovia o účasť musia Registrovať do tohto piatku.
„Firmy, ktoré sa ponáhľajú zaviesť tieto nové technológie, hazardujú so životmi a živobytím ľudí a pravdepodobne aj so samotnými základmi slobodnej spoločnosti a životaschopného sveta.“
Požiadavky na reguláciu AI sú montáž. Minulý mesiac Geoffrey Hinton, považovaný za „krstného otca umelej inteligencie“, porovnanie potenciálne dopady rýchlo napredujúcej technológie na „priemyselnú revolúciu alebo elektrinu alebo možno koleso“.
Na otázku CBS News“ Brook Silva-Braga o možnosti, že technológia „vyhladí ľudstvo“, Hinton varoval, že „to nie je nepredstaviteľné“.
Tento desivý potenciál nemusí nevyhnutne spočívať v existujúcich nástrojoch AI, ako je ChatGPT, ale skôr v tom, čo sa nazýva „umelá všeobecná inteligencia“ (AGI), prostredníctvom ktorej sa počítače vyvíjajú a konajú podľa svojich vlastných nápadov.
„Až donedávna som si myslel, že to bude 20 až 50 rokov, kým budeme mať umelú inteligenciu na všeobecné použitie,“ povedal Hinton. CBS News. "Teraz si myslím, že to môže byť 20 rokov alebo menej." Nakoniec Hinton pripustil, že by nevylúčil možnosť, že AGI príde do piatich rokov – čo je veľký odklon od stavu spred niekoľkých rokov, keď „by povedal: ‚V žiadnom prípade‘.“
"Musíme dôkladne premýšľať o tom, ako to kontrolovať," povedal Hinton. Na otázku Silva-Braga, či je to možné, Hinton odpovedal: "Nevieme, ešte sme tam neboli, ale môžeme to skúsiť."
Priekopník AI zďaleka nie je sám. Vo februári napísal generálny riaditeľ OpenAI Sam Altman v spoločnosti blog post: „Riziká môžu byť mimoriadne. Nesprávne nastavený superinteligentný AGI by mohol svetu spôsobiť vážne škody.“
Nedávno zverejnený dokument podpísalo viac ako 26,000 XNUMX ľudí otvorený list To si vyžaduje šesťmesačné moratórium na školenie systémov AI nad úroveň najnovšieho chatbota OpenAI, GPT-4, hoci Altman medzi nimi nie je.
„Výkonné systémy umelej inteligencie by sa mali vyvíjať len vtedy, keď sme si istí, že ich účinky budú pozitívne a ich riziká budú zvládnuteľné,“ píše sa v liste.
Hoci AGI môže byť ešte niekoľko rokov preč, nová správa Public Citizen objasňuje, že existujúce nástroje AI – vrátane chatbotov chrliacich klamstvá, aplikácií na výmenu tvárí generujúcich falošné videá a klonovaných hlasov páchajúcich podvod – už spôsobujú alebo hrozia, že spôsobia vážne škody, vrátane prehlbovania nerovnosti, podkopávania demokracie, presídľovania pracovníkov, zneužívania spotrebiteľov a prehlbovania klimatickej krízy.
Všetky tieto hrozby „sú veľmi reálne a je veľmi pravdepodobné, že sa vyskytnú, ak bude korporáciám povolené nasadiť generatívnu AI bez vynútiteľných zábran,“ napísali Claypool a Hunt. "Ale nie je na nich nič nevyhnutné."
Pokračovali:
Vládne nariadenia môžu spoločnostiam zablokovať nasadenie technológií príliš rýchlo (alebo ich úplne zablokovať, ak sa ukážu ako nebezpečné). Môže stanoviť normy na ochranu ľudí pred rizikami. Môže uložiť povinnosti spoločnostiam používajúcim generatívnu AI, aby sa vyhli identifikovateľným škodám, rešpektovali záujmy komunít a tvorcov, predbežne testovali ich technológie, prevzali zodpovednosť a prijali zodpovednosť, ak sa veci pokazia. Môže vyžadovať, aby bola do technológií zabudovaná rovnosť. Môže trvať na tom, že ak generatívna AI v skutočnosti zvýši produktivitu a vytlačí pracovníkov, alebo že ekonomické výhody budú zdieľané s poškodenými a nebudú sa koncentrovať medzi malý okruh spoločností, vedúcich pracovníkov a investorov.
Uprostred „rastúceho regulačného záujmu“ o „mechanizmus zodpovednosti AI“ Bidenova administratíva oznámila, minulý týždeň hľadá názory verejnosti na opatrenia, ktoré by sa mohli implementovať, aby sa zabezpečilo, že „systémy AI sú legálne, efektívne, etické, bezpečné a inak dôveryhodné“.
PodľaAxios, líder senátnej väčšiny Chuck Schumer (D-N.Y.) „podniká prvé kroky smerom k legislatíve na reguláciu technológie umelej inteligencie“.
Slovami Claypoola a Hunta: „Potrebujeme silné ochranné opatrenia a vládnu reguláciu – a potrebujeme ich zaviesť skôr, ako korporácie široko rozšíria technológiu AI. Dovtedy potrebujeme prestávku."
ZNetwork je financovaný výlučne zo štedrosti svojich čitateľov.
darovať