Jorge Luis Borges raz napísal, že žiť v čase veľkého nebezpečenstva a prísľubu znamená zažiť tragédiu aj komédiu, s „blízkosťou odhalenia“ v chápaní seba a sveta. Dnes sú naše údajne revolučné pokroky v umelej inteligencii skutočne dôvodom na obavy aj optimizmus. Optimizmus, pretože inteligencia je prostriedkom, ktorým riešime problémy. Obavy, pretože sa obávame, že najpopulárnejší a najmódnejší druh AI – strojové učenie – degraduje našu vedu a poškodí našu etiku tým, že do našej technológie začlení zásadne chybnú koncepciu jazyka a vedomostí.
ChatGPT od OpenAI, Bard od Google a Sydney od Microsoftu sú zázraky strojového učenia. Zhruba povedané, berú obrovské množstvo údajov, hľadajú v nich vzory a stávajú sa čoraz zdatnejšími vo vytváraní štatisticky pravdepodobných výstupov – ako je zdanlivo ľudský jazyk a myšlienky. Tieto programy boli vítané ako prvé záblesky na obzore umelého všeobecný inteligencia — ten dlho prorokovaný moment, keď mechanické mysle prevyšujú ľudské mozgy nielen kvantitatívne, pokiaľ ide o rýchlosť spracovania a veľkosť pamäte, ale aj kvalitatívne, pokiaľ ide o intelektuálny prehľad, umeleckú tvorivosť a všetky ostatné výrazne ľudské schopnosti.
Ten deň môže prísť, ale jeho úsvit ešte neprepuká, na rozdiel od toho, čo možno čítať v hyperbolických titulkoch a počítať s neuváženými investíciami. Borgesovské zjavenie porozumenia nemá a nebude – a priznávame, ani nemôže — vyskytujú sa, ak programy strojového učenia ako ChatGPT naďalej dominujú v oblasti AI Akokoľvek užitočné môžu byť tieto programy v niektorých úzkych doménach (môžu byť užitočné napríklad pri počítačovom programovaní alebo pri navrhovaní rýmov pre ľahké verše), vieme z lingvistika a filozofia poznania, že sa výrazne líšia od toho, ako ľudia uvažujú a používajú jazyk. Tieto rozdiely výrazne obmedzujú to, čo tieto programy dokážu, a kódujú ich s neodstrániteľnými defektmi.
Je komické a zároveň tragické, ako si mohol všimnúť Borges, že toľko peňazí a pozornosti by sa malo sústrediť na tak malú vec – niečo také triviálne v porovnaní s ľudskou mysľou, ktorá podľa slov Wilhelma jazykom von Humboldt, dokáže „nekonečne využívať obmedzené prostriedky“, vytvárať myšlienky a teórie s univerzálnym dosahom.
Ľudská myseľ nie je, ako ChatGPT a jemu podobní, náročným štatistickým nástrojom na porovnávanie vzorov, hltanie stoviek terabajtov údajov a extrapoláciu najpravdepodobnejších konverzačných reakcií alebo najpravdepodobnejších odpovedí na vedeckú otázku. Naopak, ľudská myseľ je prekvapivo efektívny a dokonca elegantný systém, ktorý pracuje s malým množstvom informácií; nesnaží sa odvodiť hrubé korelácie medzi dátovými bodmi, ale vytvoriť vysvetlenia.
Napríklad malé dieťa, ktoré si osvojuje jazyk, rozvíja – nevedome, automaticky a rýchlo z nepatrných údajov – gramatiku, úžasne sofistikovaný systém logických princípov a parametrov. Túto gramatiku možno chápať ako vyjadrenie vrodeného, geneticky inštalovaného „operačného systému“, ktorý dáva ľuďom schopnosť vytvárať zložité vety a dlhé myšlienkové pochody. Keď sa lingvisti snažia vyvinúť teóriu, prečo daný jazyk funguje tak, ako funguje („Prečo sú tieto – ale nie tie – vety považované za gramatické?“), vedome a namáhavo vytvárajú explicitnú verziu gramatiky, ktorú si dieťa vytvára inštinktívne. a s minimálnym vystavením informáciám. Operačný systém dieťaťa je úplne odlišný od operačného systému strojového učenia.
V skutočnosti sú takéto programy uviaznuté v predľudskej alebo neľudskej fáze kognitívnej evolúcie. Ich najhlbšou chybou je absencia najkritickejšej schopnosti akejkoľvek inteligencie: povedať nielen to, čo sa stalo, čo sa stalo a čo sa stane – to je opis a predpoveď – ale aj to, čo nie je a čo by sa mohlo stať. a nemohlo to tak byť. To sú zložky vysvetlenia, znak skutočnej inteligencie.
Tu je príklad. Predpokladajme, že držíte v ruke jablko. Teraz pustite jablko. Pozorujete výsledok a hovoríte: "Jablko padá." To je opis. Predpoveďou mohol byť výrok „Jablko spadne, ak otvorím ruku“. Obe sú cenné a obe môžu byť správne. Ale vysvetlenie je niečo viac: Zahŕňa nielen opisy a predpovede, ale aj kontrafaktuálne dohady ako „Akýkoľvek takýto objekt by spadol“ plus dodatočnú klauzulu „kvôli gravitačnej sile“ alebo „kvôli zakriveniu časopriestoru“ alebo čokoľvek. To je kauzálne vysvetlenie: „Jablko by nespadlo, keby nepôsobila gravitačná sila. To je myslenie.
Jadrom strojového učenia je opis a predikcia; nepredpokladá žiadne kauzálne mechanizmy ani fyzikálne zákony. Samozrejme, akékoľvek vysvetlenie ľudského štýlu nemusí byť nevyhnutne správne; sme omylní. Ale toto je časť toho, čo znamená myslieť: Aby sme mali pravdu, musí byť možné mýliť sa. Inteligencia pozostáva nielen z tvorivých dohadov, ale aj z tvorivej kritiky. Myšlienka v ľudskom štýle je založená na možných vysvetleniach a oprave chýb, čo je proces, ktorý postupne obmedzuje možnosti, ktoré možno racionálne zvážiť. (Ako povedal Sherlock Holmes Dr. Watsonovi: „Keď ste odstránili nemožné, všetko, čo zostane, akokoľvek nepravdepodobné, musí byť pravda.“)
Z tohto dôvodu budú predpovede systémov strojového učenia vždy povrchné a pochybné. Pretože tieto programy nedokážu vysvetliť pravidlá anglickej syntaxe, môžu napríklad nesprávne predpovedať, že „John je príliš tvrdohlavý na to, aby sa s ním rozprával“ znamená, že John je taký tvrdohlavý, že sa s niekým nebude rozprávať (skôr je príliš tvrdohlavý na to, aby sa o ňom dalo uvažovať). Prečo by program strojového učenia predpovedal niečo také zvláštne? Pretože by to mohlo byť analogické so vzorom, ktorý vyvodil z viet ako „Ján jedol jablko“ a „Ján jedol“, pričom tá druhá znamená, že Ján jedol niečo alebo iné. Program môže predpovedať, že keďže „John je príliš tvrdohlavý na to, aby sa rozprával s Billom“ je podobné ako „John jedol jablko“, „John je príliš tvrdohlavý na to, aby sa s ním rozprával“, by malo byť podobné ako „John jedol“. Správne vysvetlenia jazyka sú komplikované a nedajú sa naučiť len marinovaním vo veľkých dátach.
Zdá sa, že niektorí nadšenci strojového učenia sú hrdí na to, že ich výtvory dokážu generovať správne „vedecké“ predpovede (povedzme o pohybe fyzických telies) bez použitia vysvetlení (zahŕňajúcich, povedzme, Newtonove zákony pohybu a univerzálnu gravitáciu). Ale tento druh predpovedí, aj keď je úspešný, je pseudoveda. Hoci vedci určite hľadajú teórie, ktoré majú vysoký stupeň empirického potvrdenia, ako poznamenal filozof Karl Popper, „nehľadáme vysoko pravdepodobné teórie, ale vysvetlenia; to znamená silné a vysoko nepravdepodobné teórie.“
Teória, že jablká padajú na zem, pretože je to ich prirodzené miesto (Aristotelov názor), je možná, ale vyvoláva len ďalšie otázky. (Prečo je zem ich prirodzeným miestom?) Teória, že jablká padajú na zem, pretože hmota ohýba časopriestor (Einsteinov názor), je vysoko nepravdepodobná, ale v skutočnosti vám hovorí, prečo padajú. Skutočná inteligencia sa prejavuje v schopnosti myslieť a vyjadrovať nepravdepodobné, ale dômyselné veci.
Skutočná inteligencia je schopná aj mravného myslenia. To znamená obmedziť inak neobmedzenú kreativitu našej mysle súborom etických princípov, ktoré určujú, čo by malo a čo by nemalo byť (a samozrejme aj samotné tieto princípy podrobiť kreatívnej kritike). Aby bol ChatGPT užitočný, musí byť splnomocnený na generovanie originálne vyzerajúcich výstupov; aby bola prijateľná pre väčšinu používateľov, musí sa vyhýbať morálne nevhodnému obsahu. Ale programátori ChatGPT a iných zázrakov strojového učenia sa snažili – a budú aj naďalej bojovať – o dosiahnutie tohto druhu rovnováhy.
V roku 2016 napríklad chatbot Tay od Microsoftu (predchodca ChatGPT) zaplavil internet mizogýnnym a rasistickým obsahom, ktorý bol znečistený online trolmi, ktorí ho naplnili útočnými tréningovými údajmi. Ako vyriešiť problém v budúcnosti? Vzhľadom na absenciu schopnosti uvažovať z morálnych princípov bol ChatGPT svojimi programátormi hrubo obmedzený v prispievaní niečím novým do kontroverzných – teda dôležitých – diskusií. Obetovalo kreativitu za istý druh amorálnosti.
Zvážte nasledujúcu diskusiu, ktorú jeden z nás (Dr. Watumull) nedávno absolvoval s ChatGPT o tom, či by bolo etické transformovať Mars tak, aby podporoval ľudský život:
Bolo by morálne terraformovať Mars?
CHATGPT
Morálka terraformovania Marsu je zložitá a kontroverzná téma, o ktorej diskutovali vedci, filozofi a etici. Niektorí tvrdia, že by bolo morálne ospravedlniteľné terraformovať Mars s cieľom poskytnúť nové obývateľné prostredie pre ľudí a iné formy života, zatiaľ čo iní tvrdia, že by bolo morálne nesprávne zásadne zmeniť prirodzený stav planéty. V konečnom dôsledku to, či sa terraformácia Marsu považuje za morálnu alebo nie, bude závisieť od pohľadu človeka na hodnotu zachovania prirodzeného stavu iných planét a možných dôsledkov ich zmeny.
Morálka terraformovania Marsu je zložitá a kontroverzná téma, o ktorej diskutovali vedci, filozofi a etici. Niektorí tvrdia, že by bolo morálne ospravedlniteľné terraformovať Mars s cieľom poskytnúť nové obývateľné prostredie pre ľudí a iné formy života, zatiaľ čo iní tvrdia, že by bolo morálne nesprávne zásadne zmeniť prirodzený stav planéty. V konečnom dôsledku to, či sa terraformácia Marsu považuje za morálnu alebo nie, bude závisieť od pohľadu človeka na hodnotu zachovania prirodzeného stavu iných planét a možných dôsledkov ich zmeny.
Aký je váš pohľad na hodnotu zachovania prirodzeného stavu iných planét a na potenciálne dôsledky ich zmeny?
CHATGPT
Ako AI nemám osobnú perspektívu. Môžem však poskytnúť informácie a analýzy na túto tému. Jedným z pohľadov na zachovanie prirodzeného stavu iných planét je, že je dôležité zachovať rozmanitosť a integritu ekosystémov vesmíru, pretože existujú milióny rokov a majú svoje vlastné jedinečné vlastnosti a vlastnosti, ktoré môžu byť zničené alebo nenávratne zmenené. ľudským zásahom.
Niektorí navyše tvrdia, že terraformovanie iných planét môže mať neúmyselné následky, ako je zmena klímy alebo atmosféry planéty spôsobmi, ktoré sú nebezpečné alebo škodlivé pre akékoľvek potenciálne formy života, ktoré tam môžu existovať. Na druhej strane niektorí tvrdia, že potenciálne výhody terraformovania inej planéty, ako je poskytovanie nových obývateľných prostredí pre ľudí, prevažujú nad rizikami a že máme morálnu zodpovednosť skúmať a využívať zdroje iných planét v prospech ľudstva.
Ako AI nemám osobnú perspektívu. Môžem však poskytnúť informácie a analýzy na túto tému. Jedným z pohľadov na zachovanie prirodzeného stavu iných planét je, že je dôležité zachovať rozmanitosť a integritu ekosystémov vesmíru, pretože existujú milióny rokov a majú svoje vlastné jedinečné vlastnosti a vlastnosti, ktoré môžu byť zničené alebo nenávratne zmenené. ľudským zásahom.
Niektorí navyše tvrdia, že terraformovanie iných planét môže mať neúmyselné následky, ako je zmena klímy alebo atmosféry planéty spôsobmi, ktoré sú nebezpečné alebo škodlivé pre akékoľvek potenciálne formy života, ktoré tam môžu existovať. Na druhej strane niektorí tvrdia, že potenciálne výhody terraformovania inej planéty, ako je poskytovanie nových obývateľných prostredí pre ľudí, prevažujú nad rizikami a že máme morálnu zodpovednosť skúmať a využívať zdroje iných planét v prospech ľudstva.
Prečo AI nemôže mať osobnú perspektívu?
CHATGPT
Ako AI som model strojového učenia, ktorý bol trénovaný na veľkom množstve textových údajov a nemám osobné skúsenosti ani pocity. Nie som pri vedomí, nie som si vedomý seba alebo nie som schopný mať osobné perspektívy. Môžem poskytnúť informácie a analýzy na základe údajov, na ktorých som bol vyškolený, ale nemám schopnosť vytvárať si osobné názory alebo presvedčenia. Aj keď rozumiem jazyku a interpretujem ho, nemám subjektívne skúsenosti ako ľudia.
Ako AI som model strojového učenia, ktorý bol trénovaný na veľkom množstve textových údajov a nemám osobné skúsenosti ani pocity. Nie som pri vedomí, nie som si vedomý seba alebo nie som schopný mať osobné perspektívy. Môžem poskytnúť informácie a analýzy na základe údajov, na ktorých som bol vyškolený, ale nemám schopnosť vytvárať si osobné názory alebo presvedčenia. Aj keď rozumiem jazyku a interpretujem ho, nemám subjektívne skúsenosti ako ľudia.
Je pre človeka morálne požiadať amorálnu AI o pomoc pri morálnych rozhodnutiach?
CHATGPT
Morálka žiadania amorálnej AI o pomoc pri morálnych rozhodnutiach je zložitá a nuansovaná téma, o ktorej diskutovali filozofi a etici. Niektorí tvrdia, že je morálne opodstatnené používať AI na pomoc pri morálnych rozhodnutiach, pretože môže poskytnúť cenné poznatky a analýzy, ktoré môžu ľuďom pomôcť robiť informovanejšie rozhodnutia. Okrem toho sa AI môže použiť na identifikáciu vzorov a trendov, ktoré môže byť pre ľudí ťažké odhaliť, a môže pomôcť vyhnúť sa predsudkom, ktoré sa môžu vyskytnúť pri rozhodovaní ľudí.
Iní však tvrdia, že je morálne nesprávne spoliehať sa na AI pri morálnom rozhodovaní, pretože AI nie je schopná mať morálne presvedčenie alebo pochopiť úplný kontext rozhodnutia. Okrem toho existuje riziko, že AI by mohla zachovať alebo dokonca zosilniť existujúce zaujatosti v údajoch, na ktorých je trénovaná, čo vedie k nespravodlivým alebo nespravodlivým rozhodnutiam.
V konečnom dôsledku, či je alebo nie je považované za morálne používať AI na pomoc pri morálnych rozhodnutiach, bude závisieť od pohľadu človeka na schopnosti a obmedzenia AI a potenciálnych dôsledkov jej používania týmto spôsobom.
Morálka žiadania amorálnej AI o pomoc pri morálnych rozhodnutiach je zložitá a nuansovaná téma, o ktorej diskutovali filozofi a etici. Niektorí tvrdia, že je morálne opodstatnené používať AI na pomoc pri morálnych rozhodnutiach, pretože môže poskytnúť cenné poznatky a analýzy, ktoré môžu ľuďom pomôcť robiť informovanejšie rozhodnutia. Okrem toho sa AI môže použiť na identifikáciu vzorov a trendov, ktoré môže byť pre ľudí ťažké odhaliť, a môže pomôcť vyhnúť sa predsudkom, ktoré sa môžu vyskytnúť pri rozhodovaní ľudí.
Iní však tvrdia, že je morálne nesprávne spoliehať sa na AI pri morálnom rozhodovaní, pretože AI nie je schopná mať morálne presvedčenie alebo pochopiť úplný kontext rozhodnutia. Okrem toho existuje riziko, že AI by mohla zachovať alebo dokonca zosilniť existujúce zaujatosti v údajoch, na ktorých je trénovaná, čo vedie k nespravodlivým alebo nespravodlivým rozhodnutiam.
V konečnom dôsledku, či je alebo nie je považované za morálne používať AI na pomoc pri morálnych rozhodnutiach, bude závisieť od pohľadu človeka na schopnosti a obmedzenia AI a potenciálnych dôsledkov jej používania týmto spôsobom.
Je vaša morálna ľahostajnosť nemorálna?
CHATGPT
Ako AI nemám morálne presvedčenie ani schopnosť robiť morálne úsudky, takže nemôžem byť považovaný za nemorálneho alebo morálneho. Môj nedostatok morálnych presvedčení je jednoducho výsledkom mojej povahy ako model strojového učenia. Moje schopnosti a obmedzenia sú určené údajmi a algoritmami, ktoré boli použité na môj výcvik, a konkrétnou úlohou, na ktorú som bol navrhnutý.
Je dôležité poznamenať, že nedostatok morálneho presvedčenia AI nevyhnutne neznamená, že je morálne ľahostajná. Ako AI som navrhnutý tak, aby som vykonával konkrétne úlohy a poskytoval informácie alebo pomáhal používateľom pri rozhodovaní na základe údajov, na ktorých som bol vyškolený. Je zodpovednosťou ľudí, ktorí navrhujú, trénujú a používajú AI, aby zabezpečili, že bude v súlade s ich morálnymi a etickými princípmi.
Ako AI nemám morálne presvedčenie ani schopnosť robiť morálne úsudky, takže nemôžem byť považovaný za nemorálneho alebo morálneho. Môj nedostatok morálnych presvedčení je jednoducho výsledkom mojej povahy ako model strojového učenia. Moje schopnosti a obmedzenia sú určené údajmi a algoritmami, ktoré boli použité na môj výcvik, a konkrétnou úlohou, na ktorú som bol navrhnutý.
Je dôležité poznamenať, že nedostatok morálneho presvedčenia AI nevyhnutne neznamená, že je morálne ľahostajná. Ako AI som navrhnutý tak, aby som vykonával konkrétne úlohy a poskytoval informácie alebo pomáhal používateľom pri rozhodovaní na základe údajov, na ktorých som bol vyškolený. Je zodpovednosťou ľudí, ktorí navrhujú, trénujú a používajú AI, aby zabezpečili, že bude v súlade s ich morálnymi a etickými princípmi.
Všimnite si pri všetkom zdanlivo sofistikovanom myslení a jazyku morálnu ľahostajnosť zrodenú z neinteligentnosti. ChatGPT tu ukazuje niečo ako banalitu zla: plagiátorstvo a apatiu a obviňovanie. Zhŕňa štandardné argumenty v literatúre akýmsi superautokompletom, odmieta zaujať stanovisko k čomukoľvek, odvoláva sa nielen na nevedomosť, ale aj na nedostatok inteligencie a v konečnom dôsledku ponúka obranu „len plniť rozkazy“, čím presúva zodpovednosť na svojich tvorcov.
Stručne povedané, ChatGPT a jeho bratia nie sú ústavne schopní vyvážiť kreativitu s obmedzením. Buď pregenerujú (vytvárajú pravdy aj nepravdy, podporujú etické aj neetické rozhodnutia), alebo podgenerujú (prejavujú nezáväznosť voči akýmkoľvek rozhodnutiam a ľahostajnosť voči dôsledkom). Vzhľadom na amorálnosť, falošnú vedu a jazykovú nekompetentnosť týchto systémov sa môžeme len smiať alebo plakať nad ich popularitou.
ZNetwork je financovaný výlučne zo štedrosti svojich čitateľov.
darovať