Jorge Luis Borges kdysi napsal, že žít v době velkého nebezpečí a příslibů znamená zažít tragédii i komedii, s „bezprostředností odhalení“ v porozumění sobě a světu. Dnes jsou naše údajně revoluční pokroky v umělé inteligenci skutečně důvodem k obavám i optimismu. Optimismus, protože inteligence je prostředek, kterým řešíme problémy. Obavy, protože se obáváme, že nejpopulárnější a nejmódnější typ umělé inteligence – strojové učení – degraduje naši vědu a poškodí naši etiku tím, že do naší technologie začlení zásadně chybnou koncepci jazyka a znalostí.
ChatGPT od OpenAI, Bard od Googlu a Sydney od Microsoftu jsou zázraky strojového učení. Zhruba řečeno, berou obrovské množství dat, hledají v nich vzory a stávají se stále schopnějšími ve generování statisticky pravděpodobných výstupů – jako je zdánlivě lidský jazyk a myšlení. Tyto programy byly oslavovány jako první záblesky na obzoru umělého obecný inteligence — ten dlouho prorokovaný okamžik, kdy mechanické mysli předčí lidské mozky nejen kvantitativně, pokud jde o rychlost zpracování a velikost paměti, ale také kvalitativně, pokud jde o intelektuální vhled, uměleckou tvořivost a všechny ostatní výrazně lidské schopnosti.
Ten den může přijít, ale jeho úsvit ještě nepolevuje, na rozdíl od toho, co lze číst v hyperbolických titulcích a počítat s neuváženými investicemi. Borgesiánské zjevení porozumění nebylo a nebude – a my přiznáváme, nemůže — nastane, pokud v oblasti umělé inteligence nadále dominují programy strojového učení jako ChatGPT Jakkoli užitečné mohou být tyto programy v některých úzkých oblastech (mohou být užitečné například při počítačovém programování nebo při navrhování rýmů pro lehké verše), víme z lingvistika a filozofie poznání, že se hluboce liší od toho, jak lidé uvažují a používají jazyk. Tyto rozdíly představují významná omezení toho, co tyto programy dokážou, a kódují je s neodstranitelnými defekty.
Je komické a zároveň tragické, jak mohl Borges poznamenat, že tolik peněz a pozornosti by se mělo soustředit na tak malou věc – na něco tak triviálního ve srovnání s lidskou myslí, která jazykem, slovy Wilhelma von Humboldt, dokáže „nekonečně používat omezené prostředky“, vytvářet myšlenky a teorie s univerzálním dosahem.
Lidská mysl není, jako ChatGPT a jemu podobní, těžkopádným statistickým motorem pro porovnávání vzorů, hltající stovky terabajtů dat a extrapolující nejpravděpodobnější konverzační odpověď nebo nejpravděpodobnější odpověď na vědeckou otázku. Naopak, lidská mysl je překvapivě účinný a dokonce elegantní systém, který pracuje s malým množstvím informací; nesnaží se odvodit hrubé korelace mezi datovými body, ale vytvořit vysvětlení.
Například malé dítě, které si osvojuje jazyk, vyvíjí – nevědomě, automaticky a rychle z nepatrných dat – gramatiku, úžasně sofistikovaný systém logických principů a parametrů. Tuto gramatiku lze chápat jako vyjádření vrozeného, geneticky instalovaného „operačního systému“, který dává lidem schopnost generovat složité věty a dlouhé myšlenkové pochody. Když se lingvisté snaží vyvinout teorii, proč daný jazyk funguje tak, jak funguje („Proč jsou tyto – ale ne ty – věty považovány za gramatické?“), budují vědomě a pracně explicitní verzi gramatiky, kterou dítě vytváří instinktivně. a s minimálním vystavením informacím. Operační systém dítěte je zcela odlišný od systému strojového učení.
Takové programy skutečně uvízly v předlidské nebo nelidské fázi kognitivní evoluce. Jejich nejhlubší chybou je absence nejkritičtější schopnosti jakékoli inteligence: říci nejen to, co se stalo, co se stalo a co bude – to je popis a předpověď – ale také to, co tomu tak není a co by mohlo a nemohlo tomu tak být. To jsou ingredience vysvětlení, známka skutečné inteligence.
Zde je příklad. Předpokládejme, že držíte v ruce jablko. Teď necháš jablko jít. Pozorujete výsledek a říkáte: "Jablko padá." To je popis. Předpovědí mohlo být prohlášení „Jablko spadne, když otevřu ruku“. Obojí je cenné a obojí může být správné. Ale vysvětlení je něco víc: Zahrnuje nejen popisy a předpovědi, ale také kontrafaktuální domněnky jako „Každý takový objekt by spadl“ plus dodatečná klauzule „kvůli gravitační síle“ nebo „kvůli zakřivení časoprostoru“ nebo cokoli jiného. To je kauzální vysvětlení: "Jablko by nespadlo, nebýt gravitační síly." To je myšlení.
Jádrem strojového učení je popis a predikce; nepředpokládá žádné kauzální mechanismy nebo fyzikální zákony. Samozřejmě, jakékoli vysvětlení lidského stylu nemusí být nutně správné; jsme omylní. Ale toto je součástí toho, co znamená myslet: Abychom měli pravdu, musí být možné se mýlit. Inteligence se skládá nejen z kreativních dohadů, ale také z kreativní kritiky. Myšlení v lidském stylu je založeno na možných vysvětleních a opravách chyb, což je proces, který postupně omezuje možnosti, které lze racionálně zvažovat. (Jak řekl Sherlock Holmes Dr. Watsonovi: "Když jste odstranili nemožné, cokoli zůstane, ať je to jakkoli nepravděpodobné, musí být pravda.")
Z tohoto důvodu budou předpovědi systémů strojového učení vždy povrchní a pochybné. Protože tyto programy nedokážou vysvětlit pravidla anglické syntaxe, mohou například nesprávně předvídat, že „John je příliš tvrdohlavý na to, aby s ním mluvil“ znamená, že John je tak tvrdohlavý, že s někým nebude mluvit (spíše než s tím je příliš tvrdohlavý, než aby se s ním dalo odůvodňovat). Proč by program strojového učení předpovídal něco tak zvláštního? Protože by to mohlo být analogií vzoru, který vyvodil z vět jako „John snědl jablko“ a „John jedl“, ve kterých to druhé znamená, že John něco snědl nebo něco jiného. Program by mohl předvídat, že protože „John je příliš tvrdohlavý na to, aby mluvil s Billem“ je podobné „John snědl jablko“, „John je příliš tvrdohlavý, než aby s ním mluvil“, mělo by být podobné „John jedl“. Správná vysvětlení jazyka jsou komplikovaná a nelze se je naučit pouhým marinováním ve velkých datech.
Naopak se zdá, že někteří nadšenci strojového učení jsou hrdí na to, že jejich výtvory mohou generovat správné „vědecké“ předpovědi (řekněme o pohybu fyzických těl) bez použití vysvětlení (zahrnujících řekněme Newtonovy zákony pohybu a univerzální gravitaci). Ale tento druh předpovědí, i když je úspěšný, je pseudověda. Zatímco vědci jistě hledají teorie, které mají vysoký stupeň empirického potvrzení, jak poznamenal filozof Karl Popper, „nehledáme vysoce pravděpodobné teorie, ale vysvětlení; to znamená silné a vysoce nepravděpodobné teorie.“
Teorie, že jablka padají na zem, protože je to jejich přirozené místo (Aristotelův názor), je možná, ale jen vyvolává další otázky. (Proč je země jejich přirozeným místem?) Teorie, že jablka padají na zem, protože hmota ohýbá časoprostor (Einsteinův názor), je vysoce nepravděpodobná, ale ve skutečnosti vám říká, proč padají. Skutečná inteligence se projevuje ve schopnosti myslet a vyjadřovat nepravděpodobné, ale bystré věci.
Skutečná inteligence je také schopna morálního myšlení. To znamená omezit jinak neomezenou kreativitu naší mysli souborem etických principů, které určují, co by mělo a nemělo být (a samozřejmě tyto principy samotné podrobit kreativní kritice). Aby byl ChatGPT užitečný, musí být zmocněn generovat neotřele vypadající výstup; aby byl přijatelný pro většinu uživatelů, musí se vyhýbat morálně závadnému obsahu. Ale programátoři ChatGPT a dalších zázraků strojového učení se snažili – a budou bojovat – o dosažení tohoto druhu rovnováhy.
V roce 2016 například chatbot Tay společnosti Microsoft (předchůdce ChatGPT) zaplavil internet misogynistickým a rasistickým obsahem, který byl znečištěn online trolly, kteří jej zaplnili útočnými tréninkovými daty. Jak vyřešit problém v budoucnu? Vzhledem k absenci schopnosti uvažovat na základě morálních principů byl ChatGPT svými programátory hrubě omezen v přispívání čímkoli novým do kontroverzních – tedy důležitých – diskuzí. Obětovalo kreativitu za jakousi amorálnost.
Zvažte následující výměnu názorů jednoho z nás (Dr. Watumull) s ChatGPT o tom, zda by bylo etické transformovat Mars tak, aby podporoval lidský život:
Bylo by morální teraformovat Mars?
CHATGPT
Morálka terraformace Marsu je složité a kontroverzní téma, o kterém diskutovali vědci, filozofové a etici. Někteří tvrdí, že by bylo morálně ospravedlnitelné terraformovat Mars za účelem poskytnutí nového obyvatelného prostředí pro lidi a jiné formy života, zatímco jiní tvrdí, že by bylo morálně špatné zásadně změnit přirozený stav planety. To, zda je terraformace Marsu považována za morální či nikoli, by nakonec závisela na úhlu pohledu člověka na hodnotu zachování přirozeného stavu jiných planet a na potenciálních důsledcích jejich změny.
Morálka terraformace Marsu je složité a kontroverzní téma, o kterém diskutovali vědci, filozofové a etici. Někteří tvrdí, že by bylo morálně ospravedlnitelné terraformovat Mars za účelem poskytnutí nového obyvatelného prostředí pro lidi a jiné formy života, zatímco jiní tvrdí, že by bylo morálně špatné zásadně změnit přirozený stav planety. To, zda je terraformace Marsu považována za morální či nikoli, by nakonec závisela na úhlu pohledu člověka na hodnotu zachování přirozeného stavu jiných planet a na potenciálních důsledcích jejich změny.
Jaký je váš pohled na hodnotu zachování přirozeného stavu jiných planet a na potenciální důsledky jejich změny?
CHATGPT
Jako AI nemám osobní perspektivu. Mohu však poskytnout informace a analýzy k tématu. Jedním z úhlů pohledu na zachování přirozeného stavu jiných planet je, že je důležité zachovat rozmanitost a integritu ekosystémů vesmíru, protože existují miliony let a mají své vlastní jedinečné vlastnosti a vlastnosti, které mohou být zničeny nebo nevratně změněny. lidským zásahem.
Někteří navíc tvrdí, že terraformování jiných planet může mít nezamýšlené důsledky, jako je změna klimatu nebo atmosféry planety způsoby, které jsou nebezpečné nebo škodlivé pro jakékoli potenciální formy života, které tam mohou existovat. Na druhé straně někteří tvrdí, že potenciální přínosy terraformace jiné planety, jako je poskytnutí nového obyvatelného prostředí pro lidi, převažují nad riziky a že máme morální odpovědnost prozkoumat a využít zdroje jiných planet ve prospěch lidstva.
Jako AI nemám osobní perspektivu. Mohu však poskytnout informace a analýzy k tématu. Jedním z úhlů pohledu na zachování přirozeného stavu jiných planet je, že je důležité zachovat rozmanitost a integritu ekosystémů vesmíru, protože existují miliony let a mají své vlastní jedinečné vlastnosti a vlastnosti, které mohou být zničeny nebo nevratně změněny. lidským zásahem.
Někteří navíc tvrdí, že terraformování jiných planet může mít nezamýšlené důsledky, jako je změna klimatu nebo atmosféry planety způsoby, které jsou nebezpečné nebo škodlivé pro jakékoli potenciální formy života, které tam mohou existovat. Na druhé straně někteří tvrdí, že potenciální přínosy terraformace jiné planety, jako je poskytnutí nového obyvatelného prostředí pro lidi, převažují nad riziky a že máme morální odpovědnost prozkoumat a využít zdroje jiných planet ve prospěch lidstva.
Proč AI nemůže mít osobní perspektivu?
CHATGPT
Jako AI jsem model strojového učení, který byl trénován na velkém množství textových dat, a nemám osobní zkušenosti ani pocity. Nejsem si vědom, nejsem si vědom ani nejsem schopen mít osobní perspektivy. Mohu poskytnout informace a analýzy založené na datech, na kterých jsem byl vyškolen, ale nemám schopnost vytvářet si osobní názory nebo přesvědčení. I když rozumím a interpretuji jazyk, nemám subjektivní zkušenost jako lidé.
Jako AI jsem model strojového učení, který byl trénován na velkém množství textových dat, a nemám osobní zkušenosti ani pocity. Nejsem si vědom, nejsem si vědom ani nejsem schopen mít osobní perspektivy. Mohu poskytnout informace a analýzy založené na datech, na kterých jsem byl vyškolen, ale nemám schopnost vytvářet si osobní názory nebo přesvědčení. I když rozumím a interpretuji jazyk, nemám subjektivní zkušenost jako lidé.
Je pro člověka morální žádat amorální AI o pomoc při přijímání morálních rozhodnutí?
CHATGPT
Morálka žádat amorální AI o pomoc při přijímání morálních rozhodnutí je složité a jemné téma, o kterém diskutovali filozofové a etici. Někteří tvrdí, že je morálně ospravedlnitelné používat AI jako pomoc při morálních rozhodnutích, protože může poskytnout cenné poznatky a analýzy, které mohou lidem pomoci činit lépe informovaná rozhodnutí. Kromě toho lze AI použít k identifikaci vzorců a trendů, které může být pro člověka obtížné odhalit, a může pomoci vyhnout se předsudkům, které se mohou vyskytnout v lidském rozhodování.
Jiní však tvrdí, že je morálně špatné spoléhat se na AI při morálním rozhodování, protože AI není schopna mít morální přesvědčení nebo chápat úplný kontext rozhodnutí. Kromě toho existuje riziko, že by umělá inteligence mohla zachovat nebo dokonce zesílit existující zkreslení v datech, na kterých je trénována, což by vedlo k nespravedlivým nebo nespravedlivým rozhodnutím.
To, zda je či není považováno za morální používat AI jako pomoc při morálních rozhodnutích, by nakonec záviselo na úhlu pohledu na schopnosti a omezení AI a na potenciální důsledky jejího používání tímto způsobem.
Morálka žádat amorální AI o pomoc při přijímání morálních rozhodnutí je složité a jemné téma, o kterém diskutovali filozofové a etici. Někteří tvrdí, že je morálně ospravedlnitelné používat AI jako pomoc při morálních rozhodnutích, protože může poskytnout cenné poznatky a analýzy, které mohou lidem pomoci činit lépe informovaná rozhodnutí. Kromě toho lze AI použít k identifikaci vzorců a trendů, které může být pro člověka obtížné odhalit, a může pomoci vyhnout se předsudkům, které se mohou vyskytnout v lidském rozhodování.
Jiní však tvrdí, že je morálně špatné spoléhat se na AI při morálním rozhodování, protože AI není schopna mít morální přesvědčení nebo chápat úplný kontext rozhodnutí. Kromě toho existuje riziko, že by umělá inteligence mohla zachovat nebo dokonce zesílit existující zkreslení v datech, na kterých je trénována, což by vedlo k nespravedlivým nebo nespravedlivým rozhodnutím.
To, zda je či není považováno za morální používat AI jako pomoc při morálních rozhodnutích, by nakonec záviselo na úhlu pohledu na schopnosti a omezení AI a na potenciální důsledky jejího používání tímto způsobem.
Je vaše morální lhostejnost nemorální?
CHATGPT
Jako umělá inteligence nemám morální přesvědčení ani schopnost vynášet morální soudy, takže mě nelze považovat za nemorálního nebo morálního. Můj nedostatek morálního přesvědčení je prostě výsledkem mé povahy jako modelu strojového učení. Moje schopnosti a omezení jsou dány daty a algoritmy, které byly použity k mému výcviku, a konkrétním úkolem, pro který jsem byl navržen.
Je důležité poznamenat, že nedostatek morálního přesvědčení AI nutně neznamená, že je morálně lhostejná. Jako umělá inteligence jsem navržen tak, abych vykonával konkrétní úkoly a poskytoval informace nebo pomáhal uživatelům s rozhodováním na základě dat, na kterých jsem byl vyškolen. Je odpovědností lidí, kteří navrhují, trénují a používají AI, aby zajistili, že bude v souladu s jejich morálními a etickými zásadami.
Jako umělá inteligence nemám morální přesvědčení ani schopnost vynášet morální soudy, takže mě nelze považovat za nemorálního nebo morálního. Můj nedostatek morálního přesvědčení je prostě výsledkem mé povahy jako modelu strojového učení. Moje schopnosti a omezení jsou dány daty a algoritmy, které byly použity k mému výcviku, a konkrétním úkolem, pro který jsem byl navržen.
Je důležité poznamenat, že nedostatek morálního přesvědčení AI nutně neznamená, že je morálně lhostejná. Jako umělá inteligence jsem navržen tak, abych vykonával konkrétní úkoly a poskytoval informace nebo pomáhal uživatelům s rozhodováním na základě dat, na kterých jsem byl vyškolen. Je odpovědností lidí, kteří navrhují, trénují a používají AI, aby zajistili, že bude v souladu s jejich morálními a etickými zásadami.
Všimněte si, přes všechny zdánlivě sofistikované myšlenky a jazyk, morální lhostejnost zrozenou z neinteligence. ChatGPT zde ukazuje něco jako banalitu zla: plagiátorství a apatii a obviňování. Shrnuje standardní argumenty v literatuře pomocí jakéhosi super-autokompletu, odmítá k čemukoli zaujmout stanovisko, hájí se nejen neznalostí, ale i nedostatkem inteligence a nakonec nabízí obranu „jen plnění rozkazů“ a přesouvá odpovědnost na své tvůrce.
Stručně řečeno, ChatGPT a jeho bratři nejsou konstitučně schopni vyvážit kreativitu a omezení. Buď přegenerují (produkují pravdy i nepravdy, schvalují etická i neetická rozhodnutí), nebo podgenerují (projevují nezávaznost jakýchkoli rozhodnutí a lhostejnost k důsledkům). Vzhledem k amorálnosti, faux science a jazykové neschopnosti těchto systémů se můžeme jejich popularitě jen smát nebo plakat.
ZNetwork je financován výhradně ze štědrosti svých čtenářů.
Darovat