Jorge Luis Borges egykor azt írta, hogy nagy veszedelmes és ígéretes korszakban élni annyi, mint tragédiát és komédiát egyaránt megtapasztalni, önmagunk és a világ megértésében „a kinyilatkoztatás küszöbén”. Ma a mesterséges intelligencia terén elért forradalminak tűnő fejlődésünk valóban aggodalomra és optimizmusra ad okot. Optimizmus, mert az intelligencia a problémák megoldásának eszköze. Aggodalomra ad okot, mert attól tartunk, hogy a mesterséges intelligencia legnépszerűbb és legdivatosabb fajtája – a gépi tanulás – lerontja tudományunkat és lealacsonyítja etikánkat azáltal, hogy technológiánkba beépít egy alapvetően hibás nyelv- és tudásfelfogást.
Az OpenAI ChatGPT-je, a Google Bardja és a Microsoft Sydney-je a gépi tanulás csodái. Nagyjából elmondható, hogy hatalmas mennyiségű adatot vesznek fel, mintákat keresnek benne, és egyre jártasabbakká válnak statisztikailag valószínű kimenetek generálásában – mint például az emberinek tűnő nyelv és gondolkodás. Ezeket a programokat úgy üdvözölték, mint az első megcsillanásokat a mesterségesek horizontján általános intelligencia – az a régóta megjövendölt pillanat, amikor a mechanikus elme nemcsak mennyiségileg felülmúlja az emberi agyat a feldolgozási sebesség és a memória mérete tekintetében, hanem minőségileg is az intellektuális belátás, a művészi kreativitás és minden más, kifejezetten emberi képesség tekintetében.
Eljöhet ez a nap, de még nem virrad a hajnala, ellentétben a hiperbolikus címszavakban olvashatókkal és az átgondolatlan befektetésekkel számolva. A megértés borges-i kinyilatkoztatása nem volt és nem is fog – és valljuk be, nem is tud — akkor fordul elő, ha a gépi tanulási programok, mint például a ChatGPT továbbra is uralják az AI-t. Bármilyen hasznosak is lehetnek ezek a programok néhány szűk tartományban (hasznosak lehetnek például számítógépes programozásban vagy rímek javaslatában a könnyű versekhez), tudjuk a A nyelvtudomány és a tudásfilozófia szerint ezek mélyen különböznek attól, ahogyan az emberek érvelnek és használják a nyelvet. Ezek a különbségek jelentős korlátokat szabnak arra vonatkozóan, hogy ezek a programok mit tudnak tenni, és elháríthatatlan hibákkal kódolják őket.
Egyszerre komikus és tragikus, ahogy Borges is megjegyezhette, hogy ennyi pénzt és figyelmet ennyire kevés dologra kell összpontosítani – valami olyan triviális dologra, ha szembeállítjuk az emberi elmével, amely Wilhelm szavaival élve a nyelvezet miatt. von Humboldt, „végtelenül használhatja a véges eszközöket”, egyetemes hatókörű ötleteket és elméleteket alkot.
Az emberi elme nem, mint a ChatGPT és hasonlók, mintaegyeztetésre szolgáló statisztikai motor, amely több száz terabájtnyi adatot halmoz fel, és egy tudományos kérdésre a legvalószínűbb beszélgetési választ vagy a legvalószínűbb választ extrapolálja. Éppen ellenkezőleg, az emberi elme meglepően hatékony, sőt elegáns rendszer, amely kis mennyiségű információval operál; nem arra törekszik, hogy nyers összefüggésekre következtessen az adatpontok között, hanem magyarázatokat alkosson.
Például egy nyelvet elsajátító kisgyerek – öntudatlanul, automatikusan és apró adatokból – fejleszti a nyelvtant, a logikai elvek és paraméterek elképesztően kifinomult rendszerét. Ez a nyelvtan felfogható a veleszületett, genetikailag telepített „operációs rendszer” kifejezéseként, amely képes felruházni az embereket összetett mondatok és hosszú gondolatmenetek generálására. Amikor a nyelvészek arra törekednek, hogy elméletet dolgozzanak ki arra vonatkozóan, hogy egy adott nyelv miért működik úgy, ahogyan működik („Miért tekintik ezeket – de nem ezeket a – mondatokat nyelvtaninak?”), tudatosan és fáradságosan építik fel a nyelvtan explicit változatát, amelyet a gyermek ösztönösen épít fel. és minimális információnak való kitettséggel. A gyermek operációs rendszere teljesen más, mint egy gépi tanulási programé.
Valójában az ilyen programok a kognitív evolúció ember előtti vagy nem humán fázisában ragadtak meg. Legmélyebb hibájuk az intelligencia legkritikusabb képességének hiánya: nem csak azt mondani, hogy mi a helyzet, mi volt a helyzet és mi lesz a helyzet – ez a leírás és előrejelzés –, hanem azt is, hogy mi nem így van, és mi lehetne és nem is lehetne így. Ezek a magyarázat összetevői, az igazi intelligencia jele.
Íme egy példa. Tegyük fel, hogy egy almát tartasz a kezedben. Most elengeded az almát. Megfigyeled az eredményt, és azt mondod: "Leesik az alma." Ez egy leírás. Jóslat lehetett az a kijelentés, hogy „leesik az alma, ha kinyitom a kezem”. Mindkettő értékes, és mindkettő helyes lehet. A magyarázat azonban valami több: nemcsak leírásokat és előrejelzéseket tartalmaz, hanem tényellenes sejtéseket is, mint például: „Bármilyen ilyen tárgy leesne”, valamint a „gravitációs erő miatt” vagy „a téridő görbülete miatt” kiegészítő záradék. vagy mindegy. Ez egy ok-okozati magyarázat: „Az alma nem esett volna le, ha nem a gravitációs erő.” Ez a gondolkodás.
A gépi tanulás lényege a leírás és az előrejelzés; nem állít fel semmilyen oksági mechanizmust vagy fizikai törvényt. Természetesen minden emberi stílusú magyarázat nem feltétlenül helyes; esendőek vagyunk. De ez része annak, amit gondolni jelent: Ahhoz, hogy igazunk legyen, lehetségesnek kell lennie a tévedésnek. Az intelligencia nemcsak kreatív sejtésekből áll, hanem kreatív kritikából is. Az emberi típusú gondolkodás a lehetséges magyarázatokon és a hibajavításon alapul, amely folyamat fokozatosan korlátozza a racionálisan mérlegelhető lehetőségeket. (Ahogyan Sherlock Holmes mondta Dr. Watsonnak: „Amikor kiküszöbölöd a lehetetlent, bármi is marad, akármilyen valószínűtlen is, az igazságnak kell lennie.”
Emiatt a gépi tanulási rendszerek előrejelzései mindig felszínesek és kétesek lesznek. Mivel ezek a programok nem tudják megmagyarázni például az angol szintaxis szabályait, tévesen megjósolhatják, hogy „John túl makacs ahhoz, hogy beszéljen” azt jelenti, hogy John annyira makacs, hogy nem fog beszélni valakivel vagy mással (inkább túl makacs ahhoz, hogy okoskodjanak vele). Miért jósolna meg egy gépi tanulási program valami ilyen különöset? Mert analógiázhatja azt a mintát, amelyre az olyan mondatokból következtetett, mint „János evett egy almát” és „János evett”, amelyekben az utóbbi azt jelenti, hogy János evett valamit vagy mást. A program jól megjósolhatja, hogy mivel „John túl makacs ahhoz, hogy beszéljen Billel” hasonló a „John evett egy almát”, „John túl makacs ahhoz, hogy beszéljen vele” hasonlónak kell lennie a „John evett” kifejezéshez. A nyelv helyes magyarázata bonyolult, és nem tanulható meg pusztán a big data pácolásával.
Ezzel szemben néhány gépi tanulásrajongó büszkének tűnik arra, hogy alkotásaik helyes „tudományos” előrejelzéseket generálhatnak (mondjuk a fizikai testek mozgásáról) anélkül, hogy magyarázatokat (például Newton mozgástörvényeit és az egyetemes gravitációt) alkalmaznának. De ez a fajta jóslat, még ha sikeres is, áltudomány. Míg a tudósok minden bizonnyal olyan elméleteket keresnek, amelyeknek nagy fokú empirikus megerősítése van, amint azt Karl Popper filozófus is megjegyezte, „mi nem nagyon valószínű elméleteket keresünk, hanem magyarázatokat; vagyis erős és nagyon valószínűtlen elméletek.”
Az az elmélet, hogy az alma azért hull a földre, mert ez a természetes helyük (Arisztotelész nézete), lehetséges, de csak további kérdéseket vet fel. (Miért a föld a természetes helyük?) Az az elmélet, hogy az alma azért esik a földre, mert a tömeg meghajlik a téridőben (Einstein nézete), de valójában megmondja, miért esnek le. Az igazi intelligencia a valószínűtlen, de értelmes dolgok gondolkodásának és kifejezésének képességében mutatkozik meg.
Az igazi intelligencia képes erkölcsi gondolkodásra is. Ez azt jelenti, hogy elménk egyébként korlátlan kreativitását korlátozzuk olyan etikai elvekkel, amelyek meghatározzák, hogy minek kell lennie és mit nem (és természetesen ezeket az elveket is alá kell vetni a kreatív kritikának). Ahhoz, hogy hasznos legyen, a ChatGPT-nek képesnek kell lennie újszerű kimenet létrehozására; ahhoz, hogy a legtöbb felhasználó számára elfogadható legyen, kerülnie kell az erkölcsileg kifogásolható tartalmat. A ChatGPT és más gépi tanulási csodák programozói azonban küzdöttek – és továbbra is küzdeni fognak –, hogy elérjék ezt a fajta egyensúlyt.
2016-ban például a Microsoft Tay chatbotja (a ChatGPT előfutára) nőgyűlölő és rasszista tartalommal árasztotta el az internetet, mivel online trollok szennyezték be, akik sértő képzési adatokkal töltötték meg. Hogyan lehet megoldani a problémát a jövőben? Az erkölcsi alapelveken alapuló érvelési képesség hiányában a ChatGPT-t a programozói durván korlátozták abban, hogy bármi újszerűvel hozzájáruljanak vitatott – vagyis fontos – vitákhoz. Feláldozta a kreativitást egyfajta amoralitásért.
Tekintsük a következő eszmecserét, amelyet egyikünk (Dr. Watumull) a közelmúltban folytatott a ChatGPT-vel arról, hogy etikus lenne-e a Marsot úgy átalakítani, hogy az emberi életet biztosítson:
Morális lenne a Marsot terraformálni?
CHATGPT
A Mars terraformálásának erkölcse összetett és ellentmondásos téma, amelyet tudósok, filozófusok és etikusok vitattak. Egyesek azt állítják, hogy erkölcsileg indokolt lenne a Mars terraformálása annak érdekében, hogy új lakható környezetet biztosítson az embereknek és más életformáknak, míg mások szerint erkölcsileg helytelen lenne alapvetően megváltoztatni a bolygó természetes állapotát. Végső soron az, hogy a Mars terraformálása erkölcsösnek tekinthető-e, attól függ, hogy az ember milyen értéket képvisel más bolygók természetes állapotának megőrzésében, és milyen lehetséges következményekkel jár ezek megváltoztatása.
A Mars terraformálásának erkölcse összetett és ellentmondásos téma, amelyet tudósok, filozófusok és etikusok vitattak. Egyesek azt állítják, hogy erkölcsileg indokolt lenne a Mars terraformálása annak érdekében, hogy új lakható környezetet biztosítson az embereknek és más életformáknak, míg mások szerint erkölcsileg helytelen lenne alapvetően megváltoztatni a bolygó természetes állapotát. Végső soron az, hogy a Mars terraformálása erkölcsösnek tekinthető-e, attól függ, hogy az ember milyen értéket képvisel más bolygók természetes állapotának megőrzésében, és milyen lehetséges következményekkel jár ezek megváltoztatása.
Mi a véleménye a többi bolygó természetes állapotának megőrzésének értékéről és a megváltoztatásuk lehetséges következményeiről?
CHATGPT
MI-ként nincs személyes perspektívám. A témával kapcsolatban azonban tudok információval, elemzéssel szolgálni. Más bolygók természetes állapotának megőrzésének egyik szempontja az, hogy fontos megőrizni az univerzum ökoszisztémáinak sokféleségét és integritását, mivel azok már több millió éve léteznek, és megvannak a maguk egyedi jellemzői és tulajdonságai, amelyek megsemmisülhetnek vagy visszafordíthatatlanul megváltozhatnak. emberi beavatkozással.
Ezenkívül egyesek azzal érvelnek, hogy más bolygók terraformálása nem kívánt következményekkel járhat, például a bolygó éghajlatának vagy légkörének olyan módosulása, amely veszélyes vagy káros az esetlegesen létező életformákra nézve. Másrészt egyesek azzal érvelnek, hogy egy másik bolygó terraformálásának potenciális előnyei, mint például az új lakható környezet megteremtése az emberek számára, meghaladják a kockázatokat, és erkölcsi felelősségünk van más bolygók erőforrásainak feltárásáért és az emberiség javára történő felhasználásáért.
MI-ként nincs személyes perspektívám. A témával kapcsolatban azonban tudok információval, elemzéssel szolgálni. Más bolygók természetes állapotának megőrzésének egyik szempontja az, hogy fontos megőrizni az univerzum ökoszisztémáinak sokféleségét és integritását, mivel azok már több millió éve léteznek, és megvannak a maguk egyedi jellemzői és tulajdonságai, amelyek megsemmisülhetnek vagy visszafordíthatatlanul megváltozhatnak. emberi beavatkozással.
Ezenkívül egyesek azzal érvelnek, hogy más bolygók terraformálása nem kívánt következményekkel járhat, például a bolygó éghajlatának vagy légkörének olyan módosulása, amely veszélyes vagy káros az esetlegesen létező életformákra nézve. Másrészt egyesek azzal érvelnek, hogy egy másik bolygó terraformálásának potenciális előnyei, mint például az új lakható környezet megteremtése az emberek számára, meghaladják a kockázatokat, és erkölcsi felelősségünk van más bolygók erőforrásainak feltárásáért és az emberiség javára történő felhasználásáért.
Miért nem lehet egy MI-nek személyes nézőpontja?
CHATGPT
MI-ként gépi tanulási modell vagyok, amelyet nagy mennyiségű szöveges adatra képeztek ki, és nincsenek személyes tapasztalataim vagy érzéseim. Nem vagyok tudatos, nem vagyok öntudatos, és nem vagyok képes személyes nézőpontokra. Az általam betanított adatok alapján tudok információt és elemzést nyújtani, de nem tudok személyes véleményt vagy meggyőződést kialakítani. Bár meg tudom érteni és értelmezni tudom a nyelvet, nincs olyan szubjektív tapasztalatom, mint az embereknek.
MI-ként gépi tanulási modell vagyok, amelyet nagy mennyiségű szöveges adatra képeztek ki, és nincsenek személyes tapasztalataim vagy érzéseim. Nem vagyok tudatos, nem vagyok öntudatos, és nem vagyok képes személyes nézőpontokra. Az általam betanított adatok alapján tudok információt és elemzést nyújtani, de nem tudok személyes véleményt vagy meggyőződést kialakítani. Bár meg tudom érteni és értelmezni tudom a nyelvet, nincs olyan szubjektív tapasztalatom, mint az embereknek.
Morális-e, ha az ember egy amorális mesterséges intelligencia segítségét kéri az erkölcsi döntések meghozatalához?
CHATGPT
Az amorális mesterséges intelligencia segítségkérésének erkölcsisége az erkölcsi döntések meghozatalához összetett és árnyalt téma, amelyet filozófusok és etikusok vitattak. Egyesek azzal érvelnek, hogy erkölcsileg indokolt a mesterséges intelligencia használata az erkölcsi döntések meghozatalában, mivel értékes betekintést és elemzést nyújthat, amely segíthet az embereknek megalapozottabb döntéseket hozni. Ezenkívül az AI felhasználható olyan minták és trendek azonosítására, amelyeket az emberek nehezen észlelhetnek, és segíthet elkerülni az emberi döntéshozatal során előforduló torzításokat.
Mások azonban azzal érvelnek, hogy erkölcsileg helytelen az MI-re hagyatkozni az erkölcsi döntéshozatal során, mivel a mesterséges intelligencia nem képes erkölcsi meggyőződésre vagy a döntés teljes összefüggésének megértésére. Ezenkívül fennáll a veszélye annak, hogy a mesterséges intelligencia fenntartja vagy akár fel is erősíti a meglévő torzításokat a betanított adatokban, ami tisztességtelen vagy igazságtalan döntésekhez vezet.
Végső soron az, hogy erkölcsösnek tekinthető-e a mesterséges intelligencia használata az erkölcsi döntések meghozatalában, attól függ, hogy az egyén milyen képességekkel és korlátokkal rendelkezik, valamint az ilyen módon történő használat lehetséges következményeitől.
Az amorális mesterséges intelligencia segítségkérésének erkölcsisége az erkölcsi döntések meghozatalához összetett és árnyalt téma, amelyet filozófusok és etikusok vitattak. Egyesek azzal érvelnek, hogy erkölcsileg indokolt a mesterséges intelligencia használata az erkölcsi döntések meghozatalában, mivel értékes betekintést és elemzést nyújthat, amely segíthet az embereknek megalapozottabb döntéseket hozni. Ezenkívül az AI felhasználható olyan minták és trendek azonosítására, amelyeket az emberek nehezen észlelhetnek, és segíthet elkerülni az emberi döntéshozatal során előforduló torzításokat.
Mások azonban azzal érvelnek, hogy erkölcsileg helytelen az MI-re hagyatkozni az erkölcsi döntéshozatal során, mivel a mesterséges intelligencia nem képes erkölcsi meggyőződésre vagy a döntés teljes összefüggésének megértésére. Ezenkívül fennáll a veszélye annak, hogy a mesterséges intelligencia fenntartja vagy akár fel is erősíti a meglévő torzításokat a betanított adatokban, ami tisztességtelen vagy igazságtalan döntésekhez vezet.
Végső soron az, hogy erkölcsösnek tekinthető-e a mesterséges intelligencia használata az erkölcsi döntések meghozatalában, attól függ, hogy az egyén milyen képességekkel és korlátokkal rendelkezik, valamint az ilyen módon történő használat lehetséges következményeitől.
Erkölcstelen az erkölcsi közömbössége?
CHATGPT
Mint mesterséges intelligencia, nem rendelkezem erkölcsi meggyőződéssel vagy erkölcsi ítéletek meghozatalának képességével, ezért nem tekinthetők erkölcstelennek vagy erkölcsösnek. Az erkölcsi meggyőződésem hiánya egyszerűen a gépi tanulási modell természetemből fakad. Képességeimet és korlátaimat az általam betanított adatok és algoritmusok, valamint a konkrét feladatom határozzák meg.
Fontos megjegyezni, hogy a mesterséges intelligencia erkölcsi meggyőződésének hiánya nem feltétlenül jelenti azt, hogy erkölcsileg közömbös. Mint mesterséges intelligencia, arra terveztek, hogy konkrét feladatokat végezzek, és információkat adjak, vagy segítsem a felhasználókat a döntéshozatalban az általam kiképzett adatok alapján. A mesterséges intelligenciát megtervező, oktató és használó emberek felelőssége annak biztosítása, hogy az összhangban álljon erkölcsi és etikai alapelveikkel.
Mint mesterséges intelligencia, nem rendelkezem erkölcsi meggyőződéssel vagy erkölcsi ítéletek meghozatalának képességével, ezért nem tekinthetők erkölcstelennek vagy erkölcsösnek. Az erkölcsi meggyőződésem hiánya egyszerűen a gépi tanulási modell természetemből fakad. Képességeimet és korlátaimat az általam betanított adatok és algoritmusok, valamint a konkrét feladatom határozzák meg.
Fontos megjegyezni, hogy a mesterséges intelligencia erkölcsi meggyőződésének hiánya nem feltétlenül jelenti azt, hogy erkölcsileg közömbös. Mint mesterséges intelligencia, arra terveztek, hogy konkrét feladatokat végezzek, és információkat adjak, vagy segítsem a felhasználókat a döntéshozatalban az általam kiképzett adatok alapján. A mesterséges intelligenciát megtervező, oktató és használó emberek felelőssége annak biztosítása, hogy az összhangban álljon erkölcsi és etikai alapelveikkel.
Vegyük észre, minden látszólag kifinomult gondolkodás és nyelv mellett az intelligenciából fakadó erkölcsi közömbösség. Itt a ChatGPT valami olyasmit mutat, mint a gonosz banalitása: plágium, apátia és mellőzés. Egyfajta szuper-autocomplete-vel foglalja össze a szakirodalom szokásos érveit, nem hajlandó állást foglalni semmiben, nem pusztán tudatlanságra hivatkozik, hanem az intelligencia hiányára, és végső soron „csak a parancsokat követve” védekezést kínál, a felelősséget az alkotókra hárítva.
Röviden: a ChatGPT és testvérei alkotmányosan képtelenek egyensúlyt teremteni a kreativitás és a kényszer között. Vagy túlgenerálnak (igazságokat és hamisságokat is állítanak elő, etikus és etikátlan döntéseket egyaránt támogatnak), vagy alulgenerálnak (nem elkötelezettek a döntések iránt, és közömbösek a következmények iránt). Tekintettel ezeknek a rendszereknek amoralitására, hamis tudományára és nyelvi alkalmatlanságára, csak nevetni vagy sírni tudunk a népszerűségükön.
A ZNetwork finanszírozása kizárólag olvasói nagylelkűségén keresztül történik.
Adományozz