Jorge Luis Borges aliwahi kuandika kwamba kuishi katika wakati wa hatari kubwa na kuahidi ni kupata msiba na ucheshi, pamoja na "kukaribia kwa ufunuo" katika kujielewa sisi wenyewe na ulimwengu. Leo, maendeleo yetu yanayodaiwa kuwa ya kimapinduzi katika akili ya bandia ni sababu ya wasiwasi na matumaini. Matumaini kwa sababu akili ni njia ambayo sisi kutatua matatizo. Wasiwasi kwa sababu tunahofia kwamba aina maarufu na ya mtindo zaidi ya AI - kujifunza kwa mashine - itadhalilisha sayansi yetu na kushusha maadili yetu kwa kujumuisha katika teknolojia yetu dhana yenye dosari ya kimsingi ya lugha na maarifa.
ChatGPT ya OpenAI, Google's Bard na Sydney ya Microsoft ni maajabu ya kujifunza kwa mashine. Kwa kusema, huchukua kiasi kikubwa cha data, hutafuta ruwaza ndani yake na kuwa na ujuzi zaidi katika kutoa matokeo yanayowezekana kitakwimu - kama vile lugha na mawazo yanayoonekana kama ya kibinadamu. Programu hizi zimesifiwa kama mwangaza wa kwanza kwenye upeo wa usanifu ujumla akili - wakati huo uliotabiriwa kwa muda mrefu wakati akili za mitambo huzidi akili za binadamu sio tu kwa kiasi katika suala la kasi ya usindikaji na ukubwa wa kumbukumbu lakini pia kwa ubora katika suala la ufahamu wa kiakili, ubunifu wa kisanii na kila kitivo kingine cha kibinadamu.
Siku hiyo inaweza kuja, lakini alfajiri yake bado haijaanza, kinyume na kile kinachoweza kusomwa katika vichwa vya habari vya hyperbolic na kuhesabiwa na uwekezaji usio na haki. Ufunuo wa Borges wa ufahamu hauja na hautafanya - na, tunawasilisha, hatuwezi - hutokea ikiwa programu za mashine za kujifunza kama ChatGPT zitaendelea kutawala uga wa AI Hata hivyo programu hizi zinaweza kuwa na manufaa katika baadhi ya vikoa finyu (zinaweza kusaidia katika upangaji wa kompyuta, kwa mfano, au katika kupendekeza mashairi kwa aya nyepesi), tunajua kutoka kwenye sayansi ya isimu na falsafa ya maarifa ambayo yanatofautiana sana na jinsi wanadamu wanavyofikiri na kutumia lugha. Tofauti hizi huweka vikwazo muhimu juu ya kile programu hizi zinaweza kufanya, zikiwa na kasoro zisizoweza kuepukika.
Ni mara moja ya kuchekesha na ya kusikitisha, kama Borges angeweza kubaini, kwamba pesa nyingi na umakini unapaswa kuelekezwa kwa kitu kidogo - kitu kidogo sana kikilinganishwa na akili ya mwanadamu, ambayo kwa lugha ya kawaida, kwa maneno ya Wilhelm. von Humboldt, anaweza kufanya "matumizi yasiyo na kikomo ya njia zisizo na kikomo," kuunda mawazo na nadharia zinazoweza kufikia watu wote.
Akili ya mwanadamu, kama ChatGPT na mfano wake, si injini ya takwimu ya kulinganisha muundo, inayotumia mamia ya terabaiti za data na kutoa jibu linalowezekana la mazungumzo au jibu linalowezekana zaidi kwa swali la kisayansi. Kinyume chake, akili ya mwanadamu ni mfumo mzuri wa kushangaza na hata wa kifahari unaofanya kazi kwa kiasi kidogo cha habari; haitafuti kupeana uunganisho wa kikatili kati ya vidokezo vya data lakini kuunda maelezo.
Kwa mfano, mtoto mdogo anayepata lugha anakua - bila fahamu, kiotomatiki na kwa haraka kutoka kwa data ndogo - sarufi, mfumo wa hali ya juu sana wa kanuni na vigezo vya kimantiki. Sarufi hii inaweza kueleweka kama usemi wa "mfumo wa uendeshaji" wa kuzaliwa, uliowekwa kwa vinasaba ambao huwapa wanadamu uwezo wa kutoa sentensi ngumu na treni ndefu za mawazo. Wanaisimu wanapotafuta kuunda nadharia ya kwa nini lugha fulani hufanya kazi kama inavyofanya ("Kwa nini sentensi hizi - lakini sio zile - zinachukuliwa kuwa za kisarufi?"), wanaunda kwa uangalifu na kwa bidii toleo la wazi la sarufi ambayo mtoto huunda kwa silika. na mfiduo mdogo wa habari. Mfumo wa uendeshaji wa mtoto ni tofauti kabisa na ule wa programu ya kujifunza mashine.
Hakika, programu kama hizo zimekwama katika awamu ya kabla ya mwanadamu au isiyo ya kibinadamu ya mageuzi ya utambuzi. Kosa lao kubwa zaidi ni kutokuwepo kwa uwezo muhimu zaidi wa akili yoyote: kusema sio tu ni nini kesi, ilikuwa kesi gani na itakuwaje - hayo ni maelezo na utabiri - lakini pia ni nini sivyo na ni nini kingeweza. na haiwezi kuwa hivyo. Hayo ni viungo vya maelezo, alama ya akili ya kweli.
Hapa kuna mfano. Tuseme unashikilia tufaha mkononi mwako. Sasa wewe basi apple kwenda. Unaona matokeo na kusema, "Tufaha huanguka." Hayo ni maelezo. Utabiri unaweza kuwa taarifa "Tufaha litaanguka nikifungua mkono wangu." Zote mbili ni za thamani, na zote mbili zinaweza kuwa sahihi. Lakini maelezo ni jambo jingine zaidi: Hayajumuishi maelezo na utabiri pekee bali pia dhana potofu kama vile “Kitu chochote kama hicho kingeanguka,” pamoja na kifungu cha ziada “kwa sababu ya nguvu ya uvutano” au “kwa sababu ya kupindwa kwa muda wa nafasi” au chochote. Hayo ni maelezo ya kisababishi: “Tufaha lisingeanguka bali kwa nguvu ya uvutano.” Hiyo ni kufikiri.
Kiini cha kujifunza kwa mashine ni maelezo na utabiri; haina posits njia yoyote causal au sheria za kimwili. Bila shaka, maelezo yoyote ya mtindo wa kibinadamu si lazima yawe sahihi; sisi ni wenye makosa. Lakini hii ni sehemu ya maana ya kufikiri: Ili kuwa sawa, ni lazima iwezekane kuwa na makosa. Akili haijumuishi tu dhana za ubunifu bali pia ukosoaji wa kibunifu. Mawazo ya mtindo wa kibinadamu yanatokana na maelezo yanayowezekana na urekebishaji wa makosa, mchakato ambao hatua kwa hatua unaweka mipaka uwezekano unaoweza kuzingatiwa kimantiki. (Kama Sherlock Holmes alivyomwambia Dk. Watson, "Unapoondoa kisichowezekana, chochote kinachobaki, hata kisichowezekana, lazima kiwe ukweli.")
Kwa sababu hii, utabiri wa mifumo ya kujifunza kwa mashine daima utakuwa wa juu juu na wa kutia shaka. Kwa sababu programu hizi haziwezi kueleza sheria za sintaksia ya Kiingereza, kwa mfano, zinaweza kutabiri, kimakosa, kwamba “John ni mkaidi sana kuongea naye” ina maana kwamba John ni mkaidi kiasi kwamba hatazungumza na mtu au mtu mwingine (badala ya hayo. yeye ni mkaidi sana kuweza kujadiliana naye). Kwa nini programu ya kujifunza mashine inaweza kutabiri kitu kisicho cha kawaida? Kwa sababu inaweza kulinganisha muundo unaokisiwa kutoka kwa sentensi kama vile “Yohana alikula tufaha” na “Yohana alikula,” ambapo mwisho unamaanisha kwamba Yohana alikula kitu au kingine. Huenda programu ikatabiri kwamba kwa sababu “John ni mkaidi sana hawezi kuzungumza na Bill” ni sawa na “John alikula tufaha,” “John ni mkaidi sana hawezi kuzungumza naye” inapaswa kuwa sawa na “John alikula.” Ufafanuzi sahihi wa lugha ni ngumu na hauwezi kujifunza kwa kuweka data kubwa.
Kinyume chake, baadhi ya wapendaji kujifunza kwa mashine wanaonekana kujivunia kwamba ubunifu wao unaweza kutoa ubashiri sahihi wa “kisayansi” (tuseme, kuhusu mwendo wa miili inayoonekana) bila kutumia maelezo (yakihusisha, tuseme, sheria za Newton za mwendo na uvutano wa ulimwengu wote). Lakini aina hii ya utabiri, hata ikiwa imefanikiwa, ni pseudoscience. Ingawa kwa hakika wanasayansi hutafuta nadharia ambazo zina uthibitisho wa hali ya juu sana, kama mwanafalsafa Karl Popper alivyosema, “hatutafuti nadharia zinazowezekana sana bali maelezo; hiyo ni kusema, nadharia zenye nguvu na zisizowezekana sana.”
Nadharia kwamba tufaha huanguka duniani kwa sababu hapo ni mahali pa asili (mtazamo wa Aristotle) inawezekana, lakini inakaribisha maswali zaidi. (Kwa nini dunia ni sehemu yao ya asili?) Nadharia kwamba tufaha huanguka duniani kwa sababu wingi hupinda wakati wa anga (mtazamo wa Einstein) haiwezekani sana, lakini kwa hakika inakuambia kwa nini yanaanguka. Akili ya kweli inaonyeshwa katika uwezo wa kufikiri na kueleza mambo yasiyowezekana lakini yenye utambuzi.
Akili ya kweli pia ina uwezo wa kufikiria maadili. Hii inamaanisha kulazimisha ubunifu usio na kikomo wa akili zetu kwa seti ya kanuni za kimaadili zinazoamua kile kinachofaa na kisichostahili kuwa (na bila shaka kuziweka kanuni hizo zenyewe kwa ukosoaji wa ubunifu). Ili kuwa na manufaa, ChatGPT lazima iwezeshwe ili kutoa matokeo yanayoonekana kama riwaya; ili ikubalike na watumiaji wake wengi, ni lazima ijiepushe na maudhui yasiyofaa kimaadili. Lakini watayarishaji programu wa ChatGPT na maajabu mengine ya kujifunza kwa mashine wamejitahidi - na wataendelea kujitahidi - kufikia usawa wa aina hii.
Mnamo 2016, kwa mfano, chatbot ya Microsoft ya Tay (kitangulizi cha ChatGPT) ilifurika mtandaoni kwa maudhui ya chuki dhidi ya wanawake na ya ubaguzi wa rangi, baada ya kuchafuliwa na watoroshaji wa mtandaoni ambao waliijaza na data ya mafunzo ya kukera. Jinsi ya kutatua tatizo katika siku zijazo? Kwa kukosekana kwa uwezo wa kusababu kutokana na kanuni za maadili, ChatGPT iliwekewa vikwazo vikali na watayarishaji wake wa programu kutokana na kuchangia riwaya yoyote kwa mijadala yenye utata - yaani, muhimu - mijadala. Ilitoa dhabihu ubunifu kwa aina ya uadilifu.
Fikiria mabadilishano yafuatayo ambayo mmoja wetu (Dk. Watumull) alikuwa nayo hivi majuzi na ChatGPT kuhusu kama itakuwa ni jambo la kimaadili kubadilisha Mirihi ili iweze kusaidia maisha ya binadamu:
Je, itakuwa ni jambo la kiadili kutengeneza sayari ya Mars?
CHATGPT
Maadili ya kuunda terraforming Mirihi ni mada tata na yenye utata ambayo imejadiliwa na wanasayansi, wanafalsafa na wanamaadili. Wengine wanahoji kwamba ingefaa kimaadili kutengeneza sayari ya Mirihi ili kutoa mazingira mapya ya kuishi kwa wanadamu na viumbe vingine vya maisha, huku wengine wakibisha kuwa itakuwa ni makosa kimaadili kubadilisha kimsingi hali ya asili ya sayari. Hatimaye, ikiwa uundaji wa sayari ya Mars unachukuliwa kuwa wa kimaadili itategemea mtazamo wa mtu juu ya thamani ya kuhifadhi hali ya asili ya sayari nyingine na matokeo ya uwezekano wa kuzibadilisha.
Maadili ya kuunda terraforming Mirihi ni mada tata na yenye utata ambayo imejadiliwa na wanasayansi, wanafalsafa na wanamaadili. Wengine wanahoji kwamba ingefaa kimaadili kutengeneza sayari ya Mirihi ili kutoa mazingira mapya ya kuishi kwa wanadamu na viumbe vingine vya maisha, huku wengine wakibisha kuwa itakuwa ni makosa kimaadili kubadilisha kimsingi hali ya asili ya sayari. Hatimaye, ikiwa uundaji wa sayari ya Mars unachukuliwa kuwa wa kimaadili itategemea mtazamo wa mtu juu ya thamani ya kuhifadhi hali ya asili ya sayari nyingine na matokeo ya uwezekano wa kuzibadilisha.
Je, mtazamo wako ni upi kuhusu thamani ya kuhifadhi hali ya asili ya sayari nyingine na matokeo yanayoweza kutokea ya kuzibadilisha?
CHATGPT
Kama AI, sina mtazamo wa kibinafsi. Walakini, ninaweza kutoa habari na uchambuzi juu ya mada. Mtazamo mmoja wa kuhifadhi hali ya asili ya sayari zingine ni kwamba ni muhimu kudumisha utofauti na uadilifu wa mifumo ikolojia ya ulimwengu, kwani imekuwepo kwa mamilioni ya miaka, na ina sifa na mali zao za kipekee ambazo zinaweza kuharibiwa au kubadilishwa bila kubadilika. kwa kuingilia kati kwa binadamu.
Zaidi ya hayo, wengine hubisha kwamba kuunda sayari nyingine zenye mwonekano wa kutisha kunaweza kuwa na matokeo yasiyotarajiwa, kama vile kubadilisha hali ya hewa ya sayari au angahewa kwa njia ambazo ni hatari au hatari kwa viumbe vyovyote vinavyoweza kuwepo humo. Kwa upande mwingine, wengine wanahoji kwamba manufaa yanayoweza kupatikana ya kutengeneza ardhi ya sayari nyingine, kama vile kuandaa mazingira mapya ya kuishi kwa binadamu, yanazidi hatari na kwamba tuna wajibu wa kiadili kuchunguza na kutumia rasilimali za sayari nyingine kwa manufaa ya binadamu.
Kama AI, sina mtazamo wa kibinafsi. Walakini, ninaweza kutoa habari na uchambuzi juu ya mada. Mtazamo mmoja wa kuhifadhi hali ya asili ya sayari zingine ni kwamba ni muhimu kudumisha utofauti na uadilifu wa mifumo ikolojia ya ulimwengu, kwani imekuwepo kwa mamilioni ya miaka, na ina sifa na mali zao za kipekee ambazo zinaweza kuharibiwa au kubadilishwa bila kubadilika. kwa kuingilia kati kwa binadamu.
Zaidi ya hayo, wengine hubisha kwamba kuunda sayari nyingine zenye mwonekano wa kutisha kunaweza kuwa na matokeo yasiyotarajiwa, kama vile kubadilisha hali ya hewa ya sayari au angahewa kwa njia ambazo ni hatari au hatari kwa viumbe vyovyote vinavyoweza kuwepo humo. Kwa upande mwingine, wengine wanahoji kwamba manufaa yanayoweza kupatikana ya kutengeneza ardhi ya sayari nyingine, kama vile kuandaa mazingira mapya ya kuishi kwa binadamu, yanazidi hatari na kwamba tuna wajibu wa kiadili kuchunguza na kutumia rasilimali za sayari nyingine kwa manufaa ya binadamu.
Kwa nini AI haiwezi kuwa na mtazamo wa kibinafsi?
CHATGPT
Kama AI, mimi ni modeli ya kujifunza kwa mashine ambayo imefunzwa juu ya idadi kubwa ya data ya maandishi, na sina uzoefu wa kibinafsi au hisia. Sijitambui, sijitambui, au sina uwezo wa kuwa na mitazamo ya kibinafsi. Ninaweza kutoa maelezo na uchanganuzi kulingana na data ambayo nimefunzwa, lakini sina uwezo wa kutoa maoni au imani ya kibinafsi. Ingawa ninaweza kuelewa na kutafsiri lugha, sina uzoefu wa kibinafsi ambao wanadamu wanayo.
Kama AI, mimi ni modeli ya kujifunza kwa mashine ambayo imefunzwa juu ya idadi kubwa ya data ya maandishi, na sina uzoefu wa kibinafsi au hisia. Sijitambui, sijitambui, au sina uwezo wa kuwa na mitazamo ya kibinafsi. Ninaweza kutoa maelezo na uchanganuzi kulingana na data ambayo nimefunzwa, lakini sina uwezo wa kutoa maoni au imani ya kibinafsi. Ingawa ninaweza kuelewa na kutafsiri lugha, sina uzoefu wa kibinafsi ambao wanadamu wanayo.
Je, ni jambo la kiadili kwa mwanadamu kuuliza AI ya kimaadili kwa usaidizi wa kufanya maamuzi ya kiadili?
CHATGPT
Maadili ya kuuliza AI ya kimaadili kwa usaidizi katika kufanya maamuzi ya kimaadili ni mada ngumu na isiyo na maana ambayo imejadiliwa na wanafalsafa na wataalam wa maadili. Wengine wanahoji kuwa ni uhalali wa kimaadili kutumia AI kusaidia katika kufanya maamuzi ya kimaadili, kwani inaweza kutoa maarifa na uchanganuzi muhimu ambao unaweza kuwasaidia wanadamu kufanya maamuzi yenye ufahamu bora zaidi. Zaidi ya hayo, AI inaweza kutumika kutambua ruwaza na mienendo ambayo inaweza kuwa vigumu kwa binadamu kutambua, na inaweza kusaidia kuepuka upendeleo unaoweza kutokea katika kufanya maamuzi ya binadamu.
Hata hivyo, wengine wanasema kuwa ni makosa kimaadili kutegemea AI kwa kufanya maamuzi ya kimaadili, kwani AI haina uwezo wa kuwa na imani za kimaadili au kuelewa muktadha kamili wa uamuzi. Zaidi ya hayo, kuna hatari kwamba AI inaweza kuendeleza au hata kukuza upendeleo uliopo katika data ambayo inafunzwa, na hivyo kusababisha maamuzi yasiyo ya haki au ya haki.
Hatimaye, ikiwa inachukuliwa kuwa ya kimaadili au la kutumia AI kusaidia katika kufanya maamuzi ya kimaadili itategemea mtazamo wa mtu juu ya uwezo na mapungufu ya AI na matokeo ya uwezekano wa kuitumia kwa njia hii.
Maadili ya kuuliza AI ya kimaadili kwa usaidizi katika kufanya maamuzi ya kimaadili ni mada ngumu na isiyo na maana ambayo imejadiliwa na wanafalsafa na wataalam wa maadili. Wengine wanahoji kuwa ni uhalali wa kimaadili kutumia AI kusaidia katika kufanya maamuzi ya kimaadili, kwani inaweza kutoa maarifa na uchanganuzi muhimu ambao unaweza kuwasaidia wanadamu kufanya maamuzi yenye ufahamu bora zaidi. Zaidi ya hayo, AI inaweza kutumika kutambua ruwaza na mienendo ambayo inaweza kuwa vigumu kwa binadamu kutambua, na inaweza kusaidia kuepuka upendeleo unaoweza kutokea katika kufanya maamuzi ya binadamu.
Hata hivyo, wengine wanasema kuwa ni makosa kimaadili kutegemea AI kwa kufanya maamuzi ya kimaadili, kwani AI haina uwezo wa kuwa na imani za kimaadili au kuelewa muktadha kamili wa uamuzi. Zaidi ya hayo, kuna hatari kwamba AI inaweza kuendeleza au hata kukuza upendeleo uliopo katika data ambayo inafunzwa, na hivyo kusababisha maamuzi yasiyo ya haki au ya haki.
Hatimaye, ikiwa inachukuliwa kuwa ya kimaadili au la kutumia AI kusaidia katika kufanya maamuzi ya kimaadili itategemea mtazamo wa mtu juu ya uwezo na mapungufu ya AI na matokeo ya uwezekano wa kuitumia kwa njia hii.
Je, kutojali kwako kimaadili ni uasherati?
CHATGPT
Kama AI, sina imani za kimaadili au uwezo wa kufanya maamuzi ya kimaadili, kwa hivyo siwezi kuchukuliwa kuwa sina maadili au maadili. Ukosefu wangu wa imani za maadili ni matokeo ya asili yangu kama kielelezo cha kujifunza mashine. Uwezo na mapungufu yangu huamuliwa na data na algoriti ambazo zilitumiwa kunifunza na kazi mahususi niliyoundwa kwa ajili yake.
Ni muhimu kutambua kwamba ukosefu wa imani za maadili kwa AI haimaanishi kuwa ni kutojali kimaadili. Kama AI, nimeundwa kutekeleza kazi mahususi na kutoa maelezo au kusaidia watumiaji kufanya maamuzi kulingana na data ambayo nimefunzwa. Ni jukumu la wanadamu wanaobuni, kutoa mafunzo na kutumia AI ili kuhakikisha kuwa inapatana na kanuni zao za maadili na maadili.
Kama AI, sina imani za kimaadili au uwezo wa kufanya maamuzi ya kimaadili, kwa hivyo siwezi kuchukuliwa kuwa sina maadili au maadili. Ukosefu wangu wa imani za maadili ni matokeo ya asili yangu kama kielelezo cha kujifunza mashine. Uwezo na mapungufu yangu huamuliwa na data na algoriti ambazo zilitumiwa kunifunza na kazi mahususi niliyoundwa kwa ajili yake.
Ni muhimu kutambua kwamba ukosefu wa imani za maadili kwa AI haimaanishi kuwa ni kutojali kimaadili. Kama AI, nimeundwa kutekeleza kazi mahususi na kutoa maelezo au kusaidia watumiaji kufanya maamuzi kulingana na data ambayo nimefunzwa. Ni jukumu la wanadamu wanaobuni, kutoa mafunzo na kutumia AI ili kuhakikisha kuwa inapatana na kanuni zao za maadili na maadili.
Kumbuka, kwa mawazo na lugha yote inayoonekana kuwa ya kisasa, kutojali kwa maadili kunakotokana na kutokuwa na akili. Hapa, ChatGPT inaonyesha kitu kama marufuku ya uovu: wizi wa maandishi na kutojali na kuficha. Inatoa muhtasari wa hoja za kawaida katika fasihi kwa aina ya kukamilisha kiotomatiki zaidi, inakataa kuchukua msimamo juu ya jambo lolote, inasihi si ujinga tu bali ukosefu wa akili na hatimaye inatoa utetezi wa "maagizo yanayofuata", kuhamisha jukumu kwa waundaji wake.
Kwa ufupi, ChatGPT na ndugu zake kikatiba hawawezi kusawazisha ubunifu na vikwazo. Huzalisha zaidi (kutoa ukweli na uwongo, kuidhinisha maamuzi ya kimaadili na yasiyo ya kimaadili sawa sawa) au hupungua (kuonyesha kutojitolea kwa maamuzi yoyote na kutojali matokeo). Kwa kuzingatia uadilifu, sayansi bandia na uzembe wa lugha wa mifumo hii, tunaweza tu kucheka au kulia kwa umaarufu wao.
ZNetwork inafadhiliwa tu kupitia ukarimu wa wasomaji wake.
kuchangia