Abstract
[O schiță brută a unei lucrări în curs.]
Ideea de mașini care sunt aproape identice cu ființele umane a fost atât de seducătoare încât a captat imaginația celor mai bune minți, precum și a laicilor timp de cel puțin un secol și jumătate, poate mai mult. Imediat după ce Inteligența Artificială (AI) a apărut, a fost aproape de la sine înțeles că în curând vom putea construi roboți umanoizi. Acest lucru a dus și la unele speculații serioase despre „transumanism”. Până acum, nu pare să fim nicăieri aproape de acest obiectiv. Poate că este timpul să ne întrebăm dacă este chiar posibil. Prezentăm un set de argumente în sensul că este imposibil să se creeze sau să construiască roboți umanoizi sau inteligență umanoidă, în care inteligența menționată poate înlocui ființele umane în orice situație în care ființele umane sunt necesare sau există.
1. Inteligența umanoidă, singularitatea și transumanismul
Înainte de a continua să discutăm termenii titlului acestei secțiuni și argumentele din secțiunile următoare, definim mai întâi termenii de bază într-un anumit grad de concizie și precizie:
1. Viața umană: Orice și tot ceea ce este capabilă întreaga varietate a ființelor umane, atât individual, cât și colectiv. Aceasta include nu doar comportamentul sau rezolvarea problemelor, ci întreaga gamă de capacități, emoții, dorințe, acțiuni, gânduri, conștiință, conștiință, empatie, creativitate și așa mai departe în cadrul unui individ, precum și întreaga gamă de asocieri și relații și structuri sociale, politice și ecologice, meșteșuguri, artă și așa mai departe care pot exista într-o societate sau societăți umane. Acest lucru este adevărat nu doar în orice moment, ci și pe parcursul vieții planetei. Poate că ar trebui să includă chiar și experiențe spirituale și „dezvăluiri” sau „amăgiri”, cum ar fi cele sugerate în povestea lui Philip K. Dick, Holy Quarrel [Dick și colab., 1985].
2. Umanoid: O entitate vie și reproducătoare care este aproape identică cu oamenii, fie cu un corp asemănător omului, fie fără acesta, pe un substrat diferit (în interiorul unui computer).
3. Inteligența: Orice și tot ceea ce este capabilă întreaga varietate a ființelor umane, atât individual, cât și colectiv, precum și sincronic și diacronic. Aceasta include nu doar comportamentul sau rezolvarea problemelor, ci întreaga viață așa cum este definită.
4. Singularitatea: Punctul tehnologic în care este posibil să se creeze (sau să aibă) inteligență umanoidă sau mai bună decât umanoid.
5. Transumanismul: Ideea că, după singularitate, putem avea o societate mult mai avansată, în bine, decât societățile umane actuale și trecute. Din 1910 până în 1927, în cele trei volume din Principia Mathematica [1925–1927], Whitehead și Russell și-au propus să demonstreze că matematica este, într-un sens semnificativ, reductibilă la logică. Acest lucru sa dovedit a fi imposibil când Godel și-a publicat teoremele de incompletitudine în 1931 [Sheppard, 2014, Nagel și colab., 2001]. În zilele originilor informaticii moderne, înainte și la începutul anilor 1930, ar fi fost ușor să presupunem că o mașină de calcul ar rezolva în cele din urmă orice problemă. Acest lucru s-a dovedit imposibil și cu teorema de indecidibilitate a lui Turing [Hopcroft și colab., 2006] și teza de calcul al Church-Turing [Copeland și Shagrir, 2018]. De atunci, alte tipuri de probleme s-au dovedit a fi indecidabile.
Acum că ar trebui să ne apropiem suficient de Singularitate [Kurzweil, 2006] pentru ca aceasta să se întâmple în timpul vieții unui număr mare de ființe umane, poate că este timpul să ne întrebăm dacă inteligența reală, în special Inteligența umanoidă (cum ar fi definite mai sus) este deloc posibilă. Sugerăm că există suficiente argumente pentru a „demonstra” (într-un sens informal) că este imposibil să construiești, să creezi sau să ai Inteligență Humanoidă. Susținem că, deși Singularitatea este într-adevăr posibilă, poate chiar foarte probabilă (dacă nu o oprim), s-ar putea să nu fie ceea ce ar trebui să fie. Conjectura prezentată aici este că Singularitatea nu este probabil să fie nici măcar benignă, oricât de puternică sau avansată ar fi. Aceasta decurge din ideea imposibilității Inteligenței Humanoide.
2 Câteva note despre conjectura
Nu am folosit termenul de teoremă pentru Imposibilitate și motivele pentru aceasta ar trebui să fie evidente din argumentele pe care le prezentăm. În special, nu folosim și poate nu putem folosi notația formală în acest scop. Chiar și termenul de presupunere este folosit într-un sens informal. Utilizarea termenilor aici este mai aproape de limbajul juridic decât de limbajul matematic, pentru că acesta este cel mai bun lucru care se poate face aici. Acest lucru poate fi mai clar din argumentele Definiție și Povestea. Din cauza unui raționament similar nu se folosește termenul „incompletitate” și, în schimb, se folosește imposibilitatea, ceea ce este mai potrivit pentru scopurile noastre aici, deși termenul lui Godel „esențial incomplet” este ceea ce argumentăm în mod informal despre IA umanoid. , și poate AI în general. Nu se pretinde deloc dacă o dovadă formală este posibilă în viitor. Ceea ce vă prezentăm este o dovadă informală. Această dovadă trebuie să se concentreze în jurul distincției dintre Micro-AI (AI la nivelul unei entități individuale autonome inteligente) și Macro-AI (sisteme autonome inteligente foarte mari, care poate cuprinde întreaga umanitate sau întreaga lume). Din câte știm, o astfel de distincție nu a fost propusă înainte. Deși s-au lucrat în această direcție [Brooks, 1998, Signorelli, 2018, Yampolskiy, 2020], din lipsă de spațiu, nu putem explica cum diferă această lucrare de astfel de lucrări anterioare, cu excepția faptului că argumentarea și unele dintre termeni sunt noi, un pic ca în cazul argumentelor pro sau împotriva existenței lui Dumnezeu, întrebare care a fost dezbătută de cei mai buni dintre filozofi din nou și din nou de-a lungul mileniilor, ceea ce, după cum vom vedea la sfârșit, este relevant pentru discuția noastră.
3 Argumentele pentru conjectura de imposibilitate pentru Micro-AI
Argumentul definiției): Chiar și Aritmetica Peano [Nagel et al., 2001] se bazează pe trei termeni nedefiniti (zero, număr și este succesorul lui ), care sunt termeni relativ banali în comparație cu nenumărații termeni necesari pentru IA (termenii de bază precum inteligența și umanitatea, sau termeni precum categoriile de emoții, lăsați în pace termenii precum conștiința).
Argumentul categoriei: O mare parte din IA se referă la clasificarea lucrurilor în categorii, dar cele mai multe dintre aceste categorii (de exemplu, furie, dezgust, bine sau rău) nu au granițe definite științific. Acest lucru este legat de următorul argument.
Argumentul poveștii: Este aproape stabilit acum că multe dintre conceptele esențiale ale civilizației noastre sunt ficțiuni sau povești convenabile [Harari, 2015] și acestea formează adesea categorii și sunt folosite în definiții.
Argumentul conceptului cultural: Mulți dintre termeni, concepte și povești sunt constructe culturale. Au o istorie lungă, cea mai mare parte necunoscută, fără de care nu pot fi modelate.
Individualitatea sau argumentul naturii: O entitate autonomă inteligentă individuală trebuie să fie unică și distinctă de toate celelalte astfel de entități. Ea își are originea în natură și nu avem nicio concepție despre cum se poate origina în mașini. Nici măcar nu suntem siguri ce este exact această individualitate. Cu toate acestea, de-a lungul istoriei, am atribuit un anumit grad de responsabilitate individului uman și avem prevederi stricte pentru pedepsirea indivizilor pe baza acestui fapt, ceea ce indică faptul că credem în conceptul de „sine” sau „individ autonom”, chiar și atunci când îi negăm existența, așa cum devine popular astăzi.
Argumentul determinismului genetic: Individualitatea nu este complet determinată de natură (de exemplu de genele noastre) la naștere sau la creație odată pentru totdeauna. De asemenea, se dezvoltă și se schimbă constant pe măsură ce interacționează cu mediul înconjurător, păstrându-i unicitatea.
Argumentul sistemului de auto-organizare: Ființele umane și societățile umane sunt cel mai probabil sisteme auto-organizate [Shiva și Shiva, 2020] și organice, sau sunt sisteme complexe, neechilibrate [Nicolis și Prigogine, 1977]. Dacă da, este puțin probabil ca acestea să fie modelate pentru reproducere sau reproducere exactă. Mediul înconjurător sau argumentul hrănirii: atât inteligența, cât și individualitatea depind de mediu (sau de natură). Prin urmare, ele nu pot fi modelate fără a modela complet mediul, adică, mergând pe Macro-AI. Memoria sau argumentul personalității: Atât inteligența, cât și individualitatea sunt aspecte ale personalității, despre care se știe că depinde de memoria completă a vieții (conștientă și inconștientă) a unei ființe inteligente. Nu există suficiente dovezi că este posibil să se recupereze sau să modeleze această istorie temporală și de mediu completă a memoriei. O mare parte din memoria noastră și, prin urmare, individualitatea și personalitatea noastră este integral conectată cu amintirile noastre corporale.
Argumentul Susbstrsate: Adesea se consideră de la sine înțeles că inteligența poate fi separată de substrat și plantată pe un alt substrat. Aceasta poate fi o presupunere greșită. Poate că inteligența noastră este integral legată de substrat și nu este posibilă separarea corpului de minte, urmând argumentul anterior.
Argumentul de cauzalitate: Există puține progrese în modelarea cauzalității. În cele din urmă, cauza unui eveniment sau apariție nu este una, ci multe, poate chiar istoria completă a universului.
Argumentul conștiinței: În mod similar, nu există o teorie suficient de bună a conștiinței chiar și pentru înțelegerea umană. Este foarte puțin probabil să putem modela complet conștiința umană și nici nu există un motiv întemeiat să credem că poate apărea spontan în condițiile potrivite (care condiții?).
Incompletitudinea/degenerarea sursei de învățare și a argumentului de reprezentare: Indiferent de câte date sau cunoștințe avem, acestea vor fi întotdeauna incomplete și degenerate, ceea ce face imposibilă modelarea completă a inteligenței.
Argumentul explicabilității: Rețelele neuronale profunde, care reprezintă stadiul tehnicii pentru AI, au probleme serioase de explicabilitate chiar și pentru probleme izolate specifice. Fără el, nu putem fi siguri dacă modelele noastre se dezvoltă în direcția corectă.
Argumentul de incompletitate a testului: Măsurile perfecte ale performanței nu sunt disponibile nici măcar pentru probleme precum traducerea automată. Nu avem idee care va fi măsura generală a Inteligenței Humanoide. Poate fi întotdeauna incomplet și imperfect, ceea ce duce la incertitudine cu privire la inteligență.
Argumentul mașinii parazitare: Mașinile depind complet pentru învățare de oameni și de datele și cunoștințele furnizate de oameni. Dar oamenii exprimă sau manifestă doar o mică parte din capacitatea lor inteligentă. Deci mașinile nu pot învăța complet de la oameni fără a fi mai întâi la fel de inteligente ca oamenii.
Argumentul limbajului: Inteligența umană (oid) și modelarea acesteia depind în mod esențial de limbajul (limbajele) uman(e). Nu există o teorie universal acceptată despre cum funcționează limbajul.
Argumentul interpretării percepției: Învățarea necesită percepție, iar percepția depinde de interpretare (și invers), care este o problemă aproape la fel de grea ca modelarea inteligenței în sine.
Argumentul de replicare: Ne confruntăm cu o criză științifică de replicare chiar și pentru probleme izolate. Cum am putea fi siguri de replicarea Inteligenței Humanoide, păstrând unicitatea individuală?
Argumentul asimetriei episcopice om-uman: Există o inegalitate larg răspândită în societatea umană nu doar în ceea ce privește banii și bogăția, ci și în ceea ce privește cunoștințele și beneficiile acesteia. Acest lucru nu se va reflecta doar în modelare, dar va face modelarea mai dificilă.
Argumentul privind reprezentarea diversității: Inteligența umanoidă care funcționează cu adevărat va trebui să modeleze diversitatea completă a existenței umane în toate aspectele ei, dintre care majoritatea nici măcar nu sunt cunoscute sau documentate. Va trebui să păstreze măcar acea diversitate, care este o comandă mare.
Argumentul colonialismului de date: Datele sunt noul ulei. Cei cu mai multă putere, bani și influență (Sfânta Treime Materialistă) pot extrage mai multe date de la alții, fără a-și împărtăși propriile date. Aceasta este o situație colonială clasică și va împiedica dezvoltarea inteligenței umanoide.
Argumentul etico-politic: Având în vedere unele dintre argumentele de mai sus și multe altele, cum ar fi părtinirea datelor, potențialul de armare etc., există o mulțime de motive etice și politice care trebuie luate în considerare la dezvoltarea inteligenței umanoide. Nu suntem siguri dacă toate pot fi abordate pe deplin.
Argumentul de prescripție: Acum este recunoscut că tehnologia „inteligentă” aplicată la scară largă nu numai că monitorizează comportamentul, ci îl schimbă [Zuboff, 2018]. Aceasta înseamnă că schimbăm exact ceea ce încercăm să modelăm și, astfel, stabilim noi reguli mecanice pentru ceea ce înseamnă a fi om.
Argumentul împlinirii dorinței (sau profeția auto-împlinită): Datorită prescriptivizării vieții însăși de către mașini imperfecte și inadecvate inteligente, problema modelării Inteligenței Humanoide devine o profeție care se împlinește, în care ajungem să modelăm nu viața umană, ci o formă de viață coruptă și simplificată pe care am adus-o la ființă. mașini „inteligente”.
Argumentul intervenției umane: Nu există niciun motiv să credem că inteligența umanoidă se va dezvolta liber și nu va fi influențată de intervenția umană, foarte probabil să promoveze interesele personale. Acest lucru va paraliza dezvoltarea adevăratei inteligențe umanoide. Această intervenție poate lua forma secretului, influenței financiare (cum ar fi finanțarea cercetării) și constrângerii juridice sau structurale.
Argumentul Deepfake: Deși nu avem încă mașini cu adevărat inteligente, suntem capabili să generăm date prin deepfake-uri care nu sunt recunoscute ca falsuri de către ființele umane. Aceste date deepfake vor prolifera și vor deveni parte din datele din care mașinile învață, modelând efectiv nu viața umană, ci altceva.
Argumentul reacției în lanț (sau argumentul legii creșterii exponențiale): Pe măsură ce mașinile devin mai „inteligente”, ele afectează din ce în ce mai mult viața și o schimbă, chiar înainte de a obține adevărata inteligență. Viteza acestei schimbări va crește exponențial și va provoca o reacție în lanț, ducând la consecințe imprevizibile, afectând în mod necesar modelarea Inteligenței Humanoide.
4 Implicațiile imposibilității
Din argumentele de mai sus rezultă că Singularitatea la nivelul Micro-AI este imposibilă. În încercarea de a realiza acest lucru și de a aborda argumentele de mai sus, singurul rezultat posibil este un fel de Singularly la nivel de Macro-AI. O astfel de Singularitate nu va duce la replicarea inteligenței umane sau la îmbunătățirea acesteia, ci la ceva total diferit. Va duce, cel mai probabil, la dispariția (sau cel puțin la supunerea, servitutea) inteligenței umane. Pentru a obține doar Inteligența Humanoid (Human Individual Micro-AI), chiar dacă nimic mai mult, sistemul AI necesar va trebui să fie nimic mai puțin decât noțiunea comună a unui singur Dumnezeu Suprem. Singularitatea la nivel macro va face de fapt sistemul AI, sau oricine îl controlează, individual sau (cel mai probabil mic) colectiv, un singur Dumnezeu Suprem pentru toate scopurile practice, în ceea ce privește ființele umane. Dar acesta nu va fi un Dumnezeu Atotputernic și nu un Dumnezeu Bun, pentru că va fi Suprem în sfera limitată a umanității și asupra ceea ce umanitatea poate avea un efect și va fi amabil doar cu el însuși, sau poate nici măcar asta. . Poate fi analog cu Dumnezeu din povestea lui Phiilip K. Dick Faith of Our Fathers [Dick și Lethem, 2013] sau cu Fratele mai mare al lui Orwell din 1984 [Orwell, 1950]. Nu putem fi siguri de rezultat, desigur, dar de acele rezultate la fel de probabile ca oricare altele. Acesta este un motiv suficient pentru a fi foarte precaut în dezvoltarea Inteligenței Humanoide și a oricărei variante a acesteia.
Referinte
Philip K. Dick, Paul Williams și Mark. Crâng. Sper că voi ajunge curând / Philip K. Dick ; editat de Mark Hurst și Paul Williams. Doubleday New York, ed. 1. ediție, 1985. ISBN 0385195672.
Alfred North Whitehead și Bertrand Russell. Principia Mathematica. Cambridge University Press, 1925–1927.
Barnaby Sheppard. Teoremele de incompletitudine ale lui Gödel, pagina 419–428. Cambridge University Press, 2014. doi: 10.1017/CBO9781107415614.016.
E. Nagel, JR Newman și DR Hofstadter. Dovada lui Godel. NYU Press, 2001. ISBN 9780814758014. URL https://books.google.co.in/books?id=G29G3W_hNQkC.
John E. Hopcroft, Rajeev Motwani și Jeffrey D. Ullman. Introducere în teoria automatelor, limbaje și calcul (ediția a treia). Addison-Wesley Longman Publishing Co., Inc., SUA, 3. ISBN 2006.
B. Jack Copeland și Oron Shagrir. Teza de transformare a bisericii: Limită logică sau barieră care poate fi încălcată? comun. ACM, 62(1):66–74, decembrie 2018. ISSN 0001-0782. doi: 10.1145/3198448. URL https://doi.org/10.1145/3198448.
Ray Kurzweil. Singularitatea este aproape: când oamenii transcend biologia. Penguin (non-clasice), 2006. ISBN 0143037889.
Rodney Brooks. Perspective pentru inteligența la nivel uman pentru roboții umanoizi. 07 1998. Camilo Miguel Signorelli. Pot calculatoarele să devină conștiente și să-i învingă pe oameni? Frontiers in Robotics and AI, 5:121, 2018. doi: 10.3389/frobt.2018.00121. URL https://www.frontiersin. org/article/10.3389/frobt.2018.00121.
Roman V. Yampolskiy. Imprevizibilitatea ai: Cu privire la imposibilitatea de a prezice cu exactitate toate acțiunile unui agent mai inteligent. Journal of Artificial Intelligence and Consciousness, 07(01):109–118, 2020. doi: 10.1142/S2705078520500034.
YN Harari. Sapiens: O scurtă istorie a omenirii. Harper, 2015. ISBN 9780062316103. URL https://books.google.co.in/books?id=FmyBAwAAQBAJ.
V. Shiva și K. Shiva. Unicitatea vs. 1 la sută: distrugerea iluziilor, însămânțarea libertății. CHELSEA GREEN PUB, 2020. ISBN 9781645020394. URL https://books.google.co.in/books?
id=4TmTzQEACAAJ.
G. Nicolis şi I. Prigogine. Auto-organizarea în sisteme de neechilibru: de la structuri disipative la ordine prin fluctuații. O publicație Wiley-Interscience. Wiley, 1977. ISBN 9780471024019. URL https://books.google.co.in/books?id=mZkQAQAAIAAJ.
Shoshana Zuboff. Epoca capitalismului de supraveghere: lupta pentru un viitor uman la noua frontieră a puterii. Ediția I, 1. ISBN 2018.
PK Dick și J. Lethem. Povești alese ale lui Philip K. Dick. Houghton Mifflin Harcourt, 2013. ISBN 9780544040540. URL https://books.google.co.in/books?id=V1z9rzfTb2EC.
George Orwell. 1984. Biblioteca Tandem, centenar. ediție, 1950. ISBN 0881030368. URL http://www.amazon.de/1984-Signet-Classics-George-Orwell/dp/0881030368.
***
Publicat inițial la anileklavya.net pe 7 noiembrie 2020.
ZNetwork este finanțat exclusiv prin generozitatea cititorilor săi.
Donează
2 Comentarii
Ei bine, asta duce la primul argument.
Încerc să îmbunătățesc articolul. Totuși, mulțumesc pentru subliniere, ca să pot detalia acest lucru.
'3. Inteligență: Orice și tot ceea ce este capabilă întreaga varietate de ființe umane, atât individual, cât și colectiv, precum și sincronic și diacronic. Aceasta include nu doar comportamentul sau rezolvarea problemelor, ci întreaga viață așa cum este definită.
Această definiție mi se pare prea vagă. Va fi foarte dificil să spunem multe despre AI dacă nu știm ce înțelegem prin partea „eu”.