Abstrakt
[Et groft udkast til et igangværende arbejde.]
Ideen om maskiner, der er næsten identiske med mennesker, har været så forførende, at den har fanget fantasien hos de bedste sind såvel som lægfolk i mindst halvandet århundrede, måske mere. Lige efter Artificial Intelligence (AI) blev til, blev det næsten taget for givet, at vi snart nok vil være i stand til at bygge Humanoid Robots. Dette har også ført til nogle seriøse spekulationer om 'transhumanisme'. Indtil videre ser vi ikke ud til at være i nærheden af dette mål. Det er måske på tide nu at spørge, om det overhovedet er muligt. Vi præsenterer et sæt argumenter for, at det er umuligt at skabe eller bygge Humanoid Robots eller Humanoid Intelligence, hvor den nævnte intelligens kan erstatte mennesker i enhver situation, hvor mennesker er påkrævet eller eksisterer.
1. Humanoid intelligens, singulariteten og transhumanismen
Før vi fortsætter med at diskutere vilkårene i titlen på dette afsnit og argumenterne i de følgende sektioner, definerer vi først de grundlæggende udtryk til en vis grad af kortfattethed og præcision:
1. Menneskeliv: Alt og alt, som den fulde mangfoldighed af mennesker er i stand til, både individuelt og kollektivt. Dette inkluderer ikke kun adfærd eller problemløsning, men hele spektret af evner, følelser, ønsker, handlinger, tanker, bevidsthed, samvittighed, empati, kreativitet og så videre inden for et individ, såvel som hele spektret af associationer og relationer, og sociale, politiske og økologiske strukturer, håndværk, kunst og så videre, der kan eksistere i et eller flere menneskelige samfund. Dette gælder ikke bare på ethvert givet tidspunkt, men over planetens liv. Måske skulle det endda inkludere spirituelle oplevelser og 'åbenbaringer' eller 'vrangforestillinger', såsom dem, der antydes i Philip K. Dick-historien, Holy Quarrel [Dick et al., 1985].
2. Humanoid: En levende og reproducerende enhed, der er næsten identisk med mennesker, enten med en menneskelignende krop eller uden den, på et andet substrat (inde i en computer).
3. Intelligens: Alt og alt, som den fulde mangfoldighed af mennesker er i stand til, både individuelt og kollektivt, såvel som både synkront og diakront. Dette inkluderer ikke kun adfærd eller problemløsning, men hele livet som defineret.
4. Singulariteten: Det teknologiske punkt, hvor det er muligt at skabe (eller have) intelligens, der er Humanoid eller bedre end Humanoid.
5. Transhumanisme: Tanken om, at vi efter singulariteten kan få et samfund, der er langt mere avanceret, til det bedre, end de nuværende og tidligere menneskelige samfund. Fra 1910 til 1927, i de tre bind af Principia Mathematica [1925-1927], satte Whitehead og Russell sig for at bevise, at matematik i en vis betydningsfuld forstand kan reduceres til logik. Dette viste sig at være umuligt, da Godel offentliggjorde sine ufuldstændighedsteoremer i 1931 [Sheppard, 2014, Nagel et al., 2001]. I den moderne computervidenskabs oprindelse, før og i begyndelsen af 1930'erne, ville det have været let at antage, at en computermaskine i sidste ende ville løse ethvert problem overhovedet. Dette viste sig også at være umuligt med Turings uafgørlighedsteorem [Hopcroft et al., 2006] og Church-Turings afhandling om beregnelighed [Copeland og Shagrir, 2018]. Siden da har andre former for problemer vist sig at være uafklarelige.
Nu hvor vi formodes at være tæt nok til Singulariteten [Kurzweil, 2006], så det kan ske inden for et stort antal menneskers levetid, er det måske på tide at spørge os selv, om ægte intelligens, især Humanoid Intelligence (som defineret ovenfor) er overhovedet muligt. Vi foreslår, at der er nok argumenter til at 'bevise' (i uformel forstand), at det er umuligt at bygge, skabe eller have Humanoid Intelligence. Vi hævder, at selvom Singulariteten faktisk er mulig, måske endda meget sandsynlig (medmindre vi stopper den), er den måske ikke, hvad den skal være. Den formodning, der præsenteres her, er, at Singulariteten sandsynligvis ikke er engang godartet, hvor kraftig eller avanceret den end måtte være. Dette følger af ideen om umuligheden af Humanoid Intelligence.
2 Nogle Bemærkninger om Formodningen
Vi har ikke brugt udtrykket teorem for Umuligheden, og årsagerne til dette burde fremgå af de argumenter, vi præsenterer. Især bruger vi ikke, og kan måske ikke, bruge formel notation til dette formål. Selv begrebet formodning bruges i uformel betydning. Begrebsbrugen her er tættere på det juridiske sprog end på det matematiske sprog, for det er det bedste, der kan gøres her. Dette kan være tydeligere fra definitionen og historiens argumenter. Det er på grund af en lignende begrundelse, at udtrykket 'ufuldstændighed' ikke bruges, og i stedet bruges umulighed, hvilket er mere passende til vores formål her, selvom Godels udtryk 'i det væsentlige ufuldstændigt' er det, vi uformelt argumenterer for om Humanoid AI , og måske AI generelt. Der stilles ikke krav om, hvorvidt et formelt bevis overhovedet er muligt i fremtiden. Det, vi præsenterer, er et uformelt bevis. Dette bevis skal være centreret omkring sondringen mellem Micro-AI (AI på niveau med en intelligent autonom individuel enhed) og Macro-AI (meget store intelligente autonome systemer, der muligvis omfatter hele menneskeheden eller verden). Så vidt vi ved, er en sådan sondring ikke blevet foreslået før. Selvom der har været noget arbejde i denne retning [Brooks, 1998, Signorelli, 2018, Yampolskiy, 2020], på grund af pladsmangel, er vi ikke i stand til at forklare, hvordan dette værk adskiller sig fra tidligere sådanne værker, undtagen ved at bemærke, at argumentationen og nogle af begreberne er nye, lidt ligesom i tilfældet med argumenter for eller imod Guds eksistens, hvilket spørgsmål er blevet diskuteret af de bedste filosoffer igen og igen gennem årtusinder, hvilket, som vi vil se i slutningen, er relevant for vores diskussion.
3 Argumenterne for umulighedsformodningen for mikro-AI
Definitionsargumentet): Selv Peano Arithmetic [Nagel et al., 2001] er baseret på tre udefinerede termer (nul, tal og er efterfølger af ), som er relativt trivielle termer sammenlignet med de utallige termer, der kræves for AI (kerneudtryk som intelligens og menneskelig, eller udtryk som kategorierne af følelser, lad alene udtrykkene som bevidsthed).
Kategoriargumentet: En stor del af kunstig intelligens handler om at klassificere ting i kategorier, men de fleste af disse kategorier (f.eks. vrede, afsky, gode eller dårlige) har ingen videnskabeligt definerede grænser. Dette er relateret til følgende argument.
Historiens argument: Det er næsten fastslået nu, at mange af de væsentlige begreber i vores civilisation er praktiske fiktioner eller historier [Harari, 2015], og disse danner ofte kategorier og bruges i definitioner.
Argumentet om det kulturelle koncept: Mange af termerne, begreberne og historierne er kulturelle konstruktioner. De har en lang historie, hvoraf det meste er ukendt, uden hvilken de ikke kan modelleres.
Individualiteten eller naturargumentet: En individuel intelligent autonom enhed skal være unik og adskilt fra alle andre sådanne enheder. Det stammer fra naturen, og vi har ingen forestilling om, hvordan det kan opstå i maskiner. Vi er ikke engang sikre på, hvad denne individualitet præcis er. Men gennem historien har vi tildelt en vis grad af ansvarlighed til det menneskelige individ, og vi har strenge bestemmelser for afstraffelse af individer baseret på dette, hvilket indikerer, at vi tror på begrebet 'selvet' eller det 'autonome individ', selv når vi benægter dets eksistens, som det er ved at blive populært i dag.
Argumentet om genetisk determinisme: Individualitet er ikke fuldstændig bestemt af naturen (f.eks. af vores gener) ved fødslen eller skabelsen én gang for alle. Det udvikler og ændrer sig også konstant, når det interagerer med miljøet, og bevarer dets unikke karakter.
Argumentet for det selvorganiserende system: Mennesker og de menneskelige samfund er højst sandsynligt selvorganiserende [Shiva og Shiva, 2020] og organiske systemer, eller de er komplekse, ikke-ligevægtssystemer [Nicolis og Prigogine, 1977]. Hvis det er tilfældet, er det usandsynligt, at de bliver modelleret til nøjagtig replikering eller reproduktion. Miljøet eller Nurture-argumentet: Både intelligens og individualitet afhænger af miljøet (eller naturen). Derfor kan de ikke modelleres uden fuldstændig at modellere miljøet, dvs. gå efter Macro-AI. Hukommelsen eller personlighedsargumentet: Både intelligens og individualitet er aspekter af personlighed, som er kendt for at være afhængige af et intelligent væsens komplette livshukommelse (bevidst og ubevidst). Der er ikke nok beviser for, at det er muligt at genoprette eller modellere denne fuldstændige tidsmæssige og miljømæssige historie af hukommelsen. Meget af vores hukommelse, og derfor er vores individualitet og personlighed integreret forbundet med vores kropslige minder.
Substrat-argumentet: Det tages ofte for givet, at intelligens kan adskilles fra substratet og plantes på et andet substrat. Dette kan være en forkert antagelse. Måske er vores intelligens integreret forbundet med substratet, og det er ikke muligt at adskille kroppen fra sindet, efter det foregående argument.
Årsagsargumentet: Der er få fremskridt i modellering af kausalitet. I sidste ende er årsagen til en begivenhed eller hændelse ikke én, men mange, måske endda universets komplette historie.
Bevidsthedsargumentet: På samme måde er der ingen god nok teori om bevidsthed selv for menneskelig forståelse. Det er meget usandsynligt, at vi fuldstændig kan modellere den menneskelige bevidsthed, og der er heller ikke god grund til at tro, at den kan opstå spontant under de rette betingelser (hvilke betingelser?).
Argumentet om ufuldstændighed/degeneration af læringskilde og repræsentation: Uanset hvor meget data eller viden vi har, vil det altid være både ufuldstændigt og degenereret, hvilket gør det umuligt helt at modellere intelligens.
Forklaringsargumentet: Dybe neurale netværk, som er det nyeste inden for AI, har alvorlige problemer med forklaringen selv for specifikke isolerede problemer. Uden den kan vi ikke være sikre på, om vores modeller udvikler sig i den rigtige retning.
Argumentet om testens ufuldstændighed: Perfekte mål for ydeevne er ikke tilgængelige, selv for problemer som maskinoversættelse. Vi har ingen idé om, hvad der vil være det overordnede mål for Humanoid Intelligence. Den kan altid være ufuldstændig og ufuldkommen, hvilket fører til usikkerhed om intelligens.
Det parasitære maskinargument: Maskiner er fuldstændig afhængige af læring på mennesker og af data og viden leveret af mennesker. Men mennesker udtrykker eller manifesterer kun en lille del af deres intelligente formåen. Så maskiner kan ikke helt lære af mennesker uden først at være lige så intelligente som mennesker.
Sprogargumentet: Human(oid) intelligens og dens modellering afhænger i det væsentlige af menneskelige sprog. Der er ingen universelt accepteret teori om, hvordan sprog fungerer.
Argumentet om opfattelsesfortolkning: Læring kræver perception og perception afhænger af fortolkning (og omvendt), hvilket er næsten lige så svært et problem som at modellere intelligens i sig selv.
Replikeringsargumentet: Vi står over for en videnskabelig replikationskrise selv for isolerede problemer. Hvordan kunne vi være sikre på replikering af Humanoid Intelligence og bevare individuel unikhed?
Det menneske-menneskelige epitemiske asymmetriargument: Der er udbredt ulighed i det menneskelige samfund, ikke kun hvad angår penge og rigdom, men også hvad angår viden og dens fordele. Dette vil ikke kun afspejle i modellering, men vil gøre modellering sværere.
Argumentet om mangfoldighedsrepræsentation: Humanoid intelligens, der virkelig virker, bliver nødt til at modellere den fuldstændige mangfoldighed af menneskelig eksistens i alle dens aspekter, hvoraf de fleste ikke engang er kendte eller dokumenterede. Det bliver i det mindste nødt til at bevare den mangfoldighed, hvilket er en stor opgave.
Datakolonialisme-argumentet: Data er den nye olie. Dem med mere magt, penge og indflydelse (den materialistiske hellige treenighed) kan udvinde flere data fra andre uden at dele deres egne data. Dette er en klassisk kolonisituation, og det vil hindre udviklingen af Humanoid Intelligence.
Det etisk-politiske argument: Givet nogle af ovenstående argumenter, og mange andre såsom databias, potentiale for våbendannelse osv., er der masser af etiske og politiske årsager, der skal tages i betragtning, mens man udvikler Humanoid Intelligence. Vi er ikke sikre på, om de alle kan løses fuldt ud.
Receptpligtig argumentation: Det er nu anerkendt, at 'intelligent' teknologi anvendt i stor skala ikke kun overvåger adfærd, men ændrer den [Zuboff, 2018]. Det betyder, at vi ændrer selve det, vi forsøger at modellere, og dermed opstiller nye mekaniske regler for, hvad det vil sige at være menneske.
Argumentet om ønskeopfyldelse (eller selvopfyldende profeti): På grund af præskriptivisering af selve livet af uperfekte og utilstrækkeligt intelligente maskiner, bliver problemet med modellering af Humanoid Intelligence en selvopfyldende profeti, hvor vi ender med at modellere ikke menneskeliv, men en korrupt og forenklet livsform, som vi bragte i stand med 'intelligente' maskiner.
Argumentet om menneskelig intervention: Der er ingen grund til at tro, at Humanoid Intelligence vil udvikle sig frit af sig selv og ikke vil blive påvirket af menneskelig indgriben, hvilket sandsynligvis vil fremme egne interesser. Dette vil hæmme udviklingen af ægte Humanoid Intelligence. Denne indgriben kan tage form af hemmeligholdelse, økonomisk indflydelse (såsom forskningsfinansiering) og juridisk eller strukturel tvang.
Deepfake-argumentet: Selvom vi endnu ikke har virkelig intelligente maskiner, er vi i stand til at generere data gennem deepfakes, som ikke kan genkendes som forfalskninger af mennesker. Disse dybe falske data kommer til at sprede sig og vil blive en del af de data, som maskinerne lærer af, og effektivt modellere ikke menneskeliv, men noget andet.
Kædereaktionsargumentet (eller loven om eksponentiel vækst): Efterhånden som maskiner bliver mere 'intelligente' påvirker de mere og mere af livet og ændrer det, selv før de opnår ægte intelligens. Hastigheden af denne ændring vil stige eksponentielt, og den vil forårsage en kædereaktion, der fører til uforudsigelige konsekvenser, som nødvendigvis påvirker modelleringen af Humanoid Intelligence.
4 Implikationerne af umuligheden
Det følger af ovenstående argumenter, at singularitet på niveau med Micro-AI er umulig. I forsøget på at opnå det, og for at adressere ovenstående argumenter, er det eneste mulige resultat en form for enkeltstående på makro-AI-niveau. En sådan Singularitet vil ikke føre til replikering af menneskelig intelligens eller dens forbedring, men noget helt andet. Det vil højst sandsynligt føre til udryddelse (eller i det mindste underdanighed, trældom) af menneskelig intelligens. For at opnå netop Humanoid Intelligence (Human Individual Micro-AI), selv om ikke mere, skal det AI-system, der kræves, være intet mindre end den almindelige forestilling om en enkelt Højeste Gud. Singularitet på makroniveau vil faktisk gøre AI-systemet, eller hvem der nu kontrollerer det, individuelt eller (sandsynligvis lille) kollektiv, til en enkelt Højeste Gud for alle praktiske formål, for så vidt angår mennesker. Men dette vil ikke være en almægtig Gud, og ikke en venlig Gud, for den vil være Højeste inden for menneskehedens begrænsede rækkevidde, og hvad menneskeheden kan have en effekt på, og den vil kun være venlig mod sig selv, eller måske ikke engang det . Det kan være analogt med Guden i Phiilip K. Dick-historien Faith of Our Fathers [Dick and Lethem, 2013], eller til Big Brother of Orwells 1984 [Orwell, 1950]. Vi kan selvfølgelig ikke være sikre på resultatet, men de er lige så sandsynlige som alle andre. Det er grund nok til at være meget forsigtig med at udvikle Humanoid Intelligence og enhver variant deraf.
Referencer
Philip K. Dick, Paul Williams og Mark. Hurst. Jeg håber, jeg kommer snart / Philip K. Dick; redigeret af Mark Hurst og Paul Williams. Doubleday New York, 1. udg. udgave, 1985. ISBN 0385195672.
Alfred North Whitehead og Bertrand Russell. Principia Mathematica. Cambridge University Press, 1925-1927.
Barnaby Sheppard. Gödels ufuldstændighedssætninger, side 419-428. Cambridge University Press, 2014. doi: 10.1017/CBO9781107415614.016.
E. Nagel, J.R. Newman og D.R. Hofstadter. Godels bevis. NYU Press, 2001. ISBN 9780814758014. URL https://books.google.co.in/books?id=G29G3W_hNQkC.
John E. Hopcroft, Rajeev Motwani og Jeffrey D. Ullman. Introduktion til automatteori, sprog og beregninger (3. udgave). Addison-Wesley Longman Publishing Co., Inc., USA, 2006. ISBN 0321455363.
B. Jack Copeland og Oron Shagrir. Den kirkelige tese: Logisk grænse eller brudbar barriere? Commun. ACM, 62(1):66–74, december 2018. ISSN 0001-0782. doi: 10.1145/3198448. URL https://doi.org/10.1145/3198448.
Ray Kurzweil. Singulariteten er nær: Når mennesker transcenderer biologi. Penguin (Non-Classics), 2006. ISBN 0143037889.
Rodney Brooks. Udsigter for intelligens på menneskeligt niveau for humanoide robotter. 07 1998. Camilo Miguel Signorelli. Kan computere blive bevidste og overvinde mennesker? Frontiers in Robotics and AI, 5:121, 2018. doi: 10.3389/frobt.2018.00121. URL https://www.frontiersin. org/article/10.3389/frobt.2018.00121.
Roman V. Yampolskiy. Uforudsigelighed af ai: Om umuligheden af præcist at forudsige alle handlinger fra en smartere agent. Journal of Artificial Intelligence and Consciousness, 07(01):109–118, 2020. doi: 10.1142/S2705078520500034.
Y.N. Harari. Sapiens: En kort historie om menneskeheden. Harper, 2015. ISBN 9780062316103. URL https://books.google.co.in/books?id=FmyBAwAAQBAJ.
V. Shiva og K. Shiva. Enhed vs. den 1 procent: knusende illusioner, frøfrihed. CHELSEA GREEN PUB, 2020. ISBN 9781645020394. URL https://books.google.co.in/books?
id=4TmTzQEACAAJ.
G. Nicolis og I. Prigogine. Selvorganisering i ikke-ligevægtssystemer: Fra dissipative strukturer til orden gennem fluktuationer. En Wiley-Interscience publikation. Wiley, 1977. ISBN 9780471024019. URL https://books.google.co.in/books?id=mZkQAQAAIAAJ.
Shoshana Zuboff. Overvågningskapitalismens tidsalder: Kampen for en menneskelig fremtid ved magtens nye grænse. 1. udgave, 2018. ISBN 1610395697.
P.K. Dick og J. Lethem. Udvalgte historier om Philip K. Dick. Houghton Mifflin Harcourt, 2013. ISBN 9780544040540. URL https://books.google.co.in/books?id=V1z9rzfTb2EC.
George Orwell. 1984. Tandembibliotek, hundrede år. udgave, 1950. ISBN 0881030368. URL http://www.amazon.de/1984-Signet-Classics-George-Orwell/dp/0881030368.
***
Oprindeligt udgivet på anileklavya.net den 7. november 2020.
ZNetwork finansieres udelukkende gennem sine læseres generøsitet.
Doner
2 Kommentarer
Nå, det fører til det første argument.
Jeg forsøger at forbedre artiklen. Men tak for påpegningen, så jeg kan uddybe dette.
’3. Intelligens: Alt og hvad den fulde mangfoldighed af mennesker er i stand til, både individuelt og kollektivt, såvel som både synkront og diakront. Dette inkluderer ikke kun adfærd eller problemløsning, men hele livet som defineret.'
Denne definition forekommer mig for vag. Det bliver meget svært at sige meget om AI, hvis vi ikke ved, hvad vi mener med 'jeg'-delen.