Abstrakcyjny
[Przybliżony szkic prac w toku.]
Idea maszyn niemal identycznych z istotami ludzkimi była tak uwodzicielska, że podbijała wyobraźnię największych umysłów, a także laików, przez co najmniej półtora wieku, a może i dłużej. Zaraz po powstaniu sztucznej inteligencji (AI) było niemal oczywiste, że wkrótce będziemy mogli budować roboty humanoidalne. Doprowadziło to również do poważnych spekulacji na temat „transhumanizmu”. Na razie nie wydaje się, że jesteśmy blisko tego celu. Być może nadszedł czas, aby zadać sobie pytanie, czy jest to w ogóle możliwe. Przedstawiamy zestaw argumentów przemawiających za tym, że nie jest możliwe stworzenie ani zbudowanie Humanoidalnego Robota czy Humanoidalnej Inteligencji, gdzie wspomniana inteligencja mogłaby zastąpić człowieka w każdej sytuacji, w której człowiek jest potrzebny lub istnieje.
1. Inteligencja humanoidalna, osobliwość i transhumanizm
Zanim przejdziemy do omówienia terminów zawartych w tytule tej sekcji i argumentów w kolejnych sekcjach, najpierw zdefiniujemy podstawowe terminy w pewnym stopniu zwięzłości i precyzji:
1. Życie ludzkie: Wszystko, do czego zdolni są najróżniejsi ludzie, zarówno indywidualnie, jak i zbiorowo. Obejmuje to nie tylko zachowanie lub rozwiązywanie problemów, ale całą gamę możliwości, emocji, pragnień, działań, myśli, świadomości, sumienia, empatii, kreatywności itd. w obrębie jednostki, jak również całą gamę skojarzeń i relacji oraz struktury społeczne, polityczne i ekologiczne, rzemiosło, sztuka itd., które mogą istnieć w społeczeństwie lub społeczeństwach ludzkich. Dzieje się tak nie tylko w danym momencie, ale przez całe życie planety. Być może powinno to obejmować nawet doświadczenia duchowe i „objawienia” lub „urojenia”, takie jak te, o których mowa w opowiadaniu Philipa K. Dicka, Holy Quarrel [Dick i in., 1985].
2.Humanoid: Żywa i rozmnażająca się istota, która jest prawie identyczna z człowiekiem, z ciałem podobnym do człowieka lub bez niego, na innym podłożu (wewnątrz komputera).
3. Inteligencja: Wszystko, do czego zdolna jest cała różnorodność istot ludzkich, zarówno indywidualnie, jak i zbiorowo, a także synchronicznie i diachronicznie. Dotyczy to nie tylko zachowania czy rozwiązywania problemów, ale całego życia zgodnie z definicją.
4. Osobliwość: Punkt technologiczny, w którym możliwe jest stworzenie (lub posiadanie) inteligencji humanoidalnej lub lepszej od humanoidalnej.
5. Transhumanizm: Pomysł, że po osobliwości możemy mieć społeczeństwo znacznie bardziej zaawansowane, na lepsze, niż obecne i przeszłe społeczeństwa ludzkie. W latach 1910–1927 w trzech tomach Principia Mathematica [1925–1927] Whitehead i Russell starali się udowodnić, że matematykę można w pewnym znaczącym sensie sprowadzić do logiki. Okazało się to niemożliwe, gdy w 1931 roku Godel opublikował swoje twierdzenia o niezupełności [Sheppard, 2014, Nagel i in., 2001]. W czasach początków współczesnej informatyki, przed latami trzydziestymi XX wieku i na początku lat trzydziestych XX wieku, łatwo było założyć, że maszyna licząca ostatecznie w ogóle rozwiąże każdy problem. Okazało się to również niemożliwe w przypadku twierdzenia Turinga o nierozstrzygalności [Hopcroft et al., 1930] oraz tezy Churcha-Turinga o obliczalności [Copeland i Shagrir, 2006]. Od tego czasu wykazano, że inne rodzaje problemów są nierozstrzygalne.
Teraz, gdy mamy już wystarczająco blisko Osobliwości [Kurzweil, 2006], aby mogło to nastąpić w ciągu życia dużej liczby istot ludzkich, być może nadszedł czas, aby zadać sobie pytanie, czy prawdziwa inteligencja, w szczególności Inteligencja Humanoidalna (jak zdefiniowany powyżej) jest w ogóle możliwy. Sugerujemy, że jest wystarczająco dużo argumentów, aby „udowodnić” (w sensie nieformalnym), że nie da się zbudować, stworzyć ani posiadać Inteligencji Humanoidalnej. Twierdzimy, że chociaż Osobliwość jest rzeczywiście możliwa, a może nawet bardzo prawdopodobna (chyba że ją powstrzymamy), może nie być tym, czym powinna być. Przedstawiona tutaj hipoteza jest taka, że Osobliwość prawdopodobnie nie będzie nawet łagodna, niezależnie od tego, jak potężna i zaawansowana będzie. Wynika to z idei niemożności istnienia Humanoidalnej Inteligencji.
2 Kilka uwag na temat przypuszczeń
Nie użyliśmy terminu twierdzenie o niemożliwości, a powody tego powinny być oczywiste z przedstawionych przez nas argumentów. W szczególności nie używamy i być może nie możemy używać w tym celu notacji formalnej. Nawet termin „przypuszczenia” jest używany w sensie nieformalnym. Użycie terminów jest tu bliższe językowi prawnemu niż matematycznemu, bo to najlepsze, co można tutaj zrobić. Może to być jaśniejsze na podstawie argumentów Definicja i Historia. Z podobnego rozumowania nie używa się terminu „niekompletność”, a zamiast tego używa się niemożliwości, co jest bardziej odpowiednie dla naszych celów, chociaż termin Godela „zasadniczo niekompletny” jest tym, za czym nieformalnie argumentujemy w odniesieniu do humanoidalnej sztucznej inteligencji i być może sztuczna inteligencja w ogóle. Nie ma żadnych zastrzeżeń co do tego, czy formalny dowód będzie w ogóle możliwy w przyszłości. To, co przedstawiamy, jest nieformalnym dowodem. Dowód ten musi skupiać się wokół rozróżnienia pomiędzy Micro-AI (AI na poziomie inteligentnej autonomicznej jednostki) a Makro-AI (bardzo dużymi inteligentnymi systemami autonomicznymi, potencjalnie obejmującymi całą ludzkość lub świat). O ile nam wiadomo, takiego rozróżnienia nie zaproponowano wcześniej. Choć poczyniono pewne prace w tym kierunku [Brooks, 1998, Signorelli, 2018, Yampolskiy, 2020], z powodu braku miejsca nie jesteśmy w stanie wyjaśnić, czym ta praca różni się od poprzednich, z wyjątkiem zauważenia, że argumentacja i niektóre terminów jest nowatorskie, trochę jak w przypadku argumentów za lub przeciw istnieniu Boga, nad którą kwestią debatują najlepsi filozofowie od tysiącleci, co, jak zobaczymy na końcu, ma znaczenie dla nasza dyskusja.
3 Argumenty na rzecz hipotezy o niemożliwości mikro-AI
Argument dotyczący definicji): Nawet arytmetyka Peano [Nagel i in., 2001] opiera się na trzech niezdefiniowanych terminach (zero, liczba i jest następcą ), które są stosunkowo trywialnymi terminami w porównaniu z niezliczonymi terminami wymaganymi w przypadku sztucznej inteligencji (podstawowe terminy, takie jak inteligencja i człowiek, lub terminy takie jak kategorie emocji, zostawmy terminy takie jak świadomość).
Argument kategorii: Duża część sztucznej inteligencji polega na klasyfikowaniu rzeczy na kategorie, ale większość z tych kategorii (np. złość, wstręt, dobro lub zło) nie ma naukowo określonych granic. Wiąże się to z następującym argumentem.
Argument fabularny: Obecnie jest już prawie ustalone, że wiele podstawowych pojęć naszej cywilizacji to wygodne fikcje lub opowieści [Harari, 2015], które często tworzą kategorie i są używane w definicjach.
Argument dotyczący koncepcji kulturowej: Wiele terminów, koncepcji i historii to konstrukty kulturowe. Mają długą historię, w większości nieznaną, bez której nie można ich modelować.
Indywidualność, czyli argument natury: Indywidualna inteligentna autonomiczna jednostka musi być wyjątkowa i różna od wszystkich innych tego typu bytów. Pochodzi z natury i nie mamy pojęcia, w jaki sposób może powstać w maszynach. Nie jesteśmy nawet pewni, czym dokładnie jest ta indywidualność. Jednak przez całą historię przypisywaliśmy pewien stopień odpowiedzialności jednostce ludzkiej i mamy rygorystyczne przepisy dotyczące karania jednostek na tej podstawie, co wskazuje, że wierzymy w koncepcję „ja” lub „jednostki autonomicznej”, nawet jeśli kiedy zaprzeczamy jego istnieniu, co staje się dziś popularne.
Argument determinizmu genetycznego: Indywidualność nie jest całkowicie zdeterminowana przez naturę (np. przez nasze geny) w momencie narodzin czy stworzenia raz na zawsze. Również rozwija się i zmienia w sposób ciągły wchodząc w interakcję z otoczeniem, zachowując swoją wyjątkowość.
Argument dotyczący systemu samoorganizującego się: Istoty ludzkie i społeczeństwa ludzkie najprawdopodobniej są samoorganizującymi się [Shiva i Shiva, 2020] i systemami organicznymi lub są złożonymi systemami nierównowagowymi [Nicolis i Prigogine, 1977]. Jeśli tak, jest mało prawdopodobne, aby można je było modelować pod kątem dokładnej replikacji lub reprodukcji. Środowisko, czyli argument wychowania: Zarówno inteligencja, jak i indywidualność zależą od środowiska (lub natury). Dlatego nie da się ich modelować bez całkowitego zamodelowania środowiska, czyli przejścia na Makro-AI. Argument pamięci lub osobowości: Zarówno inteligencja, jak i indywidualność są aspektami osobowości, o których wiadomo, że zależą od pełnej pamięci życiowej (świadomej i nieświadomej) inteligentnej istoty. Nie ma wystarczających dowodów na to, że możliwe jest odzyskanie lub modelowanie całej czasowej i środowiskowej historii pamięci. Duża część naszej pamięci, a co za tym idzie nasza indywidualność i osobowość, jest integralnie połączona ze wspomnieniami cielesnymi.
Argument podstawowy: Często przyjmuje się za oczywistość, że inteligencję można oddzielić od podłoża i umieścić na innym podłożu. Może to być błędne założenie. Być może nasza inteligencja jest integralnie powiązana z podłożem i nie da się oddzielić ciała od umysłu, zgodnie z poprzednią argumentacją.
Argument przyczynowości: Postęp w modelowaniu przyczynowości jest niewielki. Ostatecznie przyczyną zdarzenia lub zdarzenia nie jest jedna, ale wiele, a może nawet cała historia wszechświata.
Argument świadomości: Podobnie nie ma wystarczająco dobrej teorii świadomości, nawet dla ludzkiego zrozumienia. Jest bardzo mało prawdopodobne, abyśmy mogli całkowicie modelować ludzką świadomość, ani nie ma dobrego powodu, aby sądzić, że może ona wyłonić się spontanicznie w odpowiednich warunkach (jakich warunkach?).
Argument o niekompletności/degeneracji źródła uczenia się i reprezentacji: Bez względu na to, ile danych lub wiedzy posiadamy, zawsze będą one niekompletne i zdegenerowane, co uniemożliwi całkowite modelowanie inteligencji.
Argument wyjaśnialności: Głębokie sieci neuronowe, będące najnowocześniejszym rozwiązaniem w dziedzinie sztucznej inteligencji, mają poważne problemy z wytłumaczalnością nawet w przypadku konkretnych, izolowanych problemów. Bez tego nie możemy być pewni, czy nasze modele rozwijają się w dobrym kierunku.
Argument niekompletności testu: Doskonałe miary wydajności nie są dostępne nawet w przypadku problemów takich jak tłumaczenie maszynowe. Nie mamy pojęcia, jaka będzie ogólna miara inteligencji humanoidalnej. Zawsze może być niekompletna i niedoskonała, co prowadzi do niepewności co do inteligencji.
Argument pasożytniczej maszyny: Uczenie się maszyn jest całkowicie zależne od ludzi oraz od danych i wiedzy dostarczanych przez ludzi. Jednak ludzie wyrażają lub manifestują jedynie niewielką część swoich inteligentnych zdolności. Zatem maszyny nie mogą w pełni uczyć się od ludzi, jeśli nie są tak inteligentne jak ludzie.
Argument językowy: Inteligencja ludzka (oidowa) i jej modelowanie zależą zasadniczo od ludzkiego języka (języków). Nie ma powszechnie akceptowanej teorii na temat działania języka.
Argument dotyczący interpretacji percepcji: Uczenie się wymaga percepcji, a percepcja zależy od interpretacji (i odwrotnie), co jest problemem prawie tak samo trudnym, jak samo modelowanie inteligencji.
Argument replikacji: Stoimy w obliczu naukowego kryzysu replikacji nawet w przypadku izolowanych problemów. Jak możemy być pewni replikacji inteligencji humanoidalnej, zachowując indywidualną wyjątkowość?
Argument dotyczący asymetrii międzyludzkiej: W społeczeństwie ludzkim panuje powszechna nierówność nie tylko pod względem pieniędzy i bogactwa, ale także pod względem wiedzy i płynących z niej korzyści. To nie tylko odbije się na modelowaniu, ale sprawi, że modelowanie stanie się trudniejsze.
Argument dotyczący reprezentacji różnorodności: Inteligencja humanoidalna, która naprawdę działa, będzie musiała modelować całą różnorodność ludzkiej egzystencji we wszystkich jej aspektach, z których większość nie jest nawet znana ani udokumentowana. Będzie musiała przynajmniej zachować tę różnorodność, a to trudne zadanie.
Argument kolonializmu danych: Dane to nowa ropa. Ci, którzy mają większą władzę, pieniądze i wpływy (Materialistyczna Święta Trójca), mogą wydobywać więcej danych od innych, bez dzielenia się własnymi danymi. Jest to klasyczna sytuacja kolonialna, która będzie utrudniać rozwój Humanoidalnej Inteligencji.
Argument etyczno-polityczny: Biorąc pod uwagę niektóre z powyższych argumentów i wiele innych, takich jak stronniczość danych, możliwość wykorzystania broni itp., istnieje wiele powodów etycznych i politycznych, które należy wziąć pod uwagę podczas rozwijania inteligencji humanoidalnej. Nie jesteśmy pewni, czy uda się w pełni rozwiązać wszystkie te problemy.
Argument dotyczący recepty: Obecnie uznaje się, że „inteligentna” technologia stosowana na dużą skalę nie tylko monitoruje zachowania, ale je zmienia [Zuboff, 2018]. Oznacza to, że zmieniamy to, co staramy się modelować, ustanawiając w ten sposób nowe, mechaniczne zasady określające, co to znaczy być człowiekiem.
Argument dotyczący spełnienia życzeń (lub samospełniającej się przepowiedni): W wyniku preskryptywizacji samego życia przez niedoskonałe i niewystarczająco inteligentne maszyny, problem modelowania Humanoidalnej Inteligencji staje się samospełniającą się przepowiednią, w której ostatecznie modelujemy nie życie ludzkie, ale jakąś zepsutą i uproszczoną formę życia, którą powołaliśmy do życia „inteligentne” maszyny.
Argument interwencji człowieka: Nie ma powodu wierzyć, że inteligencja humanoidalna rozwinie się swobodnie i nie będzie pod wpływem interwencji człowieka, co prawdopodobnie będzie sprzyjać partykularnym interesom. To sparaliżuje rozwój prawdziwej inteligencji humanoidalnej. Interwencja ta może przybrać formę tajemnicy, wpływu finansowego (takiego jak finansowanie badań) oraz przymusu prawnego lub strukturalnego.
Argument Deepfake'a: Chociaż nie mamy jeszcze naprawdę inteligentnych maszyn, jesteśmy w stanie generować dane za pomocą deepfakes, których ludzie nie rozpoznają jako podróbki. Te fałszywe dane będą się rozprzestrzeniać i staną się częścią danych, z których maszyny się uczą, skutecznie modelując nie ludzkie życie, ale coś innego.
Argument reakcji łańcuchowej (lub argument dotyczący prawa wykładniczego wzrostu): W miarę jak maszyny stają się coraz bardziej „inteligentne”, wpływają na coraz większy wpływ na życie i zmieniają je, nawet zanim osiągną prawdziwą inteligencję. Szybkość tej zmiany wzrośnie wykładniczo i spowoduje reakcję łańcuchową, prowadzącą do nieprzewidywalnych konsekwencji, koniecznie wpływających na modelowanie Inteligencji Humanoidalnej.
4 Implikacje niemożliwości
Z powyższych argumentów wynika, że Singularity na poziomie Micro-AI jest niemożliwe. Próbując to osiągnąć i odpowiedzieć na powyższe argumenty, jedynym możliwym rezultatem jest pewnego rodzaju pojedynczość na poziomie makro-AI. Taka Osobliwość nie doprowadzi do powielenia ludzkiej inteligencji ani jej ulepszenia, ale do czegoś zupełnie innego. Najprawdopodobniej doprowadzi to do wyginięcia (a przynajmniej podporządkowania, służalczości) ludzkiej inteligencji. Aby osiągnąć po prostu inteligencję humanoidalną (mikro-AI), nawet jeśli nic więcej, wymagany system sztucznej inteligencji będzie musiał przypominać powszechne pojęcie Jedynego Najwyższego Boga. Osobliwość na poziomie makro faktycznie uczyni system AI lub ktokolwiek go kontroluje, indywidualny lub (najprawdopodobniej mały) zbiorowy, Jedynym Najwyższym Bogiem dla wszystkich praktycznych celów, jeśli chodzi o istoty ludzkie. Ale to nie będzie Bóg Wszechpotężny ani Bóg Łaskawy, gdyż będzie Najwyższy w ograniczonym zakresie ludzkości i tego, na co ludzkość może mieć wpływ, i będzie miły tylko dla siebie, a może nawet nie . Może to być analogiczne do Boga z opowiadania Philipa K. Dicka „Wiara naszych ojców” [Dick i Lethem, 2013] lub do Wielkiego Brata z „Roku 1984” Orwella [Orwell, 1950]. Oczywiście nie możemy być pewni wyniku, ale są to wyniki równie prawdopodobne, jak inne. Jest to wystarczający powód, aby zachować szczególną ostrożność w przypadku rozwoju inteligencji humanoidalnej i wszelkich jej odmian.
Referencje
Philip K. Dick, Paul Williams i Mark. Gaj. Mam nadzieję, że wkrótce przybędę / Philip K. Dick; pod redakcją Marka Hursta i Paula Williamsa. Doubleday Nowy Jork, wydanie pierwsze. wydanie, 1. ISBN 1985.
Alfreda Northa Whiteheada i Bertranda Russella. Principia Mathematica. Cambridge University Press, 1925–1927.
Barnaby'ego Shepparda. Twierdzenia Gödla o niezupełności, strony 419–428. Cambridge University Press, 2014. doi: 10.1017/CBO9781107415614.016.
E. Nagel, J.R. Newman i DR. Hofstadtera. Dowód Gödla. NYU Press, 2001. ISBN 9780814758014. URL https://books.google.co.in/books?id=G29G3W_hNQkC.
Johna E. Hopcrofta, Rajeeva Motwaniego i Jeffreya D. Ullmana. Wprowadzenie do teorii automatów, języków i obliczeń (wydanie 3). Addison-Wesley Longman Publishing Co., Inc., USA, 2006. ISBN 0321455363.
B. Jack Copeland i Oron Shagrir. Teza o naprowadzaniu kościoła: granica logiczna czy bariera nie do przekroczenia? komuna. ACM, 62(1):66–74, grudzień 2018 r. ISSN 0001-0782. doi: 10.1145/3198448. Adres URL https://doi.org/10.1145/3198448.
Raya Kurzweila. Osobliwość jest blisko: kiedy ludzie przekraczają biologię. Pingwin (nieklasyka), 2006. ISBN 0143037889.
Rodneya Brooksa. Perspektywy inteligencji na poziomie ludzkim dla robotów humanoidalnych. 07. Camilo Miguel Signorelli. Czy komputery mogą stać się świadome i pokonać ludzi? Frontiers in Robotics and AI, 1998:5, 121. doi: 2018/frobt.10.3389. Adres URL https://www.frontiersin. org/article/10.3389/frobt.2018.00121.
Roman W. Jampolskiy. Nieprzewidywalność AI: O niemożności dokładnego przewidzenia wszystkich działań mądrzejszego agenta. Journal of Artificial Intelligence and Consciousness, 07(01):109–118, 2020. doi: 10.1142/S2705078520500034.
Y.N. Harariego. Sapiens: krótka historia ludzkości. Harper, 2015. ISBN 9780062316103. URL https://books.google.co.in/books?id=FmyBAwAAQBAJ.
W. Śiwa i K. Śiwa. Jedność kontra. 1 procent: niszczenie iluzji, siew wolności. CHELSEA GREEN PUB, 2020. ISBN 9781645020394. URL https://books.google.co.in/books?
id=4TmTzQEACAAJ.
G. Nicolis i I. Prigogine. Samoorganizacja w układach nierównowagowych: od struktur rozpraszających do porządku poprzez fluktuacje. Publikacja Wiley-Interscience. Wiley, 1977. ISBN 9780471024019. URL https://books.google.co.in/books?id=mZkQAQAAIAAJ.
Shoshana Zuboff. Wiek kapitalizmu nadzoru: walka o przyszłość człowieka na nowej granicy władzy. Wydanie 1, 2018. ISBN 1610395697.
P.K. Dicka i J. Lethema. Wybrane historie Philipa K. Dicka. Houghton Mifflin Harcourt, 2013. ISBN 9780544040540. URL https://books.google.co.in/books?id=V1z9rzfTb2EC.
George'a Orwella. 1984. Biblioteka Tandemowa, stulecie. wydanie, 1950. ISBN 0881030368. Adres URL http://www.amazon.de/1984-Signet-Classics-George-Orwell/dp/0881030368.
***
Pierwotnie opublikowane w anileklawya.net w dniu 7 listopada 2020 r.
ZNetwork jest finansowany wyłącznie dzięki hojności swoich czytelników.
Darowizna
2 Komentarze
Cóż, to prowadzi do pierwszego argumentu.
Staram się ulepszyć artykuł. Mimo to dziękuję za zwrócenie uwagi, dzięki czemu mogę rozwinąć tę kwestię.
„3. Inteligencja: Wszystko, do czego zdolna jest cała różnorodność istot ludzkich, zarówno indywidualnie, jak i zbiorowo, a także synchronicznie i diachronicznie. Obejmuje to nie tylko zachowanie czy rozwiązywanie problemów, ale całe życie zgodnie z definicją.
Definicja ta wydaje mi się zbyt niejasna. Bardzo trudno będzie powiedzieć wiele na temat sztucznej inteligencji, jeśli nie będziemy wiedzieć, co rozumiemy przez część „ja”.