абстрактен
[Груба чернова на незавършена работа.]
Идеята за машини, които са почти идентични с човешките същества, е била толкова съблазнителна, че е пленявала въображението на най-добрите умове, както и на непрофесионалисти от поне век и половина, а може би и повече. Веднага след появата на изкуствения интелект (ИИ) беше почти прието за даденост, че достатъчно скоро ще можем да създаваме хуманоидни роботи. Това също доведе до някои сериозни спекулации относно „трансхуманизма“. Засега не изглежда да сме близо до тази цел. Може би сега е време да се запитаме дали изобщо е възможно. Ние представяме набор от аргументи в смисъл, че е невъзможно да се създадат или изградят хуманоидни роботи или хуманоиден интелект, където споменатият интелект може да замести човешки същества във всяка ситуация, в която човешки същества са необходими или съществуват.
1. Хуманоиден интелект, сингулярността и трансхуманизма
Преди да продължим да обсъждаме термините от заглавието на този раздел и аргументите в следващите раздели, първо дефинираме основополагащите термини до известна степен на сбитост и точност:
1. Човешки живот: Всичко и всичко, на което пълното разнообразие от човешки същества е способно, както индивидуално, така и колективно. Това включва не само поведение или решаване на проблеми, но цялата гама от способности, емоции, желания, действия, мисли, съзнание, съвест, емпатия, творчество и така нататък в рамките на индивида, както и цялата гама от асоциации и взаимоотношения, и социални, политически и екологични структури, занаяти, изкуство и т.н., които могат да съществуват в човешкото общество или общества. Това е вярно не само във всеки един момент, но и през целия живот на планетата. Може би трябва да включва дори духовни преживявания и „откровения“ или „заблуди“, като тези, загатнати в историята на Филип К. Дик, Свещената кавга [Dick et al., 1985].
2. Хуманоид: Живо и възпроизвеждащо се същество, което е почти идентично с хората, с човешко тяло или без него, върху различен субстрат (вътре в компютър).
3. Интелигентност: Всичко и всичко, на което пълното разнообразие от човешки същества е способно, както индивидуално, така и колективно, както и както синхронно, така и диахронно. Това включва не само поведение или решаване на проблеми, но целият живот, както е дефиниран.
4. Сингулярността: Технологичната точка, в която е възможно да се създаде (или да има) интелект, който е хуманоиден или по-добър от хуманоидния.
5. Трансхуманизъм: Идеята, че след сингулярността можем да имаме общество, което е много по-напреднало, за по-добро, от сегашните и миналите човешки общества. От 1910 до 1927 г., в трите тома на Principia Mathematica [1925–1927], Уайтхед и Ръсел се стремят да докажат, че математиката в известен смисъл се свежда до логика. Това се оказва невъзможно, когато Godel публикува своите теореми за непълнота през 1931 г. [Sheppard, 2014, Nagel et al., 2001]. По време на зараждането на съвременната компютърна наука, преди и в началото на 1930-те години на миналия век, би било лесно да се предположи, че една изчислителна машина в крайна сметка ще реши всеки проблем. Това също се оказа невъзможно с теоремата за нерешимост на Тюринг [Hopcroft et al., 2006] и тезата на Чърч-Тюринг за изчислимост [Copeland and Shagrir, 2018]. Оттогава е доказано, че други видове проблеми са неразрешими.
Сега, когато се предполага, че е достатъчно близо до Сингулярността [Kurzweil, 2006], така че да може да се случи в рамките на живота на голям брой човешки същества, може би е време да се запитаме дали истинският интелект, по-специално хуманоидният интелект (като дефинирано по-горе) е възможно изобщо. Предполагаме, че има достатъчно аргументи за „доказване“ (в неформален смисъл), че е невъзможно да се изгради, създаде или да има хуманоиден интелект. Ние твърдим, че въпреки че Сингулярността е наистина възможна, може би дори много вероятна (освен ако не я спрем), тя може да не е това, което се предполага, че е. Предположението, представено тук, е, че Сингулярността няма вероятност да бъде дори доброкачествена, колкото и мощна или напреднала да е. Това следва от идеята за невъзможността на Хуманоидния интелект.
2 Някои бележки относно хипотезата
Не сме използвали термина теорема за Невъзможността и причините за това трябва да са очевидни от аргументите, които представяме. По-специално, ние не използваме и може би не можем да използваме формална нотация за тази цел. Дори терминът предположение се използва в неформален смисъл. Използването на термини тук е по-близо до юридическия език, отколкото до математическия език, защото това е най-доброто, което може да се направи тук. Това може да стане по-ясно от аргументите на Дефиницията и Историята. Поради подобно разсъждение терминът „непълнота“ не се използва, а вместо това се използва невъзможност, което е по-подходящо за целите ни тук, въпреки че терминът „по същество непълен“ на Годел е това, за което неофициално спорим за хуманоидния ИИ , и може би AI като цяло. Не се прави твърдение за това дали официално доказателство е възможно или не в бъдеще. Това, което представяме, е неофициално доказателство. Това доказателство трябва да бъде съсредоточено около разграничението между Micro-AI (AI на ниво интелигентна автономна индивидуална единица) и Macro-AI (много големи интелигентни автономни системи, вероятно обхващащи цялото човечество или света). Доколкото ни е известно, подобно разграничение не е предлагано преди. Въпреки че има известна работа в тази насока [Brooks, 1998, Signorelli, 2018, Yampolskiy, 2020], поради липса на място, ние не можем да обясним как тази работа се различава от предишни такива работи, освен като отбележим, че аргументацията и някои от термините са нови, малко като в случая с аргументи за или против съществуването на Бог, който въпрос е обсъждан от най-добрите философи отново и отново в продължение на хилядолетия, което, както ще видим в края, е от значение за нашата дискусия.
3 Аргументите за хипотезата за невъзможност за Micro-AI
Аргументът на дефиницията): Дори аритметиката на Peano [Nagel et al., 2001] се основава на три недефинирани термина (нула, число и е наследник на), които са относително тривиални термини в сравнение с безбройните термини, необходими за AI (основните термини като интелект и човек, или термини като категориите емоции, оставете на мира термини като съзнание).
Аргументът на категорията: Голяма част от AI е свързана с класифицирането на нещата в категории, но повечето от тези категории (напр. гняв, отвращение, добро или лошо) нямат научно определени граници. Това е свързано със следния аргумент.
Аргументът на историята: Вече е почти установено, че много от основните концепции на нашата цивилизация са удобни измислици или истории [Harari, 2015] и те често образуват категории и се използват в дефиниции.
Аргументът на културната концепция: Много от термините, концепциите и историите са културни конструкции. Те имат дълга история, повечето от които са неизвестни, без които не могат да бъдат моделирани.
Индивидуалността или аргументът на природата: Индивидуална интелигентна автономна единица трябва да бъде уникална и различна от всички други подобни единици. Произхожда от природата и ние нямаме представа как може да произхожда от машини. Дори не сме сигурни каква точно е тази индивидуалност. Въпреки това, през цялата история ние сме приписвали известна степен на отговорност на човешкия индивид и имаме строги разпоредби за наказване на индивиди въз основа на това, което показва, че вярваме в концепцията за „себето“ или „автономния индивид“, дори когато отричаме съществуването му, както става популярно днес.
Аргументът на генетичния детерминизъм: Индивидуалността не е напълно определена от природата (напр. от нашите гени) при раждането или създаването веднъж завинаги. Освен това се развива и променя непрекъснато, докато взаимодейства с околната среда, запазвайки своята уникалност.
Аргументът на самоорганизиращата се система: Човешките същества и човешките общества най-вероятно са самоорганизиращи се [Шива и Шива, 2020] и органични системи или са сложни, неравновесни системи [Николис и Пригожин, 1977]. Ако е така, е малко вероятно те да бъдат моделирани за точно копиране или възпроизвеждане. Околната среда или аргументът за възпитанието: И интелигентността, и индивидуалността зависят от околната среда (или от природата). Следователно, те не могат да бъдат моделирани без напълно моделиране на околната среда, т.е. да се премине към Macro-AI. Паметта или аргументът на личността: И интелигентността, и индивидуалността са аспекти на личността, за които е известно, че зависят от пълната жизнена памет (съзнателна и несъзнателна) на интелигентно същество. Няма достатъчно доказателства, че е възможно да се възстанови или моделира тази пълна времева и екологична история на паметта. Голяма част от нашата памет и следователно нашата индивидуалност и личност е неразривно свързана с нашите телесни спомени.
Аргументът Susbstrsate: Често се приема за даденост, че интелигентността може да бъде отделена от субстрата и засадена върху различен субстрат. Това може да е грешно предположение. Може би нашата интелигентност е неразделно свързана със субстрата и не е възможно да отделим тялото от ума, следвайки предишния аргумент.
Аргументът за причинно-следствената връзка: Има малък напредък в моделирането на причинно-следствената връзка. В крайна сметка причината за едно събитие или събитие не е една, а много, може би дори цялата история на Вселената.
Аргументът на съзнанието: По същия начин няма достатъчно добра теория за съзнанието дори за човешкото разбиране. Много е малко вероятно да можем напълно да моделираме човешкото съзнание, нито пък има основателна причина да вярваме, че то може да се появи спонтанно при правилните условия (кои условия?).
Аргументът за непълнотата/дегенерацията на източника на обучение и представянето: Без значение колко данни или знания имаме, те винаги ще бъдат както непълни, така и изродени, което прави невъзможно пълното моделиране на интелигентността.
Аргументът за обяснимост: Дълбоките невронни мрежи, които са най-съвременните за AI, имат сериозни проблеми с обяснимостта дори за конкретни изолирани проблеми. Без него не можем да сме сигурни дали нашите модели се развиват в правилната посока.
Аргументът за непълнота на теста: Перфектните мерки за ефективност не са налични дори за проблеми като машинен превод. Нямаме представа каква ще бъде общата мярка за хуманоидния интелект. То може винаги да е непълно и несъвършено, което води до несигурност относно интелекта.
Аргументът на паразитната машина: Машините напълно зависят за учене от хората и от данните и знанията, предоставени от хората. Но хората изразяват или проявяват само малка част от своите интелигентни способности. Така че машините не могат напълно да се учат от хората, без първо да са интелигентни като хората.
Езиковият аргумент: Човешкият (оиден) интелект и неговото моделиране зависят основно от човешкия език (езици). Няма общоприета теория за това как работи езикът.
Аргументът за тълкуване на възприятието: Ученето изисква възприятие, а възприятието зависи от интерпретацията (и обратното), което е почти толкова труден проблем, колкото самото моделиране на интелигентността.
Аргументът за репликация: Изправени сме пред научна криза на репликация дори за изолирани проблеми. Как бихме могли да сме сигурни в репликацията на хуманоидния интелект, запазвайки индивидуалната уникалност?
Аргументът за епитемична асиметрия човек-човек: В човешкото общество има широко разпространено неравенство не само по отношение на парите и богатството, но и по отношение на знанието и ползите от него. Това не само ще се отрази на моделирането, но ще направи моделирането по-трудно.
Аргументът за представяне на разнообразието: Хуманоидният интелект, който наистина работи, ще трябва да моделира пълното разнообразие на човешкото съществуване във всички негови аспекти, повечето от които дори не са известни или документирани. Ще трябва поне да запази това разнообразие, което е трудна задача.
Аргументът за колониализма на данните: Данните са новото масло. Тези с повече власт, пари и влияние (Материалистичната Света Троица) могат да копаят повече данни от други, без да споделят собствените си данни. Това е класическа колониална ситуация и ще попречи на развитието на хуманоидния интелект.
Етично-политическият аргумент: Като се имат предвид някои от аргументите по-горе и много други, като пристрастност на данните, потенциал за въоръжение и т.н., има много етични и политически причини, които трябва да бъдат взети под внимание при разработването на хуманоиден интелект. Не сме сигурни дали всички те могат да бъдат напълно разгледани.
Аргументът за предписание: Вече се признава, че „интелигентната“ технология, прилагана в голям мащаб, не само наблюдава поведението, но го променя [Zuboff, 2018]. Това означава, че променяме самото нещо, което се опитваме да моделираме, и по този начин определяме нови механични правила за това какво означава да си човек.
Аргументът за изпълнението на желанията (или самоизпълняващото се пророчество): Поради предписването на самия живот от несъвършени и неадекватно интелигентни машини, проблемът с моделирането на хуманоидния интелект се превръща в самоизпълняващо се пророчество, където в крайна сметка моделираме не човешки живот, а някаква повредена и опростена форма на живот, която сме създали с "интелигентни" машини.
Аргументът за човешка намеса: Няма причина да вярваме, че хуманоидният интелект ще се развива свободно сам по себе си и няма да бъде повлиян от човешка намеса, което е много вероятно да допринесе за допълнителни интереси. Това ще осакати развитието на истинския хуманоиден интелект. Тази намеса може да приеме формата на секретност, финансово влияние (като финансиране на изследвания) и правна или структурна принуда.
Аргументът на Deepfake: Въпреки че все още нямаме наистина интелигентни машини, ние сме в състояние да генерираме данни чрез дълбоки фалшификати, които не се разпознават като фалшификати от хората. Тези дълбоко фалшиви данни ще се разпространяват и ще станат част от данните, от които машините се учат, ефективно моделирайки не човешки живот, а нещо друго.
Аргументът на верижната реакция (или аргументът на закона за експоненциалния растеж): Тъй като машините стават по-„интелигентни“, те влияят на все повече и повече от живота и го променят, дори преди да постигнат истински интелект. Скоростта на тази промяна ще се увеличи експоненциално и ще предизвика верижна реакция, водеща до непредвидими последици, непременно засягащи моделирането на хуманоидния интелект.
4 Последиците от невъзможността
От горните аргументи следва, че Сингулярността на ниво Micro-AI е невъзможна. В опит да се постигне това и да се отговори на горните аргументи, единственият възможен резултат е някакъв вид Singularly на ниво Macro-AI. Такава Сингулярност няма да доведе до възпроизвеждане на човешкия интелект или неговото подобряване, а до нещо напълно различно. Най-вероятно ще доведе до изчезване (или най-малкото подчинение, робство) на човешкия интелект. За да се постигне само хуманоиден интелект (човешки индивидуален микро-AI), дори и нищо повече, необходимата AI система ще трябва да бъде нищо друго освен общото понятие за Единен Върховен Бог. Сингулярността на макро ниво всъщност ще направи ИИ системата или който и да я контролира, индивид или (най-вероятно малък) колектив, Единен Върховен Бог за всички практически цели, що се отнася до човешките същества. Но това няма да бъде Всемогъщ Бог, нито мил Бог, защото той ще бъде Върховен в рамките на ограничения обхват на човечеството и това, върху което човечеството може да има ефект, и ще бъде мил само към себе си или може би дори не това . Може да е аналогичен на Бога в историята на Филип К. Дик Вярата на нашите бащи [Дик и Летем, 2013] или на Големия брат от 1984 г. на Оруел [Оруел, 1950]. Не можем да сме сигурни в резултата, разбира се, но тези резултати са толкова вероятни, колкото и всички останали. Това е достатъчна причина да сме много предпазливи към развитието на хуманоидния интелект и всеки негов вариант.
Препратки
Филип К. Дик, Пол Уилямс и Марк. Хърст. Надявам се скоро да пристигна / Филип К. Дик ; редактиран от Марк Хърст и Пол Уилямс. Doubleday New York, 1-во изд. издание, 1985 г. ISBN 0385195672.
Алфред Норт Уайтхед и Бертран Ръсел. Принципи на математиката. Cambridge University Press, 1925–1927.
Барнаби Шепърд. Теореми за непълнотата на Гьодел, стр. 419–428. Cambridge University Press, 2014. doi: 10.1017/CBO9781107415614.016.
E. Nagel, JR Newman и DR Hofstadter. Доказателството на Гьодел. NYU Press, 2001. ISBN 9780814758014. URL https://books.google.co.in/books?id=G29G3W_hNQkC.
Джон Е. Хопкрофт, Раджив Мотвани и Джефри Д. Улман. Въведение в теорията на автоматите, езиците и изчисленията (3-то издание). Addison-Wesley Longman Publishing Co., Inc., САЩ, 2006 г. ISBN 0321455363.
Б. Джак Копланд и Орон Шагрир. Тезата на Чърч-Тюринг: Логическа граница или преодолима бариера? Общ. ACM, 62 (1): 66–74, декември 2018 г. ISSN 0001-0782. doi: 10.1145/3198448. URL адрес https://doi.org/10.1145/3198448.
Рей Кърцвейл. Сингулярността е близо: Когато хората надхвърлят биологията. Пингвин (некласика), 2006 г. ISBN 0143037889.
Родни Брукс. Перспективи за интелект на човешко ниво за хуманоидни роботи. 07 1998. Камило Мигел Синьорели. Могат ли компютрите да станат съзнателни и да победят хората? Граници в роботиката и AI, 5:121, 2018. doi: 10.3389/frobt.2018.00121. URL адрес https://www.frontiersin. org/article/10.3389/frobt.2018.00121.
Роман В. Ямполски. Непредсказуемост на AI: За невъзможността точно да се предвидят всички действия на по-умен агент. Вестник за изкуствен интелект и съзнание, 07(01):109–118, 2020 г. doi: 10.1142/S2705078520500034.
YN Харари. Sapiens: Кратка история на човечеството. Харпър, 2015 г. ISBN 9780062316103. URL https://books.google.co.in/books?id=FmyBAwAAQBAJ.
В. Шива и К. Шива. Единство Vs. 1 процент: Разбиване на илюзии, посяване на свобода. CHELSEA GREEN PUB, 2020 г. ISBN 9781645020394. URL https://books.google.co.in/books?
id=4TmTzQEACAAJ.
Г. Николис и И. Пригожин. Самоорганизация в неравновесни системи: от дисипативни структури до ред чрез флуктуации. Публикация на Wiley-Interscience. Wiley, 1977. ISBN 9780471024019. URL https://books.google.co.in/books?id=mZkQAQAAIAAJ.
Шошана Зубов. Епохата на капитализма за наблюдение: Борбата за човешко бъдеще на новата граница на властта. 1-во издание, 2018 г. ISBN 1610395697.
PK Dick и J. Lethem. Избрани разкази на Филип К. Дик. Houghton Mifflin Harcourt, 2013 г. ISBN 9780544040540. URL https://books.google.co.in/books?id=V1z9rzfTb2EC.
Джордж Оруел. 1984 г. Библиотека Тандем, стогодишнина. издание, 1950 г. ISBN 0881030368. URL http://www.amazon.de/1984-Signet-Classics-George-Orwell/dp/0881030368.
***
Първоначално публикувано в anileklavya.net на 7 ноември 2020 г.
ZNetwork се финансира единствено чрез щедростта на своите читатели.
ДАРЕТЕ
2 Коментари
Е, това води до първия аргумент.
Опитвам се да подобря статията. И все пак, благодаря за вниманието, за да мога да разясня това.
'3. Интелигентност: Всичко и всичко, на което са способни пълното разнообразие от човешки същества, както индивидуално, така и колективно, както и синхронно и диахронно. Това включва не само поведение или решаване на проблеми, но целият живот, както е дефиниран.
Това определение ми се струва твърде неясно. Ще бъде много трудно да се каже много за ИИ, ако не знаем какво имаме предвид под частта „Аз“.