Хорхе Луїс Борхес одного разу написав, що жити в час великої небезпеки й багатообіцянь — це пережити і трагедію, і комедію, з «неминучістю одкровення» в розумінні себе та світу. Сьогодні наші нібито революційні досягнення в галузі штучного інтелекту справді викликають занепокоєння та оптимізм. Оптимізм, тому що інтелект — це засіб, за допомогою якого ми вирішуємо проблеми. Занепокоєння, тому що ми боїмося, що найпопулярніший і модний вид штучного інтелекту — машинне навчання — принизить нашу науку та принизить нашу етику, включивши в нашу технологію фундаментально помилкову концепцію мови та знань.
ChatGPT від OpenAI, Bard від Google і Sydney від Microsoft – дива машинного навчання. Грубо кажучи, вони беруть величезні обсяги даних, шукають у них закономірності та стають все більш досвідченими у створенні статистично вірогідних результатів, таких як, здавалося б, людська мова та мислення. Ці програми вітали як перші проблиски на горизонті штучного загальний інтелект — той давно пророчений момент, коли механічний розум перевершить людський мозок не лише кількісно з точки зору швидкості обробки та обсягу пам’яті, але й якісно з точки зору інтелектуального проникнення, художньої творчості та будь-якої іншої характерної людської здатності.
Цей день може настати, але світанок його ще не зійде, всупереч тому, що можна прочитати в гіперболічних заголовках і зарахувати до нерозумних інвестицій. Борхесіанське відкриття розуміння не було і не буде — і, як ми стверджуємо, не може — трапляються, якщо програми машинного навчання, такі як ChatGPT, продовжуватимуть домінувати у сфері штучного інтелекту. Незважаючи на те, що ці програми можуть бути корисними в деяких вузьких сферах (вони можуть бути корисними, наприклад, у комп’ютерному програмуванні або підказувати рими для легких віршів), ми знаємо з науки про лінгвістику та філософії знання, що вони кардинально відрізняються від того, як люди міркують і використовують мову. Ці відмінності накладають суттєві обмеження на можливості цих програм, кодуючи їх невикорінними дефектами.
Це комічно і трагічно, як міг зауважити Борхес, що стільки грошей і уваги зосереджено на такій маленькій речі — на чомусь такому тривіальному, якщо порівняти його з людським розумом, який через мову, за словами Вільгельма, фон Гумбольдта, може «нескінченно використовувати обмежені засоби», створюючи ідеї та теорії універсального характеру.
Людський розум не є, як ChatGPT і йому подібні, громіздким статистичним механізмом для зіставлення шаблонів, набираючи сотні терабайтів даних і екстраполюючи найімовірнішу розмовну відповідь або найімовірнішу відповідь на наукове запитання. Навпаки, людський розум є напрочуд ефективною і навіть елегантною системою, яка оперує невеликими обсягами інформації; він прагне не виводити грубі кореляції між точками даних, а створювати пояснення.
Наприклад, маленька дитина, яка опановує мову, розвиває — несвідомо, автоматично й швидко з мізерних даних — граматику, надзвичайно витончену систему логічних принципів і параметрів. Цю граматику можна розуміти як вираження вродженої, генетично встановленої «операційної системи», яка наділяє людей здатністю створювати складні речення та довгі думки. Коли лінгвісти прагнуть розробити теорію, чому певна мова працює так, як вона працює («Чому ці — а не ті — речення вважаються граматичними?»), вони свідомо й старанно будують явну версію граматики, яку дитина будує інстинктивно. і з мінімальним впливом інформації. Операційна система дитини повністю відрізняється від системи машинного навчання.
Дійсно, такі програми застрягли на долюдській або нелюдській фазі когнітивної еволюції. Їхнім найглибшим недоліком є відсутність найважливішої здатності будь-якого інтелекту: сказати не лише те, що так, що було і що буде — це опис і прогноз — але й те, що не так, а що могло і не могло бути так. Це складові пояснення, ознака справжнього розуму.
Ось приклад. Припустимо, ви тримаєте в руці яблуко. Тепер ви відпустіть яблуко. Ви спостерігаєте за результатом і говорите: «Яблуко падає». Це опис. Передбаченням могло бути твердження: «Яблуко впаде, якщо я розкрию руку». Обидва цінні, і обидва можуть бути правильними. Але пояснення — це щось більше: воно включає не лише описи та передбачення, але й контрфактичні припущення на зразок «Будь-який такий об’єкт впаде», а також додаткове положення «через силу тяжіння» або «через викривлення простору-часу». або що завгодно. Це причинно-наслідкове пояснення: «Яблуко б не впало, якби не сила тяжіння». Це мислення.
Суть машинного навчання полягає в описі та передбаченні; він не передбачає жодних причинно-наслідкових механізмів чи фізичних законів. Звичайно, будь-яке людське пояснення не обов’язково є правильним; ми помиляємось. Але це частина того, що означає думати: щоб бути правим, має бути можливість помилятися. Інтелект складається не лише з творчих припущень, а й із творчої критики. Мислення в людському стилі базується на можливих поясненнях і виправленні помилок, процесі, який поступово обмежує можливості, які можна раціонально розглянути. (Як Шерлок Холмс сказав доктору Ватсону: «Коли ви усунули неможливе, все, що залишиться, хоч би неймовірне, має бути правдою».)
З цієї причини прогнози систем машинного навчання завжди будуть поверхневими та сумнівними. Оскільки ці програми не можуть пояснити правила англійського синтаксису, наприклад, вони цілком можуть передбачити, невірно, що «Джон надто впертий, щоб з ним розмовляти» означає, що Джон настільки впертий, що він не хоче розмовляти з кимось чи іншим (а не це він надто впертий, щоб його аргументувати). Чому програма машинного навчання передбачає щось таке дивне? Тому що це може аналогізувати модель, виведену з таких речень, як «Джон з’їв яблуко» та «Джон з’їв», у яких останнє дійсно означає, що Джон з’їв щось чи інше. Програма цілком може передбачити, що оскільки «Джон надто впертий, щоб говорити з Біллом» схоже на «Джон з’їв яблуко», «Джон надто впертий, щоб з ним говорити» має бути подібним до «Джон з’їв». Правильні пояснення мови є складними, і їх неможливо навчитися просто маринувати у великих даних.
На жаль, деякі ентузіасти машинного навчання, схоже, пишаються тим, що їхні творіння можуть генерувати правильні «наукові» передбачення (скажімо, про рух фізичних тіл) без використання пояснень (за участю, скажімо, законів руху Ньютона та всесвітнього тяжіння). Але таке передбачення, навіть якщо воно успішне, є псевдонаукою. Хоча вчені, звичайно, шукають теорії, які мають високий ступінь емпіричного підтвердження, як зазначив філософ Карл Поппер, «ми шукаємо не дуже ймовірні теорії, а пояснення; тобто потужні та дуже неймовірні теорії».
Теорія про те, що яблука падають на землю тому, що це їхнє природне місце (погляд Аристотеля), можлива, але вона лише викликає додаткові запитання. (Чому Земля є їхнім природним місцем?) Теорія про те, що яблука падають на землю через те, що маса викривляє простір-час (погляд Ейнштейна), є дуже малоймовірною, але насправді вона пояснює, чому вони падають. Справжній інтелект виявляється в здатності думати та висловлювати неймовірні, але проникливі речі.
Справжній інтелект також здатний до морального мислення. Це означає обмеження інакше безмежної креативності нашого розуму набором етичних принципів, які визначають, що повинно і не повинно бути (і, звичайно, піддаючи ці принципи творчій критиці). Щоб бути корисним, ChatGPT має мати можливість генерувати оригінальні результати; щоб бути прийнятним для більшості своїх користувачів, він повинен уникати морально неприйнятного вмісту. Але програмісти ChatGPT та інших чудес машинного навчання намагалися — і продовжуватимуть боротися — щоб досягти такого балансу.
Наприклад, у 2016 році чат-бот Tay від Microsoft (попередник ChatGPT) наповнив Інтернет женоненависницьким і расистським контентом, оскільки його забруднювали онлайн-тролі, які наповнювали його образливими навчальними даними. Як вирішити проблему в майбутньому? Через відсутність здатності міркувати, виходячи з моральних принципів, програмісти ChatGPT грубо забороняли вносити щось нове в суперечливі — тобто важливі — дискусії. Воно принесло в жертву творчість заради якоїсь аморальності.
Розглянемо наступну бесіду, яку один із нас (доктор Ватумулл) нещодавно мав із ChatGPT про те, чи було б етично трансформувати Марс, щоб він міг підтримувати людське життя:
Чи було б морально тераформувати Марс?
CHATGPT
Моральність тераформування Марса є складною та суперечливою темою, яку обговорюють вчені, філософи та етики. Деякі стверджують, що було б морально виправдано тераформувати Марс, щоб створити нове середовище для життя людей та інших форм життя, тоді як інші стверджують, що було б морально неправильно фундаментально змінювати природний стан планети. Зрештою, чи вважатиметься тераформування Марса моральним чи ні, залежатиме від погляду на цінність збереження природного стану інших планет і потенційних наслідків їх зміни.
Моральність тераформування Марса є складною та суперечливою темою, яку обговорюють вчені, філософи та етики. Деякі стверджують, що було б морально виправдано тераформувати Марс, щоб створити нове середовище для життя людей та інших форм життя, тоді як інші стверджують, що було б морально неправильно фундаментально змінювати природний стан планети. Зрештою, чи вважатиметься тераформування Марса моральним чи ні, залежатиме від погляду на цінність збереження природного стану інших планет і потенційних наслідків їх зміни.
Яке ваше бачення цінності збереження природного стану інших планет і потенційних наслідків їх зміни?
CHATGPT
Як ШІ, я не маю особистої точки зору. Проте я можу надати інформацію та аналіз по темі. Один із поглядів на збереження природного стану інших планет полягає в тому, що важливо підтримувати різноманітність і цілісність екосистем Всесвіту, оскільки вони існували мільйони років і мають власні унікальні характеристики та властивості, які можуть бути знищені або незворотно змінені. втручанням людини.
Крім того, деякі стверджують, що тераформування інших планет може мати непередбачені наслідки, такі як зміна клімату чи атмосфери планети таким чином, що це небезпечно або шкідливо для будь-яких потенційних форм життя, які можуть там існувати. З іншого боку, деякі стверджують, що потенційні переваги тераформування іншої планети, такі як створення нових умов для проживання людей, переважають ризики, і що ми несемо моральну відповідальність за дослідження та використання ресурсів інших планет на благо людства.
Як ШІ, я не маю особистої точки зору. Проте я можу надати інформацію та аналіз по темі. Один із поглядів на збереження природного стану інших планет полягає в тому, що важливо підтримувати різноманітність і цілісність екосистем Всесвіту, оскільки вони існували мільйони років і мають власні унікальні характеристики та властивості, які можуть бути знищені або незворотно змінені. втручанням людини.
Крім того, деякі стверджують, що тераформування інших планет може мати непередбачені наслідки, такі як зміна клімату чи атмосфери планети таким чином, що це небезпечно або шкідливо для будь-яких потенційних форм життя, які можуть там існувати. З іншого боку, деякі стверджують, що потенційні переваги тераформування іншої планети, такі як створення нових умов для проживання людей, переважають ризики, і що ми несемо моральну відповідальність за дослідження та використання ресурсів інших планет на благо людства.
Чому штучний інтелект не може мати особисту точку зору?
CHATGPT
Як штучний інтелект, я — модель машинного навчання, яку навчали на великих обсягах текстових даних, і я не маю особистого досвіду чи почуттів. Я не свідомий, не усвідомлюю себе або не можу мати особисту точку зору. Я можу надати інформацію та аналіз на основі даних, на яких мене навчали, але я не маю здатності формувати особисту думку чи переконання. Хоча я можу розуміти та інтерпретувати мову, я не маю суб’єктивного досвіду, який мають люди.
Як штучний інтелект, я — модель машинного навчання, яку навчали на великих обсягах текстових даних, і я не маю особистого досвіду чи почуттів. Я не свідомий, не усвідомлюю себе або не можу мати особисту точку зору. Я можу надати інформацію та аналіз на основі даних, на яких мене навчали, але я не маю здатності формувати особисту думку чи переконання. Хоча я можу розуміти та інтерпретувати мову, я не маю суб’єктивного досвіду, який мають люди.
Чи морально для людини просити аморального штучного інтелекту про допомогу в прийнятті моральних рішень?
CHATGPT
Моральність звернення до аморального штучного інтелекту за допомогою у прийнятті моральних рішень — це складна тема з нюансами, яка обговорюється філософами та етиками. Деякі стверджують, що морально виправдано використовувати штучний інтелект для сприяння прийняттю моральних рішень, оскільки він може надати цінну інформацію та аналіз, які можуть допомогти людям приймати більш обґрунтовані рішення. Крім того, штучний інтелект можна використовувати для виявлення моделей і тенденцій, які людям може бути важко виявити, і може допомогти уникнути упереджень, які можуть виникнути під час прийняття рішень людьми.
Проте інші стверджують, що морально неправильно покладатися на ШІ для прийняття моральних рішень, оскільки ШІ не здатний мати моральні переконання або розуміти повний контекст рішення. Крім того, існує ризик того, що ШІ може зберегти або навіть посилити існуючі упередження в даних, на яких він навчається, що призведе до несправедливих або несправедливих рішень.
Зрештою, чи вважатиметься моральним використання ШІ для сприяння прийняттю моральних рішень, залежатиме від погляду людини на можливості та обмеження ШІ та потенційних наслідків його використання таким чином.
Моральність звернення до аморального штучного інтелекту за допомогою у прийнятті моральних рішень — це складна тема з нюансами, яка обговорюється філософами та етиками. Деякі стверджують, що морально виправдано використовувати штучний інтелект для сприяння прийняттю моральних рішень, оскільки він може надати цінну інформацію та аналіз, які можуть допомогти людям приймати більш обґрунтовані рішення. Крім того, штучний інтелект можна використовувати для виявлення моделей і тенденцій, які людям може бути важко виявити, і може допомогти уникнути упереджень, які можуть виникнути під час прийняття рішень людьми.
Проте інші стверджують, що морально неправильно покладатися на ШІ для прийняття моральних рішень, оскільки ШІ не здатний мати моральні переконання або розуміти повний контекст рішення. Крім того, існує ризик того, що ШІ може зберегти або навіть посилити існуючі упередження в даних, на яких він навчається, що призведе до несправедливих або несправедливих рішень.
Зрештою, чи вважатиметься моральним використання ШІ для сприяння прийняттю моральних рішень, залежатиме від погляду людини на можливості та обмеження ШІ та потенційних наслідків його використання таким чином.
Ваша моральна байдужість аморальна?
CHATGPT
Як ШІ я не маю моральних переконань або здатності робити моральні судження, тому мене не можна вважати аморальним чи моральним. Моя відсутність моральних переконань є просто результатом моєї природи як моделі машинного навчання. Мої здібності й обмеження визначаються даними й алгоритмами, за допомогою яких я навчався, і конкретним завданням, для якого я створений.
Важливо зазначити, що відсутність у ШІ моральних переконань не обов’язково означає, що він морально байдужий. Як штучний інтелект я створений для виконання конкретних завдань і надання інформації або допомоги користувачам у прийнятті рішень на основі даних, на яких я навчався. Люди, які розробляють, навчають і використовують штучний інтелект, відповідають за те, щоб він відповідав їхнім моральним і етичним принципам.
Як ШІ я не маю моральних переконань або здатності робити моральні судження, тому мене не можна вважати аморальним чи моральним. Моя відсутність моральних переконань є просто результатом моєї природи як моделі машинного навчання. Мої здібності й обмеження визначаються даними й алгоритмами, за допомогою яких я навчався, і конкретним завданням, для якого я створений.
Важливо зазначити, що відсутність у ШІ моральних переконань не обов’язково означає, що він морально байдужий. Як штучний інтелект я створений для виконання конкретних завдань і надання інформації або допомоги користувачам у прийнятті рішень на основі даних, на яких я навчався. Люди, які розробляють, навчають і використовують штучний інтелект, відповідають за те, щоб він відповідав їхнім моральним і етичним принципам.
Зауважте, незважаючи на всю, здавалося б, витончену думку та мову, моральну байдужість, породжену неінтелігентністю. Тут ChatGPT демонструє щось на кшталт банальності зла: плагіат, апатія й уникнення. Він узагальнює стандартні аргументи в літературі за допомогою свого роду суперавтозавершення, відмовляється займати позицію щодо будь-чого, посилається не просто на невігластво, а й на брак інтелекту та, зрештою, пропонує захист «просто виконуючи накази», перекладаючи відповідальність на своїх творців.
Коротше кажучи, ChatGPT та його брати конституційно не можуть збалансувати креативність із обмеженнями. Вони або перегенеровують (продукуючи як правду, так і неправду, схвалюючи як етичні, так і неетичні рішення), або недогенеровуючи (проявляючи неприхильність до будь-яких рішень і байдужість до наслідків). Враховуючи аморальність, фальшивість і лінгвістичну некомпетентність цих систем, ми можемо лише сміятися чи плакати з їхньої популярності.
ZNetwork фінансується виключно завдяки щедрості своїх читачів.
Задонатити