У гіпотетичній гонці за претендування на мантію найбільшої загрози для людства ядерна війна, екологічна катастрофа, зростання авторитаризму та нові пандемії все ще є попереду зграї. Але подивіться, далеко назад, але швидко. Це ШІ? Чи це друг поспішає нам допомогти, чи інший ворог поспішає нас поховати?
Як відправну точку для цього есе, в їхній недавній Op Ed in The New York Times Ноам Хомскі та двоє його колег з академічних наук — Ієн Робертс, професор лінгвістики Кембриджського університету, та Джеффрі Вотмулл, філософ, який також є директором відділу штучного інтелекту в технологічній компанії — кажуть нам, що «хоч би корисними були ці [ШІ] програми можуть бути в деяких вузьких сферах (вони можуть бути корисними, наприклад, у комп’ютерному програмуванні або в пропонуванні рим для легких віршів), ми знаємо з науки про лінгвістику та філософії знання, що вони глибоко відрізняються від того, як люди міркують і використовують мова. Ці відмінності накладають значні обмеження на те, що ці програми можуть робити, кодуючи їх невикорінними дефектами...»
Вони продовжують: «На відміну від людей, наприклад, які наділені універсальною граматикою, яка обмежує мову, яку ми можемо вивчати, мовами з певною майже математичною елегантністю, ці програми з однаковою легкістю вивчають доступні для людини та неможливі мови».
Читачі можуть вважати, що ці коментарі означають, що поточний штучний інтелект настільки відрізняється від того, як люди спілкуються, що прогнози про те, що штучний інтелект витіснить людей у будь-якій, окрім кількох другорядних сферах, є галасом. Нові чат-боти, художники, програмісти, роботи та все це вражаючі інженерні проекти, але нема чого хвилюватися. Сучасний штучний інтелект обробляє мову у спосіб, який дуже далекий від того, що зараз дозволяє людям використовувати мову так само добре, як ми. Більше того, нейронні мережі та великі мовні моделі сучасного штучного інтелекту закодовані з «невикорінними дефектами», які заважають штучному інтелекту використовувати мову та мислити віддалено так само, як і люди. Міркування Op Ed схожі на вченого, який слухає розмови про вічний двигун, який збирається революціонізувати все. Вчений має теорії, які стверджують, що вічний двигун неможливий. Тому вчений каже, що галас про те, що якась компанія пропонує такий продукт, є ажіотажем. Більше того, вчений знає, що галас не може бути правдою, навіть якщо не поглянути на те, що насправді робить запропонована машина. Це може виглядати як вічний двигун, але це не може бути, тому це не так. Але що, якщо вчений правий, що це не вічний двигун, але, тим не менш, машина швидко завойовує користувачів і завдає шкоди, і ще більше шкоди буде?
Хомський, Робертс і Ватумулл кажуть, що люди використовують мову так само спритно, як і ми, тому що в нашій свідомості є людська мовна здатність, яка включає певні властивості. Якби в нас цього не було або якби наш факультет не був таким обмежувальним, як зараз, ми б були більше схожі на птахів чи бджіл, собак чи шимпанзе, але не на себе. Більше того, один надійний спосіб дізнатися, що інша система, яка використовує мову, не має мовної здатності з функціями нашої мовної здатності, полягає в тому, що вона може так само добре працювати з повністю створеною нелюдською мовою, як і з конкретно людською мовою як англійська чи японська. Op Ed стверджує, що сучасні чат-боти належать саме до такого роду. Це робить висновок, що вони не можуть бути лінгвістично компетентними так само, як люди.
У ширшому застосуванні аргумент полягає в тому, що люди мають мовну здатність, візуальну здатність і те, що ми могли б назвати пояснювальною здатністю, які забезпечують засоби, за допомогою яких ми спілкуємося, бачимо та розвиваємо пояснення. Ці здібності дають нам широкий спектр здібностей. Однак як умова для цього вони також накладають обмеження на інші можливі здібності. Навпаки, сучасні штучні інтелекти так само добре справляються з мовами, якими люди не можуть користуватися, і з тими, якими ми можемо користуватися. Це показує, що вони не мають нічого схожого на вроджену людську мовну здатність, оскільки, якби вони її мали, це виключало б нелюдські мови. Але чи означає це, що штучний інтелект в принципі не може досягти такої широкої, глибокої та навіть креативної компетентності, як наша, оскільки вони не мають здібностей із особливими обмежувальними властивостями, які мають наші здібності? Чи означає це, що що б вони не робили, коли вони вимовляють речення, коли вони описують речі у своєму полі зору або коли вони пропонують пояснення подій, про які ми їх запитуємо, не кажучи вже про те, коли вони складають адвокатський іспит на 90-й процентиль або пишуть сумні чи щасливі, реггі чи рок-пісні на замовлення — вони не тільки не роблять того, що роблять люди, але й не можуть досягти результатів, яких досягають люди?
Якби Op Ed сказав, що поточні штучні інтелекти не мають таких функцій, як ми, тому вони не можуть робити речі так, як ми, це було б добре. У цьому випадку може бути правдою те, що штучний інтелект не може робити щось так добре, як ми, але також може бути правдою те, що для багатьох типів іспитів, наприклад, SAT та іспитів на адвокатуру, вони можуть перевершувати переважну більшість Населення. Що станеться завтра з GPT 4 і через кілька місяців з GPT 5, або через рік чи два з GPT 6 і 7, а тим більше пізніше з GPT 10? Що, як, як здається, нинішні штучні інтелекти мають інші функції, ніж люди, але ці відмінні функції дозволяють йому робити багато речей, які ми робимо не так, як ми, але так само добре чи навіть краще, ніж ми?
Логічна проблема Op Ed полягає в тому, що, здається, припускається, що лише людські методи можуть у багатьох випадках досягти результатів на рівні людини. Практична проблема полягає в тому, що Op Ed може змусити багатьох людей думати, що нічого дуже важливого не відбувається або навіть може відбуватися, навіть не досліджуючи, що відбувається насправді. Але що, якщо відбувається щось дуже важливе? І якщо так, чи це має значення?
Якщо Op Ed зосереджувався лише на питанні «чи розумний сучасний штучний інтелект так само, як розумні люди», відповідь авторів – ні, і в цьому вони, безперечно, мають рацію. Те, що автори потім підкреслюють, що вони «побоюються, що найпопулярніший і модний вид штучного інтелекту — машинне навчання — принизить нашу науку та принизить нашу етику, включивши в нашу технологію фундаментально помилкову концепцію мови та знань», також справедливо. Так само правда, що коли поточні програми пройдуть тест Тьюринга, якщо вони цього ще не зробили, це не означає, що вони думають і говорять так само, як ми, або те, як вони пройшли тест, нам щось скаже про те, як ми розмовляємо чи думаємо. Але їхнє проходження випробування скаже нам, що ми більше не можемо чути чи читати їхні слова і лише з цього відрізнити їхні думки та слова від наших думок і слів. Але чи це матиме значення?
Здається, есе Хомського, Робертса та Ватумула має на увазі, що методологічна відмінність штучного інтелекту від людських здібностей означає, що те, що можуть робити програми штучного інтелекту, буде значно обмеженим порівняно з тим, що можуть робити люди. Автори визнають, що те, що може зробити штучний інтелект, може бути мінімально корисним (або неправильно використаним), але вони додають, що нічого особливого не відбувається, щоб порівняти з людським інтелектом або творчістю. Когнітивна наука не просувається вперед і може бути відстала. ШІ може надійно переграти кожну людину за шахівницею. Так, але що? Ці відхилення досить справедливі, але чи означає той факт, що нинішній штучний інтелект створює текст, зображення, програмне забезпечення, консультації, медичну допомогу, відповіді на іспитах чи будь-що інше іншим шляхом, ніж люди, досягають дуже схожих результатів, що поточний штучний інтелект не досяг там взагалі? Чи той факт, що нинішній ШІ функціонує не так, як ми, обов’язково означає, зокрема, що він не може досягти таких лінгвістичних результатів, як ми? Чи здатність ШІ розуміти нелюдські мови обов’язково вказує на те, що ШІ не може перевищувати людські можливості в людських мовах або в інших областях?
Ми вважаємо, що програми, здатні виконувати лінгвістичні завдання на основі інформації, дуже відрізняються від тракторів, здатних піднімати більшу вагу, ніж люди, або ручних калькуляторів, здатних обробляти числа краще, ніж люди. Частково це пояснюється тим, що штучний інтелект може виконувати різні завдання від людей. У випадках обтяжливих, непривабливих завдань це може бути суспільно корисним, якщо ми справедливо розподілимо роботу, що залишилася. Але що робити, коли капіталістичні пріоритети вимагають зростання безробіття? Те, що OpenAI та інші капіталістичні фірми штучного інтелекту використовують дешеву іноземну робочу силу для маркування зображень для візуального навчання ШІ, не повинно бути несподіванкою. Але, можливо, настільки ж соціально важливі, як щодо психологічних наслідків розвитку ШІ?
Оскільки машини стали краще піднімати для нас, люди стали менше здатні піднімати. Оскільки машини стали краще виконувати математичні обчислення для нас, люди стали менш здатними виконувати математичні обчислення. Втрата деяких особистих здібностей чи схильності до підйому чи розрахунків не становила нічого страшного. Вигоди переважили недоліки. Навіть програми, які буквально перемагають найкращих гравців у шахи, го, відеоігри та покер (хоча програми грають не так, як люди), мали лише короткочасний психологічний ефект. Люди все ще роблять ті дуже людські речі. Люди навіть вчаться, вивчаючи ігри, в які грають програми, хоча цього недостатньо, щоб досягти такого рівня, як програми. Але що станеться, якщо штучний інтелект зможе краще за людей писати листи, краще писати есе, краще складати музику, краще планувати плани, краще писати програмне забезпечення, краще створювати зображення, краще відповідати на запитання, краще створювати фільми, краще проектувати будівлі, краще навчати, спілкуватися і, можливо, навіть забезпечувати догляд за людьми похилого віку, догляд за дітьми, медичну діагностику та навіть консультування щодо психічного здоров’я – або, у кожному разі, забути про те, що програми стають кращими за нас, що відбувається, коли програми функціонують достатньо добре, щоб бути вигідною заміною люди роблять такі речі?
Йдеться не лише про зростання безробіття з усіма його руйнівними наслідками. Це досить тривожно, але важливою частиною того, що робить людей людьми, є участь у творчій роботі. Чи буде ШІ звузити сферу доступної творчої роботи так, що лише декілька геніїв зможуть її виконувати, коли ШІ займатиметься більшою частиною писання, терапії, компонування, розпорядку дня тощо? Чи неправильно думати, що в такому випадку те, від чого люди були б відсунуті, могло б зробити людей менш людьми?
Op Ed стверджує, що штучний інтелект зараз робить і, можливо, завжди робитиме речі, визначені людиною, принципово інакше, ніж це роблять люди. Але чи означає це, як ми думаємо багатьом Час читачі подумають, що так, що штучний інтелект не буде робити такі речі так само добре чи навіть краще, ніж більшість або, можливо, навіть усі люди. Чи зможе ШІ симулювати людські емоції та надзвичайно важливу людську автентичність у своїх піснях і картинах? Можливо, ні, але навіть якщо ми ігноруємо можливість явного використання штучного інтелекту для хворих, чи не викликають наведені вище спостереження дуже важливі та навіть нагальні питання? Чи слід нам розвивати штучний інтелект з нашими нинішніми шаленими темпами?
Звичайно, коли штучний інтелект використовується для обману та маніпулювання, шахрайства, шпигування, злому та вбивства, серед інших мерзенних можливостей, тим гірше. Не кажучи вже про те, якщо штучний інтелект стане автономним з цими антисоціальними планами. Навіть не дивлячись на те, як професори розповідають про те, що ШІ вже склав іспити на аспірантуру, навіть не дивлячись на те, як програмісти розповідають про ШІ, які вже виводять код швидше й точніше, ніж вони та їхні друзі-програмісти, і навіть не дивлячись на те, як ШІ вже голосно розмовляє зі своїми інженерами про будь-що. включаючи навіть їхні «почуття» та «мотиви», має бути зрозуміло, що ШІ може мати дуже потужні соціальні наслідки, навіть якщо його методи не проливають світла на те, як функціонують люди.
Ще одне спостереження в Час Op Ed полягає в тому, що штучний інтелект нинішнього типу не має нічого схожого на моральні здібності людини. Це правда, але чи означає це, що вони не можуть мати морально керованих результатів? Натомість ми можемо посперечатися, що програми ШІ можуть і в багатьох випадках уже включають моральні правила та норми. Ось чому бідні верстви населення піддаються фінансовій та психологічній експлуатації, щоб незліченні приклади порнографії називати порнографією — експлуатаційна аморальність на службі чому, моралі чи просто фальшивій пристойності? Проблема в тому, хто визначає, які моральні норми, вбудовані в штучний інтелект, сприятимуть, а які заважатимуть? У сучасних ШІ такий код буде або запрограмований, або вивчений на прикладах людей. Якщо запрограмовано, хто вирішуватиме його зміст? Якщо вчитися на прикладах, хто вибиратиме приклади? Отже, проблема не в тому, що ШІ неминуче не має моралі. Справа в тому, що штучний інтелект може мати погану мораль і підтримувати такі упередження, як расизм, сексизм або класовість, отримані від програмістів або на прикладах навчання.
Навіть щодо мовного факультету, як вказує Op Ed, у нинішньому ШІ немає такого, як наш. Але чи єдиний наш факультет може підтримувати використання мови? Чи людська мовна здатність виникла внаслідок мільйона років повільної еволюції, як більшість тих, хто чує про це, думають, що лінгвісти повинні вірити, чи вона виникла в переважній більшості протягом дуже короткого періоду в результаті щасливої мутації, а потім зазнала лише досить скромної подальшої еволюції, поки поширювалася широко , як переконливо стверджує Хомський, воно безперечно існує. І це, безперечно, є фундаментальним для людської мови. Але чому повністю навчена нейронна мережа штучного інтелекту не є мовним факультетом, хоч і відмінним від нашого? Він створює оригінальний текст. Відповідає на запитання. Це граматично. Невдовзі (якщо ще ні) він буде спілкуватися краще, ніж більшість людей. Він навіть може зробити все це в різних стилях. Будь ласка, дайте відповідь на мій запит про квантову механіку чи ринкову конкуренцію. Відповідайте як Хемінгуей. Відповідайте як Фолкнер. Егад, відповідай як Ділан. Тож чому це теж не мовна здатність — хоча й не схожа на людську й утворена не тривалою еволюцією чи швидким успіхом, а навчанням мовної моделі нейронної мережі?
Це правда, що сучасний штучний інтелект може працювати з людськими мовами, а також, якщо є достатньо даних для його навчання, з мовами, які люди не можуть зрозуміти. Це також правда, що після навчання штучний інтелект може в певних аспектах робити те, чого не дозволив би мовний факультет. Але чому можливість працювати з нелюдськими мовами означає, що такий факультет має бути збіднілим щодо того, що він може робити з людськими мовами? Мовна здатність штучного інтелекту — це не нескінченно пластична, марна чиста дошка. Він не може працювати з жодною мовою, на якій не навчений. Дійсно, ненавчена нейронна мережа не може спілкуватися ні людською, ні іншою мовою. Однак, чи робить його різна гнучкість щодо того, що він робить можливим, а що виключає, не мовним факультетом після навчання? Або його різна гнучкість просто робить його не мовним факультетом людського типу? І чи це взагалі має значення для соціальних проблем, а не для наукових?
Так само, хіба здатність штучного інтелекту не може дивитися на сцени, розпізнавати й описувати те, що в них є, і навіть може ідентифікувати те, що там є, але знаходиться там не на місці, і може робити це так само точно, як люди, або навіть точніше, візуальна здатність, хоча знову ж таки, звичайно, не те саме, що людська зорова здатність?
І так само для креслярського факультету, який малює, обчислювального факультету, який обчислює, і так далі. Безперечно, незважаючи на те, що вони черпали натхнення з людського досвіду та доказів, як це зробили програмісти штучного інтелекту, жодна з цих здатностей штучного інтелекту не дуже схожа на людські версії. Вони роблять те, що вони роблять, не так, як ми, люди, те, що робимо. Але якщо ми не хочемо сказати, що випадкові, історично щасливі людські способи обробки інформації – це єдині способи обробки інформації, які можуть обробляти мову так само розумно, як це можуть люди, і це єдині способи обробки інформації, які можуть не тільки виробляти і прогнозувати, але також пояснити, ми не бачимо, чому правдиві спостереження про те, що нинішній ШІ нічого не вчить нас про те, як працюють люди, означають, що нинішній ШІ не зможе через два чи п’ять, або десять чи двадцять років бути невідрізнимим від людського інтелекту, хоча й отриманого інакше, ніж людський інтелект.
Більше того, що взагалі вважається інтелектом? Що вважається креативністю та наданням пояснень? Що вважається розумінням? Дивлячись на поточні звіти, відео тощо, навіть якщо в них є багато ажіотажу з метою отримання прибутку, ми впевнені, що це так, ми вважаємо, що програми штучного інтелекту в деяких сферах (наприклад, гра в складні ігри, згортання білків, і виявлення закономірностей у масах даних) вже справляються краще, ніж люди, які найкраще вміють у таких пошуках, і вже справляються краще, ніж більшість людей, у багатьох інших областях.
Наприклад, скільки людей можуть створювати художні роботи краще, ніж сучасні ШІ? Ми точно не можемо. Скільки художників можуть зробити це навіть сьогодні, а тим більше через рік? Чудовий друг буквально вчора розповів, що йому довелося написати складного листа для своєї роботи. Він попросив chatGPT зробити це. Довго кліпаючи очима, він це отримав. Він сказав, що це було бездоганно, і він визнав, що це було краще, ніж він би зробив. І це було так, незважаючи на те, що він написав сотні листів. Хіба це не більше соціально заклопотане, ніж коли десятиліття тому люди вперше використали камеру, текстовий процесор, електронну таблицю чи перевірку орфографії? Чи це ще один приклад того, як технологія полегшує виконання деяких завдань? Чи вважатимуться штучний інтелект, який уже виконує багато завдань, які раніше вважалися суто людськими, доказом того, що штучний інтелект може робити стільки й, ймовірно, набагато більше? Або, як не дивно, те, що вони роблять, вважається доказом того, що вони ніколи не зроблять стільки чи більше?
Ми хвилюємося, що відкидання важливості сучасних ШІ через те, що вони не втілюють людські механізми, ризикує приховати той факт, що ШІ вже має широкий соціальний вплив, який повинен нас хвилювати з практичних, психологічних міркувань і, можливо, з міркувань безпеки. Ми стурбовані тим, що такі звільнення можуть означати, що штучний інтелект не потребує значного регулювання. У нас діє ефективний мораторій на клонування людини, серед інших видів використання технологій. Однак вікно для регулювання ШІ швидко закривається. Ми хвилюємося, що поставлене перед нами завдання полягає не стільки в тому, щоб розвіяти перебільшений ажіотаж щодо штучного інтелекту, скільки у тому, щоб визнати зростаючі можливості штучного інтелекту та зрозуміти не лише його потенційні переваги, але й його неминучі та довгострокові небезпеки, щоб ми могли придумати, як ефективно його регулювати. . Ми хвилюємося, що справді актуальне регуляторне завдання може бути підірвано, якщо те, що відбувається, буде названо «поверхневим і сумнівним» або «високотехнологічним плагіатом», щоб протистояти галасу.
Чи актуальне розумне регулювання? Нам це здається очевидним. І натомість ми бачимо карколомний прогрес? Для нас це здається очевидним. Людська винахідливість може генерувати великі стрибки, які виглядають як магія, і навіть створювати здавалося б чудеса. Капіталізм без протидії може перетворити навіть великі стрибки на біль і жах. Щоб уникнути цього, нам потрібні думка та активність, які перемагають правила.
Такі технології, як ChatGPT, не існують у вакуумі. Вони існують у суспільствах та їх визначальних політичних, економічних, громадських і родинних інститутах.
США перебувають у розпалі психічної кризи, і практично всі показники психічного здоров’я відхиляються від графіків: кількість самогубств і «смертей від відчаю» досягла історичного рівня. Відчуженість, стрес, тривога та самотність нестримні. За даними Американської психологічної асоціації Стрес в Америці, основними рушійними силами нашого розпаду є системні: економічна тривога, системні утиски, відчуження від наших політичних, економічних і соціальних інститутів. Капіталізм атомізує нас. Потім він перетворює значущі зв’язки на безглузді.
Алгоритми соціальних медіа обчислюють правильне попадання, яке ніколи не приносить задоволення. Вони змушують нас тягнутися до більшого. Подібно до того, як соціальні медіа створені для того, щоб викликати залежність за допомогою контенту, створеного користувачами, мовна модель штучного інтелекту потенційно може викликати залежність і завдати шкоди. Особливо для вразливих верств населення штучний інтелект можна налаштувати, щоб вивчати та використовувати вразливі місця кожної людини, створюючи контент і навіть стиль презентації, щоб зацікавити користувачів.
У суспільстві з нестримним відчуженням штучний інтелект може використовувати нашу потребу в зв’язку. Уявіть собі, що мільйони людей, підключених до послуг AI, відчайдушно потребують підключення. Прибуток спонукатиме компанії штучного інтелекту не просто залучати все більше і більше користувачів, а й змушувати їх повертатися.
Після підключення потенціал дезінформації та пропаганди значно перевищує навіть соціальні мережі. Якщо штучний інтелект замінює людську працю в сферах, які визначають людину, що тоді залишається від «бути людиною»? Чекаєте на підказки AI? Чекаєте на замовлення ШІ?
Ясність щодо того, що робити, може з’явитися лише після подальшого розуміння того, що відбувається. Але навіть після кількох місяців досвіду штучного інтелекту пропозиції щодо мінімальних правил здаються досить легкими. Наприклад:
- Законодавчо закріпіть, що все програмне забезпечення та алгоритми штучного інтелекту, які мають суспільний вплив, повинні мати відкритий вихідний код, що дозволяє громадськості перевіряти їх вихідний код.
- Створіть новий регуляторний орган, подібний до FDA, для програмного забезпечення, що впливає на громадськість.
- Законодавчо встановіть, щоб увесь створений штучним інтелектом контент (голос, чат, зображення, відео тощо) мав містити чітко видимий/чутний стандартизований водяний знак/голосовий знак із зазначенням того, що контент був створений штучним інтелектом, який користувач має підтвердити.
- Законодавчо встановіть, щоб увесь створений штучним інтелектом контент надавав список усіх конкретних джерел, використаних/вивчених для створення цього конкретного вмісту, включаючи ваги.
- Законодавчо запровадити суворе покарання для будь-яких фірм, організацій або осіб, які створюють і поширюють навмисно оманливий та/або маніпулятивний фальшивий контент, створений ШІ.
- Встановіть закон, згідно з яким жодна корпорація, державна чи приватна, не може замінити працівників штучним інтелектом, якщо уряд не схвалить цей крок як такий, що відповідає людським пріоритетам (а не лише пошуку прибутку), робоча сила на робочому місці голосує за зміни, оскільки вони відповідають умовам робочої сили. і бажання (а не лише пошуки прибутку), і замінені працівники продовжують отримувати свою поточну зарплату від старої фірми, доки вони не будуть прийняті на роботу в нову фірму.
ZNetwork фінансується виключно завдяки щедрості своїх читачів.
Задонатити
9 Коментарі
Ой...я щойно прочитав це...
2. Я також не думаю, що штучний інтелект зможе коли-небудь симулювати вершини людської творчості. Як приклад, який безпосередньо стосується одного з авторів цієї статті, я не можу уявити, щоб якийсь ШІ коли-небудь придумав ідеї, що лежать в основі економіки участі. »
У мене є фантазія про те, як штучний інтелект відкриває економіку участі і чітко дає зрозуміти нам, людям, що ми кричимо на грібаних ідіотів за те, що ігноруємо це. Потім взяти контроль над лайном і, по суті, просто впровадити його, незалежно від того, що ми думаємо, потім сидіти склавши руки і казати: «Ось, все зроблено». Як зробив Танос, коли він навмання усунув купу мешканців всесвіту з екологічних міркувань, після чого йому нічого не залишалося робити, окрім як сидіти склавши руки та спостерігати захід за заходом сонця. Не зовсім так, але все одно.
Ура…ХОДІМО, ХАДІМО.
Тож справа зовсім не в ШІ. Чи можуть машини справді думати чи, можливо, навіть хочуть створити безкоштовний імпровізований музичний твір, який ніхто інший, включно з іншими ШІ, не захоче слухати. «Це лайно, чоловіче. Це навіть не музика». Йдеться про те, як виробляються та споживаються технології, про стосунки між споживачами та виробниками та про те, скільки голосів або участі в процесі прийняття рішень мають споживачі, усі ми, ідіоти, які не знають алгоритму, якщо б ми його помилилися. Зрозуміло, зараз у нас немає, пшик, нуль, бо ринки непрозорі. І приховувати лайно від громадськості, будь то справжні бажання власників того, чим вони володіють, IP, криваві алгоритми чи щось інше, я поняття не маю, або як це лайно насправді виробляється і звідки воно насправді береться і як...як і ви, DMR...це MO для всіх виробників на внутрішніх ринках. Треба мати перевагу.
Мені наплювати, якщо штучний інтелект міг би, хотів би створювати Шекспіра чи Бетховена. Не міг піклуватися менше. Але справа не в цьому. Він лежить там, де завжди є всередині механізмів ринкового капіталізму. Не неолібералізм, чи надкапіталізм, чи колоніальний корпоративний капіталізм, чи технофеодалізм чи будь-що інше, а просто старий добрий доморощений ринковий капіталізм.
Я сподіваюся, що ці коментарі будуть ефективними. Я двомовний – англійська-іспанська. У мене є друг, який розмовляє шістьма мовами. Хоча ми можемо спілкуватися англійською та іспанською, час від часу я використовую машинний перекладач, щоб передавати свої думки португальською. Хоча це весело та демонструє мою повагу до її рідної португальської (і я стараюся вивчати більше португальської, поки що це просто пробування, а не вільне володіння), досвід спілкування з цією подругою англійською та іспанською зовсім іншим, ніж машинний вихід португ. Я відчуваю себе англійською та іспанською, я не відчуваю португальською! Якщо я взагалі почуваюся португальською, то це через мою іспанську. Я все ще далекий аутсайдер у португальській мові, і я це знаю, і це супроводжується розчаруванням, невіглаством і певною нечутливістю. Моя португальська — це, по суті, феномен ШІ, безкровний і майже холодний. Їй бракує життя, почуття, пристрасті, чутливості – реальності. Я можу любити англійською та іспанською мовами, і маю. Португалець все ще бездиханне тіло, і це мене засмучує.
Привіт Майкл,
Усі коментарі так чи інакше стосуються... але я визнаю, що у мене немає інформованого способу відреагувати на цей коментар. Я розмовляю англійською, нічим іншим. Тому я не знаю, що ви описуєте, навіть побічно. Але я припускаю, що, можливо, те, що ви описуєте, відбувається з тим, що ви хочете висловити, коли воно проходить через переклад. Мовний факультет дозволяє людям намагатися висловити внутрішньо те, що вони думають/відчувають внутрішньо. Я сумніваюся, що останнє змінюється тоді, як перше… Є ті, хто каже, що людська мовна здатність є важливою для чогось, що наближається набагато менше до людської творчості – мабуть, маючи на увазі генерування нових висловлювань, думок, образів чи будь-чого, що має певний вид заслуг. Я ще не бачу жодних аргументів, чому це так чи має бути правдою.
Є кілька речей, які можна сказати у відповідь на цей твір.
1. Re: The New York Times опублікувала саму себе, хоча це правда, що штучний інтелект міг симулювати людську мову іншим способом, ніж люди, ключовим моментом викладу було те, що вчений прагне зрозуміти, як людський розум працює. Те, що складний штучний інтелект виконує те саме завдання іншим способом, не є науковим поясненням.
2. Я також не думаю, що ШІ зможе коли-небудь симулювати вершини людської творчості. Як приклад, який безпосередньо стосується одного з авторів цієї статті, я не можу уявити, щоб якийсь ШІ коли-небудь придумав ідеї, що лежать в основі економіки участі. Це пояснюється тим, що штучний інтелект будує інтерполяції на основі великих обсягів *існуючих* даних, і в світі, де немає попередньої літератури з економіки участі, ШІ не придумає цього. Подібна логіка стосується і людської творчості загалом. Побоювання, що штучний інтелект витіснить справжню людську творчість, справді здаються надмірними. Однак можливо, що штучний інтелект настільки принижує культуру, що нікого це не хвилює. Цілком можливо, що банальності, які обслуговує AI, можуть запропонувати прийнятний аналіз багатьом читачам, які тепер будуть навіть менш схильні, ніж раніше, залучати такі ідеї, як економіка участі. Але це інша проблема, ніж проблема штучного інтелекту, яка самостійно придумує чудові ідеї.
3. Звужуючи фокус до більш приземлених застосувань людської творчості, таких як написання супровідного листа, ШІ міг би симулювати це, і це могло б мати значний соціальний вплив, як зазначається в статті. Але навіть тут ми повинні пам’ятати, що після багатьох років ажіотажу щодо роботів, хоча є деякі хороші нішеві програми, такі як автоматизовані пилососи, дані про зростання продуктивності показують, що роботи мали незначний вплив на зайнятість, всупереч усьому ажіотажу навколо них .
4. Це не означає, що запропоновані вище правила є непотрібними. Враховуючи баланс занепокоєнь, здається, що нормативні акти, подібні до запропонованих, були б доречними.
Привіт Рагав –
Я трохи здивований, що немає більше коментарів, але –
1. Ви маєте рацію, що наукова пояснювальна сила — це те, що було початковим планом для ШІ, а також що він майже нічого не досяг у цьому питанні (пояснення людського пізнання). Але я не бачу мети публікації в NYT у тому, щоб висловити тезу, актуальну для вчених, коли аудиторією є весь світ, а темою є те, що охоплює світ і може мати дуже глибокий вплив. Ми відповіли на коментар не ставлячи під сумнів вашу наукову точку зору, а ставлячи під сумнів тон обговорення того, що натякало на те, що нічого особливого не відбувається, і так далі... Автор коментарів і цитувань у всьому світі. Практично кожного разу причиною було враження, що штучний інтелект – це реклама, і тому не варто серйозно хвилюватися.
2. ШІ вже перевищив людські можливості, наприклад, у пошуку закономірностей у великих обсягах даних – і я маю на увазі найбільш здібних людей – у різних сферах, наприклад, гра в шахи тощо тощо. Що стосується більшості з нас, він малює краще , краще пише, краще відповідає на запитання тощо. У всякому разі, коли ви говорите, що не думаєте, що це може зробити краще, бути більш креативним тощо – ну, я не знаю, чому ви так не думаєте, але, у будь-якому випадку, питання не в тому, чи зможе він працювати краще, ніж найкращий, питання в тому, чи зможе він робити людські речі достатньо добре, щоб у нашій економіці він замінив людей у різних функціях, і не лише утомливих функціях, а й у інших людського існування.
3. Я думаю, що ви дивитеся в минуле, але, можливо, не в сьогодення. Зайдіть на YouTube, спробуйте знайти презентації, які відображають людські здібності, їх там маса. Вважайте, що вони вже кілька місяців використовують нову технологію, яка прогресує майже щодня… Я щойно переглянув презентацію історії, створеної gpt4 у відповідь на запит із проханням написати вигадану історію про себе, у майбутньому, отримуючи контролювати 100,000 4 нових роботів і з часом заволодіти всім. Що вражало, це те, що він не просто генерував події сюжетної лінії, а потім добре писав річ, він містив стратегічне планування того, як gptXNUMX це зробить, і вийде з рук, а потім використає це. За ціле покоління розвитку я попросив його порівняти економіку участі з ринковим соціалізмом, і він досить добре впорався. Щодо винаходу чогось нового – якщо він може придумати кроки, які виходять за межі людського потенціалу – і якщо він може вирішити згортання білка, і те, і інше зараз, що він зможе зробити через два роки? Можливо, не більше. Можливо, набагато більше.
4. Серйозні ефективні правила можуть бути не тільки доцільними або виправданими, вони можуть бути необхідними для уникнення серйозних лих. Звичайно, це стосується й інших сучасних сфер, як-от викопне паливо.
1. Думка про те, що ChatGPT є науковим проривом, є набагато більш поширеною, ніж ви визнаєте, і важливо пояснити широкій аудиторії, що не є фахівцями, що це не так. Крім того, можливо, це тому, що я працюю в технологічному секторі, але переважна реакція серед людей, яких я знаю, на ChatGPT неймовірно позитивна, а NYT oped є вузьким, меншинним поглядом. Насправді серед активістів, яких я знаю, реакція на ChatGPT не тільки позитивна, але й мають місце деякі принизливі ефекти, про які згадується в статті NYT. Наприклад, нещодавно я був учасником історичної кампанії, спрямованої на заборону кастової дискримінації в місті Сіетл (Сіетл є першою юрисдикцією за межами Південної Азії, яка це зробила, тому вона є історичною). Коли я запитав про реакцію активістів, було кілька тих, хто не міг потурбуватися про власні емоції, а натомість використовував ChatGPT, щоб створити цитату, яку видали за свою. Мене все це неймовірно пригнічувало. На мій погляд, це така річ, про яку правильно попереджає операція, яка повинна нас абсолютно насторожити.
Але я не хочу далі наполягати на цьому питанні. Ваша думка про те, що потенційний вплив штучного інтелекту як технології може бути набагато суттєвішим, ніж те, що стверджується в статті, є правильною.
2. Я протестував ChatGPT на основі вашої пропозиції. Ось що я знайшов.
(a) Я поставив ChatGPT запитання про те, як би я пояснив парекон своїм друзям-ленінцям. Його відповідь була цікава. Правильно вказувалося на те, що ленінська ідея соціалізму і пареконівські бачення відрізняються. Однак це лише натякало на інституційні відмінності. Він не підняв аналітичні відмінності, які є основою, з якої походять інституційні відмінності. Наприклад, він не згадував той факт, що парекон базується на 3-класовому аналізі суспільства. Ще одна суттєва відмінність, на мій погляд, полягає в тому, що концепція людської природи, яка інформує парекон, і яка інформує ленінізм, радикально відрізняються. Але відмінності в уявленнях про людську природу обговорюються у вашій книзі «Що потрібно відмінити», а не в жодній із ваших книг про Парекон. Не дивно, що ChatGPT не згадав про це.
(b) Тоді я запитав ChatGPT про моральні неоднозначності, з якими стикається антивоєнний рух. Його відповідь не містила жодної згадки про Україну – величезна помилка. На мій погляд, одна з найбільших моральних неоднозначностей, яку українська солідарність створює для антивоєнного руху, полягає в тому, що вона закликає людей, які проти війни, підтримувати або, принаймні, не протистояти озброєнню українського опору. ChatGPT не згадував про це. Він згадав Сирію, де існували подібні неясності, але навіть у Сирії він пропустив один із найбільших прикладів – курдські райони північно-східної Сирії, де солідарність із курдськими повстанцями вимагала протидії виведенню військ США.
(c) Нарешті я обговорив питання про мистецтво. Один з моїх улюблених фільмів – «Втеча з Шоушенка». Я попросив ChatGPT описати персонажа тюремного наглядача у фільмі. Він дав чесний опис, який ви можете прочитати на веб-сайті бази даних фільмів або у Вікіпедії. Але якщо ви почитаєте актора Боба Гантона про персонажа (саме він зіграв його у фільмі), то він докладно розповідає про те, що наглядач — темна особа, яка завдає болю головному героєві фільму — Енді. – тому що Енді уособлює світло, і наглядач відчуває тягу до світла, але йому також загрожує воно, тому хоче його придушити. Уявлення Гантона є, безперечно, найкращим уявленням про персонажа, але ChatGPT не придумав цього.
Я ретельно вибрав наведені вище приклади. Жодна з них не є прикладом «піка креативності». Однак усі вони вимагають більше, ніж побіжного знання відповідного предмету, і вимагають засвоєння та агрегування більш ніж одного джерела інформації нетривіальними способами. ChatGPT зазнав невдачі, якщо ви запитаєте мене. У кожному разі ChatGPT вразив мене людиною, яка лише поверхнево знайома з будь-якою темою на основі плагіату вже існуючих матеріалів в Інтернеті, хоча й складними способами.
3. Якщо ви дійсно вірите, що штучний інтелект може симулювати все, крім самого піку людської творчості, я боюся, що є питання, які виходять за рамки конкретних правил. Як на мене, якщо наведена вище передумова вірна, то мені здається, що вона значно применшує сенс людського існування, незалежно від того, які інституційні механізми ми маємо. Ми називаємо такі заходи, як парекон, визвольними, тому що віримо, що вони розкриють людський потенціал у величезних масштабах. Але якщо людський потенціал можна більш-менш порівняти за допомогою штучного інтелекту за допомогою кількох клацань, то чи не знецінюється це значення самого звільнення?
Рагав,
Я постараюся відповісти коротко, інакше хто знає, як довго ми могли б обговорювати це!
1. Я вірю вам на слово, що «ідея про те, що ChatGPT є науковим проривом, поширена набагато ширше, ніж ви визнаєте», хоча я ніде не бачив цього твердження. Однак я бачив думки, що це інженерія, що змінює світ. Те, що «важливо пояснити широкій неекспертній аудиторії, що це не (науковий прорив)», можливо, і так, але я думаю, що це не таким чином, щоб хтось думав, що не відбувається нічого важливого.
2. Для мене багато дірок, помилок, вигадок у тому, що зараз робить chatgpt та інші системи, не мають значення – суть у траєкторії, яку ми можемо очікувати…
Безсумнівно, те, що в ньому не було погляду актора на героя Шоушенка, здається менш значущим, ніж те, що він мав більш суттєвий погляд, ніж усі, крім небагатьох, хто бачив фільм. Мені теж сподобався фільм, але я взагалі не міг відповісти на запитання. Я думаю, що ми просто маємо не погоджуватися щодо того, яким він є зараз, і тим більше, яким він, ймовірно, буде найближчим часом… але, можливо, враховуючи швидкість його просування — якщо ми не скажемо, що він зайде так далеко, а не далі через вбудовані недоліки (які не вірю) актуальніше.
3. «Але якщо людський потенціал можна більш-менш порівняти з ШІ за допомогою кількох кліків, то чи не знецінюється це значення самого звільнення?» Я думаю, що це занепокоєння, ймовірно, змушує багатьох людей чинити опір/відкидати ідею, що вона може відповідати або замінювати результати людського рівня. Це інтуїція, а не докази. Але в будь-якому випадку я не поділяю страх, як було сказано. Я не розумію, як це змінює те, ким ми є, те, що щось інше може піднімати більше, рухатися швидше, краще обчислювати, краще складати чи що завгодно. З іншого боку, те, що він не тільки може робити все це, але й використовується для того, щоб робити все це та багато іншого, тоді мене хвилює подвійне – його використовують у нечесних цілях, що, зважаючи на наші інституції, неминуче – і навіть коли якщо покінчити з тим, що люди вважають позитивним, це фактично витіснить людей з різних видів діяльності, гальмуючи наші здібності та нахили, де діяльність, яка атрофується, включатиме те, що робить людей, людей...
Немає такого поняття, як складати краще… є просто складання.