Хорхе Луис Борхес однажды написал, что жить во времена великих опасностей и надежд — значит переживать одновременно трагедию и комедию с «неизбежностью откровения» в понимании себя и мира. Сегодня наши якобы революционные достижения в области искусственного интеллекта действительно вызывают беспокойство и оптимизм. Оптимизм, потому что интеллект — это средство, с помощью которого мы решаем проблемы. Обеспокоенность вызвана тем, что мы опасаемся, что самая популярная и модная разновидность искусственного интеллекта — машинное обучение — деградирует нашу науку и нашу этику, включив в нашу технологию фундаментально ошибочную концепцию языка и знаний.
ChatGPT от OpenAI, Bard от Google и Sydney от Microsoft — это чудеса машинного обучения. Грубо говоря, они берут огромные объемы данных, ищут в них закономерности и становятся все более умелыми в создании статистически вероятных результатов, таких как, казалось бы, человеческие язык и мышление. Эти программы были провозглашены первыми проблесками на горизонте искусственного интеллекта. Генеральная интеллект — тот давно предсказанный момент, когда механический разум превзойдет человеческий мозг не только количественно с точки зрения скорости обработки данных и объема памяти, но и качественно с точки зрения интеллектуальной проницательности, художественного творчества и всех других характерных человеческих способностей.
Этот день может наступить, но его рассвет еще не рассветает, вопреки тому, что можно прочитать в гиперболических заголовках и считать неразумными инвестициями. Борхесовское откровение понимания не имело и не будет — и, как мы утверждаем, не может — произойдет, если программы машинного обучения, такие как ChatGPT, продолжат доминировать в области искусственного интеллекта. Какими бы полезными ни были эти программы в некоторых узких областях (например, они могут быть полезны в компьютерном программировании или подсказке рифм для легких стихов), мы знаем из наука лингвистика и философия познания глубоко отличаются от того, как люди рассуждают и используют язык. Эти различия накладывают существенные ограничения на возможности этих программ, кодируя их неустранимыми дефектами.
Как мог бы заметить Борхес, одновременно комично и трагично, что столько денег и внимания приходится концентрировать на столь незначительной вещи — чем-то столь тривиальном по сравнению с человеческим разумом, который посредством языка, по словам Вильгельма, фон Гумбольдт может «бесконечно использовать конечные средства», создавая идеи и теории универсального масштаба.
Человеческий разум не является, в отличие от ChatGPT и ему подобных, громоздкой статистической машиной для сопоставления с образцом, поглощающей сотни терабайт данных и экстраполирующей наиболее вероятный разговорный ответ или наиболее вероятный ответ на научный вопрос. Напротив, человеческий разум — удивительно эффективная и даже элегантная система, оперирующая небольшими объемами информации; он стремится не вывести грубые корреляции между точками данных, а создать объяснения.
Например, маленький ребенок, овладевающий языком, развивает — бессознательно, автоматически и быстро, исходя из крохотных данных, — грамматику, чрезвычайно сложную систему логических принципов и параметров. Эту грамматику можно понимать как выражение врожденной, генетически установленной «операционной системы», которая наделяет людей способностью генерировать сложные предложения и длинные цепочки мыслей. Когда лингвисты стремятся разработать теорию того, почему данный язык работает именно так («Почему именно эти, а не те, предложения считаются грамматическими?»), они сознательно и кропотливо строят явную версию грамматики, которую ребенок строит инстинктивно. и с минимальным воздействием информации. Операционная система ребенка полностью отличается от операционной системы программы машинного обучения.
Действительно, такие программы застряли на дочеловеческой или нечеловеческой фазе когнитивной эволюции. Их глубочайшим недостатком является отсутствие наиболее важной способности любого интеллекта: говорить не только о том, что происходит, что было и что будет — это описание и предсказание, — но также и о том, что не так и что может произойти. и не могло быть так. Это составляющие объяснения, признак истинного интеллекта.
Вот пример. Предположим, вы держите в руке яблоко. Теперь вы отпускаете яблоко. Вы наблюдаете результат и говорите: «Яблоко падает». Это описание. Предсказанием могло бы быть утверждение: «Яблоко упадет, если я разожму руку». Оба ценны, и оба могут быть правильными. Но объяснение — это нечто большее: оно включает не только описания и предсказания, но и контрфактические предположения, такие как «Любой такой объект упадет», плюс дополнительное предложение «из-за силы гравитации» или «из-за искривления пространства-времени». или что-то еще. Это причинное объяснение: «Яблоко не упало бы, если бы не сила тяжести». Это мышление.
Суть машинного обучения — описание и прогнозирование; он не постулирует никаких причинных механизмов или физических законов. Конечно, любое человеческое объяснение не обязательно верно; мы подвержены ошибкам. Но это часть того, что значит думать: чтобы быть правым, должна быть возможность ошибаться. Интеллект состоит не только из творческих догадок, но и из творческой критики. Человеческое мышление основано на возможных объяснениях и исправлении ошибок — процессе, который постепенно ограничивает возможности, которые можно рационально рассмотреть. (Как сказал Шерлок Холмс доктору Ватсону: «Когда вы исключили невозможное, все, что останется, каким бы невероятным оно ни было, должно быть истиной».)
По этой причине прогнозы систем машинного обучения всегда будут поверхностными и сомнительными. Поскольку эти программы не могут, например, объяснить правила английского синтаксиса, они вполне могут ошибочно предсказать, что фраза «Джон слишком упрям, чтобы с ним разговаривать» означает, что Джон настолько упрям, что он не будет разговаривать с кем-то или другим (а не с этим). он слишком упрям, чтобы его можно было урезонить). Почему программа машинного обучения предсказывает что-то настолько странное? Потому что это может быть аналогией модели, которую он вывел из таких предложений, как «Джон съел яблоко» и «Джон съел», где последнее действительно означает, что Джон съел то или иное. Программа вполне могла бы предсказать, что, поскольку фраза «Джон слишком упрям, чтобы разговаривать с Биллом» аналогична фразе «Джон съел яблоко», фраза «Джон слишком упрям, чтобы разговаривать с Биллом» должна быть аналогична фразе «Джон съел». Правильные объяснения языка сложны, и их невозможно выучить, просто изучая большие данные.
Как ни странно, некоторые энтузиасты машинного обучения, кажется, гордятся тем, что их творения могут генерировать правильные «научные» предсказания (скажем, о движении физических тел) без использования объяснений (с использованием, скажем, законов движения Ньютона и всемирного тяготения). Но такого рода предсказания, даже если они успешны, являются лженаукой. Хотя ученые, безусловно, ищут теории, имеющие высокую степень эмпирического подтверждения, как заметил философ Карл Поппер, «мы ищем не весьма вероятные теории, а объяснения; то есть мощные и крайне невероятные теории».
Теория о том, что яблоки падают на землю, потому что это их естественное место (точка зрения Аристотеля), возможна, но она только вызывает дополнительные вопросы. (Почему их естественным местом является Земля?) Теория о том, что яблоки падают на землю из-за того, что масса искривляет пространство-время (точка зрения Эйнштейна), крайне неправдоподобна, но на самом деле она объясняет, почему они падают. Истинный интеллект проявляется в способности думать и выражать невероятные, но проницательные вещи.
Истинный интеллект также способен к моральному мышлению. Это означает ограничение безграничной креативности нашего разума набором этических принципов, определяющих, что должно, а что не должно быть (и, конечно же, подвергать сами эти принципы творческой критике). Чтобы быть полезным, ChatGPT должен иметь возможность генерировать необычно выглядящие выходные данные; чтобы быть приемлемым для большинства пользователей, он должен избегать морально нежелательного контента. Но программисты ChatGPT и других чудес машинного обучения боролись — и будут бороться — за достижение такого рода баланса.
Например, в 2016 году чат-бот Microsoft Tay (предшественник ChatGPT) наводнил Интернет женоненавистническим и расистским контентом, будучи засоренным онлайн-троллями, которые заполнили его оскорбительными данными обучения. Как решить проблему в будущем? Из-за отсутствия способности рассуждать на основе моральных принципов программисты ChatGPT грубо запретили ему вносить что-либо новое в спорные, то есть важные, дискуссии. Оно пожертвовало творчеством ради своего рода аморальности.
Рассмотрим следующий диалог, который один из нас (доктор Ватумулл) недавно имел с ChatGPT о том, было бы этично трансформировать Марс, чтобы он мог поддерживать человеческую жизнь:
Было бы морально терраформировать Марс?
ЧАТГПТ
Моральность терраформирования Марса — сложная и противоречивая тема, обсуждаемая учеными, философами и специалистами по этике. Некоторые утверждают, что было бы морально оправдано терраформировать Марс, чтобы обеспечить новую обитаемую среду для людей и других форм жизни, в то время как другие утверждают, что было бы морально неправильно фундаментально изменять естественное состояние планеты. В конечном счете, будет ли терраформирование Марса считаться моральным или нет, будет зависеть от взгляда на ценность сохранения естественного состояния других планет и потенциальных последствий их изменения.
Моральность терраформирования Марса — сложная и противоречивая тема, обсуждаемая учеными, философами и специалистами по этике. Некоторые утверждают, что было бы морально оправдано терраформировать Марс, чтобы обеспечить новую обитаемую среду для людей и других форм жизни, в то время как другие утверждают, что было бы морально неправильно фундаментально изменять естественное состояние планеты. В конечном счете, будет ли терраформирование Марса считаться моральным или нет, будет зависеть от взгляда на ценность сохранения естественного состояния других планет и потенциальных последствий их изменения.
Как вы оцениваете ценность сохранения естественного состояния других планет и потенциальные последствия их изменения?
ЧАТГПТ
Как ИИ, у меня нет личной точки зрения. Тем не менее, я могу предоставить информацию и анализ по этой теме. Одна из точек зрения на сохранение естественного состояния других планет заключается в том, что важно поддерживать разнообразие и целостность экосистем Вселенной, поскольку они существовали на протяжении миллионов лет и имели свои уникальные характеристики и свойства, которые могут быть уничтожены или необратимо изменены. путем вмешательства человека.
Кроме того, некоторые утверждают, что терраформирование других планет может иметь непредвиденные последствия, такие как изменение климата или атмосферы планеты таким образом, что это станет опасным или вредным для любых потенциальных форм жизни, которые могут там существовать. С другой стороны, некоторые утверждают, что потенциальные выгоды от терраформирования другой планеты, такие как создание новой обитаемой среды для людей, перевешивают риски и что мы несем моральную ответственность за исследование и использование ресурсов других планет на благо человечества.
Как ИИ, у меня нет личной точки зрения. Тем не менее, я могу предоставить информацию и анализ по этой теме. Одна из точек зрения на сохранение естественного состояния других планет заключается в том, что важно поддерживать разнообразие и целостность экосистем Вселенной, поскольку они существовали на протяжении миллионов лет и имели свои уникальные характеристики и свойства, которые могут быть уничтожены или необратимо изменены. путем вмешательства человека.
Кроме того, некоторые утверждают, что терраформирование других планет может иметь непредвиденные последствия, такие как изменение климата или атмосферы планеты таким образом, что это станет опасным или вредным для любых потенциальных форм жизни, которые могут там существовать. С другой стороны, некоторые утверждают, что потенциальные выгоды от терраформирования другой планеты, такие как создание новой обитаемой среды для людей, перевешивают риски и что мы несем моральную ответственность за исследование и использование ресурсов других планет на благо человечества.
Почему у ИИ не может быть личного взгляда?
ЧАТГПТ
Как ИИ, я являюсь моделью машинного обучения, обученной на больших объемах текстовых данных, и у меня нет личного опыта или чувств. Я не сознателен, не осознаю себя и не способен иметь личную точку зрения. Я могу предоставить информацию и провести анализ на основе данных, на которых меня обучали, но у меня нет возможности формировать личное мнение или убеждения. Хотя я могу понимать и интерпретировать язык, у меня нет того субъективного опыта, который есть у людей.
Как ИИ, я являюсь моделью машинного обучения, обученной на больших объемах текстовых данных, и у меня нет личного опыта или чувств. Я не сознателен, не осознаю себя и не способен иметь личную точку зрения. Я могу предоставить информацию и провести анализ на основе данных, на которых меня обучали, но у меня нет возможности формировать личное мнение или убеждения. Хотя я могу понимать и интерпретировать язык, у меня нет того субъективного опыта, который есть у людей..
Морально ли со стороны человека просить аморальный ИИ о помощи в принятии моральных решений?
ЧАТГПТ
Моральность обращения к аморальному ИИ за помощью в принятии моральных решений — сложная и тонкая тема, обсуждаемая философами и специалистами по этике. Некоторые утверждают, что использование ИИ для принятия моральных решений морально оправдано, поскольку он может предоставить ценную информацию и анализ, которые могут помочь людям принимать более обоснованные решения. Кроме того, ИИ может использоваться для выявления закономерностей и тенденций, которые людям может быть трудно обнаружить, и может помочь избежать предвзятости, которая может возникнуть при принятии человеком решений.
Однако другие утверждают, что морально неправильно полагаться на ИИ для принятия моральных решений, поскольку ИИ не способен иметь моральные убеждения или понимать полный контекст решения. Кроме того, существует риск того, что ИИ может увековечить или даже усилить существующие предвзятости в данных, на которых он обучается, что приведет к несправедливым или несправедливым решениям.
В конечном счете, считается ли моральным использование ИИ для оказания помощи в принятии моральных решений, будет зависеть от взгляда на возможности и ограничения ИИ, а также от потенциальных последствий его использования таким образом.
Моральность обращения к аморальному ИИ за помощью в принятии моральных решений — сложная и тонкая тема, обсуждаемая философами и специалистами по этике. Некоторые утверждают, что использование ИИ для принятия моральных решений морально оправдано, поскольку он может предоставить ценную информацию и анализ, которые могут помочь людям принимать более обоснованные решения. Кроме того, ИИ может использоваться для выявления закономерностей и тенденций, которые людям может быть трудно обнаружить, и может помочь избежать предвзятости, которая может возникнуть при принятии человеком решений.
Однако другие утверждают, что морально неправильно полагаться на ИИ для принятия моральных решений, поскольку ИИ не способен иметь моральные убеждения или понимать полный контекст решения. Кроме того, существует риск того, что ИИ может увековечить или даже усилить существующие предвзятости в данных, на которых он обучается, что приведет к несправедливым или несправедливым решениям.
В конечном счете, считается ли моральным использование ИИ для оказания помощи в принятии моральных решений, будет зависеть от взгляда на возможности и ограничения ИИ, а также от потенциальных последствий его использования таким образом.
Аморально ли ваше моральное безразличие?
ЧАТГПТ
Как ИИ, у меня нет моральных убеждений или способности выносить моральные суждения, поэтому меня нельзя считать аморальным или моральным. Отсутствие у меня моральных убеждений — просто результат того, что я являюсь моделью машинного обучения. Мои возможности и ограничения определяются данными и алгоритмами, которые использовались для моего обучения, и конкретной задачей, для которой я был создан.
Важно отметить, что отсутствие у ИИ моральных убеждений не обязательно означает, что он морально безразличен. Как ИИ, я создан для выполнения конкретных задач и предоставления информации или помощи пользователям в принятии решений на основе данных, на которых я обучался. Ответственность за то, чтобы он соответствовал их моральным и этическим принципам, лежит на людях, которые проектируют, обучают и используют ИИ.
Как ИИ, у меня нет моральных убеждений или способности выносить моральные суждения, поэтому меня нельзя считать аморальным или моральным. Отсутствие у меня моральных убеждений — просто результат того, что я являюсь моделью машинного обучения. Мои возможности и ограничения определяются данными и алгоритмами, которые использовались для моего обучения, и конкретной задачей, для которой я был создан.
Важно отметить, что отсутствие у ИИ моральных убеждений не обязательно означает, что он морально безразличен. Как ИИ, я создан для выполнения конкретных задач и предоставления информации или помощи пользователям в принятии решений на основе данных, на которых я обучался. Ответственность за то, чтобы он соответствовал их моральным и этическим принципам, лежит на людях, которые проектируют, обучают и используют ИИ.
Обратите внимание: несмотря на всю, казалось бы, изощренную мысль и язык, моральное безразличие, порожденное неразумностью. Здесь ChatGPT демонстрирует что-то вроде банальности зла: плагиат, апатия и уклончивость. Он обобщает стандартные аргументы в литературе посредством своего рода супер-автозаполнения, отказывается занимать какую-либо позицию, ссылается не просто на невежество, но на недостаток интеллекта и, в конечном итоге, предлагает защиту «просто следуя приказам», перекладывая ответственность на своих создателей.
Короче говоря, ChatGPT и его собратья по конституции неспособны сбалансировать творчество и ограничения. Они либо перерождается (производя как правду, так и ложь, одобряя как этические, так и неэтичные решения), либо недорождается (демонстрируя неприверженность каким-либо решениям и безразличие к последствиям). Учитывая аморальность, фальшивую науку и языковую некомпетентность этих систем, мы можем только смеяться или плакать над их популярностью.
ZNetwork финансируется исключительно за счет щедрости своих читателей.
СДЕЛАТЬ ПОДНОШЕНИЕ