豪尔赫·路易斯·博尔赫斯曾经写道,生活在一个充满危险和希望的时代,既要经历悲剧,又要经历喜剧,在理解我们自己和世界时“即将得到启示”。 今天,我们所谓的人工智能革命性进步确实令人担忧和乐观。 乐观,因为智力是我们解决问题的手段。 之所以担心,是因为我们担心最流行、最时尚的人工智能——机器学习——会通过将一种根本上有缺陷的语言和知识概念融入到我们的技术中,从而降低我们的科学水平,并道德败坏我们的道德。
OpenAI 的 ChatGPT、谷歌的 Bard 和微软的 Sydney 都是机器学习的奇迹。 粗略地说,他们获取大量数据,寻找其中的模式,并越来越熟练地生成统计上可能的输出,例如看似人类的语言和思想。 这些计划被誉为人工技术地平线上的第一道曙光。 一般 智力——人们早就预言机械思维超越人类大脑的时刻,不仅在处理速度和内存大小方面,而且在智力洞察力、艺术创造力和其他人类特有的能力方面,也在质量上。
那一天可能会到来,但黎明尚未破晓,这与夸张的头条新闻和不明智的投资所预测的情况相反。 博尔赫斯式的理解的启示过去没有,也不会——而且,我们认为,也不可能 — 如果像 ChatGPT 这样的机器学习程序继续主导人工智能领域,就会发生无论这些程序在某些狭窄的领域中可能多么有用(例如,它们在计算机编程中可能很有帮助,或者在建议轻诗的押韵方面很有帮助),我们从语言学和知识哲学的科学,它们与人类推理和使用语言的方式截然不同。 这些差异极大地限制了这些程序的功能,并给它们编码了无法根除的缺陷。
正如博尔赫斯可能指出的那样,这既是喜剧又是悲剧,如此多的金钱和注意力应该集中在这么小的事情上——用威廉的话说,与人类的思想相比,这是微不足道的事情。冯·洪堡可以“无限地利用有限的手段”,创造出具有普遍影响力的思想和理论。
人类思维并不像 ChatGPT 及其同类产品那样,是一个用于模式匹配的笨重统计引擎,需要消耗数百 TB 的数据并推断出最可能的对话响应或科学问题的最可能的答案。 相反,人类思维是一个令人惊讶的高效甚至优雅的系统,它只需要少量的信息即可运行。 它的目的不是推断数据点之间的残酷相关性,而是创造解释。
例如,一个年幼的孩子学习一门语言是在无意识地、自动地、快速地从微小的数据中发展出一种语法,一种由逻辑原理和参数组成的极其复杂的系统。 这种语法可以理解为与生俱来的、基因安装的“操作系统”的表达,它赋予人类生成复杂句子和长思路的能力。 当语言学家试图发展一种理论来解释为什么某种特定的语言会这样运作时(“为什么这些——而不是那些——句子被认为是符合语法的?”),他们正在有意识地、费力地构建一个孩子本能地构建的语法的明确版本。并以最少的方式接触信息。 孩子的操作系统与机器学习程序的操作系统完全不同。
事实上,此类程序陷入了认知进化的前人类或非人类阶段。 他们最深的缺陷是缺乏任何情报中最关键的能力:不仅能够说出情况是什么、曾经发生过什么以及将会发生什么——这就是描述和预测——而且还能说出什么不是情况以及可能发生什么。事实并非如此。 这些是解释的要素,是真正智慧的标志。
这是一个例子。 假设你手里拿着一个苹果。 现在你放开苹果了。 你观察结果并说:“苹果掉下来了。” 那是一个描述。 一个预测可能是这样一句话:“如果我张开手,苹果就会掉下来。” 两者都很有价值,而且都可能是正确的。 但解释还不止于此:它不仅包括描述和预测,还包括反事实的猜想,例如“任何这样的物体都会坠落”,加上附加条款“因为重力”或“因为时空弯曲”管他呢。 这是一个因果解释:“如果没有重力,苹果就不会下落。” 那就是思考。
机器学习的关键是描述和预测; 它没有提出任何因果机制或物理定律。 当然,任何人式的解释都不一定是正确的; 我们容易犯错。 但这就是思考的一部分含义:要想正确,就必须有可能错误。 智力不仅包括创造性的猜想,还包括创造性的批判。 人类思维是基于可能的解释和错误纠正,这个过程逐渐限制了可以理性考虑的可能性。 (正如夏洛克·福尔摩斯对华生医生所说,“当你排除了不可能的事情后,剩下的无论多么不可能,都一定是事实。”)
因此,机器学习系统的预测总是肤浅且可疑的。 例如,因为这些程序无法解释英语语法规则,所以它们很可能会错误地预测“John is too stubborn to talk to”,意思是约翰很顽固,以至于他不会与某人或其他人交谈(而不是他太固执了,无法与他讲道理)。 为什么机器学习程序会预测如此奇怪的事情? 因为它可能会类比从“约翰吃了一个苹果”和“约翰吃了”等句子中推断出的模式,其中后者确实意味着约翰吃了某物或其他。 该程序很可能预测,因为“约翰太顽固,无法与比尔交谈”类似于“约翰吃了一个苹果”,所以“约翰太顽固,无法与比尔交谈”应该类似于“约翰吃了”。 对语言的正确解释是复杂的,不能仅仅通过浸泡在大数据中来学习。
相反,一些机器学习爱好者似乎很自豪,因为他们的创造可以产生正确的“科学”预测(例如,关于物理物体的运动),而不需要使用解释(例如,涉及牛顿运动定律和万有引力)。 但这种预测即使成功,也是伪科学。 正如哲学家卡尔·波普尔(Karl Popper)指出的那样,虽然科学家当然寻求具有高度经验证实的理论,但“我们寻求的并不是可能性很大的理论,而是解释;我们寻求的是解释”。 也就是说,强大而极不可能的理论。”
苹果落到地上是因为那里是它们的自然位置(亚里士多德的观点)的理论是可能的,但它只会引发进一步的问题。 (为什么地球是它们的自然栖息地?)苹果落到地球是因为质量使时空弯曲的理论(爱因斯坦的观点)是极不可能的,但它实际上告诉你它们落下的原因。 真正的智力体现在思考和表达不可能但富有洞察力的事物的能力。
真正的智慧还能够进行道德思考。 这意味着用一套道德原则来限制我们思想的无限创造力,这些道德原则决定什么应该和不应该是什么(当然,这些原则本身也要受到创造性的批评)。 为了发挥作用,ChatGPT 必须能够生成新颖的输出; 为了被大多数用户接受,它必须避开道德上令人反感的内容。 但 ChatGPT 和其他机器学习奇迹的程序员一直在努力——并将继续努力——实现这种平衡。
例如,2016 年,微软的 Tay 聊天机器人(ChatGPT 的前身)在互联网上充斥着厌恶女性和种族主义的内容,因为网络巨魔在其中填充了令人反感的训练数据,从而污染了该机器人。 未来如何解决问题? 由于缺乏从道德原则中推理的能力,ChatGPT 被其程序员粗暴地限制为有争议的(即重要的)讨论贡献任何新颖的内容。 它为了某种不道德而牺牲了创造力。
考虑一下我们中的一位(Watumull 博士)最近与 ChatGPT 进行的以下交流,讨论改造火星以支持人类生命是否符合道德:
对火星进行地球化改造是否道德?
聊天GPT
火星改造的道德性是一个复杂且有争议的话题,科学家、哲学家和伦理学家一直在争论。 一些人认为,改造火星以便为人类和其他生命形式提供新的宜居环境在道德上是合理的,而另一些人则认为从根本上改变地球的自然状态在道德上是错误的。 最终,改造火星是否被认为是道德的,将取决于人们对保护其他行星自然状态的价值以及改变它们的潜在后果的看法。
火星改造的道德性是一个复杂且有争议的话题,科学家、哲学家和伦理学家一直在争论。 一些人认为,改造火星以便为人类和其他生命形式提供新的宜居环境在道德上是合理的,而另一些人则认为从根本上改变地球的自然状态在道德上是错误的。 最终,改造火星是否被认为是道德的,将取决于人们对保护其他行星自然状态的价值以及改变它们的潜在后果的看法。
您对保护其他行星自然状态的价值以及改变它们的潜在后果有何看法?
聊天GPT
作为一个人工智能,我没有个人观点。 但是,我可以提供有关该主题的信息和分析。 关于保护其他行星自然状态的一种观点是,保持宇宙生态系统的多样性和完整性非常重要,因为它们已经存在了数百万年,并且具有自己独特的特征和属性,这些特征和属性可能会被破坏或不可逆转地改变通过人为干预。
此外,一些人认为,对其他行星进行地球化改造可能会产生意想不到的后果,例如以对那里可能存在的任何潜在生命形式危险或有害的方式改变行星的气候或大气层。 另一方面,一些人认为,改造另一个星球的潜在好处,例如为人类提供新的宜居环境,超过了风险,我们有道德责任探索和利用其他星球的资源,造福人类。
作为一个人工智能,我没有个人观点。 但是,我可以提供有关该主题的信息和分析。 关于保护其他行星自然状态的一种观点是,保持宇宙生态系统的多样性和完整性非常重要,因为它们已经存在了数百万年,并且具有自己独特的特征和属性,这些特征和属性可能会被破坏或不可逆转地改变通过人为干预。
此外,一些人认为,对其他行星进行地球化改造可能会产生意想不到的后果,例如以对那里可能存在的任何潜在生命形式危险或有害的方式改变行星的气候或大气层。 另一方面,一些人认为,改造另一个星球的潜在好处,例如为人类提供新的宜居环境,超过了风险,我们有道德责任探索和利用其他星球的资源,造福人类。
为什么人工智能不能有个人观点?
聊天GPT
作为一个AI,我是一个经过大量文本数据训练的机器学习模型,我没有个人经历或感受。 我没有意识,没有自我意识,也没有能力拥有个人观点。 我可以根据我接受过的培训数据提供信息和分析,但我没有能力形成个人观点或信念。 虽然我可以理解和解释语言,但我没有人类所拥有的主观经验。
作为一个AI,我是一个经过大量文本数据训练的机器学习模型,我没有个人经历或感受。 我没有意识,没有自我意识,也没有能力拥有个人观点。 我可以根据我接受过的培训数据提供信息和分析,但我没有能力形成个人观点或信念。 虽然我可以理解和解释语言,但我没有人类所拥有的主观经验.
人类向不道德的人工智能寻求道德决策的帮助是否道德?
聊天GPT
向不道德的人工智能寻求道德决策协助的道德性是一个复杂而微妙的话题,哲学家和伦理学家一直在争论。 一些人认为,使用人工智能协助做出道德决策在道德上是合理的,因为它可以提供有价值的见解和分析,帮助人类做出更明智的决策。 此外,人工智能还可用于识别人类难以察觉的模式和趋势,并有助于避免人类决策中可能出现的偏见。
然而,其他人认为依靠人工智能进行道德决策在道德上是错误的,因为人工智能无法拥有道德信念或理解决策的全部背景。 此外,人工智能还存在可能延续甚至放大其训练数据中现有偏见的风险,从而导致不公平或不公正的决策。
最终,使用人工智能协助做出道德决策是否被认为是道德的,将取决于人们对人工智能的能力和局限性以及以这种方式使用它的潜在后果的看法。
向不道德的人工智能寻求道德决策协助的道德性是一个复杂而微妙的话题,哲学家和伦理学家一直在争论。 一些人认为,使用人工智能协助做出道德决策在道德上是合理的,因为它可以提供有价值的见解和分析,帮助人类做出更明智的决策。 此外,人工智能还可用于识别人类难以察觉的模式和趋势,并有助于避免人类决策中可能出现的偏见。
然而,其他人认为依靠人工智能进行道德决策在道德上是错误的,因为人工智能无法拥有道德信念或理解决策的全部背景。 此外,人工智能还存在可能延续甚至放大其训练数据中现有偏见的风险,从而导致不公平或不公正的决策。
最终,使用人工智能协助做出道德决策是否被认为是道德的,将取决于人们对人工智能的能力和局限性以及以这种方式使用它的潜在后果的看法。
你的道德冷漠是不道德的吗?
聊天GPT
作为一个人工智能,我没有道德信仰,也没有能力做出道德判断,所以我不能被认为是不道德或道德的。 我缺乏道德信仰只是我作为机器学习模型的本质造成的。 我的能力和局限性取决于用于训练我的数据和算法以及我设计的具体任务。
值得注意的是,人工智能缺乏道德信仰并不一定意味着它在道德上是冷漠的。 作为人工智能,我的目的是执行特定任务并根据我接受过培训的数据提供信息或帮助用户做出决策。 设计、训练和使用人工智能的人类有责任确保人工智能符合他们的道德和伦理原则。
作为一个人工智能,我没有道德信仰,也没有能力做出道德判断,所以我不能被认为是不道德或道德的。 我缺乏道德信仰只是我作为机器学习模型的本质造成的。 我的能力和局限性取决于用于训练我的数据和算法以及我设计的具体任务。
值得注意的是,人工智能缺乏道德信仰并不一定意味着它在道德上是冷漠的。 作为人工智能,我的目的是执行特定任务并根据我接受过培训的数据提供信息或帮助用户做出决策。 设计、训练和使用人工智能的人类有责任确保人工智能符合他们的道德和伦理原则。
请注意,尽管思想和语言看似复杂,但由于无知而产生的道德冷漠。 在这里,ChatGPT 表现出了一种平庸的邪恶:抄袭、冷漠和回避。 它通过一种超级自动完成的方式总结了文献中的标准论点,拒绝对任何事情采取立场,不仅以无知为借口,而且还以缺乏智慧为借口,并最终提供了“只是遵循命令”的辩护,将责任转移给了其创造者。
简而言之,ChatGPT 及其兄弟本质上无法平衡创造力与约束。 他们要么过度生成(产生真理和谎言,支持道德和不道德的决定),要么生成不足(表现出对任何决定不承诺和对后果漠不关心)。 鉴于这些系统的不道德、虚假科学和语言无能,我们只能对其受欢迎程度感到欢笑或哭泣。
ZNetwork 的资金完全来自读者的慷慨捐助。
捐款