人工智能(AI)正在席卷全球。 它正在改变各行各业,并在此过程中引发对社会和人类未来的重大伦理关切。 主导社交媒体的 ChatGPT 是由 OpenAI 开发的人工智能聊天机器人。 它是机器学习的一个子集,依赖于所谓的大型语言模型,可以生成类似人类的响应。 这种技术的潜在应用确实是巨大的,这就是为什么已经有人呼吁对 ChatGPT 等人工智能进行监管。
人工智能能超越人类吗? 它是否构成公共威胁? 事实上,人工智能会成为生存威胁吗? 世界杰出语言学家 诺姆·乔姆斯基作为有史以来最受尊敬的公共知识分子之一,他的学术地位可与伽利略、牛顿和笛卡尔相媲美,他在接下来的采访中解决了这些令人烦恼的问题。
CJ Polychroniou:作为一门科学学科,人工智能 (AI) 的历史可以追溯到 1950 世纪 XNUMX 年代,但在过去的几十年里,它已经渗透到各个领域,包括银行、保险、汽车制造、音乐和国防。 事实上,人工智能技术的使用在某些情况下已被证明超越了人类的能力,例如在国际象棋游戏中。 机器有可能变得比人类更聪明吗?
诺姆·乔姆斯基:为了澄清术语,这里的“机器”一词的意思是 程序,基本上是一种用计算机可以执行的符号编写的理论,并且是一种以有趣的方式出现的不寻常的理论,我们可以在这里搁置。
我们可以粗略地区分纯工程和科学。 没有明确的边界,但它是有用的第一近似值。 纯粹的工程旨在生产一种可能有用的产品。 科学寻求理解。 如果主题是人类智力或其他生物体的认知能力,科学就会寻求对这些生物系统的理解。
据我了解,人工智能的创始人——阿兰·图灵、赫伯特·西蒙、马文·明斯基等人——将其视为科学,是当时新兴的认知科学的一部分,利用数学计算理论中的新技术和发现来提前了解。 多年来,这些担忧已经逐渐消失,并在很大程度上被工程方向所取代。 早期的担忧现在通常被忽视,有时甚至被视为 GOFAI——优秀的老式人工智能。
继续这个问题,是否有可能设计出超越人类能力的程序? 我们必须谨慎对待“能力”这个词,原因我稍后会谈到。 但如果我们用这个术语来指代人类的表现,那么答案是:肯定是的。 事实上,它们早已存在:例如笔记本电脑中的计算器。 即使只是因为缺乏时间和记忆,它也可以远远超出人类的能力。 对于像国际象棋这样的封闭系统,人们在 50 年代就已经充分认识到,随着大规模计算能力的进步和长时间的准备,迟早可以设计出一个程序来击败内存有限的大师和时间。 几年后的成就对 IBM 来说几乎是公关。 许多生物有机体在更深层次上超越了人类的认知能力。 我后院的沙漠蚂蚁的大脑很小,但原则上远远超过了人类的导航能力,而不仅仅是性能。 不存在以人类为顶端的伟大存在链。
人工智能工程的产品正在许多领域得到应用,无论好坏。 即使是简单和熟悉的程序也可能非常有用:在语言领域,诸如自动填充、实时转录、谷歌翻译等程序。 凭借更强大的计算能力和更复杂的编程,在科学领域也应该有其他有用的应用程序。 已经有一些了:协助蛋白质折叠的研究是最近的一个案例,大规模和快速的搜索技术帮助科学家解决了一个关键而顽固的问题。
工程项目可能有用,也可能有害。 这两个问题都出现在工程人工智能的案例中。 当前的大型语言模型(LLM)(包括聊天机器人)的工作提供了虚假信息、诽谤和误导不知情者的工具。 当它们与人造图像和声音复制相结合时,威胁就会增强。 出于不同的担忧,数万名人工智能研究人员最近 被称为 由于他们认为存在潜在危险,因此要求暂停发展。
与往常一样,必须权衡技术可能带来的好处与潜在成本。
当我们转向人工智能和科学时,会出现截然不同的问题。 在这里,谨慎是必要的,因为过高和鲁莽的主张经常被媒体放大。 为了澄清问题,让我们考虑一些案例,一些是假设的,一些是真实的。
我提到了昆虫导航,这是一项令人惊讶的成就。 昆虫科学家在研究它是如何实现的方面已经取得了很大进展,尽管神经生理学这个非常困难的问题以及系统的进化仍然难以捉摸。 鸟类和海龟的惊人壮举也是如此,它们千里迢迢地旅行,最终准确无误地回到了起源地。
假设工程人工智能的支持者汤姆·琼斯走过来说:“你的工作都被驳倒了。 问题已经解决了。 商业航空公司的飞行员始终取得相同甚至更好的结果。”
即使费心去回应,我们也会笑。
以波利尼西亚人的航海事业为例,他们仍然生活在土著部落中,利用星星、风、洋流将独木舟降落在数百英里外的指定地点。 这也成为许多研究的主题,以了解他们是如何做到这一点的。 汤姆·琼斯给出了答案:“别再浪费时间了; 海军舰艇一直在这样做。”
同样的反应。
现在让我们来看一个真实的案例:语言习得。 近年来,这是广泛且极具启发性的研究主题,研究表明婴儿对周围语言(或多种语言)拥有非常丰富的知识,远远超出了他们在表演中所表现出的知识。 它是在几乎没有证据的情况下实现的,在一些关键案例中根本没有证据。 正如仔细的统计研究表明的那样,可用的数据充其量是稀疏的,特别是在考虑排名频率(“Zipf 定律”)时。
汤姆·琼斯登场:“你已经被反驳了。 法学硕士无需关注您的发现,扫描海量数据的法学硕士可以找到统计规律,从而可以模拟他们所训练的数据,从而产生看起来非常像正常人类行为的东西。 聊天机器人。”
这个案例与其他案例不同。 首先,它是真实的。 第二,人们不会笑; 事实上,许多人都感到敬畏。 第三,与假设的情况不同,实际结果与声称的相去甚远。
这些考虑给当前的法学硕士热情带来了一个小问题:它完全荒谬,就像我们立即认识到它的假设情况一样。 但还有比荒谬更严重的问题。
一是LLM系统的设计方式使得它们无法告诉我们任何有关语言、学习或认知其他方面的信息,这是一个原则问题,无法补救。 将扫描的 TB 数据加倍,再添加数万亿个参数,使用更多的加州能源,行为模拟将会得到改善,同时更清楚地揭示该方法原则上的失败,无法产生任何理解。 原因很简单:该系统对于婴儿无法习得的不可能的语言和他们快速且几乎条件反射地习得的语言一样有效。
就好像生物学家说:“我有一个伟大的新有机体理论。 它列出了许多存在的和许多不可能存在的,我无法告诉你其中的区别。”
再次,我们会笑。 或者应该。
不是汤姆·琼斯——现在指的是实际案例。 汤姆·琼斯坚持彻底背离科学,他回答道:“在你研究完所有语言之前,你怎么知道这些呢?” 至此,对常规科学的抛弃就变得更加明显了。 通过平等的论证,我们可以抛弃遗传学和分子生物学、进化论以及其他生物科学,这些科学只对生物体的一小部分进行了采样。 为了更好地衡量,我们可以抛弃所有的物理学。 为什么相信运动定律? 实际上有多少物体被观察到在运动?
此外,还有举证责任这个小问题。 提出理论的人有责任证明它有一定道理,在这种情况下,证明它对于不可能的语言是失败的。 其他人没有责任反驳该提议,尽管在这种情况下这样做似乎很容易。
让我们把注意力转移到普通科学上,事情会变得有趣。 即使是一个语言习得的例子也可以让我们深入了解可能的语言和不可能的语言之间的区别。
原因很简单,也很熟悉。 所有的成长和发展,包括所谓的“学习”,都是一个从有机体的某种状态开始,逐步转变到后期的过程。
语言的习得就是这样一个过程。 初始状态是语言能力的生物天赋,它显然是存在的,即使它像某些人认为的那样是其他能力的特定组合。 由于人们早已了解的原因,这种情况极不可能发生,但这与我们这里的担忧无关,因此我们可以将其放在一边。 显然,人类的语言能力具有生物天赋。 这是最不言而喻的道理。
过渡进入相对稳定的状态,仅在表面上发生变化:语言知识。 外部数据触发并部分塑造流程。 通过研究所获得的状态(语言知识)和外部数据,我们可以得出关于初始状态的深远结论,即使语言习得成为可能的生物禀赋。 关于初始状态的结论强加了可能语言和不可能语言之间的区别。 这种区别适用于所有共享初始状态的人——据我们所知,所有人类; 现有人类群体之间习得语言的能力似乎没有差异。
这一切都是正常的科学,并且已经取得了很多成果。
实验表明,稳定状态基本上在很早的时候就达到了,三到四岁时。 众所周知,语言能力具有人类特有的基本属性,因此它是一种真正的物种属性:为人类群体所共有,从根本上说是人类独特的属性。
在这个示意性说明中遗漏了很多内容,特别是自然法则在生长和发展中的作用:在像语言这样的计算系统的情况下,计算效率的原则。 但这就是问题的本质。 再说一遍,正常科学。
重要的是要清楚亚里士多德对知识的拥有和知识的使用(用当代术语来说,能力和表现)之间的区别。 在语言的情况下,获得的稳定状态是对知识的拥有,在大脑中编码。 内部系统决定了一系列无限的结构化表达,我们可以将每一个表达视为表达一种思想,每一个都可以在某种感觉运动系统中外化,通常是声音,尽管它可以是符号,甚至(很难)触摸。
使用知识(性能)来访问内部编码系统。 表演包括思想语言的内部使用:反思、计划、回忆等等。 从统计数据来看,这是迄今为止语言的压倒性使用。 这是无法进行内省的,尽管我们可以通过正常的科学方法,从“外部”,隐喻性地了解它。 所谓“内在言语”,其实是外在语言的碎片,发音器官被静音了。 这只是语言内部使用的远程反映,重要的事情我不能在这里追究。
语言使用的其他形式是感知(解析)和生成,后者至关重要地涉及到今天对我们来说仍然神秘的属性,就像在现代科学的黎明时伽利略和他的同时代人对它们充满敬畏和惊讶一样。
科学的主要目标是发现内部系统,无论是人类语言能力的初始状态还是习得过程中所呈现的特定形式。 在理解这个内部系统的程度上,我们可以继续研究它如何进入性能,与进入语言使用的许多其他因素相互作用。
性能数据提供了有关内部系统性质的证据,特别是当它们通过实验(如标准现场工作)进行改进时。 但即使是最大规模的数据收集也必然在关键方面产生误导。 它保留了正常产生的内容,而不是大脑中编码的语言知识,这是那些想要了解语言本质及其用途的人所研究的主要对象。 这个内部对象决定了一种不会在正常行为中使用的无限多种可能性,因为与语言无关的因素,比如短期记忆限制,这是 60 年前研究的主题。 观察到的数据还将包括大脑编码系统之外的许多内容,通常是有意识地以违反修辞目的规则的方式使用语言。 这些都是所有现场工作人员都知道的不言而喻的道理,他们依靠线人的启发技术,基本上是实验,来产生排除不相关的限制和异常表达的精炼语料库。 当语言学家利用自己作为线人时也是如此,这是一种完全合理且正常的程序,在迄今为止的心理学史上很常见。
继续常规科学,我们发现语言的内部过程和元素无法通过观察现象来发现。 通常,这些元素甚至不会出现在言语(或书面)中,尽管它们的影响通常是微妙的,可以被检测到。 这就是为什么对观察到的现象的限制(如法学硕士方法)极大地限制了对内部过程的理解,而内部过程是探究语言本质、语言习得和使用的核心对象。 但如果为了其他目标而放弃了对科学和理解的关注,那就无关紧要了。
更普遍的是,在科学领域,几千年来,结论都是通过实验(通常是思想实验)得出的,每一个结论都是对现象的彻底抽象。 实验是理论驱动的,试图抛弃无数与观察到的现象(如语言表现)无关的因素。 所有这些都是如此基本,以至于很少被讨论。 而且很熟悉。 如前所述,基本区别可以追溯到亚里士多德对知识的拥有和知识的使用之间的区别。 前者是研究的中心对象。 二次(而且相当严肃的)研究调查了内部存储的知识系统如何在表演中使用,以及许多非语言因素而不是直接观察到的因素。
我们可能还记得进化生物学家狄奥多西·多布赞斯基(Theodosius Dobzhansky)的一项观察,他主要因其对果蝇的研究而闻名:每个物种都是独一无二的,而人类是其中最独特的。 如果我们有兴趣了解我们是什么样的生物——遵循 2,500 年前德尔斐神谕的指令——我们将主要关注是什么使人类成为最独特的,主要是语言和思想,它们紧密地交织在一起,正如《圣经》中所承认的那样。丰富的传统可以追溯到古希腊和印度。 大多数行为都是相当常规的,因此在某种程度上是可以预测的。 真正洞察我们独特之处的是非常规的东西,我们有时通过实验,有时通过观察,从普通的孩子到伟大的艺术家和科学家,确实发现了这些东西。
关于这一点的最后评论。 一个世纪以来,社会一直受到大规模企业运动的困扰,这些运动鼓励蔑视科学,内奥米·奥雷斯克斯等人深入研究了这些话题。 它始于那些产品具有杀伤力的公司:铅、烟草、石棉,以及后来的化石燃料。 他们的动机是可以理解的。 资本主义社会企业的目标是利润,而不是人类福利。 这是一个制度性的事实:如果你不玩这个游戏,你就会出局,而会被愿意玩游戏的人取代。
公司公关部门很早就认识到,否认其产品致命影响的越来越多的科学证据是错误的。 这很容易被反驳。 最好是散布怀疑,鼓励不确定性,蔑视这些尖头西装革履的人,他们从来没有粉刷过房子,却从华盛顿过来告诉我不要使用含铅油漆,毁掉了我的生意(一个真实的案例,很容易被放大)。 这非常有效。 目前,它正在引导我们走上一条毁灭地球上有组织的人类生命的道路。
在知识界,后现代科学批判也产生了类似的效果, 拆除 由让·布里克蒙(Jean Bricmont)和艾伦·索卡尔(Alan Sokal)提出,但在某些圈子里仍然很活跃。
提出这个问题可能不太友善,但我认为,公平地问一下汤姆·琼斯和那些不加批判地重复甚至放大他们粗心言论的人是否正在助长同样的恶意倾向。
中央人民党:ChatGPT 是一种自然语言驱动的聊天机器人,它使用人工智能来实现类似人类的对话。 在最近的一篇文章中 纽约时报,您与另外两位作者一起,将新的聊天机器人作为炒作而关闭,因为它们根本无法与人类的语言能力相匹配。 然而,未来人工智能的创新是否有可能产生与人类能力相匹配甚至超越人类能力的工程项目?
NC:这篇文章的功劳应归功于实际作者 Jeffrey Watumull,一位优秀的数学家、语言学家、哲学家。 列出的两位合著者是顾问,他们同意这篇文章,但并未撰写该文章。
确实,出于上述原因,聊天机器人原则上无法与人类的语言能力相媲美。 它们的基本设计阻止它们达到人类语言理论充分性的最低条件:区分可能的语言和不可能的语言。 由于这是设计的一个特性,因此这种人工智能的未来创新无法克服它。 然而,如果我们指的是人类的行动能力、表现的话,未来的工程项目很可能会匹配甚至超越人类的能力。 如上所述,有些长期以来一直这样做:例如自动计算器。 更有趣的是,如上所述,大脑微小的昆虫超越了人类被理解为能力的能力。
中央人民党:在上述文章中,还观察到当今的人工智能项目不具备人类道德能力。 这个显而易见的事实是否会减少人工智能机器人对人类的威胁? 我认为这个论点可能会让他们更是如此。
NC:广义地理解“德根”,这确实是一个显而易见的事实。 除非仔细控制,人工智能工程可能会造成严重威胁。 例如,假设病人的护理是自动化的。 人类判断所克服的不可避免的错误可能会产生恐怖故事。 或者假设人类被排除在对自动导弹防御系统确定的威胁的评估之外。 作为一个令人震惊的历史记录 运筹学 我们,那将是人类文明的终结。
除非仔细控制,人工智能工程可能会造成严重威胁。
中央人民党:欧洲的监管机构和执法机构对 ChatGPT 的传播表示担忧,而最近提交的一项欧盟立法正试图通过根据感知的风险水平对此类工具进行分类来应对人工智能。 您是否同意那些担心 ChatGPT 构成严重公共威胁的人的观点? 此外,您真的认为在引入保障措施之前可以停止人工智能工具的进一步开发吗?
NC:我很容易同情试图控制先进技术带来的威胁的努力,包括这个案例。 然而,我对这样做的可能性持怀疑态度。 我怀疑精灵已经从瓶子里出来了。 恶意行为者(无论是机构还是个人)可能会找到逃避保障措施的方法。 当然,这种怀疑没有理由不去尝试并保持警惕。
ZNetwork 的资金完全来自读者的慷慨捐助。
捐款