AI字母汤的真相(ANI、AGI、ASI)
本文Demystifying AI的一部分,该系列文章(试图)消除围绕 AI 的术语和神话。
人工智能经常使用人工智能(ANI)、通用人工智能(AGI) 和人工超级智能 (ASI) 来解释。 尽管这个奇怪的概念框架没有提供任何真正的价值,但它在许多讨论中找到了它的方式。 如果不熟悉这些类别,请认为自己很幸运,然后继续阅读另一篇更重要的文章。如果你运气不好,我邀请你继续阅读。
首先,哀叹的分类——正如我即将做的那样——价值有限,因为类别是任意相似和不同的,这取决于我们如何对事物进行分类。例如,丑小鸭定理证明,如果我们希望操纵属性进行比较,天鹅和小鸭是相同的。除非我们对这些差异有一些先验知识,否则所有差异都是毫无意义的。唉,本文将从商业角度解开这些可疑的类别。
狭义人工智能(ANI) 通常与弱人工智能混为一谈。加利福尼亚大学的哲学家和教授约翰·塞尔(John Searle)在他 1980 年的开创性论文《思想、大脑和程序》中解释说,”弱人工智能将是任何既狭隘又与智能表面相似的解决方案。Searle 解释说,这样的研究将有助于测试关于思想片段的假设,但不会是思想。 ANI 将这一点减少了一半,使研究人员可以专注于狭隘和肤浅的问题,而忽略关于思想的假设。换句话说,ANI 净化了智能和思想,让人工智能“成为可能”而无需做任何事情。毕竟,一切都是狭隘的,如果你足够用力地眯着眼睛,任何东西都只是表面上与智力的相似之处。
通用人工智能(AGI) 是许多人在考虑 AI 时设想的理想化解决方案。虽然研究人员在狭隘和肤浅的研究中工作,但他们谈论的是 AGI,它代表了 AI 的单一故事,可以追溯到 1950 年代,并在过去十年中复兴。AGI 意味着关于解决方案的两件事不应该适用于以业务为中心的问题解决方案。首先,程序具有人类智能(可能是所有人类智能)的一般能力。其次,AGI 是一般问题解决者或白板,这意味着任何关于问题的知识都是修辞性的,独立于解决该问题的策略。 相反,知识依赖于与自然智能的多维结构相关的一些模糊、不明确的能力。如果这听起来很炫耀,那是因为它是。
人工超级智能(ASI) 是实现 AGI 目标的副产品。人们普遍认为,通用智能会引发“智能爆炸”,从而迅速引发超级智能。由于递归的自我改进,ASI 被认为是“可能的”,其限制仅受程序无意识的想象力的限制。ASI 加速满足并迅速超越全人类的集体智慧。ASI 唯一的问题是没有更多的问题。当 ASI 解决一个问题时,它也需要另一个具有牛顿摇篮的势头。在物理定律或理论计算出现之前,这种加速会无限地问自己下一步是什么。
牛津大学学者尼克博斯特罗姆声称,当机器在各个领域都比最优秀的人类更聪明时,我们已经实现了 ASI,包括科学创造力、普遍智慧和社交技能。 Bostrom 对 ASI 的描述具有宗教意义。像他们的宗教同行一样,ASI 的信徒甚至预测第二次降临将揭示我们的救世主的具体日期。奇怪的是,博斯特罗姆无法解释如何创造人工智能。他的论点是倒退的,并依赖于它自己的解释。什么会创造 ASI?好吧,AGI。谁将创建 AGI?当然是别人。AI 类别表明了一个错误的连续统一体,其末端是 ASI,似乎没有人特别因他们的无知而受挫。然而,狂热是一个值得怀疑的创新过程。
在谈论 AI 时,我们共同面临的部分问题是,我们将我们的思维固定在普遍但无用的二分法中。 错误的二分法制造了一种人为的感觉,即存在另一种选择。ANI、AGI 和 ASI 通过呈现不存在的论点的多个方面来暗示各种技术之间的某种错误平衡。即使我们接受 ANI 的定义并忽略它的琐碎性,AGI 或 ASI 也没有任何说服力。提到一些不存在的东西来评估今天的技术,用像 ANI 这样一个更吸引人的名字说出是很奇怪的。我们不会将鸟类与狮鹫、马与独角兽或鱼与海蛇进行比较。为什么我们要将计算与人类智能或所有人的智能进行比较(或规模化)?
任何包含 AGI 或 ASI 的解释都会扭曲现实。锚定是一种认知偏差,个人在做出决策时过于依赖初始信息(称为“锚”)。研究表明,即使在寻找锚定时,也很难避免锚定。 即使我们认为 AGI 和 ASI 明显错误或错位,它们仍然会扭曲现实并造成偏差。我们绝不能被错误的二分法和错误的平衡所迷惑。
人工智能不是三件事。它不是按“智能”衡量的东西,也不是整齐地放在三个箱子里的东西。这些类别不描述特定技术、突出研究领域或捕捉从 ANI 开始并以 ASI 结束的连续统一体。他们是胡说八道。人工智能是一回事:一个独一无二的、前所未有的目标,即从无到有地重建智能。然而,这个目标与业务永远不一致。
业务目标不能被概括并吸收周围的一切,因为包括所有战略在内的企业沟通只有在不能被误解时才有效。除非您计划将您的业务与 AI 的单一和前所未有的目标保持一致,否则在将您的目标称为 AI 时必须注意,因为如果您想被理解,现在您不能说“AI”。随着我们将越来越多的事物称为“人工智能”,传达目的和方向的任务变得更加困难。但是,说 ANI、AGI 或 ASI 无济于事。它伤害了沟通。对技术领导者的最佳建议是避免错误的连续统一体、错误的二分法和错误的平衡。正如媒体评论家杰伊·罗森(Jay Rosen)所解释的那样,借用美国哲学家托马斯·内格尔(Thomas Nagel)的一句话,“错误的平衡是一种‘从无到有的观点”。