如何解决AI的“常识”问题
深度学习系统不擅长处理新奇的情况,它们需要大量的数据来训练,它们有时会犯一些奇怪的错误,甚至会让它们的创造者感到困惑。
一些科学家认为,这些问题将通过创建越来越大的神经网络并在越来越大的数据集上训练它们来解决。也有人认为AI领域需要的是一点点人类的“常识”。。
好的人工智能系统会犯奇怪的错误。
在过去的10-12年里,随着人们对深度学习表现出非凡的热情,有很多关于基于深度学习的系统能够做我们最初希望人工智能系统做的一切事情的谈论。
在人工智能的早期,愿景是创造一个独立自主的系统,可能是机器人的形式,它可以在世界上做事情,几乎不需要或不需要人类干预。
今天,孔径已经缩小了很多,因为很多人都对深度学习能够完成的事情感到兴奋,特别是,在工业中巨额资金和人才收购在推动了对基于经验或训练有素的系统的强烈关注后,我们正在接近的大量索赔人工通用智能,或者说“老式人工智能”(GOFAI)或象征性方法已经完全过时或没有必要。"
但是很清楚的是,尽管令人印象深刻,深度学习系统正遭受着尚未解决的令人困惑的问题。神经网络倾向于敌对攻击,其中对输入值的特制修改会导致模型对其输出进行突然的错误更改。深度学习也在努力理解简单因果关系而且很不擅长构思和组合概念。大型语言模型,最近已经成为一个特别关注的领域,被发现有时会犯非常愚蠢的错误同时生成连贯且令人印象深刻的文本.
如果你想一想,这些系统中明显缺少的是我们人类所谓的常识,这是一种看到对许多人来说似乎显而易见的事情的能力,能够快速简单地得出显而易见的结论,并且能够在你决定做一些你立即意识到是荒谬或糟糕的选择的事情时阻止自己。
什么是常识?
AI界从早年就开始讲常识。事实上,关于人工智能的最早的论文之一,在1958年写的,标题是有常识的程序。
这不是新的,我们也没有发明它,但这个领域已经忽视了人工智能先驱们对它的定义。“如果你进一步寻找关于什么是常识,拥有常识意味着什么,以及对我们来说重要的是,常识如何工作以及如何实施常识的指导,你会在心理学文献中发现很少的东西。”
在…里像我们一样的机器,将常识描述为“有效利用普通的、日常的、经验的知识来实现普通的、日常的、实际的目标的能力。”
常识对生存至关重要。人类和高等动物已经进化到通过经验学习,并发展出例行程序和自动驾驶技能,可以处理他们每天面临的大多数情况。但是日常生活不仅仅是我们反复看到的套路。我们经常面对从未见过的新奇情况。其中一些可能与正常情况大相径庭,但大多数时候,我们看到的东西与我们习惯的东西略有不同。在人工智能的讨论中,这有时被称为“长尾”。
在我们看来,当你被这些日常事务打断时,常识真的是第一个被激活的东西。常识可以让你快速浏览新的情况,记住你以前做过的足够接近的事情,快速调整你的记忆,并将其应用到新的情况中,然后继续前进。
常识不是快速的自动驾驶系统1思维,它执行我们可以做的大多数例行任务,而无需有意识地专注于它们(例如,刷牙、系鞋带、扣衬衫扣子、在熟悉的区域开车)。打破你目前的常规需要积极的思考。
与此同时,常识也不是系统2思维,这是一种缓慢的思维模式,需要完全集中精力,有条不紊,一步一步地思考(例如,计划六周的旅行,设计软件,解决复杂的方程)。
我们可以深思熟虑,通过挑战来解决难题。那种想法对你的大脑来说很费力,而且很慢。布常识允许我们在几乎任何常见的日常情况下绕过这一点,我们不必深入思考下一步该做什么。
如果需要相当大的精神努力才能弄清楚,那就不是常识了。我们可以把它看作‘反身思维’,反身思维和思考一样重要。
没有常识的人工智能的危险
当人工智能系统被用于总是产生新情况的应用中时,常识成为绝对必要的常识包含可预测性、信任、可解释性和责任性。
大多数人不会犯奇怪的错误。我们偶尔都会做些傻事。但我们可以思考一下,避免再犯。人是不完美的。但是他们一般在一定程度上是可以预测的,尤其是你认识的人。这让我们能够投资信任。
没有常识的人工智能系统面临的挑战是,当它们达到训练的极限时,它们会犯错误,这些错误是完全不可预测和无法解释的。
没有常识的机器没有那种视角,没有那种退路来阻止自己做奇怪的事情,并且它们受到脆性的困扰他们对自己正在做的事情感到惊讶。但当他们犯错时,这根本没有任何意义。
这些错误可能是无害的,比如给一张图片贴错标签,也可能是极其有害的,比如开车撞上车道分割线。
如果一个系统遇到的都是棋盘,它所要担心的都是赢得游戏,那么常识真的没有给这个组合增加任何东西,常识将发挥作用的地方是,当我们冒险超越棋盘,将象棋游戏视为发生在现实世界中的一种活动。
因此,随着人工智能系统进入开放领域的敏感应用,如驾驶汽车或与人类合作,甚至参与开放式对话,常识将发挥非常关键的作用。这些地方总是会出现新奇的情况。
如果我们希望人工智能系统能够以一种合理的方式处理现实世界中非常常见的事情,我们需要超越从采样已经发生的事情中获得的专业知识,作者在中写道。“考虑到压倒性的巨大数字,仅仅基于对过去发生的事情的观察和内化来预测未来是行不通的,不管这种蛮力有多残忍。我们需要常识。”
重温符号人工智能
大多数科学家都认为当前的人工智能系统缺乏常识。然而,当涉及到解决方案时,意见分歧。一个流行的趋势是继续让神经网络越来越大。证据表明,更大的神经网络继续取得增量改进。在某些情况下,大型神经网络显示零距离学习技巧在那里,他们执行未经训练的任务。
然而,也有大量的研究和实验表明,更多的数据和计算不解决人工智能系统的问题没有常识的人。他们只是把它们隐藏在一个更大更混乱的数字权重和矩阵运算中。
这些系统注意到并内化了相互关系或模式。他们不发展“概念”即使当这些东西与语言互动时,它们也只是在模仿人类行为,而没有我们认为拥有的潜在心理和概念机制。
常识是关于世界上的事物及其所具有的属性,通过我们所谓的概念结构来调节,概念结构是关于可能存在的事物种类及其可能具有的属性种类的想法的集合。 关于做什么的常识性决定相当于使用这种表示的知识来考虑如何实现目标以及如何对观察到的情况做出反应。
该领域需要回顾和重温一些早期的工作符号人工智能给计算机带来常识。他们称之为“知识表征”假说。这本书详细介绍了知识管理系统是如何构建的,以及如何将不同的知识整合在一起,形成更复杂的知识和推理形式。
根据KR假设,常识知识的表示将有两个部分:“表示世界状态的世界模型,以及表示概念结构的概念模型——可用于对世界上的项目进行分类的概括框架。”
我们的观点是回到早期对人工智能的一些思考,其中某种符号和符号操纵程序——人们过去称之为推理引擎——可以用来编码和使用我们称之为常识的世界基本知识:直觉或天真的物理学,对人和其他代理人如何行动以及意图和信念是什么样的基本理解,时间和事件如何工作,因果关系等。婴儿学到的所有知识在他们生命的第一年到两年,世界知识实际上可以对机器的行为产生因果影响,并且还可以利用你可以通过操纵符号做的所有事情,如组合性,以新的方式放置我们熟悉的东西。
无论从长远来看,路径是预构建、预编码所有这些知识,还是以某种方式让系统以不同的方式学习,我不知道。但作为一种假设和实验,我认为人工智能的下一步应该是尝试建立这些知识库,并让系统使用它们来处理日常生活中的惊喜,对如何处理熟悉和不熟悉的情况做出粗略的猜测。
我们需要走得更远。我们需要关注自主决策机器如何在日常决策环境中使用这些东西。这是所有其他项目都缺少的东西。建立事实知识并能够对危险类型的琐事问题给出答案是一回事。但在喧嚣的世界中运营,并能够以理性和及时的方式应对不可预见的意外,则完全是另一回事。
机器学习在常识中有作用吗?
基于机器学习的系统将继续在人工智能的感知方面发挥至关重要的作用。
我不会推动一个使用一阶谓词演算来处理人造视网膜上的像素或处理速度信号处理的符号操纵系统。这些机器学习系统在低感官水平的识别任务方面表现出色。还不清楚这种东西在认知链中的位置有多高。但这显然没有完全实现,因为它们没有在你在一个场景中看到的东西和自然语言之间形成概念和联系。
该领域正在进行的许多工作,但他也建议当前对混合人工智能的看法需要一些调整。
我不认为目前的任何神经符号系统能够解释常识和更有条理、更深入的符号推理之间的差异,而这些符号推理是数学、重型规划和深度分析的基础。在这个混合人工智能世界中,我希望看到的是真正考虑常识,让机器以人类的方式利用常识,并让机器为机器做与人类一样不可思议的事情。