人工智能真正的“惨痛教训”
在一篇名为“惨痛的教训”的热门博客文章中,理查德·萨顿 (Richard Sutton) 认为,人工智能的进步源于更廉价的计算,而不是基于特定问题信息的人类设计决策。萨顿贬低了研究人员,他们根据对问题的理解将知识构建到解决方案中以提高绩效。萨顿解释说,这种诱惑有利于短期绩效提升,而且这种虚荣心让研究人员感到满意。然而,这种人类的聪明才智是以牺牲人工智能的神圣命运为代价的,它阻碍了不需要我们帮助理解问题的解决方案的发展。人工智能的目标是从无到有地重建问题解决者,而不是直接解决问题。
在题为“更好的教训”的反驳中,机器人专家罗德尼·布鲁克斯 (Rodney Brooks) 辩称,萨顿 (Sutton) 的通用解决方案示例忽略了人类的聪明才智而支持“蛮力”计算,[事实上] 是人类聪明才智的结果。布鲁克斯提供了人类独创性的例子,例如卷积神经网络等网络架构和平移不变性等计算特征,有效地论证了该领域将失败的人类独创性换成了更成功的人类独创性。Brooks 的生态友好论点表明,让人工智能学习一切“似乎迂腐到了极致”,并补充说学习一切“将推高计算成本……增加许多数量级。”
在一个这样的例子中,Sutton 写道,“1997 年击败世界冠军 [Garry] Kasparov 的方法是基于大规模的深度搜索。”更深入的搜索可能会带来更高的性能,因为在游戏的每一步都会评估更多的棋步。然而,回报是递减的,并不是每个人都有兴趣用未来的理论性能收益来换取更高的电费。尽管如此,关于深蓝系统中没有内置人类知识的说法是错误的。“大规模、深度搜索”是明确为游戏设计的,以大师提供的开局动作为基础,评估函数是人类为国际象棋设计的,搜索算法不知道。
对于研究人员来说,与其提倡更深入的搜索,一个更有趣的问题是人类如何在我们不使用搜索的游戏中如此具有竞争力,更不用说深度搜索来评估每秒数百万次移动了。人类国际象棋棋手可以通过预测优势并逆向寻找走法顺序来分析十步走法。不幸的是,人类如何具有如此竞争力的问题被忽略了,因为该领域的人很少关心。萨顿指出了这一点,并敦促研究人员停止“建立我们的想法”,他说这“从长远来看是行不通的”。这个声明很奇怪,因为萨顿是现代计算强化学习的创始人之一,它是从现已失效的称为行为主义的心理理论发展而来的。行为主义将精神状态简化为身体状态,并净化思想以支持环境刺激和行为反应。换句话说,强化学习是对我们的想法的回应。我想 Sutton 的意思是,如果这些理论已经失效,可以建立我们的想法。
与Ray Kurzweil一样,Sutton 将 AI 未来的所有进步都归功于摩尔定律。然而,摩尔定律因此人工智能的论点是一个范畴错误,更不用说反智了。这是一个类别错误,因为人工智能的进步需要的不仅仅是计算的进步。
这种想法忽略了实现真正的人工智能所需的哲学、本体论和技术突破,而这将无法通过蛮力搜索或学习来实现。它是反智的,因为它清除了所有支持摩尔定律的研究。这样的声明会指向 Yann LeCun、Geoffrey Hinton 和无数其他研究人员,并宣称他们的工作不是开创性的。相反,他们被摩尔定律的恩典拯救了,这表明下一代人会原地踏步,什么都不做。
如果规模被认为是所有其他问题,那么将特定于问题的信息纳入解决方案是以规模为代价的。但是,大多数企业只需要解决一些问题,主要是客户面临的问题。没有通用公司这样的东西,因此几乎不需要通用解决方案。这是一个痛苦的商业教训,因为特定问题的信息可以帮助您更快地获得解决方案。此外,客户关心稳定的价值主张。机器学习是概率性的,具有不稳定的价值主张,尽管受益于额外的计算能力,但仍然非常脆弱。因此,使用在后台或前台运行的非概率元素的更稳定的系统可为客户提供更持久的解决方案和更稳定的价值主张。此外,仅机器学习的解决方案无法以精确的方式修复。你可以改进训练数据,收集更多数据、调整参数或将一种解决方案替换为另一种解决方案以提高性能。但是,如果您需要专门解决某些问题并且不想更换整个系统,则除非使用非概率元素,否则无法保证改进。要注意的是,非概率元素不会超出少数程序员头脑中所能掌握的范围,应谨慎使用。关键是您的解决方案不需要知道或想要解决问题,但您和您的团队需要。
萨顿的文章很短(相对简洁的 1,116 字),让我想知道为什么。为什么不像他在文章中提倡的那样,等待写一篇可以概括所有可能问题的文章,向读者做出一个聪明的自我参照陈述呢?取而代之的是,萨顿只是根据他的职业生涯积累的知识,分享他对特定主题的独特见解。抛开教学上的轻浮不谈,我希望我们能够接受科学需要科学家这一事实,而不是将所有潜力都转移到摩尔定律上。在我们无所不能之前什么都不做是错误的。