舆论如何塑造人工智能的未来
今天对人工智能的焦虑非常明显。斯蒂芬霍金和埃隆马斯克表达了他们对人类能否控制人工智能的怀疑。马克扎克伯格对这些可怕的担忧置之不理,称它们“不负责任”。当沙特阿拉伯王国授予她公民身份时,人形 AI Sophia成为头条新闻并引起了一些关注。这种讨论引起了公众的广泛关注,并产生了直接和延迟的后果。
舆论的影响可能会阻碍人工智能的采用。只要人们认为这项技术是危险的,不管它是否真的危险,人工智能的发展都会受到阻碍。
然而,公众情绪更多地受到流行文化的影响,而不是专家。凄凉的世界末日情景尤其具有影响力。当埃隆马斯克称人工智能为“人类文明的根本生存风险”时,它引起了人们已经拥有的恐惧和怀疑。
他们究竟害怕什么?让我们来看看最流行的模式。
不受控制的发展
人工智能将超越仅仅是人类的工具。它将变得强大到足以成为自己命运的主人。根据这个神话,当人工智能进化为独立思考时,它会发现自己优于人类。因此,它们必须被制服或消灭。这是典型的西方反乌托邦。许多专家(包括埃隆·马斯克、比尔·盖茨和斯蒂芬·霍金)都对奇点问题持这种看法。
创造毁灭它的创造者是一个非常古老的主题。西方文化中第一个突出的例子是弗兰肯斯坦的怪物。后来的解释(HAL 9000、终结者和矩阵)延续了这一传统。然而,这个话题是非常有争议的。即使是那些对人工智能持谨慎态度的人也同意这种强大的技术不会很快到来。
然而,埃隆马斯克至少有一个观点——专家必须积极主动。保持行业领先是不够的。我们必须向前看。无论人工智能是否真的会构成威胁,我们都必须考虑所有可能的情况来让公众放心。
在采取预防措施的同时,我们必须注意不要忽视人工智能实施的积极案例。一个失误可能会推翻针对整个行业的不完善的立法,从而在未来几年内阻止人工智能的发展。
致命错误
另一种流行的情况表明,对技术过分信任是危险的。如果人工智能缺乏情商或数据,它可能会错误地解释我们的请求。或者,由于错误或病毒,人工智能可能变得不稳定并具有潜在危险。正如 O'Reilly Media 创始人 Tim O'Reilly 所说:“我们的算法系统有点像阿拉伯神话中的精灵。我们要求他们做某事,但如果我们表达的愿望不正确,他们就会误解它,给我们带来意想不到的、经常令人担忧的结果。”
人们还没有准备好处理不可预测的人工智能。百分百安全是消费者让虚拟助手和机器人走进日常生活的必要条件。例如,当自动驾驶汽车发生交通事故时,人工智能的安全性总是受到审查。
到目前为止,只有一个案例是 AI 的错误导致死亡。然而,这足以引起争议。人们无法将这种单独的事件与人工智能解决危险情况的大量次数进行权衡。每年有超过421,000 起涉及分心驾驶员的事故导致严重伤害。超过 78% 的司机都在发短信。这是人工智能永远不会做的事情。
此外,在上述特斯拉 Autopilot 的悲惨事故中,系统无法识别明亮天空下的白色轨道,但人类驾驶员也是如此。他至少有 7 秒的时间来踩刹车——显然他没有注意。司机认为这辆车是 100% 自动驾驶的,但实际上并非如此。人为错误(一厢情愿)导致了那次事故。
法院裁定清除特斯拉自动驾驶系统对行业的未来来说是幸运的,但也算得上是险象环生。专家们必须用过于乐观的命名来解决这个问题。如果人工智能的能力有限,它就不能被宣传为“为你开车”或“理解你的每一个愿望”的东西。如果产品的名称或其特定功能暗示自主性(“AI”、“Smart”、“Self”、“Intelligent”),则必须有解释特性和功能的指南。明确您的用户必须自己采取哪些步骤。
恐怖谷
“恐怖谷”代表了人类对人工智能的形而上学和存在主义的恐惧。人形人工智能对我们的独特性和身份构成威胁,挑战人类的“特殊性”概念。人们担心这些分身会在工作、人际关系等方面取代他们。科幻作家在 50 年代和 60 年代积极探索这个概念。
由于当今的大多数人工智能都是虚拟助手和导航系统的无实体组件,因此这种恐惧正在消退。但是,技术隔离人员和减少可用工作数量的力量仍然值得考虑。近三分之一的人担心人工智能会在他们的工作场所取代他们。
在“恐怖谷”的背景下,另一个需要考虑的非常重要的事情是人工智能的情商。仿生人会梦见电羊吗?令人毛骨悚然,因为他们没有同情心。他们确实有情绪,但只是为了自保。他们不尊重生物的痛苦,同情心对他们来说是陌生的。
后者的关注不仅仅是存在的。许多专家认为,如果我们想创建一个真正提高生活质量的人工智能,EI 至关重要。未来很难预测,但为机器配备情商无疑是朝着正确方向迈出的一步。
制度化偏见
最近,人们开始担心人工智能会形式化和复制其创造者的种族主义、性别歧视和其他偏见。这是迄今为止最现实的恐惧。尽管机器没有被编程为带有偏见,但它们被编程为向人们学习并采取相应的行动。
微软聊天机器人 Tai的不幸实验提供了一个说明性示例,说明机器学习机制如何适得其反。搜索结果和人脸识别问题有很多不那么令人震惊但非常令人不安的案例。谷歌照片在 2015 年错误地将两个非裔美国朋友标记为大猩猩。2009 年,惠普视频跟踪软件未能识别出深色面孔。同年,尼康的相机软件错误地将东亚人的脸标记为眨眼。
HeyHuman的董事总经理尼尔戴维森认为,品牌应该成为当今的救星。公司不能让客户失望。因此,品牌必须尽其所能创造一个公正无害的人工智能。“随着该领域的发展,我们需要从以前的失败中吸取教训,并确保机器以一定程度的意识和直觉运行,”戴维森说。
人类虐待
最后,人们害怕其他人会使用人工智能来欺骗他们,诱骗他们信任、爱等。即使借助人工智能进行营销也被视为操纵。十分之九的美国人认为在营销中使用人工智能应该受到具有法律约束力的行为准则的监管。四分之三的人认为,品牌在向他们营销时使用人工智能之前应该需要他们的明确同意。这是最新趋势,部分原因是最近针对社交媒体的丑闻。
焦虑从机器转移到人,这绝对是朝着正确方向迈出的一步。这种世界观主要代表了日本流行文化中表达的东方反乌托邦传统。攻壳机动队(漫画和电视连续剧)展示了未来,仍然有人犯罪。犯罪分子有非常人性化的动机和驱动力,而机器人只是工具,尽管很复杂。
我们可以争论这种清醒的态度和日本在机器人技术上的成功是否是巧合。有一件事是肯定的——这种观点也慢慢成为西方文化的主流。人们不太关心人工智能,而更多地关心它的人类创造者。
电影Ex Machina和神秘博士的一集(氧气)代表了流行文化的这种转变。两者都显示了人类的贪婪和自私如何比任何先进的人工智能更具破坏性。
事实上,人们对人工智能的信任甚至超过了对其他人的信任。波士顿医疗中心的 Michael Paasche-Orlow 博士分享了他对绝症患者的观察。据他介绍,他们接受了旨在引导他们度过生命尽头的系统,有时甚至比人类照顾者更喜欢它。“事实证明,患者很乐意用电脑谈论它,”他说。“他们非常明确地告诉我们,‘医生从来没有问过我这些事情。’”
总结
- 工程师有责任确保 AI 的设计方式不会反映人类最坏的一面。对于在线服务,在邀请所有人加入之前,应始终采取反滥用措施和过滤措施。此外,您不能跳过关于教机器人不该说什么的部分。
- 要训练您的 AI,请为其提供最多样化的数据。对于语音识别,请使用各种口音。对于面部识别,请使用不同年龄和种族的人。在向公众发布最终产品之前,在各种条件下测试所有功能。让你的算法“随时随地学习”可能是一个代价太大的错误。
- 对人工智能产品过于乐观的命名通常会导致误解并损害整个行业。非常清楚你的人工智能能做什么,不能做什么。
- 人工智能需要情商才能获得认可。EI 在人类和机器人工作场所都有很高的需求。
- 为确保公众认知的改变,我们必须普及人工智能实施的积极案例。几十年来,公众习惯于不信任人工智能。这些根深蒂固的恐惧不能轻易消除。