美国、英国和欧盟在监管人工智能方面有何不同
美国、英国和欧盟是全球人工智能开发和使用的重要参与者,它们引入的法规可能会影响其他地方的政策制定者。
在后脱欧时代,英国和欧盟走的是截然不同的道路,这或许不足为奇。尽管欧盟雄心勃勃地成为所有人工智能领域的事实上的超级监管者,但英国正在推进一种更基于原则且不那么集中的方法。在这一点上,美国似乎更倾向于英国,认为过度监管会阻碍创新。
欧盟规则书
欧盟提出了一系列规则,旨在让消费者可以信任公司越来越多地嵌入其产品和服务中的人工智能工具。该AI法律框架最终生效后,将涵盖新的AI法案、新的AI责任指令和修订后的产品责任指令。作为欧盟的一项旗舰举措,该监管方案将引入第一套真正全面的规则来管理人工智能开发商和运营商,同时保护用户。
AI法案采用基于风险的方法来监管涵盖所有部门的广泛AI应用,但专门为军事用途开发的系统除外。使用人工智能系统的公司,尤其是那些被归类为高风险的公司,将需要实施全面的合规计划。AI责任指令强化了这些要求,该指令为AI系统制定了新的责任制度,在欧盟范围内阐明了如何处理涉及AI系统的损害索赔。
构成欧盟所谓的“不可接受风险”的人工智能系统将在整个地区被完全禁止,而许多其他人工智能系统将属于高风险类别。高风险系统包括属于欧盟产品安全法规的产品,例如玩具和医疗设备,以及某些人工智能应用程序,例如
- 生物特征识别,
- 关键基础设施,
- 教育和职业环境,
- 招聘和工作场所管理,
- 获得基本的私人和公共服务,包括信用评分系统,
- 执法,
- 移民、庇护和边境管制,以及司法行政和民主进程。
高风险人工智能系统的开发者和提供者需要进行部署前的“合格评定”,以证明他们的系统符合相关要求,并且需要向每个成员国的独立监督机构(公告机构)报告,尽管在某些情况下——例如面部识别等生物特征识别系统——评估必须由公告机构本身进行。
每当高风险人工智能系统进行重大修改时,也需要进行合格评定。高风险系统的开发商和生产商还必须进行上市后监测分析,并在欧盟数据库中注册。
至于风险很小或没有风险的人工智能系统——例如视频游戏和垃圾邮件过滤器——将不适用特定的监管要求,尽管某些用例,如深度造假、聊天机器人和其他为人类互动而设计的自动化系统将受到透明度要求的约束并且需要确保消费者知道他们正在与被操纵的内容进行交互。
欧盟成员国将设定对违规行为的处罚水平;然而,对于最严重的违规行为,可处以公司全球年总收入的4%或2000万欧元(以较高者为准)的罚款。
因此,公司将需要通过实施一系列措施来管理使用此类系统产生的风险,例如全面的质量和风险管理系统、事件报告流程和程序、治理和监督,以及发布高风险AI的技术文档系统在进入市场或投入使用之前。
美国和英国采取更宽松的方式
与欧盟相比,欧盟提出了一套全面的规则,这意味着在未来,放置在欧盟市场或欧盟主体使用的大多数人工智能系统和工具将受到严格监管,英国政府已经阐明了它如何提议采取更轻松、对企业友好的方法。
根据英国政府发布的2022年政策声明,它计划制定一些高层原则,然后将其实施留给现有的英国监管机构。政府已经提出了关于该主题的白皮书,预计将提供更多细节——尽管似乎没有任何计划使其类似于AI责任指令,具体的责任问题将逐个部门处理基础(例如,无人驾驶车辆)。
在美国,虽然一些联邦机构、州和地方政府已经提出了监管指南,但集中的立法举措更为有限,例如建立国家标准与技术研究所,该研究所负责制定自愿风险管理框架值得信赖的AI系统,以及旨在协调多个美国政府机构以实施国家AI战略的国家AI倡议法案。
还有AI权利法案的蓝图,该法案旨在载入旨在促进AI有效治理的关键原则。
欧盟会影响美国、英国的规则吗?
与欧盟相比,美国和英国政府似乎更关心不阻碍人工智能开发者的创新和维护国际竞争力,其全面的规则旨在保护欧盟公民个人的基本权利。
然而,新的欧盟AI监管框架可能会激励其他政策制定者考虑引入类似的法规。这种“布鲁塞尔效应”是在欧盟于2018年引入其通用数据保护条例之后出现的,其他司法管辖区也效仿欧盟对个人数据隐私和安全的监管方法。
如果美国、英国和其他主要经济体各行其是,则存在相互竞争的监管体系拼凑而成的风险。随着基于人工智能的平台、系统和工具变得越来越普遍,监管分割可能会给国际贸易带来壁垒和政府监管不一致——而企业想要的是一种统一的国际方法来管理全球人工智能供应链,同时促进最佳实践和保护个人.