人工智能:这是新的安全前沿
2021 年,网络人工智能公司 Darktrace 委托 Forrester 进行了一项关于网络安全准备和人工智能的研究。在研究中,88% 的受访安全领导认为攻击性 AI 不可避免,77% 预计武器化 AI 会导致攻击规模和速度增加,66% 认为 AI 武器化会导致人类无法发起的攻击预见。
人工智能安全漏洞的前景令首席信息官们担忧。在德勤人工智能研究中,1,900 名受访者中有 49% 将人工智能网络安全漏洞列为他们最关心的三大问题之一。
人工智能安全:抵御三重威胁
企业需要针对人工智能系统的三大威胁进行规划。这些威胁的范围从数据和软件泄露到您的合作伙伴。
1.数据
当涉及到损害人工智能系统的结果时,感染数据是不良行为者的主要途径。通常称为“数据中毒”,攻击者会找到篡改和扭曲数据的方法。发生这种情况时,对数据进行操作的算法会变得不准确,甚至会出错。
Gartner 建议公司实施AI TRiSM(信任、风险和安全管理)框架,通过维护可信、可靠和受保护的数据来确保最佳的 AI 治理。
Gartner 杰出副总裁分析师Avivah Litan表示:“AI 威胁和妥协(恶意或良性)是持续不断且不断发展的,因此 AI TRiSM 必须是一项持续的努力,而不是一次性的练习”
其核心是确保 AI 算法操作的数据得到彻底清理,并保持这种状态。安全和可观察性软件有助于确保这一点,同时在数据进入任何 AI 系统之前定期彻底清理和审查数据。
第二层检查点是组织性的。应该建立一个跨学科小组,从 IT、法律、合规和最终用户中吸取代表,他们是AI 系统主题方面的专家。一旦系统开始显示不一致,表明结果或数据有偏差,该团队就应该检查系统,如果有必要,将其关闭。这既是一种安全管理,也是一种风险遏制技术。没有组织愿意成为根据受损数据做出错误决策的受害者。
2.机器语言篡改
在试验场景中,Palo Alto Networks Security AI 研究团队想要测试用于检测恶意软件的AI 深度学习模型。该团队使用公开的研究论文构建了一个恶意软件检测模型,该模型旨在模拟生产中模型的行为。生产模型被反复查询,以便研究团队可以更多地了解其具体行为。正如该团队所了解的那样,它调整了其模拟模型以产生相同的结果。最终,通过使用模拟模型,研究团队能够绕过生产机器学习系统的恶意软件检测。
随着 AI 系统攻击越来越复杂,将会发生更多针对 AI 和机器学习代码的攻击。
组织可以采取的一个步骤是监控他们的算法或 ML 代码中有多少可能在开源社区或其他公共资源中可用。第二个策略是确保任何在 ML 引擎上工作和/或对其进行培训的员工或承包商都签署了保密协议,如果他们试图在其他地方使用代码,他们将受到法律诉讼。
3. 供应链治理
大多数人工智能系统使用内部和外部数据的组合。外部数据是从第三方来源购买或获得的。例如,一家研究其患者对某些疾病的遗传易感性的医院可能会使用从患者那里收集的内部数据,但也会使用外部数据,这些外部数据可以为他们提供来自更大人群样本的类似数据。这样,医院就可以确信它拥有尽可能全面和完整的数据。
在此示例中,医院可以清理和审查自己的内部数据,但它如何知道从供应商供应链中获得的数据同样值得信赖?首先要检查的是供应商的安全认证和认可。供应商是否有它们,它们是从谁那里发出的,什么时候发出的?
其次,供应商是否愿意提供其安全审计的最新副本?
第三,检查参考文献至关重要。该供应商的其他用户有何评价?
第四,供应商是否有愿意签署的保密协议?
第五,供应商是否愿意接受一套面向安全的服务级别协议 (SLA) 作为合同的附录?
这是在与外部来源签订任何数据购买协议之前应检查的安全项目的一般列表。
结束语
人工智能系统的安全性带来了独特的挑战,因为恶意方发现了 IT 以前从未见过的攻击这些系统的新方法。目前还没有人能够预测 AI 攻击将如何演变,但现在评估您已经拥有的安全技术和实践并使其适应大数据世界还为时过早。