谁害怕云环境中的 AI 风险?

Tenable 2025 年云 AI 风险报告显示,70% 的 AI 云工作负载至少有一个未修复的重要漏洞,而 AI 开发人员服务因存在风险较高的默认权限而问题频发。了解贵企业在加强 AI 游戏时需要了解的信息。
随着 AI 蓬勃发展,各个领域都出现欣欣向荣的景象。随着工程团队纷纷投身 AI 领域,开发人员对自主管理型 AI 工具和云服务提供商 AI 服务的使用正呈上升趋势。这种使用增长以及 AI 模型对数据的需求极大(需要海量数据来提高准确性和性能)这一事实,意味着越来越多的 AI 资源和数据被部署在云环境中。网络安全领域的关键问题是:AI 发展对我的云攻击面产生哪些影响?
由 Tenable Cloud Research 提供的 Tenable 2025 年云 AI 风险报告显示,AI 工具和服务确实会引入新风险。如何预防此类风险?
让我们来看看其中的一些研究发现和相关挑战,以及触手可及的主动式 AI 风险降低措施。
我们为何进行此项研究
Tenable Cloud Research 团队使用历时两年收集到的数据,分析了云环境和企业环境中生产工作负载和资产,其中包括 Amazon Web Services (AWS)、Microsoft Azure 和 Google Cloud Platform (GCP)。我们试图了解 AI 开发工具和框架以及 AI 服务的采用水平,并对不断涌现的所有安全风险执行实际检查。目的是什么?帮助各企业更清楚地了解 AI 安全缺陷。与此同时,我们的研究还推动 Tenable 云原生应用保护平台 (CNAPP) 不断演进,从而更好地助力客户解决这些新风险。
重要关切事项
我们来探索两个发现结果,一个在自主管理型 AI 工具中,另一个在 AI 服务中。
- 70% 安装了 AI 的云工作负载至少包含一个未修复的重要 CVE。观察到的其中一个 CVE 是重要的 curl 漏洞,在 CVE 发布一年多后仍未得到修复。在任何重要 CVE 被恶意攻击者列为主要攻击目标时,都会将工作负载置于风险之中;而 AI 工作负载中的 CVE 更令人担忧,因为其中的数据可能具有敏感性,一旦被利用,造成的影响也会更大。

- 与任何云服务一样,AI 服务在云服务提供商所提供的构建块中也存在一些有风险的默认设置,而用户往往对此并不知情。我们以前报告过叠叠乐 (Jenga®) 概念,即云服务提供商采用在一个服务之上构建另一个服务的模式,因而从一层继承的有风险的默认设置会传递到下一层。AI 服务也是如此。具体而言,在 Google Cloud 中设置了 Vertex AI Workbench 的企业中,有 77% 至少有一个笔记本所关联的服务帐户配置为特权过高的 Compute Engine 服务帐户,这会造成严重的权限风险。

主要挑战
为何 AI 工具中的重要 CVE 令人关切并充满挑战
在任何云工作负载中未修复的重要 CVE 当然是一种安全风险,应按照企业的补丁和风险管理策略加以解决,并且在实施优先级分析时要考虑到影响和资产敏感性。AI 云工作负载中严重漏洞出现率如此之高,无疑敲响了一记警钟。AI 工作负载可能包含敏感数据。即使训练数据和测试数据也可能包含与 AI 项目性质相关的真实信息,例如个人信息 (PI)、个人可识别信息 (PII) 或客户数据。已遭利用、暴露的 AI 计算和训练数据可能造成数据中毒、模型操纵和数据泄露。团队必须克服警报噪声和风险优先级分析方面的挑战,将缓解重要尤其是 AI 工作负载中的 CVE 视为一项战略任务。
为何 AI 服务中的有风险访问默认设置令人关切并充满挑战
保护身份和授权在任何云环境中都非易事。当过度授权的权限嵌入到 AI 服务的构建块中时,风险会更高,因为这些构建块往往会涉及敏感数据。您必须能够看到风险,才能进行修复。在云环境和多云环境中缺乏可见性、难以洞察风险的孤立工具以及对云服务提供商安全的依赖,都让企业难以发现并缓解有风险的默认设置以及攻击者正在寻找的其他访问风险。
预防此类 AI 风险的关键举措
Stanford University 发布的《2024 年人工智能索引报告》指出,企业最为关切的与 AI 相关的问题包括隐私、数据安全和可靠性;不过到目前为止,大多数措施仅减轻了一小部分风险。良好的安全最佳实践对于对 AI 风险先发制敌大有裨益。
下面是我们在所讨论过的降低云 AI 风险的三个基本举措:
- 对影响最大的漏洞进行优先级分析以进行修复。造成 CVE 修复迟缓甚至未修复的部分根本原因在于人性。CVE 问题令人头疼:情况复杂、持续不断,而且有些解决方案会显示大量通知,让人不堪重负。云安全团队自行承担风险,但需与其他团队协作来降低风险暴露。了解哪些 CVE 的潜在影响最大,因此您可以指导团队首先解决高风险漏洞。高级工具可通过将漏洞利用可能性纳入风险评分来提供帮助。
- 减少过度权限来遏制有风险的访问。保护贵企业免受高风险访问是您共同的责任,不要以为 AI 服务的权限设置毫无风险。持续监控以识别并消除身份、资源和数据(包括基于云的 AI 模型/数据存储)中的过度权限,防止出现未经授权访问或特权过高的情况。通过实施最低特权和即时访问,严格管理基础设施授权 在上下文中评估风险,以找到云错误配置,包括涉及身份的有害组合。
- 将与高业务影响资产(例如敏感数据、特权身份)关联的所有 AI 组件归类为敏感组件。将 AI 工具和数据纳入安全清单,并定期评估其风险。使用数据安全态势管理功能,以精细方式分配适当的敏感度级别。

要在云环境中确保强大的 AI 安全,需要提供身份智能、AI 感知型云原生应用程序保护,才能高效、准确地应对不断涌现的新风险。
摘要
基于云的 AI 存在安全缺陷,其中隐藏的错误配置和敏感数据让 AI 工作负载容易遭受滥用和漏洞利用。提早采用合适的安全解决方案和最佳实践,将助力您推动企业的 AI 采用和成长,同时将其风险降至最低。
JENGA® 是由 Pokonobe Associates 所有的注册商标。
了解详情
- 下载 2025 年云 AI 风险报告
- 观看网络研讨会 2025 年云 AI 风险报告:助您在云中打造更安全的 AI 模型
- 了解 Tenable Cloud Security 能为您带来哪些好处
- AI
- Cloud
- Research
- Cloud