Facebook Google Plus Twitter LinkedIn YouTube RSS Menu Search Resource - BlogResource - WebinarResource - ReportResource - Eventicons_066 icons_067icons_068icons_069icons_070

什么是影子 AI?

发布日期 | 2025 年 12 月 12 日

风险和治理战略

当员工在日常工作中使用未经授权的人工智能工具时,就会出现影子 AI。 虽然使用 AI 资源可以提高工作效率,但它也会使贵企业面临巨大的潜在数据泄漏和合规风险,您必须对其进行治理,而不仅仅一禁了事。

影子 AI 的主要启示

  • 当用户将敏感的知识产权 (IP) 或个人身份信息 (PII) 粘贴到公共 AI 模型中时,贵企业将面临直接的数据泄漏风险。
  • AI 工具禁令很少奏效。当安全领导者作为中间人促成 AI 的安全使用时,他们就会取得成功。
  • 贵企业必须将建立可见性作为治理的第一步,使用 Tenable AI Exposure 等工具为 AI 采用标准安全防护措施。

AI 可见性差距:为什么不能总是看到谁在使用 AI?

当您的员工使用未经授权的人工智能工具来完成工作时,就会出现影子 AI,比如员工未经 IT 团队批准使用生成式 AI 应用程序,如大型语言模型 (LLM) 来起草内容、生成图像、编写代码或分析数据。

虽然影子 AI 的概念与传统的影子 IT(使用未经批准的软件或硬件)如出一辙,但影子 AI 会加速您的网络安全风险。可以将影子 AI 视作加强版的影子 IT。

传统的影子 IT 通常需要安装或采购,这会产生龃龉。相比之下,您的用户可以立即访问基于浏览器的免费 AI 工具。这种快速便捷的访问方式让 AI 的使用就像病毒一样在员工中传播开来,您的安全团队甚至未曾觉察到。

数据流是区分影子 AI 和影子 IT 的重要性因素。传统风险通常以未经批准的软件为漏洞,而影子 IT 则通过您输入的数据引入风险。

当员工将专有代码、敏感客户信息或内部战略文档粘贴到公共 AI 模型中时,他们就放弃了对数据的控制权。提交这些数据可以训练模型以创造更好的成果,但同时也会使贵企业面临数据泄露的风险。AI 可能会学习并在以后回答外界的询问时透露您的确切知识产权。

最佳做法是按功能和风险对 AI 工具进行分类:

  • 获认可的 AI 一般风险较低。 想象一下企业管理的 ChatGPT Enterprise 实例,您可以自主控制数据保留和隐私设置。
  • 影子 AI 具有不同程度的高风险。 这些不受管控的 AI 工具会让数据泄露到您的安全边界之外。有些工具信誉良好,如免费版的 ChatGPT。还有一些诸如 DeepSeek 之类的工具,则较为不为人知,可能缺乏透明度或可靠的安全控制措施。
  • AI 代理和自主 AI 工具属于严重风险范畴。基本聊天机器人一般只回答问题,与之不同的是,代理和自主工具可以在没有人类监督的情况下完成任务。

了解如何将影子 AI 安全集成到您的暴露风险管理策略中: AI 的安全性与安全性的 AI

数据泄漏

影子 AI 会给您的知识产权和合规性带来直接风险。传统软件漏洞通常需要攻击者花费时间才能利用,而生成式 AI 的安全漏洞可能在员工按下键盘“回车”键的瞬间就被触发。

您最应担心的应该是数据泄漏问题。

当您的团队将专有代码、财务预测或敏感的客户详细信息粘贴到公共 AI 聊天机器人中时,实质上是将这些信息交给了模型提供商。

遗憾的是,大多数公共服务条款都允许这些 AI 供应商将输入信息用于模型训练。这意味着您的商业机密最终可能落入竞争对手的手中。

如果贵企业依赖于不受管控的模型,影子 AI 还会带来有害或不道德的 AI 结果风险,从而导致声誉受损或运营故障。

除了数据丢失之外,依赖不受监控的消费者工具还会给 AI 成果的质量和可靠性带来风险,从而可能影响核心业务运营。

自主 AI 代理

您还面临着一种新型的隐藏风险:自主 AI 代理。

正如 CIO.com 所述,“隐藏代理”不仅仅是简单的聊天机器人。 它们可以在没有监督的情况下执行复杂的任务。这些 AI 工具常会完全绕过传统的网络安全治理。

当员工绕过认可的 AI 时,他们的操作将脱离您的监管视野。1Password 提供的“访问-信任差距”报告发现,33% 的员工承认他们并不总是遵守 AI 政策。

这些不受监控的数据流也会使事件响应陷入瘫痪。您的团队无法缓解数据泄漏,也无法满足监管部门对其无法监管到的数据外泄的合规性要求。

常见的影子 AI 实例

要想有效治理影子 AI,就必须先知道其藏身何处。在您不知情的情况下,它可能会出现在企业的各个环节。员工希望加快工作速度是一个常见的驱动因素。

  • 软件开发工程师通常将专有代码块粘贴到 LLM 中,用于调试错误或生成文档。在一次广为人知的事件中,三星员工意外泄露了敏感专有代码,原因是将其上传到公共 AI 助手。开发人员也经常启动未经授权的云实例来托管他们自己的开源 AI 模型,这会造成基础设施管理不善的漏洞。
  • 营销和销售团队经常使用 AI 来起草电子邮件或分析潜在客户。他们可能会将包含客户名单或销售收入数字的电子表格上传到公共工具中生成摘要,无意中将 PII 和财务数据暴露给 AI 模型提供商。

即使是法律和人力资源等具有风险意识的部门也会犯这些错误。法律助理可能会上传一份机密合同以总结复杂的条款,人力资源经理可能会粘贴绩效考核以起草反馈意见。在这两种情况下,高度敏感的内部数据都会进入公共领域。

AI 治理与 AI 禁止:“经纪人”方法

您所在企业的领导层可能倾向于完全禁止生成式 AI。 这似乎是更简单的选择,但千万别这么做。

严格的 AI 禁令很少奏效,只是将 AI 的使用推到地下。相信 AI 能提高工作效率的员工会找到变通办法。他们会使用个人设备或离网 VPN,这样您就无法察觉。

与其成为“拒绝部门”,不如成为 AI“经纪人”,这意味着您可以帮助企业获得所需的 AI 工具,同时建立必要的防护机制以确保数据安全。您负责验证哪些工具符合安全标准,并提供经批准的使用途径。

首先要制定明确的 AI 可接受使用政策。 您的 AI 可接受使用政策应明确哪些数据分类对 AI 是安全的,哪些是禁区。

通过明确规则而不是禁止功能,可以建立信任,并鼓励用户留在一个透明、受监控的环境中。

需要 Ai 治理方面的入门帮助吗?阅读指南什么是 AI 可接受的使用政策?

如何确保贵企业免受影子 AI 的威胁:5 步框架

要在保护数据的同时实现 AI 创新,您需要一个持续的、分五个步骤的 AI 治理框架。Tenable 认为,可见性是这种治理的基础层。只有统一 IT、云、身份、OT、AI 和其他攻击面的可见性,才能有效降低风险。

1. 了解您的 AI 暴露风险信息

可见性是防范影子 AI 风险的基础。您应该识别整个环境中使用的每一种 AI 工具:从授权的企业实例到在员工浏览器中运行的未经授权的公共应用程序。

虽然许多企业依赖数据丢失防护 (DLP)、云访问安全代理 (CASB)、端点检测和响应 (EDR) 或云原生安全控制等传统工具,但这些工具往往是不够的。这些工具没有提供了解 AI 模型及其独特的 AI 数据流的具体上下文。

要发现您遗漏的影子使用情况,您需要专为 AI 打造的自动化发现工具:

AI Aware 通过揭示端点和网络上的应用程序,帮助您盘点 AI 的使用情况。

AI-SPM 各项功能可让您对构建环境中的 AI 进行盘点,从而在影子 AI 开发上线前及时发现。为了确保此工作流程的安全,请使用 Tenable AI Exposure,在部署前验证风险,并在运行时持续监控暴露风险。

2. 评估 AI 风险

在您接触 AI 工具后,请对其进行评估。查看每个应用程序的服务条款。

  • AI 供应商是否声称对您的输入内容拥有所有权?
  • 他们会使用您的数据来训练公共 AI 模型吗?
  • 系统将您的数据存放在哪个地区(例如欧盟或中国)?
  • AI 供应商遵守哪些行业合规类型?

然后,根据这些发现结果,将每种工具分为“安全”、“限制”或“禁止”。

Tenable AI Exposure 会持续监控这些影子 AI 代理,向您准确展示其运作方式,以及会带来哪些 AI 风险。

3. 使用政策实施治理

将您的决策正式纳入明确的 AI 治理政策。您应该明确规定哪些人可以使用 AI,可以使用哪些 AI 工具,以及可以输入哪些数据。

您的政策还应为董事会和首席执行官制定明确的问责指标,以验证 AI 是否安全,是否能带来预期的商业价值。开始时,请将您的 AI 治理战略与 NIST AI 风险管理框架保持一致。

此外,为了证明 ROI,应将衡量标准从降低风险扩展到业务影响层面,例如跟踪经认可的 AI 工具与未经认可的 AI 工具的采用率,以及估算企业通过将用户迁移到安全的企业级 AI 模型而获得的运营效率。

4. 培训员工

没有培训,政策就毫无意义。告诉员工为什么要设置这些 AI 使用防护机制。解释 AI 工具造成数据泄露的具体风险,让他们明白,您是在保护公司的机密,而不仅仅是执行武断的规则。

5. 持续监控和审计 AI 的使用情况

AI 领域日新月异。新工具不断涌现,安全的工具也会更改服务条款。您必须保持持续的审计循环,以检测未经授权的工具。正如 ISACA 所强调的,在 AI 的快速采用的背景下,审计这些未经授权的 AI 工具对于维护企业的合规性至关重要。

归根结底,生成式 AI 会带来巨大的价值,但贵企业必须安全、深思熟虑地加以使用。不要让影子 AI 的使用带来隐藏的暴露风险。通过建立清晰的可见性和治理,您可以为员工赋能,助其创新,同时避免将数据拱手让给公共 AI 领域。

使用 Tenable AI Exposure 查看、保护和管理您的 AI 生态系统

影子 AI 常见问题

随着 AI 的出现和采用的增加,问题的数量也在以同样的速度增长。我们将一些最常见的问题整理如下,旨在回答那些最迫切的问题。

影子 AI 和影子 IT 有什么区别? 

影子 IT 是指任何未经授权的 AI 软件或硬件。影子 AI 是人工智能工具的一个特定子集。主要区别在于风险状况。影子 IT 会给您的基础设施带来风险,而影子 AI 则主要给您输入的数据带来风险。

ChatGPT 算不算影子 AI? 

如果 ChatGPT 在您批准的 AI 列表中,则是被认可的 AI;否则就是影子 AI。

如何检测影子 AI 的使用情况? 

不能依靠人工调查来检测影子 AI 的使用情况。Tenable One 暴露风险安全管理将来自 AI Aware、AI-SPM 和 Tenable AI Exposure 的数据统一起来,以显示来自端点、网络、云和身份的 AI 暴露风险。

全面了解 AI 应用程序,并弥合 Tenable One 暴露风险管理平台的 AI 暴露风险差距。

您可加以利用的网络安全新闻

输入您的电子邮件,绝不要错过 Tenable 专家的及时提醒和安全指导。

× 联系我们的销售团队