随着人工智能(AI)技术的安全迅猛发展,企业首席信息安全官(CISOs)正面临前所未有的头等大单挑战,既要满足企业业务快速迈向智能化的事建需求 ,同时又要防御爆炸式增长的产清AI安全威胁。

风靡全球的安全DeepSeek只是AI工具潮的一朵浪花,未来还将有更多类似工具快速涌现。头等大单这些未经授权的事建(消费级)AI应用如同一颗颗定时炸弹,潜伏在企业内部,产清威胁着数据安全与合规性。云计算安全那么,头等大单如何应对这一危机?事建答案的起点在于建立一个全面的AI资产清单 。
AI资产清单:AI安全治理的产清基石AI资产清单的建立不仅是必要的,而且正成为强制性要求。安全没有这一清单 ,头等大单企业如同盲人摸象,事建无法准确识别AI使用带来的敏感数据暴露风险,也无法应对日益严格的合规性要求 。免费模板
欧盟《AI法案》(EU AI Act)、ISO 42001标准以及美国国家标准与技术研究院(NIST)的AI风险管理框架(AI RMF)等监管框架已明确将AI资产清单视为治理AI的基础性步骤 。
例如 ,欧盟《AI法案》于2024年8月正式生效,其覆盖范围极为广泛,几乎囊括了所有AI系统 ,要求企业对其使用的AI技术进行全面登记和风险评估。ISO 42001则为企业提供了一个AI管理系统标准,强调通过清单化管理确保AI的透明性和责任性。而NIST AI RMF虽然是自愿性框架,但其“MAP”功能明确要求企业绘制AI使用图谱,建站模板识别潜在风险 。
这些框架共同表明 ,AI资产清单不仅是合规的起点 ,更是安全治理的核心 。
然而,定义“AI资产”本身就是一大难题 。欧盟《AI法案》采取广义方法,将几乎所有AI增强功能纳入监管范围;而企业则需自行判断是否应监控每一项AI特性 ,还是聚焦于生成式AI 、亿华云大语言模型(LLM)和内容创建系统等高风险领域。专家建议 ,缩小关注范围至特定AI类别可显著降低清单编制的复杂性 ,使其更具可操作性。
影子AI :暗中的杀手除了监管压力,第三方供应商评估也日益要求企业提供AI资产清单,常称之为“审计”或“服务目录”。但合规只是表象,真正的挑战在于识别“影子AI”——那些未获正式批准却已被员工融入日常工作的AI工具 。据网络安全公司ZScaler的2024年报告,模板下载企业中超过60%的员工承认使用过未经授权的AI工具 ,其中许多工具通过个人账户或免费版本接入,绕过了IT部门的监控。
影子AI的泛滥使得传统IT治理工具捉襟见肘。员工可能在不知情的情况下将敏感数据暴露给第三方模型,而这些工具的风险往往瞬息万变——一款昨天看似安全的工具 ,可能因新增AI功能而在一夜之间变成高危对象。例如 ,DeepSeek的香港云服务器快速流行就暴露了企业对新兴工具的反应滞后,其数据存储政策引发了广泛争议。
AI资产追踪的六大方法目前,企业采用的AI资产清单编制方法主要有以下六种 ,每种方法各有优劣:
基于采购的追踪 :通过监控新AI工具的采购有效 ,但无法检测现有工具新增的AI功能或员工自带工具(BYOT)的使用。手动日志收集:分析网络流量和日志可发现AI相关活动 ,但耗时且覆盖面有限 。身份与OAuth验证 :审查Okta或Entra等身份管理平台的访问日志可追踪部分AI应用 ,但仅适用于集成这些服务的工具 。云安全访问代理与数据防泄漏(DLP) :ZScaler和Netskope等解决方案提供一定可见性,但AI分类功能有限 ,难以强制执行政策 。云安全态势管理(CSPM) :Wiz等工具在AWS和谷歌云中对AI使用有较好洞察,但无法覆盖本地或非云环境 。扩展现有清单:基于风险对AI工具分类可与企业治理对齐,但难以跟上AI采用的快速变化。这些方法虽能提供一定可见性,却普遍依赖手动操作 ,效率低下且难以应对动态风险 。网络安全专家指出 ,AI资产清单不仅是列出工具清单,更需评估其风险 :这些工具是否从员工输入中学习 ?其数据保留政策如何 ?是否符合GDPR、HIPAA等隐私法规 ?
自动化AI资产工具的崛起为应对上述挑战 ,业界正转向更自动化 、可重复的AI资产追踪工具。这些工具通过持续监控检测AI使用 ,包括个人和免费账户 ,并识别哪些应用在训练企业数据 。例如 ,2025年初推出的Darktrace AI Guardian能够实时扫描网络流量 ,标记未经批准的AI工具 ,并生成动态资产清单 。此类工具还支持企业制定防护策略 ,防止员工无意中泄露机密信息。
此外,自动化工具还推动了员工教育 。例如,微软在2024年为其企业客户推出了AI使用仪表板,显示员工使用的AI工具并标注其安全性 ,帮助员工分辨哪些工具获批使用。这种透明性不仅降低风险,还增强了员工对合规工具的信任。
安全创新与合规的双赢AI治理不应仅被视为风险管理任务 ,更是一个抓住创新机会的窗口。领先建立AI资产清单的企业能够主动接触员工,了解其真实需求和用例,引导他们转向安全、批准的AI解决方案 。安全领导者通过与AI委员会和高层分享这些数据 ,可提供基于现实的洞察,超越理论政策讨论 。
例如 ,谷歌在其2024年AI安全报告中提到,通过资产清单识别员工对生成式AI的高需求后,该公司迅速部署了内部批准的生成工具 ,不仅提升了生产力,还降低了外部工具带来的风险。这种做法表明,AI资产清单不仅是防御性措施,更是推动企业安全使用AI,在这场人工智能革命中取得竞争优势的的战略举措 。
顶: 7踩: 8
评论专区