89% 的企业生成式AI使用未被IT部门察觉,暴露数据安全隐患

 人参与 | 时间:2025-11-26 22:44:39

企业当前要么正在采用生成式AI(GenAI)解决方案,业生隐患要么正在评估如何将这些工具整合到业务计划中 ,成式察觉或者两者兼而有之。使用数据为了推动明智的未被决策和有效的规划 ,获取硬数据至关重要,部门暴露然而此类数据却出人意料地稀缺。安全

LayerX发布的业生隐患“2025年企业生成式AI数据安全报告”为工作场所中AI工具的实际应用提供了前所未有的洞察,同时揭示了关键的成式察觉安全漏洞 。该报告基于LayerX企业客户的使用数据真实遥测数据 ,是服务器租用未被少数能够详细说明员工实际使用生成式AI情况的可靠来源之一 。

例如 ,部门暴露报告揭示 ,安全近90%的业生隐患企业AI使用发生在IT部门的可视范围之外,这使企业面临数据泄露和未经授权访问等重大风险。成式察觉

以下我们将分享报告中的使用数据一些关键发现 。阅读完整报告以完善和增强您的安全策略 ,利用数据驱动的决策进行风险管理,并推动资源投入以加强生成式AI的数据保护措施 。亿华云

企业生成式AI使用尚不普遍

尽管生成式AI的热潮可能会让人觉得整个劳动力已经将办公室操作转向了生成式AI ,但LayerX发现实际使用情况略显冷淡。大约15%的用户每天都会访问生成式AI工具 。虽然这一比例不可忽视,但并非主流。

不过,我们认同LayerX的分析  ,并预测这一趋势将迅速加速,尤其是因为目前有50%的用户每隔一周使用一次生成式AI。

此外 ,报告发现,香港云服务器39%的常规生成式AI工具用户是软件开发者 。这意味着通过生成式AI泄露源代码和专有代码的风险最高,同时在代码库中使用有风险的代码也存在隐患。

生成式AI如何使用 ?谁也不知道

由于LayerX嵌入了浏览器中,因此该工具能够观察到“影子SaaS”的使用情况。这意味着他们可以看到员工使用未经企业IT批准的工具或通过非企业账户访问这些工具 。

尽管像ChatGPT这样的生成式AI工具被用于工作目的,但近72%的建站模板员工通过个人账户访问它们 。即使员工通过企业账户访问 ,也仅有约12%使用单点登录(SSO)。因此,近90%的生成式AI使用对企业来说是不可见的 。这让企业对“影子AI”应用以及未经授权在AI工具上共享企业信息的情况一无所知 。

50%的粘贴行为涉及企业数据

还记得帕累托原则吗?在这种情况下 ,虽然并非所有用户每天都使用生成式AI,但使用生成式AI的用户往往会频繁粘贴潜在机密信息。

LayerX发现,高防服务器在向生成式AI工具提交数据的用户中 ,平均每天发生近4次企业数据粘贴行为 。这可能包括商业信息 、客户数据 、财务计划、源代码等。

企业如何规划生成式AI的使用 ?

报告中的发现表明,急需新的安全策略来管理生成式AI风险 。传统安全工具无法应对现代以AI驱动的、基于浏览器的工作环境 。免费模板它们缺乏在源头(即浏览器)检测、控制和保护AI交互的能力 。

基于浏览器的安全解决方案能够提供对AI SaaS应用程序 、ChatGPT之外未知的AI应用程序 、启用AI的浏览器扩展等的可见性 。这种可见性可用于部署针对生成式AI的数据丢失防护(DLP)解决方案,使企业能够安全地将生成式AI纳入其计划,为未来的业务保驾护航  。

如需了解更多关于生成式AI使用情况的数据 ,请阅读完整报告。

顶: 62踩: 218