89% 的企业生成式AI使用未被IT部门察觉,暴露数据安全隐患
企业当前要么正在采用生成式AI(GenAI)解决方案 ,业生隐患要么正在评估如何将这些工具整合到业务计划中 ,成式察觉或者两者兼而有之。使用数据为了推动明智的未被决策和有效的规划,获取硬数据至关重要,部门暴露然而此类数据却出人意料地稀缺。安全
LayerX发布的业生隐患“2025年企业生成式AI数据安全报告”为工作场所中AI工具的实际应用提供了前所未有的洞察,同时揭示了关键的成式察觉安全漏洞 。该报告基于LayerX企业客户的使用数据真实遥测数据,是建站模板未被少数能够详细说明员工实际使用生成式AI情况的可靠来源之一 。
例如,部门暴露报告揭示,安全近90%的业生隐患企业AI使用发生在IT部门的可视范围之外 ,这使企业面临数据泄露和未经授权访问等重大风险 。成式察觉
以下我们将分享报告中的使用数据一些关键发现。阅读完整报告以完善和增强您的安全策略 ,利用数据驱动的决策进行风险管理 ,并推动资源投入以加强生成式AI的数据保护措施。高防服务器

尽管生成式AI的热潮可能会让人觉得整个劳动力已经将办公室操作转向了生成式AI,但LayerX发现实际使用情况略显冷淡。大约15%的用户每天都会访问生成式AI工具。虽然这一比例不可忽视 ,但并非主流 。
不过,我们认同LayerX的分析 ,并预测这一趋势将迅速加速 ,尤其是因为目前有50%的用户每隔一周使用一次生成式AI 。
此外,报告发现 ,云计算39%的常规生成式AI工具用户是软件开发者。这意味着通过生成式AI泄露源代码和专有代码的风险最高,同时在代码库中使用有风险的代码也存在隐患 。
生成式AI如何使用?谁也不知道由于LayerX嵌入了浏览器中 ,因此该工具能够观察到“影子SaaS”的使用情况。这意味着他们可以看到员工使用未经企业IT批准的工具或通过非企业账户访问这些工具。
尽管像ChatGPT这样的生成式AI工具被用于工作目的,但近72%的源码库员工通过个人账户访问它们 。即使员工通过企业账户访问 ,也仅有约12%使用单点登录(SSO)。因此 ,近90%的生成式AI使用对企业来说是不可见的。这让企业对“影子AI”应用以及未经授权在AI工具上共享企业信息的情况一无所知。
50%的粘贴行为涉及企业数据还记得帕累托原则吗?在这种情况下,虽然并非所有用户每天都使用生成式AI ,但使用生成式AI的用户往往会频繁粘贴潜在机密信息。
LayerX发现,免费模板在向生成式AI工具提交数据的用户中,平均每天发生近4次企业数据粘贴行为。这可能包括商业信息 、客户数据 、财务计划 、源代码等。
企业如何规划生成式AI的使用 ?报告中的发现表明,急需新的安全策略来管理生成式AI风险。传统安全工具无法应对现代以AI驱动的、基于浏览器的工作环境。香港云服务器它们缺乏在源头(即浏览器)检测、控制和保护AI交互的能力。
基于浏览器的安全解决方案能够提供对AI SaaS应用程序 、ChatGPT之外未知的AI应用程序 、启用AI的浏览器扩展等的可见性。这种可见性可用于部署针对生成式AI的数据丢失防护(DLP)解决方案 ,使企业能够安全地将生成式AI纳入其计划,为未来的业务保驾护航。
如需了解更多关于生成式AI使用情况的数据 ,请阅读完整报告 。