微软人工智能团队意外泄露 38TB 敏感数据
据BleepingComputer消息,微软云安全公司 Wiz 近期披露,人工微软人工智能研究部门在向公共 GitHub 存储库贡献开源人工智能学习模型时意外泄露了38 TB 的团队敏感数据。

Wiz 的意外安全研究人员发现 ,一名微软员工无意中共享了因配置错误而泄露敏感信息的泄露 Azure Blob 存储桶URL 。
微软认为这是敏感由于使用过于宽松的服务器租用共享访问签名(SAS)令牌,该令牌能对共享文件进行完全的数据控制 ,进而能以不可监控和撤销的微软方式进行数据共享。Wiz的人工研究人员警告称 ,由于缺乏监控和治理,团队SAS 令牌存在安全风险,建站模板意外应尽可能限制其使用,泄露由于微软没有提供在 Azure中集中管理的敏感方式,这些令牌非常难以跟踪。数据
Wiz发现,微软泄露的信息包括属于微软员工的个人信息备份、微软服务密码以及来自 359 名 微软员工共计 3万多条内部 Microsoft Teams 消息的香港云服务器存档。
在9月18日发布的一份通报中 ,微软安全响应中心(MSRC)团队表示没有客户数据被泄露,也没有其他内部服务因此次事件而面临危险 。
Wiz 于 2023 年 6 月 22 日向 MSRC 报告了该事件 ,MSRC 撤销了 SAS 令牌以阻止对 Azure 存储帐户的所有外部访问,从而于 2023 年 6 月 24 日缓解了该问题。源码库
Wiz 首席技术官兼联合创始人 Ami Luttwak 向BleepingComputer表示 ,人工智能为科技公司释放了巨大的潜力。然而,随着数据科学家和工程师竞相将新的人工智能解决方案投入生产 ,他们处理的大量数据需要额外的安全检查和保障措施。高防服务器
就在1年前,2022 年 9 月,威胁情报公司 SOCRadar发现了另一个微软配置错误的 Azure Blob 存储桶,其中包含存储在 2017 年至 2022 年 8 月文件中的敏感数据 ,这些数据与来自全球 111 个国家和地区的 65000 多个实体存在关联 。
源码下载