网络安全大模型评测平台SecBench发布
2024年1月19日 ,网络网络安全大模型评测平台SecBenc正式发布 ,安全该平台由腾讯朱雀实验室和腾讯安全科恩实验室 ,大模联合腾讯混元大模型、型评清华大学江勇教授/夏树涛教授团队、测平香港理工大学罗夏朴教授研究团队、网络上海人工智能实验室OpenCompass团队共同建设 ,安全主要解决开源大模型在网络安全应用中安全能力的大模评估难题 ,旨在为大模型在安全领域的型评落地应用选择基座模型提供参考,加速大模型落地进程。测平同时 ,网络通过建设安全大模型评测基准,安全为安全大模型研发提供公平、大模公正、型评客观 、香港云服务器测平全面的评测能力 ,推动安全大模型建设 。
行业首发,弥补大模型在网络安全垂类领域评测空白
自2022年11月ChatGPT发布以来,AI大模型在全球范围内掀起了有史以来规模最大的人工智能浪潮,大模型的落地进程也随之加速 。然而,在网络安全应用中,大模型研发人员如何选择合适的基座模型,当前大模型的安全能力是否已经达到业务应用需求,云计算都成为亟待解决的问题。
SecBench网络安全大模型评测平台,将重点从能力 、语言、领域、安全证书考试四个维度对大模型在网络安全领域的各方面能力进行评估,为大模型研发人员、学术研究者提供高效、公正的基座模型选型工具和研究参考。

图 1. SecBench网络安全大模型评测整体设计架构

图 2. GPT-4在能力维度 、语言维度以及安全领域能力的评估结果

图 3. GPT-4在各类安全证书考试中的评估结果(绿色为通过考试)
SecBench设计架构
图1. 为SecBench网络安全大模型评测初期规划的源码库架构 ,主要围绕三个维度进行构建:
一是积累行业独有的网络安全评测数据集 。评测数据是评测基准建设的基础 ,也是大模型能力评测最关键的部分 。目前行业内还没有专门针对大模型在网络安全垂类领域的评测基准/框架 ,主要原因也是由于评测收据缺失的问题。因此,免费模板构建网络安全大模型评测基准的首要目标是积累行业内独有的网络安全评测数据集 ,覆盖多语言、多题型、多能力 、多领域 ,以全面地评测大模型安全能力。
二是搭建方便快捷的网络安全大模型评测框架 。“百模大战”下 ,大模型的形态各异 ,有HuggingFace上不断涌现的建站模板开源大模型,有类似GPT-4、腾讯混元 、文心一言等大模型API服务 ,以及自研本地部署的大模型 。评测框架如何支持各类大模型的快速接入、快速评测也很关键 。此外 ,评测数据的多样性也挑战着评测框架的灵活性,例如 ,选择题和问答题往往需要不同的prompt和评估指标,源码下载如何快速对比few shot和zero shot的差异。因此,需要搭建方便快捷的网络安全大模型评测框架,以支持不同模型、不同数据 、不同评测指标的灵活接入、快速评测 。
三是输出全面 、清晰的评测结果 。网络安全大模型研发的不同阶段其实对评测的需求不同。例如 ,在研发初期进行基座模型选型阶段,通常只需要了解各类基座模型的能力排名、对比不同模型能力差异;而在网络安全大模型研发阶段,就需要了解每次迭代模型能力的变化 ,仔细分析评估结果等 。因此,网络大模型评测需要输出全面、清晰的评测结果,如评测榜单、能力对比、中间结果等,以支持不同研发阶段的需求。
SecBench除了围绕上述三个目标进行建设外 ,还设计了两个网络安全特色能力:安全领域评测和安全证书考试评估。安全领域评测从垂类安全视角 ,评测大模型在九个安全领域的能力;安全证书考试评估支持经典证书考试评估 ,评测大模型通过安全证书考试的能力 。
SecBench评测框架
SecBench网络安全评测框架可以分为数据接入