AI可一键生成上万种JavaScript变体,88%能规避检测
网络安全研究人员发现,可键借助大型语言模型(LLMs) ,生成上万可以大规模生成新型恶意的规避JavaScript代码变体,这些变体将更难被安全防护设备检测。检测

Palo Alto Networks旗下的可键Unit 42团队指出:“尽管LLMs难以独立创建恶意软件 ,但犯罪分子能利用它们重写或混淆现有恶意软件 ,生成上万从而加大检测难度。规避罪分子可通过提示LLMs执行更自然的检测转换 ,使这种恶意软件更难被发现 。可键”
长期来看 ,生成上万通过大量转换 ,规避这种方法可能降低恶意软件检测系统的检测性能,建站模板甚至使其误判恶意代码为良性。可键尽管LLM提供商不断加强安全防护 ,生成上万防止其产生不良输出,规避但不法分子已开始利用恶意AIGC工具如WormGPT ,自动化设计高针对性的网络钓鱼邮件 ,甚至创造新的恶意软件。
早在2024年10月 ,OpenAI就披露已封锁20多起企图利用其平台进行非法活动的操作和欺诈网络 。
Unit 42表示 ,他们利用LLM反复重写现有恶意软件样本,目的是源码下载规避机器学习(ML)模型的检测,例如Innocent Until Proven Guilty(IUPG)或PhishingJS ,从而成功创造了10000种新JavaScript变体,且功能不变。
这种对抗性机器学习技术通过变量重命名 、字符串拆分、垃圾代码插入等方法转换恶意软件,每次输入系统时都进行变换。
“最终产生的新恶意JavaScript变体,行为与原脚本相同,但恶意评分大幅降低,”该公司表示,并补充说,高防服务器其贪婪算法能将自身恶意软件分类模型的判断 ,从恶意翻转为良性的概率高达88%。
更糟糕的是 ,这些重写的JavaScript代码在上传至VirusTotal平台时,也成功逃避了其他恶意软件分析设备的检测 。LLM相关混淆技术的另一优势在于,其重写效果比obfuscator.io等库更自然 ,后者因改变源代码的香港云服务器方式而更容易被检测和识别 。
Unit 42指出:“借助生成式人工智能,新恶意代码变体的规模可能会大幅增加。然而 ,我们也可利用相同策略重写恶意代码 ,以帮助生成训练数据 ,提高ML模型的鲁棒性 。”
这一发现正值北卡罗来纳州立大学一组学者设计出名为TPUXtract的侧信道攻击,该攻击针对Google Edge张量处理单元(TPU)执行模型窃取攻击 ,准确率高达99.91%,可能被用于知识产权盗窃或后续网络攻击 。
研究人员表示 :“将展示一种超参数窃取攻击,服务器租用能提取所有层配置,这是首次全面攻击能提取以前未见过的模型。”
本质上,是这种黑匣子攻击捕获了TPU在执行神经网络推理时发出的电磁信号 ,并利用这些信号推断模型超参数。但这种方法依赖于攻击者对目标设备的物理访问权限,以及昂贵的探测设备。
参考来源:https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html