问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

“AI+Security”:AI系统处理模糊信息的新突破

创作时间:
作者:
@小白创作中心

“AI+Security”:AI系统处理模糊信息的新突破

引用
安全内参
8
来源
1.
https://www.secrss.com/articles/73353
2.
https://blog.csdn.net/m0_73736695/article/details/144889069
3.
https://blog.csdn.net/fyf2007/article/details/142503435
4.
https://www.gptsecurity.info/2025/01/26/AI+Security-%E7%B3%BB%E5%88%97%E7%AC%AC4%E6%9C%9F-%E4%BA%8C-LLM%E8%BE%85%E5%8A%A9%E7%9A%84%E6%A8%A1%E7%B3%8A%E6%B5%8B%E8%AF%95%E5%A2%9E%E5%BC%BA%E6%8A%80%E6%9C%AF/
5.
https://www.secfree.com/news/industry/11395.html
6.
https://www.gptsecurity.info/2025/01/26/AI+Security-%E7%B3%BB%E5%88%97%E7%AC%AC4%E6%9C%9F-%E4%B8%80-%E4%B9%8B-%E6%B4%9E-%E8%A7%81%E6%9C%AA%E6%9D%A5-AI-%E9%A9%B1%E5%8A%A8%E7%9A%84%E6%BC%8F%E6%B4%9E%E6%8C%96%E6%8E%98%E6%96%B0%E8%8C%83%E5%BC%8F/
7.
https://research.qianxin.com/archives/2757
8.
https://www.infocomm-journal.com/cjnis/CN/10.11959/j.issn.2096-109x.2024001

2025年1月,一场聚焦“AI+Security”的技术盛会在北京成功举办,来自 academia 和 industry 的专家们齐聚一堂,共同探讨AI驱动的漏洞挖掘新范式。其中,水木羽林技术专家张强博士分享的LLM辅助模糊测试增强技术,为AI系统处理模糊信息开辟了新的应用场景。

01

ECG框架:嵌入式操作系统内核模糊测试的新突破

嵌入式操作系统(Embedded Operating System)广泛应用于工业物联网、航天航空、自动驾驶、医疗设备和工业控制等领域,其安全性直接关系到关键基础设施的稳定运行。然而,随着应用场景的不断拓展,安全漏洞隐患也随之增加。传统的模糊测试方法在面对嵌入式操作系统时,存在生成高质量语料库难度大、难以把握未知内核状态路径等问题。

为解决这些挑战,张强博士团队提出了ECG(Embedded Core Fuzzing)框架,该框架充分利用大语言模型(LLM)的能力,实现了嵌入式操作系统内核模糊测试的重大突破。ECG框架分为两个关键阶段:

  1. 规范构建阶段:从内核模块中提取约束信息,生成实际代码,并收集系统调用定义。这一阶段通过LLM将访问内核模块的程序转换为系统调用序列,解决了传统方法中语料库生成的难题。

  2. 测试阶段:基于LLM预测并选择更优的测试输入变异方式,评估输入质量,并收集分析覆盖率数据和执行路径信息。LLM的上下文理解和推理能力在此阶段发挥重要作用,能够探索深层内核状态路径,提高测试覆盖率。

实验结果显示,ECG框架在三个嵌入式操作系统(RT-Linux、OpenWrt、RaspiOS)中发现了32个未知bug,在商用嵌入式操作系统ZHIXIN上也发现了10个bug。在代码分支覆盖率方面,ECG平均达到183,452.4,相比其他工具提升了16.02%。在LLM辅助生成有效性方面,使用Mixtral8x7b时,平均每个程序仅消耗781.9个token。

02

LLM在数据库模糊测试中的应用挑战

尽管LLM在嵌入式操作系统内核模糊测试中展现出强大能力,但在数据库模糊测试领域仍面临诸多挑战。张强博士指出,LLM在以下三个方面存在局限性:

  1. 幻觉问题:LLM可能生成看似合理但实际错误的输出,影响测试输入的准确性和bug报告的可信度。

  2. 长文本理解能力不足:在处理复杂长篇文本时,LLM的效果往往不尽人意,这限制了其在某些场景下的应用。

  3. 训练语料库局限性:如果缺乏特定任务的相关知识,LLM的表现会大打折扣。

针对这些挑战,张强博士提出了以下建议:

  • 摒弃一次性合成:改为依据错误迭代查询LLM进行修复。
  • 收集函数相关信息:用于提示工程,提供更准确的上下文。
  • 复杂系统采用传统方法:在某些情况下,传统程序分析方法可能更可靠。
03

AI在安全领域的其他创新应用

除了在模糊测试中的应用,AI还在安全领域展现出更多可能性。华清未央CEO朱文宇博士分享了机器语言大模型(MLM)的创新成果。与自然语言大模型(如GPT-4)和代码大模型相比,MLM在反编译代码领域展现出独特优势:

  • 卓越的代码分类能力:能够快速判断代码类型和敏感性,精准锁定目标代码。
  • 精准的代码相似性检测:有助于识别恶意代码和漏洞模式。
  • 高效的性能瓶颈定位:辅助优化系统性能。

此外,前阿里云高级安全专家郑瀚深入探讨了大语言模型的安全对齐技术。他指出,LLM面临多重风险挑战,包括生成内容不可靠、用户隐私泄露、版权侵权等问题。为应对这些挑战,研究者提出了“云-边缘-端”策略,涵盖防御技术、评测技术和安全左移三个关键领域,旨在全面提升模型的安全性。

04

未来展望

AI与安全领域的深度融合正在开启新的篇章。从LLM辅助的模糊测试到机器语言大模型的创新应用,AI正在为软件安全检测带来革命性的变化。然而,这一领域仍面临诸多挑战,如LLM的固有局限性、安全对齐问题等。未来,随着技术的不断进步和研究的深入,我们有理由相信,AI将在保障网络安全方面发挥越来越重要的作用。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号