问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

2024北外滩论坛:邬江兴发布内生安全理论,AI防护效果提升超90%

创作时间:
作者:
@小白创作中心

2024北外滩论坛:邬江兴发布内生安全理论,AI防护效果提升超90%

引用
安全内参
5
来源
1.
https://www.secrss.com/articles/73536
2.
https://www.secrss.com/articles/73196
3.
https://www.secrss.com/articles/64840
4.
https://www.jfdaily.com/news/detail?id=826171
5.
https://m.mp.oeeee.com/a/BAAFRD000020240710973675.html

2024年12月5日,中国工程院院士邬江兴在2024第三届北外滩网络安全论坛发表主旨演讲,深入探讨了AI应用系统的内生安全问题。他指出,AI应用系统存在的安全风险分为两类:一是内生安全问题,源于计算机体系结构的固有缺陷;二是非内生安全问题,由外部环境或操作带来的威胁。传统安全理论在面对未知威胁时显得力不从心,尤其在人工智能等高风险技术领域,设计之外的伴生功能与副作用难以完全消除,成为构建可信AI的主要障碍。

01

内生安全理论:构建可信AI的新路径

针对网络安全面临的难题,邬江兴院士提出了内生安全理论,并提出基于拟态构造方法的技术解决方案:

  • 以内生安全理论为基础:研究如何在充满内毒和未知风险的网络环境中,构建安全质量可承诺的信息物理系统。理论的核心在于,不消除所有隐患,而是将威胁转化为可控的形式进行管理。

  • 通过拟态构造方法:实现安全技术的新突破。利用动态异构冗余机制,将未知的未知问题转化为已知的未知问题,变不可控为可量化,从而提升系统的弹性和可靠性。

  • 打破传统黑盒测试的局限:创新提出白盒插桩测试方法,借助量化验证手段直接评估系统安全性能。

02

拟态构造方法:提升系统弹性的关键技术

邬江兴院士强调,AI算法模型普遍存在不可解释性、不可判识性和不可推论性“三不可”问题。这些缺陷使得AI模型极易受到攻击,也极难进行定位与修复。在这一背景下,AI深度应用中暴露的风险主要集中在以下方面:

  • 技术本身的脆弱性问题:例如算法攻击、模型鲁棒性不足等,使得AI在复杂环境中易失效。

  • 推广应用可能遭遇的现实威胁:如隐私数据被窃取、模型劫持攻击或推理路径破坏等,严重危害AI技术的安全性和公信力。

  • AI潜在的伦理与社会风险:算法歧视、信息茧房、结构性失业等问题,都对社会公平与治理构成考验。

为解决这些问题,邬江兴院士提出了多样化模型构建方法,通过差异化的网络结构和算法训练,构建出具有特异性和鲁棒性的AI模型,有效增强系统对攻击的弹性。

03

实验数据验证:显著提升防护效果

实验数据表明,基于内生安全的AI应用系统在攻击场景下展现出显著的网络弹性,综合识别率超过90%,相较于单一模型技术,防护效果提升显著。

04

构建可信AI:未来发展的关键

邬江兴院士强调,构建可信AI是实现智能化健康发展的重要前提,他提出以下建议:

  • 重视安全理论研究:深挖内生安全理论和动态异构技术的潜力,为未来提供科学理论依据和技术路线支撑。

  • 加强数据安全保障:数据既是AI应用的基础,又是AI安全的关键,确保数据安全是维护AI系统可信性的重要举措。

  • 完善监管标准与技术生态:汲取国际经验,加速安全标准制定与实施,提高AI技术在实际应用中的可信度和保障性。

  • 构建协同防护体系:借助AI技术构建智能化网络防御手段,以更智能的安全策略,支撑网络安全体系升级,促进智能化持续发展。

最后,邬江兴院士总结表示,内生安全理论从技术到系统方法论的创新,为应对AI时代复杂多变的安全挑战提供了新的理论支撑。该理论不仅打破了传统安全方法的限制,还为可信AI构建与安全治理提供了可靠的技术保障和实践指南。

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号