问小白 wenxiaobai
资讯
历史
科技
环境与自然
成长
游戏
财经
文学与艺术
美食
健康
家居
文化
情感
汽车
三农
军事
旅行
运动
教育
生活
星座命理

西安交通大学严如强教授团队:可解释人工智能在工业智能诊断中的挑战和机遇:先验赋能

创作时间:
作者:
@小白创作中心

西安交通大学严如强教授团队:可解释人工智能在工业智能诊断中的挑战和机遇:先验赋能

引用
网易
1.
https://m.163.com/dy/article/JP12TJ600511CJ6T.html

随着人工智能技术在工业智能诊断领域的广泛应用,其"黑箱"特性带来的可解释性问题日益凸显。西安交通大学严如强教授团队在《机械工程学报》发表的最新研究,系统探讨了可解释人工智能(XAI)在工业智能诊断中的挑战与机遇,特别是先验知识赋能技术的应用现状与未来发展方向。

进入"大数据"时代,人工智能技术因其强大的数据挖掘与学习能力,成为工业智能诊断领域的重要方法,在机械装备的异常检测、故障诊断和寿命预测等方面发挥重要作用。随着机械装备日益向大型化、高速化、集成化和自动化发展,诊断方法的可信度变得至关重要。因此弱可解释性正成为人工智能技术在诊断领域实际应用的巨大障碍。为了推动人工智能技术在工业智能诊断领域的发展,对可解释人工智能方法进行综述 。

行业现状

可解释人工智能(XAI)在工业智能诊断中扮演着至关重要的角色,特别是在异常检测、故障诊断和寿命预测等任务中。随着机械设备向大型化、高速化、集成化和自动化发展,诊断方法的可靠性变得尤为重要,而许多AI技术由于其"黑箱"特性,缺乏可解释性,导致其在实际应用中面临障碍。因此,通过引入先验知识(如信号处理和物理规律)来增强模型的可解释性,成为了推动AI技术在工业智能诊断领域应用的关键。

XAI的目标是使AI模型的决策过程变得透明,帮助用户理解模型如何得出结论,从而增加对模型的信任。通过先验赋能,结合信号处理和物理知识,可以有效提升模型的可解释性和性能。信号处理先验方法将信号分析技术(如小波变换、频率分析等)嵌入到神经网络中,从而增强模型对噪声数据的鲁棒性以及特征提取的能力。物理知识先验则通过将物理规律与AI模型结合,确保模型的决策符合物理原理,进一步提高可解释性。

然而,实践中仍然存在一些挑战,首先是如何获得适用于特定任务的先验知识,其次是如何将先验知识有效地转化为AI模型的设计,避免引入错误的先验,并在先验知识和数据驱动学习之间找到平衡。此外,现有的许多模型只能在某些层面上进行解释,尤其是从特征提取到最终决策的过程,仍然存在一定的不可解释性。

尽管如此,将先验知识融入到AI模型中的方法,能够提升模型的可靠性、准确性和稳定性,尤其在复杂的故障诊断、寿命预测等任务中具有广泛应用前景。通过改善先验赋能和后续的可解释性分析,可以进一步增强智能诊断系统的性能和可信度。

智能诊断中的可解释性技术

  • 可解释性技术的定义与意义:可解释性是指使用者能够理解AI决策的原因,XAI的目标是提高用户对算法的理解和信任。AI模型的不可解释性主要来源于其复杂的非线性操作,特别是在工业智能诊断中,AI通过复杂的组合操作从设备监测信号中得出诊断结果,用户难以通过已有知识理解这些决策过程。

  • 实现可解释AI的两种路径

  • 先验赋能(主动解释):在模型训练前设计透明且易理解的算法映射关系,直接增加模型的内在可解释性。这种方法需要对模型或训练方法进行修改,并影响模型表达能力。

  • 归因解释(被动解释):在模型训练完成后,通过分析模型的结果来解释决策原因,这通常是模型无关的方法,不会影响模型性能。

  • 先验赋能的优点:尽管先验赋能XAI可能与AI模型的表达能力存在权衡,但研究表明,加入先验知识约束能有效提升模型的性能。额外的训练数据、损失函数和特定的设计约束帮助缩小模型的表征空间,使模型能够更有效地学习先验知识,从而提升其性能。

  • 工业智能诊断中先验赋能的主要方法:在工业智能诊断中,信号处理和物理机理建模是广泛应用的先验知识,这些方法已发展出成熟的理论体系并被广泛认可。利用这些先验知识进行赋能,能够让AI诊断方法更具可解释性,同时增强特征学习能力,从而有效提升诊断系统的性能。

信号处理先验赋能

从网络设计的先验来源可将信号处理先验赋能网络分为知识先验赋能网络与方法先验赋能网络。

信号处理知识先验赋能型网络

  • 设计理念:该类网络通过将信号处理领域的知识嵌入深度学习模型中,以增强其可解释性,特别是在机械故障诊断中应用了基于频率特征的先验知识。

  • 优缺点:该类方法通过将数据与物理驱动的损失函数相结合,有效地减少了对大量标注数据的依赖,并提高了网络的泛化能力。但获取合理的先验知识以及避免不合理先验对网络性能的负面影响仍然是挑战。

信号处理方法先验赋能型网络

  • 设计理念:该类方法强调从信号处理方法出发(如小波变换、傅里叶变换等),嵌入可解释的滤波器和激活函数,确保信号特征的高效提取,同时增加了网络的可解释性。

  • 优缺点:基于信号处理方法的网络设计,借助已有的信号处理理论支撑,能有效避免过拟合并增强网络的泛化能力。然而,信号处理方法的局限性使得该类方法难以支持大规模复杂网络,且从特征提取到决策结果的解释仍然存在难题。

两类信号处理先验赋能网络对比

  • 知识先验赋能型网络需设计者具备专家经验,从数据获信号模式与先验并转成网络结构及目标。受到经验知识约束,能降低数据量需求、缓解过拟合、提升泛化力,但依赖专家经验与对具体应用对象的分析。方法先验赋能型网络是目前研究热点,主要范式为将常用的信号处理方法或流程作为网络特征提取模块,使用深度学习模块完成其功能或将信号处理方法参数化使其可学习有理论支撑、结构可理解,不过难靠堆叠深度提性能,特征到决策的可解释待解。

物理知识先验赋能

从对网络结构的作用阶段来说,可以将物理知识先验赋能网络分为:物理信息初值先验、物理驱动的网络结构设计以及物理损失函数。

物理信息初值先验

  • 设计理念:物理信息初值先验通过结合系统仿真数据和实际观测数据,作为神经网络的输入,引导网络发现可解释的知识。通过物理模型的仿真数据预训练深度网络模型,能够缓解数据匮乏问题,并提高训练效率。

  • 优缺点:该类方法可以通过合理的初始权重加速模型训练,避免局部最小值问题。然而,依赖仿真软件生成高质量的仿真数据对于复杂系统而言仍然是个挑战。

物理驱动网络架构设计

  • 设计理念:通过将物理知识嵌入到神经网络的结构中,例如通过使用残差神经网络(ResNet)和循环神经网络(RNN)单元,物理驱动网络增强了网络的可解释性。物理驱动的架构设计使得神经网络中的权重与物理量直接关联,从而增加了物理可解释性。

  • 优缺点:这种方法通过引入物理依赖关系使得深度网络的结构更具可解释性,但物理模型的复杂性和需求高质量物理模型的挑战,限制了其在复杂应用中的普遍性。

物理损失函数

  • 设计理念:物理损失函数将物理模型纳入神经网络的优化目标,通过最小化物理方程误差来指导网络的学习过程。这种损失函数不仅增强了网络输出的物理可解释性,还能够缓解过拟合问题,提高网络在未标记数据上的鲁棒性。

  • 优缺点:物理损失函数有效地结合了物理知识来提升神经网络的可靠性,但由于物理模型通常为低保真,且在某些应用场景中难以建立复杂的物理现象模型,因此其通用性有限。

三类物理知识先验赋能网络对比

  • 物理信息初值先验类似迁移学习,借模拟数据预训练网络,提升训练效率、缓解数据匮乏,但内部是黑箱,依赖仿真软件。物理驱动网络架构设计,凭领域知识明确节点连接,增强算法可解释性,不过设计依赖模型,复杂物理模型应用难。物理损失函数将物理损失作正则项,使输出契合物理规律,减少数据依赖,但物理模型多低保真,通用性欠佳。

先验赋能可解释网络实例

信号处理信息神经网络实例

  • 设计理念与应用:结合小波变换与深度学习,提出了故障感知降噪小波网络用于故障诊断。通过小波分析分解信号并提取特征信息,使用网络学习自适应选择重要频带并进行去噪处理,增强了特征提取能力、抗噪性能和网络的泛化能力。

  • 关键技术:小波变换的滤波操作作为卷积层中的可学习滤波器,对信号进行自适应分解;阈值去噪与网络结合自动判断噪声与特征信号的关系,进一步优化去噪效果;谱峭度与网络结合对频带特征赋予不同的重要性。

  • 优势与挑战:该方法能有效提高信号质量并准确提取故障相关特征,但小波函数的自适应选择仍旧受到预定小波函数库的限制,设计复杂且运算效率不高。

物理信息神经网络实例

  • 设计理念与应用:提出了一种物理变分神经网络(PCVNN)用于评估齿轮泵的磨损状态。该类网络将物理模型中推导出的显式表达式嵌入到网络中,作为物理损失优化网络性能,帮助更精确地评估齿轮泵磨损状态,确保其在航空发动机中的安全运行。

  • 关键技术:结合谱方法建立了齿轮泵出口的多尺度压力脉动模型,利用卷积神经网络(CNN)、递归神经网络(RNN)和注意力机制模块提取信号特征,通过物理约束目标函数优化网络。

  • 优势与挑战:物理损失函数为网络提供了更强的解释性和准确性,但模型的复杂性和计算需求较高,尤其在处理复杂的工业系统时,需要更多的物理建模支持。

挑战与机遇

先验知识的获取与类型

  • 挑战:复杂机械系统中,针对不同任务获取和选择合适的先验知识是一个挑战。如何将先验知识转化为网络模型设计,避免错误先验的引入,并实现先验与数据驱动的平衡,也是面临的难题。

  • 机遇:将合理的先验知识融入神经网络,可以有效提高模型可解释性。并且,先验约束的引入可以提高神经网络模型对于特定任务的特征提取能力,增强模型的准确性、稳定性和鲁棒性。基于统计推理、信息理论、因果理论等先验知识的可解释网络在故障诊断领域也有广阔的发展空间。

内在可解释性完善与补充

  • 挑战:内在可解释的网络模型设计常受到限制,难以实现全局可解释的大型复杂网络。尤其是基于信号处理的方法,往往只能设计可解释的特征提取器。从特征到最终决策的过程仍旧是隐式的。如何实现完全可解释的故障诊断模型,完善内在可解释性是目前的重要挑战。

  • 机遇:若事后对网络学习结果进行再解释,以使用者能理解的方式对内在可解释模型进行补充,能有力增加模型可信度,并且充分利用事后解释的结果可用于修正内在可解释网络的设计。

可解释评价标准

  • 挑战:多样化的可解释算法被提出。然而,目前并没有可用的可解释性评价标准对所提出的方法进行可解释程度的评估,阻碍了可解释智能诊断算法的健康发展。

  • 机遇:不同行业学科,不同任务对于可解释性的需求往往是不同,可以针对不同任务设置不同的可解释性评判标准。

可解释网络的改进与应用

  • 挑战:可解释网络设计无法像普通深度学习网络灵活,并且在模型性能与表现上仍旧存在不足。如物理信息神经网络很难精确地逼近高维偏微分方程,尤其是很难学习复杂的物理现象。

  • 机遇:知识驱动的约束,可解释网络往往具有更少的参数,在泛化性和收敛速度上表现更优。可以有效利用这一特性并将可解释网络应用于小样本、样本不平衡、变工况、强噪声等复杂问题。

总结与展望

随着以深度学习为代表的AI技术广泛应用于工业智能诊断,用户对稳定可信的系统的需求与深度学习的"黑盒"特性成为目前智能算法在高风险工业场景下应用中的主要矛盾。因此,研究可解释性技术是实现智能诊断算法落地的关键步骤之一。可解释性不仅能增加系统决策的可信度,还能提供决策依据的解释,以便分析错误发生原因并对系统进行改进。

作为XAI在工业智能诊断中的应用系列综述的上篇,本文将XAI分为先验赋能技术与归因分析技术,并对内在可解释的先验赋能技术的研究进行了概述。考虑诊断领域知识,本文主要介绍了内在可解释深度学习中信号处理先验赋能可解释网络以及物理知识先验赋能可解释网络在工业智能诊断中的应用。最后我们从四个方面讨论了先验赋能XAI的挑战和机遇:先验知识的获取和类型、内在可解释性完善与补充、可解释性标准评价、可解释网络的改进与应用。

我们希望本系列综述有助于增加本领域研究者对XAI最新进展的了解,并推动XAI在智能诊断中的发展与应用。

参考文献

[1] MARX D,GRYLLIAS K. Domain knowledge informed unsupervised fault detection for rolling element bearings[C]//PHM Society European Conference,2022,7(1):338-350.

[2] YE Z,YU J. Deep morphological convolutional network for feature learning of vibration signals and its applications to gearbox fault diagnosis [J]. Mechanical Systems and Signal Processing,2021,161:107984.

[3] SHANG Z , ZHAO Z , YAN R , et al. Denoising fault-aware wavelet network : A signal processing informed neural network for fault diagnosis [J]. Chinese Journal of Mechanical Engineering,2023,36(1):9.

[4] XU W , ZHOU Z , LI T , et al. Physics-constraint variational neural network for wear state assessment of external gear pump[J]. IEEE Transactions on Neural Networks and Learning Systems , 2022. DOI :10.1109/TNNLS.2022.3213009.

© 2023 北京元石科技有限公司 ◎ 京公网安备 11010802042949号