贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法

2024-12-13 3:39:57 欧洲杯直播 facai369

贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法

1.本发明属于预测与健康管理中的剩余寿命预测技术领域,特别是一种贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法。背景技术:2.故障的发生可能会导致巨大的维修更换成本,甚至威胁人们的生命健康安全。为了预测并管理系统未来可能出现的风险,提高战备完好率和任务成功率,让机器设备更安全、可靠地运行,对机器设备进行预测与健康管理(prognostics and health management,phm)至关重要。在phm中,预测是健康管理的基础,健康管理通过感知设备的状态,结合预测信息,根据实际的需求与资源做出下一步维修行为的决策。因此,对设备剩余寿命(remaining useful life,rul)进行预测是phm技术的核心工作。随着传感器技术的飞速发展,各种设备都可以在线监测其健康状态,为数据驱动的预测方法提供了足够的数据支持。深度学习(deep learning,dl)凭借着其卓越的非线性捕捉能力,在rul预测领域受到越来越多的关注。3.尽管dl方法能够实现良好的rul预测,但是该方法只能提供rul点估计值,无法实现不确定性的量化。在现实系统中,rul预测常常会受到两类不确定性的影响:一种是固有不确定性,与数据本身有关,反映了数据噪声、测量误差等不可控因素的影响;另一种是认知不确定性,反映了数据量的限制对网络可信度的制约。贝叶斯方法通过结合已知信息对后验分布进行推理,是一个强大的不确定性量化框架,近年来将贝叶斯方法同dl结合起来的贝叶斯深度学习(bayesian deep learning,bdl)方法成为了广大研究者的研究热点。bdl融合了dl强大的非线性处理能力和贝叶斯方法的不确定性量化能力,具有非常广阔的应用前景。但是,bdl的计算需要大量的计算成本和时间成本,大大限制了bdl的实际应用。幸运的是,gal和ghahramani已经证明,将正则化方法dropout应用于深度神经网络可将其近似为贝叶斯深度神经网络(bayesian deep neural network,bdnn),这让bdl的快速计算和实际应用成为可能。但由于网络选取的误差和近似推理的使用,贝叶斯不确定性估计通常是不准确的。例如,置信度为95%的后验置信区间通常无法包含95%的真实结果。因此,为了获取准确的不确定性量化结果,寻求一种贝叶斯深度学习的剩余寿命预测及其不确定性量化校准方法是十分迫切且必要的。技术实现要素:4.本发明针对上述现有技术中的缺陷,提出一种贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法。该方法包括预处理系统退化数据获取基础数据集,确定深度神经网络类型和规模,构建基于贝叶斯深度学习的剩余寿命预测网络,确定剩余寿命预测网络的超参数进行训练和验证,量化所训练剩余寿命预测网络的不确定性,获取不确定性校准系数,判断预测不确定性的校准系数和固有不确定性的校准系数是否均不再改变或变化很小,若是输出剩余寿命预测值和不确定性量化结果。本发明构建了贝叶斯深度学习网络进行不确定性建模,通过蒙特卡洛采样获得预测分布,结合保序回归和std scaling法进行预测不确定性、固有不确定性、认知不确定性的校准,可有效提高预测精度和不确定性校准质量。5.本发明提供一种贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法,其包括以下步骤:6.s1、预处理系统退化数据获取基础数据集:对系统退化数据进行预处理,包括特征筛选、特征降维、数据归一化和集合划分,得到用于网络训练、验证、测试和校准的基础数据集,包括训练集、验证集、测试集和校准集;7.s2、确定深度神经网络类型和规模:根据退化数据特征选择合适类型的深度神经网络,包括卷积神经网络cnn和长短期记忆网络lstm,并根据数据集的大小确定网络的规模,包括神经元数目和网络层数;8.s3、构建基于贝叶斯深度学习的剩余寿命预测网络:将正则化方法concrete dropout应用于所选的深度神经网络来捕捉认知不确定性,并在网络输出上放置一个高斯分布来捕获固有不确定性,依此构建基于贝叶斯深度学习的剩余寿命预测网络,并确定网络的损失函数;9.s31、将认知不确定性量化融入网络,使用kl散度并结合蒙特卡洛采样法得到推断分布和真实后验分布的距离的解析表达式;10.s32、将固有不确定性量化融入网络,获取网络的损失函数loss:11.s33、在使用梯度下降法优化损失函数时,从伯努利分布中采样,为使用重参数化法更新参数,将离散的伯努利分布替换成其对应的concrete分布,即采样点z为:[0012][0013]其中,t为温度参数,用以控制从concrete分布和伯努利分布中采样点的相似性,取0.1;pl表示dropout概率;u表示均匀分布[0,1]中采样点,得到采样点z关于pl的显式表达;[0014]s4、确定剩余寿命预测网络的超参数进行训练和验证:通过网格搜索策略确定剩余寿命预测网络的超参数,包括批次大小、训练轮数和学习率,在训练集上训练网络并通过验证集验证,以防止网络过拟合;[0015]s5、量化所训练剩余寿命预测网络的不确定性:在剩余寿命预测网络测试阶段,在测试集上通过蒙特卡洛dropout获得预测分布以估计剩余寿命,并利用不确定性分解公式分别量化预测不确定性、认知不确定性和固有不确定性;[0016]s6、获取不确定性校准系数:基于量化所训练剩余寿命预测网络的不确定性,获取对应预测不确定性和固有不确定性的校准系数:[0017]s61、定义校准:校准被定义为网络输出的预测分布的累积分布函数(cdf)和经验得到的cdf在数据量足够大的情况下能够匹配,更直观地,即被定义为置信度为α的后验置信区间应当包含占比为α的真实结果;[0018]s62、基于校准定义,对于未校准网络h,进行预测不确定性校准;[0019]s621、给定校准集t为样本数量,选择能反映回归网络置信水平的特征φt(yt):[0020][0021]其中,μt和σt分别表示输入xt下的预测均值和预测不确定性,均由步骤s5获得;[0022]s622、计算φt(yt)及其对应的经验概率[0023][0024]其中,i{·}表示指示函数;[0025]s623、构建校准数据集s:[0026][0027]s624、在校准数据集s上利用保序回归拟合特征φt(yt)的累积分布函数fφ,计算fφ的方差λp为预测不确定性的校准系数,并根据式(20)得到预测不确定性的校准结果[0028][0029]s63、校准固有不确定性和认知不确定性:结合std scaling方法,直接对网络方差进行放缩,并利用极大似然原则获取校准系数的取值,实现固有不确定性和认知不确定性的校准;[0030]s7、判断预测不确定性的校准系数λp和固有不确定性的校准系数λa是否均不再改变或变化很小,若是则执行步骤s8,否则执行步骤s5;[0031]s8、输出剩余寿命预测值和不确定性量化结果:由校准后的网络输出剩余寿命的预测值及其预测不确定性、固有不确定性和认知不确定性的量化结果。[0032]进一步,所述步骤s31具体包括以下步骤:[0033]s311、对于一个l层的深度神经网络,每层单元数量为kl,网络权重ω表示为:[0034][0035]其中,wl表示深度神经网络的第l层网络权重;[0036]s312、将concrete dropout应用于深度神经网络以捕捉认知不确定性,即把固定的网络权重ω处理成推断分布qθ(ω):[0037][0038]其中,θ表示变分参数且有:[0039][0040]其中,ml表示维度为kl+1×kl的平均权重矩阵,kl和kl+1均为一常数;则每层网络的推断分布表示为:[0041][0042]s313、对于历史数据中的n个输入和n个输出使用kl散度衡量推断分布qθ(ω)和真实后验分布p(ω|x,y)的距离:[0043]kl(qθ(ω)||p(ω|x,y))=kl(qθ(ω)||p(ω))‑∫qθ(ω)log(p(y|x,ω))dωꢀꢀ(5)[0044]其中,p(y|x,ω)表示基于历史数据集的似然函数;p(ω)表示权重的先验分布且选取为:[0045][0046]其中,p(wl)表示深度神经网络的第l层网络权重的先验分布且有αl表示函数光滑程度的控制参数;[0047]s314、结合蒙特卡洛采样法,得到kl(qθ(ω)||p(ω|x,y))的解析表达式:[0048][0049]其中,p(yi|xi,ω)表示每个样本的似然函数;η(pl)表示伯努利随机变量的熵且η(pl)=‑pllogpl‑(1‑pl)log(1‑pl);[0050]所述步骤s32具体包括以下步骤:[0051]s321、在网络输出上放置一个高斯分布:[0052]p(yi|xi,ω)=n(μ(xi,ω),σ2)ꢀꢀꢀꢀꢀꢀꢀꢀ(8)[0053]其中,μ(xi,ω)表示预测均值;σ2表示观测噪声,用来衡量固有不确定性,并将其视为异方差即随输入数据变化而变化;[0054]s322、考虑到观测噪声的建模会受到数据不足和网络认识不充分的制约,即受到认知不确定性的影响,将固有不确定性建模为σ2=σ(xi,ω)2,则网络的损失函数loss可表示为:[0055][0056]进一步,所述步骤s63具体包括以下步骤:[0057]s631、通过不确定性分解公式表示各类不确定性校准后数值的关系:[0058]λp·ηpredictive=λa·ηaleatoric+λe·ηepistemicꢀꢀꢀꢀꢀꢀꢀꢀ(21)[0059]其中,ηpredictive表示预测不确定性;ηaleatoric表示固有不确定性;ηepistemic表示认知不确定性;λp、λa和λe分别表示预测不确定性、固有不确定性和认知不确定性的校准系数,λp由s61步骤获得,且λe由λp和λa的取值共同决定;[0060]s632、固有不确定性的校准系数λa经极大似然估计进行估计,似然函数p(y|x,x,y)为:[0061][0062]其中,σb表示预测标准差的采样值;μb,new表示校准后预测均值的采样值且有:[0063][0064]其中,μb表示预测均值的采样值;[0065]s633、对预测不确定性校准系数和固有不确定性校准系数进行进一步优化:[0066]s6331、对于训练好的网络确定迭代终止阈值ε;[0067]s6332、在校准集上利用s62步骤的校准方法校准预测不确定性,得到预测不确定性的校准系数[0068]s6333、利用极大似然估计在校准集上估计固有不确定性的校准系数[0069]s6334、将作为准确的固有不确定性量化替代损失函数中的σ2,并在训练集上再次训练子网络f(μ|hl‑1),其中h为隐藏层状态;[0070]s6335、将训练后的子网络更新至若且则输出校准后的预测不确定性校准系数和固有不确定性校准系数及网络,否则执行步骤s6332。[0071]优选的,所述步骤s5具体包括以下步骤:[0072]s51、通过预测方差来衡量不确定性,且预测方差var(y|x)分解为:[0073]var(y|x)=varω[ey|x,ω(y|x,ω)]+eω[vary|x,ω(y|x,ω)]ꢀꢀꢀꢀꢀꢀꢀꢀ(11)[0074]其中,varω[ey|x,ω(y|x,ω)]和eω[vary|x,ω(y|x,ω)]分别表示衡量认知不确定性和固有不确定性的方差:[0075]s52、对于测试数据x*,在测试阶段打开dropout,即mc dropout,确定循环次数b,通过b次mc dropout得到采样值集合[0076][0077]s53、计算预测均值及不确定性:[0078]其中,预测均值μ*的表达式为:[0079][0080]认知不确定性的表达式:[0081][0082]固有不确定性的表达式为:[0083][0084]预测不确定性的表达式为:[0085][0086]进一步,所述步骤s8中预测不确定性为:[0087][0088]固有不确定性为:[0089][0090]认知不确定性为:[0091][0092]与现有技术相比,本发明的技术效果为:[0093]1、本发明设计的一种贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法,基于对设备的退化数据进行预处理后得到的数据集,根据数据特征和数据集的大小选择合适类型和规模的深度神经网络,并在此基础上,构建贝叶斯深度学习网络以建模固有不确定性和认知不确定性,并确定其损失函数,网络中的超参数通过网格搜索的策略进行选择,随后进行网络训练,并结合验证集数据防止网络过拟合。[0094]2、本发明设计的一种贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法,对于训练好的网络,通过蒙特卡洛采样获得预测分布,进而得到预测值及各类不确定性的量化结果,为了校准不确定性,结合保序回归和std scaling方法,提出了预测不确定性、固有不确定性、认知不确定性的校准,最后由已校准的网络预测剩余寿命和量化不确定性,可有效提高预测精度和不确定性校准质量。附图说明[0095]通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本技术的其它特征、目的和优点将会变得更明显。[0096]图1是本发明的贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法流程图;[0097]图2是本发明的针对涡扇发动机和锂离子电池数据集构建的预测网络图;[0098]图3a为本发明在fd001数据集上剩余寿命预测值及0.9置信度下置信区间的估计结果;[0099]图3b为本发明在fd001数据集上的固有不确定性和认知不确定性的量化结果;[0100]图4a为本发明在fd002数据集上剩余寿命预测值及0.9置信度下置信区间的估计结果;[0101]图4b为本发明在fd002数据集上的固有不确定性和认知不确定性的量化结果;[0102]图5a为本发明在fd003数据集上剩余寿命预测值及0.9置信度下置信区间的估计结果;[0103]图5b为本发明在fd003数据集上的固有不确定性和认知不确定性的量化结果;[0104]图6a为本发明在fd004数据集上剩余寿命预测值及0.9置信度下置信区间的估计结果;[0105]图6b为本发明在fd004数据集上的固有不确定性和认知不确定性的量化结果;[0106]图7a为本发明在锂离子电池数据集上剩余寿命预测值及0.9置信度下置信区间的估计结果;[0107]图7b为本发明在锂离子电池数据集上的固有不确定性和认知不确定性的量化结果。具体实施方式[0108]下面结合附图和实施例对本技术作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。[0109]需要说明的是,在不冲突的情况下,本技术中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本技术。[0110]图1示出了本发明的贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法,该方法包括以下步骤:[0111]s1、预处理系统退化数据获取基础数据集:对系统退化数据进行预处理,包括特征筛选、特征降维、数据归一化和集合划分,得到用于网络训练、验证、测试和校准的基础数据集,包括训练集、验证集、测试集和校准集。[0112]s2、确定深度神经网络类型和规模:根据退化数据特征选择合适类型的深度神经网络,包括卷积神经网络cnn和长短期记忆网络lstm,并根据数据集的大小确定网络的规模,包括神经元数目和网络层数。[0113]s3、构建基于贝叶斯深度学习的剩余寿命预测网络:将正则化方法concrete dropout应用于所选的深度神经网络,以使之近似为贝叶斯深度神经网络来捕捉认知不确定性,并在网络输出上放置一个高斯分布来捕获数据本身的噪声,即固有不确定性,依此构建基于贝叶斯深度学习的剩余寿命预测网络,并确定网络的损失函数。其中,concrete dropout是指在深度学习网络的训练过程中,对于神经网络单元,基于贝叶斯估计,按照一定的概率将其暂时从网络中丢弃并实时优化其丢弃概率的方法。[0114]s31、将认知不确定性量化融入网络,使用kl散度并结合蒙特卡洛采样法得到推断分布和真实后验分布的距离的解析表达式。[0115]s311、对于一个l层的深度神经网络,每层单元数量为kl,网络权重ω表示为:[0116][0117]其中,wl表示深度神经网络的第l层网络权重。[0118]s312、将concrete dropout应用于深度神经网络以捕捉认知不确定性,即把固定的网络权重ω处理成推断分布qθ(ω):[0119][0120]其中,θ表示变分参数且有:[0121][0122]其中,ml表示维度为kl+1×kl的平均权重矩阵,kl和kl+1均为一常数;pl表示dropout概率;则每层网络的推断分布表示为:[0123][0124]s313、对于历史数据中的n个输入和n个输出网络的优化目标是合理估计θ使得推断分布尽可能近似真实的后验分布p(ω|x,y),使用kl散度衡量推断分布qθ(ω)和真实后验分布p(ω|x,y)的距离:[0125]kl(qθ(ω)||p(ω|x,y))=kl(qθ(ω)||p(ω))‑∫qθ(ω)log(p(y|x,ω))dω (5)[0126]其中,p(y|x,ω)表示基于历史数据集的似然函数;p(ω)表示权重的先验分布且选取为:[0127][0128]其中,p(wl)表示深度神经网络的第l层网络权重的先验分布且有αl表示函数光滑程度的控制参数。[0129]s314、结合蒙特卡洛采样法,得到kl(qθ(ω)||p(ω|x,y))的解析表达式:[0130][0131]其中,p(yi|xi,ω)表示每个样本的似然函数;η(pl)表示伯努利随机变量的熵且η(pl)=‑pllogpl‑(1‑pl)log(1‑pl)。[0132]s32、将固有不确定性量化融入网络,获取网络的损失函数loss。[0133]s321、在网络输出上放置一个高斯分布:[0134]p(yi|xi,ω)=n(μ(xi,ω),σ2)ꢀꢀꢀꢀꢀꢀꢀ(8)[0135]其中,μ(xi,ω)表示预测均值;σ2表示观测噪声,用来衡量固有不确定性,并将其视为异方差即随输入数据变化而变化。[0136]s322、考虑到观测噪声的建模会受到数据不足和网络认识不充分的制约,即受到认知不确定性的影响,将固有不确定性建模为σ2=σ(xi,ω)2,则网络的损失函数loss可表示为:[0137][0138]s33、在使用梯度下降法优化损失函数时,从伯努利分布中采样,为使用重参数化法更新参数,将离散的伯努利分布替换成其对应的concrete分布。concrete分布是指在具有封闭形式密度的单纯形上的连续分布,且允许梯度信息在概率状态间传递。采样点z为:[0139][0140]其中,t为温度参数,用以控制从concrete分布和伯努利分布中采样点的相似性,取0.1;u表示均匀分布[0,1]中的采样点,得到采样点z关于pl的显式表达。[0141]上述的步骤s3是本发明的重要发明点,主要体现在,构建贝叶斯深度学习网络以建模固有不确定性和认知不确定性,并确定其损失函数,为量化不确定性提供了重要依据。[0142]s4、确定剩余寿命预测网络的超参数进行训练和验证:通过网格搜索策略确定剩余寿命预测网络的超参数,包括批次大小、训练轮数和学习率,在训练集上训练网络并通过验证集验证,以防止网络过拟合。[0143]s5、量化所训练剩余寿命预测网络的不确定性:在剩余寿命预测网络测试阶段,在测试集上通过蒙特卡洛dropout获得预测分布以估计剩余寿命,并利用不确定性分解公式分别量化预测不确定性、认知不确定性和固有不确定性。其中,蒙特卡洛dropout是指在网络测试阶段将某些神经网络单元从网络中丢弃,对同一个输入进行多次前向传播的过程。[0144]s51、通过预测方差来衡量不确定性,且预测方差var(y|x)分解为:[0145]var(y|x)=varω[ey|x,ω(y|x,ω)]+eω[vary|x,ω(y|x,ω)]ꢀꢀꢀꢀꢀꢀꢀ(11)[0146]其中,varω[ey|x,ω(y|x,ω)]和eω[vary|x,ω(y|x,ω)]分别表示衡量认知不确定性和固有不确定性的方差。[0147]s52、对于测试数据x*,在测试阶段打开dropout,即mc dropout,确定循环次数b,通过b次mc dropout得到采样值集合[0148][0149]其中,μb和σb分别表示预测均值和预测标准差的采样值。[0150]s53、计算预测均值及不确定性:[0151]其中,预测均值μ*的表达式为:[0152][0153]认知不确定性的表达式:[0154][0155]固有不确定性的表达式为:[0156][0157]预测不确定性的表达式为:[0158][0159]s6、获取不确定性校准系数:基于量化所训练剩余寿命预测网络的不确定性,获取对应预测不确定性和固有不确定性的校准系数。[0160]s61、定义校准:校准被定义为网络输出的预测分布的累积分布函数(cdf)和经验得到的cdf在数据量足够大的情况下能够匹配,更直观地,即被定义为置信度为α的后验置信区间应当包含占比为α的真实结果。[0161]s62、基于校准定义,对于未校准网络h,进行预测不确定性校准。[0162]s621、给定校准集t为校准集的样本数量,选择能够反映回归网络置信水平的特征φt(yt):[0163][0164]其中,μt和σt分别表示输入xt下的预测均值和预测不确定性,均由步骤s5获得;[0165]s622、计算φt(yt)及其对应的经验概率[0166][0167]其中,i{·}表示指示函数。[0168]s623、构建校准数据集s:[0169][0170]s624、在校准数据集s上利用保序回归拟合特征φt(yt)的累积分布函数fφ,计算fφ的方差λp为预测不确定性的校准系数,并根据式(20)得到预测不确定性的校准结果[0171][0172]s63、校准固有不确定性和认知不确定性:结合std scaling方法,直接对网络方差进行放缩,并利用极大似然原则获取校准系数的取值,实现固有不确定性和认知不确定性的校准。其中,std scaling是指将待校准分布的标准差上乘一放缩因子,以实现对其衡量的不确定性的整体放缩。[0173]s631、通过不确定性分解公式表示各类不确定性校准后数值的关系:[0174]λp·ηpredictive=λa·ηaleatoric+λe·ηepistemicꢀꢀꢀꢀꢀꢀꢀꢀꢀ(21)[0175]其中,ηpredictive表示预测不确定性;ηaleatoric表示固有不确定性;ηepistemic表示认知不确定性;λp、λa和λe分别表示预测不确定性、固有不确定性和认知不确定性的校准系数,λp由s61步骤获得,且λe由λp和λa的取值共同决定。[0176]s632、固有不确定性的校准系数λa经极大似然估计进行估计,似然函数p(y|x,x,y)为:[0177][0178]其中,μb,new表示校准后预测均值的采样值且有:[0179][0180]s633、对预测不确定性校准系数和固有不确定性校准系数进行进一步优化。[0181]s6331、对于训练好的网络确定迭代终止阈值ε。[0182]s6332、在校准集上利用s62步骤的校准方法校准预测不确定性,得到预测不确定性的校准系数[0183]s6333、利用极大似然估计在校准集上估计固有不确定性的校准系数[0184]s6334、将作为准确的固有不确定性量化替代损失函数中的σ2,并在训练集上再次训练子网络f(μ|hl‑1),其中h为隐藏层状态。[0185]s6335、将训练后的子网络更新至若且则输出校准后的预测不确定性校准系数和校准后的固有不确定性校准系数及校准后的网络,否则执行步骤s6332。[0186]上述的步骤s6是本发明的重要发明点,主要体现在,结合保序回归和std scaling方法,提出的预测不确定性、固有不确定性、认知不确定性的校准,为剩余寿命预测和不确定性的精准量化提供了重要依据。[0187]s7、判断预测不确定性的校准系数λp和固有不确定性的校准系数λa是否均不再改变或变化很小,若是则执行步骤s8,否则执行步骤s5。[0188]s8、输出剩余寿命预测值和不确定性量化结果:由校准后的网络输出剩余寿命的预测值及其预测不确定性、固有不确定性和认知不确定性的量化结果。[0189]其中,预测不确定性为:[0190][0191]固有不确定性为:[0192][0193]认知不确定性为:[0194][0195]下面结合涡扇发动机和锂离子电池对本发明做进一步的详细说明。[0196]s1、预处理系统退化数据获取基础数据集:对涡扇发动机和锂离子电池数据集进行分析并预处理:涡扇发动机退化数据集由商用模块化航空推进仿真系统(commercial modular aero‑propulsion system simulation,c‑mapss)生成。该数据集由fd001、fd002、fd003、fd004四个子数据集组成,每个子数据集包含一个训练集和一个测试集。进一步划分训练发动机数据,取其中20%的发动机数据作为验证集,10%的发动机数据作为校准集,其余为训练集。每个子数据集均由21个传感器信号和3维工况数据多组多个时间序列组成,每组时间序列数据对应一台发动机的退化过程状态参数的变化情况。每台发动机属于同类产品,但有不同的初始状态,包括初始磨损和个体间制造上的差异。该数据集的基本概况如表1所示。[0197][0198]表1[0199]c‑mapss数据集包含21个传感器采集信号,但是有些传感器信号在整个退化过程中保持恒定,如t2、p2、p15、epr、farb、nf‑dmd和pcnfr‑dmd,这些传感器信号无法反映发动机的退化状态。因此,为了降低输入维度,舍弃了这些传感器信号。对于三维的工况数据,通过对其聚类以降低数据维度,简化输入数据的形式,从而利于提高网络的计算速度和预测准确度。因此,最终选取输入数据为14维的传感器数据、1维工况数据和1维运行时间数据。[0200]此外,考虑到不同工况下的传感器信号和不同传感器之间信号的幅值差异,利用归一化技术将原始信号映射到[0,1]范围内:[0201][0202]其中,表示第j个传感器信号在第i个工况下的归一化结果;分别表示第j个传感器信号在第i个工况下的最大值和最小值。[0203]锂离子电池数据集由a123系统(apr18650m1a)制造的124个锂离子磷酸(lfp)/石墨电池的退化数据组成。在30℃的强制对流温度条件下,这些电池在48通道arbin lbt恒电位仪上进行快速充放电,并利用传感器采集参数信号。根据测试开始的日期,数据集可以分为3个批次,各个批次之间在实验设计上都有一些不同之处。[0204]选取该数据集的第二个批次共43个电池数据进行实验,每个电池均在同一运行条件下快速充放电直至失效,并进一步划分数据集,其中训练集、验证集、校准集、测试集的电池数量比例为5:2:1:2。与由截断数据组成的发动机测试集不同,锂离子电池测试集由全寿命周期数据组成。每个电池的全寿命周期数据共八维:充电时间、循环次数、内阻抗、放电容量、充电容量、平均温度、最高温度、最低温度。经分析,锂离子电池退化的主要表现形式为放电容量的降低。因此将放电容量达到初始放电容量的80%经历的循环数作为该电池的寿命。此外,上述信号中某些维度信号存在冗余,如放电容量和充电容量,平均温度、最高温度和最低温度。因此,为了简化输入,在这些冗余信号中选取一维信号作为最终的输入。最终选取的输入数据为:内阻抗、放电容量、平均温度、充电时间和循环次数。[0205]与发动机数据预处理一样,选择归一化方法处理不同维度输入数据的幅值差异。但是,与发动机不同的是,锂离子电池的采集信号存在较大尖峰,使得归一化后的数据无法合理分布于[0,1]之间。因此,在归一化之前,需要先去除信号中的尖峰。[0206]s2、确定深度神经网络类型和规模:根据退化数据特征选择合适类型的深度神经网络,并根据数据集的大小确定网络的规模,包括神经元数目、网络层数等。由于涡扇发动机和锂离子电池的退化数据均为时间序列数据,为了捕捉数据中的时序信息并处理长时间依赖的特征,选择lstm作为基本网络框架。考虑到两个数据集均为中等规模的,因此选择三层lstm建立网络。经过多次训练验证,每层lstm选取的神经元数目分别为256、128和64。[0207]s3、构建基于贝叶斯深度学习的剩余寿命预测网络:网络的基本架构如图2所示,将concrete dropout应用于所选网络的各层中。为了保证贝叶斯推理的正确性,在对网络权重进行dropout操作时,需要保持lstm层各个时间步的dropout mask相同,即variational dropout。为了捕获固有不确定性,在最后一层lstm的最后时间步上连接全连接层输出高斯分布的两个参数:均值μ和标准差σ。为保证输出的标准差有意义,标准差对应全连接层的激活函数选取指数激活函数。经过多次训练验证,各层控制参数αl均选取0.1,该网络对应损失函数为:[0208][0209]s4、确定剩余寿命预测网络的超参数进行训练和验证:选择adam算法优化网络,通过试错策略结合网格搜索尝试各种超参数的组合,并通过训练验证选取最佳组合,如表2所示。[0210][0211]表2[0212]在网络训练过程中,为了提高网络的泛化能力,利用早停法避免过拟合,即当验证集的loss不再下降时停止训练。[0213]s5、量化所训练剩余寿命预测网络的不确定性:在测试阶段打开dropout,具体操作为:对于网络中的每一层网络,首先从以优化完成的dropout概率p为参数的伯努利分布中采样得到dropout mask;其次将dropout mask与该层网络的权重相乘,对于lstm层,保证各个时间步的dropout mask相同,即只需采样一次dropout mask;然后输出均值和标准差。重复上述步骤1000次,得到均值和标准差的1000次采样值最后计算预测值及不确定性:预测均值认知不确定性固有不确定性以及预测不确定性[0214]s6、获取不确定性校准系数:首先确定迭代终止阈值ε=0.01;其次根据不确定性的量化结果在校准集上利用保序回归校准预测不确定性并计算对应的校准系数λp;然后结合std scaling方法利用mle估计固有不确定性对应的校准系数λa;随后在训练集上进一步优化子网络并更新网络,其中需继续优化的子网络为输出均值μ对应的全连接网络;最后重复上述校准—再训练步骤若干次,直至两次迭代校准系数的差值均小于等于0.01,得到校准系数的估计值如表3所示。[0215][0216]表3[0217]s8、输出剩余寿命预测值和不确定性量化结果,图3a‑7b分别展示了本发明在各个数据集上的剩余寿命预测值及其0.9置信度下的置信区间的估计结果和固有不确定性及认知不确定性的量化结果。[0218]本发明设计的一种贝叶斯深度学习下剩余寿命预测及不确定性量化校准方法,基于对设备的退化数据进行预处理后得到的数据集,根据数据特征和数据集的大小选择合适类型和规模的深度神经网络,并在此基础上,构建贝叶斯深度学习网络以建模固有不确定性和认知不确定性,并确定其损失函数,网络中的超参数通过网格搜索的策略进行选择,随后进行网络训练,并结合验证集数据防止网络过拟合;对于训练好的网络,通过蒙特卡洛采样获得预测分布,进而得到预测值及各类不确定性的量化结果,为了校准不确定性,结合保序回归和std scaling方法,提出了预测不确定性、固有不确定性、认知不确定性的校准,最后由已校准的网络预测剩余寿命和量化不确定性,可有效提高预测精度和不确定性校准质量。[0219]最后所应说明的是:以上实施例仅以说明而非限制本发明的技术方案,尽管参照上述实施例对本发明进行了详细说明,本领域的普通技术人员应当理解:依然可以对本发明进行修改或者等同替换,而不脱离本发明的精神和范围的任何修改或局部替换,其均应涵盖在本发明的权利要求范围当中。