网络编程
位置:首页>> 网络编程>> Python编程>> python实现PyEMD经验模态分解残差量分析

python实现PyEMD经验模态分解残差量分析

作者:Cyril_KI  发布时间:2022-06-22 05:26:17 

标签:python,PyEMD,经验模态分解,残差量

前言

PyEMD是经验模态分解 (EMD)及其变体的Python实现,EMD最流行的扩展之一是集成经验模态分解 (EEMD),它利用了噪声辅助执行的集成。

顾名思义,这个包中的方法获取数据(信号)并将其分解为一组组件。所有这些方法理论上都应该将信号分解为同一组分量,但实际上有很多细微差别和不同的方法来处理噪声。无论采用何种方法,获得的分量通常称为本征模态函数(IMF),以强调它们包含固有(自身)属性,即特定振荡(模态)。(以上来自官方文档)

两种实现形式

最近尝试实现CEEMDAN,CEEMADN也是EMD的一种变体。按照官方API,有以下两种形式的写法:

大部分博客采用的是第一种写法:

ceemdan = CEEMDAN()
ceemdan.ceemdan(load)
imfs, res = ceemdan.get_imfs_and_residue()
vis = Visualisation()
vis.plot_imfs(imfs, res)

这种写法得到的图为:

python实现PyEMD经验模态分解残差量分析

第二种写法,也是官方的写法:

ceemdan = CEEMDAN()(load)
imfs, res = ceemdan[:-1], ceemdan[-1]
vis = Visualisation()
vis.plot_imfs(imfs, res)

得到的图示为:

python实现PyEMD经验模态分解残差量分析

可以发现,两张图最大的区别在于Res。一般论文中给出的图示是第二种。

我们尝试输出第一种方法中的Res:

[ 0.00000000e+00 -2.84217094e-14  0.00000000e+00 ... -2.84217094e-14
  0.00000000e+00  0.00000000e+00]

可以发现其量级特别小,还原时我们可以不加上这一部分。而方法二中的Res显然量级是最大的,还原时必须加上。

因此,方法一中的Res是我们一般人所理解的残余量,在真正进行建模时可以不考虑。

方法一中画图时如果我们不包含残余量,即:

vis.plot_imfs(imfs=imfs, residue=res, include_residue=False)

我们将得到:

python实现PyEMD经验模态分解残差量分析

区别

在github上经过交流后,得到如下结论:

方法一中的Res是真正意义上的残余量,或许叫残差更合适一点,也就是分解之后不能再分解的部分。在PyEMD的源码中被定义为:

S * scale_s - np.sum(self.C_IMF, axis=0)

因此,ceemdan.get_imfs_and_residue()实际上得到的是最终的IMF和重建误差,而不是残差。

残差的正确获取方式是ceemdan[-1]。

来源:https://blog.csdn.net/Cyril_KI/article/details/124370191

0
投稿

猜你喜欢

手机版 网络编程 asp之家 www.aspxhome.com