发布时间:2024-02-14 16:30
信息融合算法分析
在多传感器系统中,综合分析和处理数据时需要依靠融合算法进行实现,目前,尚未有一种信息融合算法可以应用于不同的传感器或可适用于每一层级的信息融合,针对不同层级的信息融合,有相对应的适用的、高效的融合算法。在具体的工程应用时,应该根据应用领域、用途选择适用于工程项目的融合算法,图 5.6 显示了融合算法的具体分类。
石显:多传感器信息融合算法设计及仿真——基于 MATLAB 的三层 BP 神经网络的设计与仿真zhuanlan.zhihu.com1 Kalman 滤波
Kalman 滤波是一种利用状态空间方法构建系统模型并完成滤波的线性最小方差估计递推算法。在测量方差已知的情况下能够从一系列存在测量噪声的数据中,估计动态系统的状态,并可对现场采集的数据进行实时的更新和处理,且便于计算机编程实现。Kalman 滤波目前在通信、导航、制导、控制领域得到了较好的应用。 Kalman 滤波主要分为两种:离散 Kalman 滤波、扩展 Kalman 滤波。这里主要介绍离散Kalman 滤波。
①离散时间线性系统模型
一个可用线性随微分方程来描述的离散控制过程,受加性高斯白噪声的影响。系统的状态方程为:
矩阵 ( )、 ( )、 ( )、 ( )、 ( )假定为已知并可能是时变的,即系统可能是时变的,噪声也可能是非平稳随机噪声。过程噪声与测量噪声序列及初始状态假定是彼此不相关的。这些假定在 Kalman 滤波模型中被总称为线性高斯假定。
②离散 Kalman 滤波算法流程
在离散 Kalman 滤波算法中,通过结合k + 1时刻的状态预测结果 ( + 1| )和 + 1时刻的状态测量值 ( + 1),就可得到 + 1时刻的最优化估计值 ( + 1| + 1),主要步骤如下: 状态一步预测方程:
( + 1 | )为对称矩阵,是用来衡量预测的不确定性, ( + 1 | )越小,则预测值越准确。新息协方差方程为:
通过上面的计算公式,可归纳出 Kalman 算法循环周期如图 5.7 所示。从图中可以看出一个系统状态估计周期包括:状态及测量预测、状态更新。状态更新是由滤波增益推导而来,而滤波增益是通过协方差推导得出。
2 SVM 支持向量机
支持向量机 (support vector machine,SVM)是 Cortes 和 Vapnik 在 1995 年首先提出的针对分类和回归问题的统计学理论。其基本模型定义为特征空间上的间隔做大的线性分类器,学习策略为间隔最大化,最终可转化为一个凸二次规划问题的求解。支持向量机方法是建立在统计学理论的 VC 维理论和结构风险最小原理基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度,Accuracy)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的泛化能力。
(1) 分类标准的起源:Logistic 回归 首先,需要先弄清楚一个概念:线性分类器。假如给定一些数据点,他们分别属于不同的类,现在要将这些数据分成两类,从而我们需要一个线性分类器,该分类器的作用是在 n 维数据空间中找到一个超平面将数据分开归类,方程式为:
Logistic 回归的目的是从特征学习出一个 0/1 分类的模型,模型的自变量为特性的线性组合,自变量的取值范围为负无穷到正无穷,用 Logistic 回归函数作(0-1)的取值映射,可以表示为如下方程式:
数据是线性可分的(线性不可分下面再讨论),那么此处存在一个问题:如何确定这个超平面,从而引出函数间隔与几何间隔的概念。
(2) 函数间隔与几何间隔
式(5.13)表示 是超平面上的点,使得 ∗ + = 0,由此| ∗ + |表示数据点 到超平面的距离,类标记 的取值为-1 或 1,所以只要判断( ∗ + ) ∗ 的正负性来断定数据是否分类正确,由此引入函数间隔,表达式如下:
但这里有个缺点,当成一定的比例改变 和 (比如改成2 和 2 ),此时超平面未改变,函数间隔却增加了一倍,所以函数间隔不能很好地解决间隔问题,从而引出真正定义点到超平面的距离:几何间隔。几何间隔其实是对超平面法向量 进行了处理,先看示例图 5.9。
几何间隔相比于函数间隔的不同点在于,当w 和 b等比的缩放时,会以‖w‖限制间隔距离,并只随着超平面的波动而变化。
(3) 最大间隔分类器
前面讨论了函数间隔和几何间隔,在对数据进行分类时,超平面距离数据点的间隔越大,分类的准确度也越高。为了得到更高的分类准确度,须找到距离数据点间隔最大的超平面。由上文分析可知,函数间隔不适宜用来最大化间隔值,故这里讨论的最大间隔
是几何间隔。
3 人工神经网络
(1) 引言
人工神经网络(Artificial Neural Network)是由多个处理单元互相连接而形成的复杂网络,是一个高度复杂的非线性动力学习系统。具有分布存储及自学习能力、并行分布处理、非线性关系函数逼近等优点。应用较为广泛的人工神经网络模型有:BP 神经网络、Hopfield网络、ART 网络及 Kohonen 网络等。
(2) 神经元一般数学模型
神经元通过对外界信息的感知、处理、传递来处理信息,且对信息的处理过程是非线性的,根据生物学中神经元工作原理对其建立数学模型,如图 5.11 所示。
神经元处理信息的过程如图 5.11 所示,可以描述为:对输入信息进行加权,即为上述的Wij,连接权值的大小决定信息与神经元之间连接的强度,再对权重进行求和,将所得结果与神经元内部的阈值相比较,之后再经过一个非线性函数变换(激励函数),得出处理结果yi。
神经网络作为一种自适应的模式识别技术,无需预先给出有关模式的先验知识和判别函数,通过自身的学习机制自动形成所要求的决策区域。网络的特性由其拓扑结构、神经元特性、学习和训练规则所决定。可以充分利用状态信息,对来自于不同状态的信息逐一进行训练而获得某种映射关系。并且网络可以连续学习,若环境发生改变,这种映射关系还可以自适应的进行调整。
正是因为神经网络的自身的优势,在模式识别方面得到了很好的应用。模式识别就是神经网络根据给定的训练样本进行决策判决,训练完成之后,从而可以对原始数据进行分类识别,一般具有以下特点:
(1)可用于系统模型未知或系统模型较为复杂,以及非线性系统的模式识别。
(2)兼有信号的模式变换和特征提取的功能。
(3)对系统含有不确定因素、噪声及输入不完备的情况下不敏感。
(4)可用于复杂多模式的识别。
(5)可用于连线诊断,也能适应实时监测的要求。
具体步骤如图 5.12 所示。
《来源科技文献,经本人分析整理,以及技术会友,广交天下朋友》