基本自适应算法.ppt
《基本自适应算法.ppt》由会员分享,可在线阅读,更多相关《基本自适应算法.ppt(95页珍藏版)》请在三一办公上搜索。
1、河南工业大学,第五章 基本自适应算法,5.1LMS算法5.2RLS算法,5.1 LMS算法,河南工业大学,下图所示为自适应横向滤波器的结构及其功能:(1)具有可调节抽头权系数的横向滤波器,权系数,表示在n时刻的值。(2)在自适应状态能调节这些权系数的机理过程。这个过程首先自动调节滤波器系数的自适应训练步骤,然后利用滤波系数加权延迟线抽头上的信号来产生输出信号,将输出信号与期望信号进行对比,所得的误差值通过一定的自适应控制算法再用来调节权值以保证滤波器处在最佳状态,达到实现滤波的目的。,最陡下降法,河南工业大学,河南工业大学,显然,输出信号y(n)是(5-1)e(n)=d(n)-y(n)(5-2
2、)自适应滤波器控制机理是用误差序列e(n)按照某种准则和算法对其系数 进行调节的,最终使代价函数最小化,达最佳滤波状态.按照均方误差(MSE)准则所定义的目标函数为:F(e(n)=(n)=E(e(n)=Ed(n)-2d(n)y(n)+y(n)(5-3),河南工业大学,综合前面几个式子目标函数可以写成(n)=Ed(n)-2Ed(n)wT(n)x(n)+EwT(n)x(n)xT(n)w(n)(5-4)当滤波系数固定时,目标函数又可写成:(n)=d(n)-2wTP+wTRw(5-5)可见,自适应滤波器的目标函数是延迟线抽头系数(加权或滤波系数)的二次函数。当矩阵R和矢量P已知时,可以由权系数矢量w直
3、接求其解。,河南工业大学,令 代表n时刻的M*1维度矢量,M为滤波器系数的数目,w(n)为自适应滤波器在n时刻的滤波系数或权矢量。按照最陡下降法调节滤波系数,则在n+1时刻的滤波系数或权矢量w(n+1)可以用下列简单递归关系来计算 w(n+1)=w(n)+1/2-(5-6)其中是一个正实数,通常称它为收敛因子或步长,n为迭代次数,为梯度矢量.根据梯度矢量定义,(n)可以写成(5-7),河南工业大学,当系数为最佳值,即是维纳解,梯度矢量应等于零即:Ee(n)x(n)=0(5-8)则误差性能函数的梯度向量为:=2RW(n)-2P(5-9)权值迭代算法的基本表达式为:w(n+1)=w(n)+P-RW
4、(n)(5-10)在MMSE准则下最陡下降算法稳定收敛的充分必要条件为:0 2/max 式中max 为相关矩阵R的最大特征值.,河南工业大学,最小均方(LMS)算法,1、LMS算法的基本原理 最小均方(LMS)自适应算法就是一种以期望响应和滤波输出信号之间误差的均方值最小为准的,依据输入信号在迭代过程中估计梯度矢量,并更新权系数以达到最优的自适应迭代算法。LMS算法是一种梯度最速下降方法,其显著的特点是它的简单性。这算法不需要计算相应的相关函数,也不需要进行矩阵运算。1960年美国斯坦福大学的Widrow等提出了最小均方(LMS)算法,这是一种用瞬时值估计梯度矢量的方法.(5-11),河南工业
5、大学,2、LMS算法的公式 按照自适应滤波器滤波系数矢量的变化与梯度矢量估计的方向之间的关系,可以写出:(5-12)把前面所推关系式代入式(5-11)得:(5-13),河南工业大学,3、LMS算法原理框图,图LMS算法原理流图,河南工业大学,4、LMS算法的计算步骤如下:我们利用时间n=0的滤波系数矢量为任意的起始值W(0),然后开始。(1)由现在时刻n的滤波器滤波系数矢量估值,输入信号矢量x(n)以及期望信号d(n),计算误差信号:(5-14)(2)利用递归法计算滤波器系数矢量的更新估值:(5-15)(3)将时间指数n增加1,回到步骤(1),重复上述计算步骤,一直到达稳态为止.由此可见,LM
6、S算法简单,它既不要计算输入信号的相关函数,又不要求矩阵之逆,因而得到了广泛的应用。但是,由于LMS算法采用梯度矢量瞬时估计,它有大的方差,以致不能获得最优滤波性能。,河南工业大学,5、LMS算法的性能分析一、自适应收敛性 自适应滤波器系数矢量的起始值w(0)是任意常数,应用LMS算法调节滤波系数具有随机性而使系数矢量w(n)带来非平稳过程,通常为了简化LMS算法的统计分析,往往假设算法连续迭代之间存在以下的充分条件:(1)每个输入信号样本矢量x(n)与其过去全部样本矢量x(k),k=0,1,2,n-1是统计独立的,不相关的,即:Ex(n)xH(K)=0;k=0,1,2,n-1(5-16),河
7、南工业大学,(2)每个输入信号样本矢量x(n)与全部过去的期望信号d(k)k=0,1,2,n-1也是统计独立且不相关的,即:Ex(n)d(k)=0;k=0,1,2,n-1(5-17)(3)期望样本信号d(n)依赖于输入过程样本矢量x(n),但全部过去的期望信号样本是统计独立的.(4)滤波器抽头输入信号矢量x(n)与期望信号d(n)包含着全部n的共同的高斯分布随机变量.,河南工业大学,由前面的计讨论可知,自适应滤波器在n+1时刻的滤波系数矢量 依赖于三个输入:(1)输入过程的过去样本矢量x(k),k=n,n-1,0;(2)期望信号的以前样本值d(k),k=n,n-1,0;(3)滤波系数矢量的起始
8、值.现在将系数误差矢量w(n)代入式(5-15)得(5-18)式中wo是最佳滤波系数矢量,w(n)是误差矢量即w(n)=w(n)-w0,河南工业大学,如将W0移至等式左边,则 等于系数误差矢量的更新值,于是式(5-18)可写成(5-19)对式(5-19)两边取数学期望,得到(5-20)LMS算法与前述最陡下降算法有相同的精确数学表达式。,河南工业大学,因些,要使LMS算法收敛于均值,必须使步长参数满足下列条件:0 2/max(5-21)max是相关矩阵R的最大特征值。在此条件下,迭代计算次数n接近无穷大时,自适应滤波系数矢量w(n)近似等于最佳维纳解w0。,河南工业大学,二、平均MSE-学习曲
9、线 如前节所述,最陡下降算法每次迭代都要精确计算梯度矢量,使自适应横向滤波器权矢量或滤波系数矢量w(n)能达到最佳维纳解w0,这时滤波器均方误差(MSE)为最小.LMS算法用瞬时值估计梯度存在误差的噪声估计,结果使滤波器权矢量估值只能近似于最佳维纳解,这意味着滤波均方误差(n)随着迭代次数n的增加而出现小波动地减小,最后()不是等于而是稍大于其值。如下图所示,步长参数选用的越小,则噪化指数衰减曲线上的波动幅度将越小,即学习曲线的平滑度越好.,河南工业大学,对于自适应横向滤波器总体来说,假设每个滤波器LMS算法用相同的步长和同等的起始系数矢量w(0),并从同一统计群体随机地选取各个平稳的各态历经
10、(遍历性)的输入信号,由此计算自,河南工业大学,适应滤波器总体平均学习曲线,如下图所示,这是一个平滑的总体平均学习曲线,通常它是由50到200个单独LMS算法的结果加以平均而得到的,显然,我们可以用E(n)表示的平均LMS来描述LMS算法的动态性质.,河南工业大学,三、失调 在自适应滤波器中,失调(Misadjustment)是衡量其滤波性能的一个技术指标,它被定义为总体平均超量均方误差值ex()与最小均方误差min 之比,即(5-22)证明可知:(1)失调为自适应LMS算法提供了一个很有用的测度,比如,10%失调意味着自适应算法所产生的总体平均MSE高于最小均方误差的增量值为10%;(2)失
11、调是随滤波系数数目线性增加的;(3)失调可以做得任意小,只要选用大的时间常数,也就是小的步长值即可。,河南工业大学,但是,滤波器自适应收敛过程需要长的时间,影响了滤波器自学习、自训练的速度,所以,自适应滤波器LMS算法的失调与自适应收敛过程之间存在着矛盾,如何缩短收敛过程,而且有很小的失调,这是值得研究的问题。,5.2 RLS算法,河南工业大学,5.2.1 预备知识5.2.2 矩阵求逆引理5.2.3 指数加权递归最小二乘算法5.2.4 正则化参数的选择5.2.5 误差平方加权和的更新递归,河南工业大学,在本节中,我们将推广最小二乘的应用,以便推出一种设计自适应横向滤波器的递归算法。即给定n-1
12、次迭代滤波器抽头权向量最小二乘估计,依据新到达的数据计算n次迭代权向量的最新估计。我们把这一算法称为递归最小二乘(RLS,recursive least-squares)算法(滤波器)。,河南工业大学,在RLS 滤波器的推进过程中,我们首先回顾最小二乘法的一些基本关系式。然后,应用矩阵代数中矩阵求逆引理所揭示的关系,导出RLS滤波器。RLS滤波器的一个重要特点是,它的收敛速率比一般的LMS滤波器快一个数量级。这是因为RLS滤波器通过利用数据相关矩阵之逆,对输入数据(假定这些数据的均值为零)进行了白化处理。然而,性能的改善以RLS滤波器计算复杂性的增加为代价。,河南工业大学,在最小二乘的递归实现
13、中,我们从给定的初始条件出发,通过应用新的数据样本值中所包含的信息对旧的估计值进行更新。因此我们发现,可测数据的长度是可变的。因而,把待最小化的代价函数表示为(n),其中n是可测数据的可变长度。另外,习惯上还在(n)的定义中引入加权因子。于是,可以写出(5-23)其中e(i)是期望d(i)与i时刻抽头输入为 的横向滤波器输出y(i)之差,如下图5-所示。,5.2.1 预备知识,u(i),u(i-1),u(i-M+1),河南工业大学,图5-5具有时变抽头权值的横向滤波器,即,(5-2),河南工业大学,其中u(i)是i 时刻的抽头输入向量,定义为(5-25)式中w(n)是n时刻抽头权向量,定义为(
14、5-26)注意,在代价函数定义的观测区间i n内,横向滤波器的抽头权值保持不变式(5-23)中的加权因子 满足如下关系 i=1,2,n,河南工业大学,一般说来,加权因子 的使用是为了保证“遗忘”掉久远的过去数据,以便当滤波器工作在非平稳时,能跟踪观测数据的统计变化。通常所用的加权因子是指数加权因子,或所谓遗忘因子,定义为(5-27)式中是一个接近1,但又小于1的正常数。当=1时,对应一般的最小二乘法。粗略地说,1-的倒数可以用来衡量算法的记忆能力;而=1的特殊情况,则应对于无限记忆。,i=1,2,n,河南工业大学,正则化,最小二乘估计和最小二乘法一样,是一个病态的求逆问题。在该问题中,给定构成
15、抽头输入向量u(n)的输入数据和相应的期望响应d(n)(其中n是变量),要求估计出多重回归模型中的未知向量,该向量与d(n)和u(n)有关 最小二乘估计的病态特性源于以下原因:输入数据中的信息不足以唯一地构建输入输出间的映射关系。在输入数据中不可以避免地存在着噪声或不精确性,这为构建输入输出映射关系增加了不确定性。,河南工业大学,为使估计问题变为非病态,需要某种与输入输出映射关系有关的先验信息。这意味着必须扩展代价函数公式,使其能考虑先验信息。为满足这一需要,我们把待最小化的代价函数扩展为两部分之和(5-28)(这里假设使用了预加窗)代价函数的两个分量如下:1)误差加权平方和(5-29),河南
16、工业大学,它与输入数据有关。这个分量反映出期望响应d(i)与滤波器实际响应y(i)之间的指数加权误差,且y(i)与抽头输入向量u(i)的关系可用公式表示为,2)正则化项,式中 是一个正实数,称为正则化参数除了因子外,正则化项只取决于抽头权向w(n).将这一项包含在代价函数中,以便通过平滑作用来稳定递归最小二乘问题的解。,(5-30),(5-31),河南工业大学,从严格意义上说,项是正则化的近似形式。原因有两个:(1)首先指数加权因子介于01之间;从而,当1时,随着n的增大趋于零。这意味着时间的推移,项对代价函数的影响会逐渐减小(即逐渐被遗忘)。(2)正则化项应是 形式,其中 是由RLS滤波器实
17、现的输入输出映射关系,D是差分算子。式(5-28)的正则化项通常用在RLS滤波器设计中。,河南工业大学,正则方程的变形,将式(5-28)展开并进行整理,我们发现,在代价函数 中增加正则化项,相当于将抽头输入向量u(i)的MM时间平均相关矩阵表示为,式中I是 MM单位阵。容易发现,增加正则化项还有这样的作用:它使得相关矩阵(n)在从n=0开始的整个计算过程中非奇异。将上式修正为相关矩阵的过程叫做对角加载。,(5-32),河南工业大学,横向滤波器抽头输入与期望响应之间的M时间平均互相关向量z(n)为,它将不受正则化的影响,此处依然假定使用预加窗法。根据前面讨论过的最小二乘法,可使用代价函数获得最小
18、值的最优M抽头权向量 由正则方程定义。递归最小二乘问题的正则方程可用矩阵形式写为:这里的(n)和z(n)分别由式(5-32)和式(5-33)决定。,(5-33),(5-34),河南工业大学,将对应于i=n的项与式(5-32)右边的求和项分开,可写出根据定义,上式右边括号内的表达式等于相关矩阵(n-1)。于是,可得用于更新抽头输入相关矩阵的递归公式其中(n-1)是相关矩阵的过去值,矩阵乘积 在更新过程中起着“修正”项的作用。注意,上式的递归过程与初始条件无关。,(n)和z(n)的递归算法,(5-35),(5-36),河南工业大学,类似地,可以导出抽头输入与期望响应之间互相关向量的更新公式,为了按
19、式(5-32)计算抽头权向量 的最小二乘估计,必须确定相关矩阵(n)的逆。然而在实际中,我们通常尽量避免这样做,因为这种运算非常耗时,特别是当抽头数M很大时。另外,我们希望能够递归计算n=1,2,时抽头权向量 的最小二乘估计。我们发现,利用矩阵代数中矩阵求逆引理,可以实现上述两个目标。,(5-37),河南工业大学,5.2.2 矩阵求逆引理,设A和B是两个MM正定阵,它们之间的关系为其中,D是NM正定阵,C是MN矩阵。根据矩阵求逆引理,可将A的逆矩阵表示为该引理在此不做证明,书中有介绍。在下一节,我们将说明怎样应用矩阵求逆引理,得到计算抽头权向量 最小二乘解的递归公式。,(5-38),(5-39
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基本 自适应 算法
链接地址:https://www.31ppt.com/p-6108470.html