《多任务自适应网络设计和实现电子信息工程专业.docx》由会员分享,可在线阅读,更多相关《多任务自适应网络设计和实现电子信息工程专业.docx(28页珍藏版)》请在三一办公上搜索。
1、目录摘要1Abstract1第1章绪论31.1 自适应滤波器3分布式网络31.3分布式算法51.4论文主要内容5第2章单任务分布式LMS算法62.1单任务网络62.2单任务分布式LMS算法72.3性能指标92. 4NfATLAB仿真102. 4.1仿真要求103. 4.2仿真结果与分析10第3章多任务分布式LMS算法144. 1多任务网络143. 2多任务分布式LMS算法153. 3性能指标184. 4MATLAB仿真183.4.1仿真要求183.4.2仿真结果与分析19第4章总结24参考文献25致谢错误!未定义书签。摘要近年来,人们将自适应算法扩展到了网络中,提出了自适应网络这-概念。在自适
2、应网络中,每个节点都有其要估计的最佳向量,但在估计过程中,所有节点会根据相邻节点的数据信息进行联合估计,这种估计策略被称为扩散策略,为此研究学者提出了各种分布式算法。在单任务网络中,所有节点联合估计同一个最佳向量;在多任务网络中,所有节点分为不同簇,每个簇都有其要估计的最佳向量,相邻簇之间也需要进行数据信息的联合。本文主要介绍分布式自适应网络中的单任务自适应网络和多任务自适应网络,并利用MATLAB对单任务分布式LMS算法和多任务分布式LMS算法进行仿真,并比较这些算法的优缺点。关键词:单任务自适应网络、多任务自适应网络、单任务分布式LMS算法、多任务分布式LMS算法AbstractInrec
3、entyears,peoplehaveextendedtheadaptivealgorithmtothenetworkandproposedtheconceptofadaptivenetwork.Intheadaptivenetwork,eachnodehasitsbestvectortoestimate,butintheestimationprocess,allnodeswilljointlyestimatethedatabasedontheneighboringnodes.Thisestimationstrategycalleddiffusionstrategy.Researchschol
4、arshadproposedvariousdistributedalgorithms.Insingle-tasknetwork,allnodesjointlyestimatethesameoptimalvector.Inmultitasknetwork,allnodesaredividedintodifferentclustersandeachclusterhasitsbestvectortobeestimated.Jointestimationofdatainformationisalsoneededbetweenadjacentclusters.Thispapermainlyintrodu
5、cessingle-taskself-adaptivenetworkandmulti-taskself-adaptivenetworkindistributedadaptivenetwork,andusesMATLABtosimulatesingle-taskdistributedLMSalgorithmandmulti-taskdistributedLMSalgorithm,andcomparestheadvantagesanddisadvantagesofthesealgorithms.Keywords:Singletaskadaptivenetwork、Multi-taskadaptiv
6、enetwork、SingletaskdistributedLMSalgorithmMulti-taskdistributedLMSalgorithm第1章绪论1.1 自适应滤波器滤波器通常被用来在含有噪声的信号中提取有用的数据。目前,维纳滤波器和自适应滤波器是在信号处理上应用最广泛的滤波器。20世纪40年代,数学家维纳提出的维纳滤波器奠定了线性最优滤波器的基础。维纳滤波器以最小均方误差为准则,即使误差信号的均方值最小化来实现线性最优。实现维纳滤波的要求为输入必须是广义平稳信号月.输入过程的统计特性必须已知未找到引用毒.。然而在很多情况下,输入的信号往往是非平稳的,并且信号输入过程中难免遭受外
7、界环境的干扰,使得统计特性未知,这些状况无法满足维纳滤波器的使用条件,但也促使了人们对自适应滤波器的研究。依靠递归算法,自适应滤波器可以在无法获取信号的统计特性的状况下完美地进行滤波运算。图1-1为自适应滤波器的原理图。()为输入信号,或)为()通过未知系统w。在含有噪声信号s()情况下输出的期望信号。例)为自适应滤波器。输入信号U(三)通过自适应滤波器得到输出信号y(n),e(n)为y()与期望信号或片)相减得到的误差信号。通过递归计算,不断地得到误差信号来调整自适应滤波器的参数,使得自适应滤波器参数无限逼近未知系统。自适应滤波器通过迭代方式来逼近未知系统,使得它能够应用在输入信号非平稳或者
8、统计特性未知的场合,有着很完美的线性特性。1.2 分布式网络在无线传感网络中存在着许多待监测节点,根据节点间的协作模式把网络分为集中式网络和分布式网络。在集中式网络中,如图l2(a),每个节点都要把自己的测量数据传送给中心节点,最后由中心节点进行所有数据的融合。在集中式处理信息的模式下,节点间的数据传输会消耗巨大能量,并且数据的处理依赖于中心节点使得整个网络缺少稳定性。(a)集中式网络(b)分布式网络图1-2网络拓扑结构而在图1-2(b)的分布式网络中,没有中心节点,每个节点都会与其相邻节点进行数据通信,先从局部更新数据估计值,然后不断扩大到全局的数据更新。这种相邻节点间的数据协作方式增加了整
9、个网络对数据处理的准确度和计算的鲁棒性,并且节点与节点间的能量传输损耗也会大大减少。目前在分布式网络中节点间的协作模式分为三种:递增式、扩散式和概率扩散式。如图l3(a)的递增式网络中,所有的节点被设计为一个环形结构,每个节点都只能与前后两个节点进行数据传输,虽然这样大大减少了数据通信量和通信损耗,但是在一个网络中往往会有大量的节点,把大量节点设计为一个环形结构的方法并不现实,而且若某个节点失效,将会导致整个网络的崩溃。在扩散式网络中,如图l3(b),每个节点都与其相邻的所有节点进行数据传输,利用相邻节点的数据来完成自身数据的更新,并将自身更新的数据再传给与其相邻的节点。这样的协作模式虽然会增
10、加通信的损耗,但是它使得整个网络更加稳定,很好地防御某个节点会遭受的恶意攻击,并且能在存在大量网络节点的场合下适用。在概率扩散网络中,如图l-3(c),每个节点将以某种概率与相邻节点进行数据通信。(C)概率扩散式图1-3分布式网络模型由于扩散式网络模型能使得整个网络具有较好的稳定性和鲁棒性,本文将在接下来的分布式网络中应用扩散式模型。1.3 分布式算法分布式计算简单来说就是把一个大的任务分为多个小的任务分别计算,最后再进行结果的汇总,目前分布式算法在通信、无线传感网络的监测等领域中有着很广泛的应用。在分布式算法中,每个节点先根据自身的数据单独进行迭代,然后再与其他相邻节点的数据协作进行迭代,因
11、此分布式算法能够在整个网络中实时地对信息进行处理,并且相对于集中式算法来说,分布式算法对未知系统估计的时间会更快,处理的方式也会更加简便。分布式算法中的每个节点都能单独地对信息进行处理,因此所有节点都分担着信息处理的风险,若有某个节点遭受恶意攻击时,不会导致整个算法的崩溃,所以分布式算法会使得整个网络更加的稳健,这也是分布式算法优于集中式算法的原因。以分布式为核心的算法能更快速地对未知系统进行估计,目前,研究学者将分布式算法与自适应滤波算法结合,提出了分布式最小均方算法、分布式最小四阶矩算法、分布式放射投影算法等分布式自适应算法。1.4 论文主要内容第一章主要对自适应滤波器、分布式网络和分布式
12、算法进行了简单的介绍。第二章介绍单任务网络和单任务分布式LMS算法,并通过MATLAB对单任务分布式LMS算法和不联合节点在单任务网络中的LMS算法进行仿真,并分析单任务分布式LMS算法的性能。第三章介绍多任务网络和多任务分布式LMS算法,并通过MATLAB对多任务分布式LMS算法和不联合节点在多任务网络中的LMS算法进行仿真,并分析多任务分布式LMS算法的性能。第四章对全文进行一个简单的总结。第2章单任务分布式LMS算法在单任务网络中,所有的节点都用来估计同一个未知系统,通过扩散式的方式,节点与相邻节点之间进行数据协作,协同估计出一个最佳向量。用扩散式最小均方算法即DiffusionLeas
13、t-MeanSqUareS(DLMS)就可以解决单任务问题。目前扩散协作策略根据扩散阶段与自适应阶段的先后顺序,扩散算法可分为CTAdLMS(Combine-then-AdaptdiffusionLMS)和ATCdLMS(Adapt-then-CombinediffusionLMS)。由于目前ATCdLMS算法的应用更加广泛,本章将会在单任务网络中用ATCdLMS算法来实现对最佳参数的估计,在此之前,本章还会简单地介绍一下单任务网络和dLMS算法。2.1 单任务网络由于分布式中的扩散策略能应用于有大量节点存在的网络中,相对于递增策略易于实现,所以用扩散式策略来处理单任务网络问题。在单任务网络中
14、,每个节点都对同一个未知系统进行估计,并且节点与相邻节点之间进行数据协作,协作共同估计出一个最佳的参数向量。假设在待监测的传感网络区域内分布着N个节点,用网络的拓扑结构来表示,如图2-1所示的单任务网络拓扑结构,可以看到在一个区域中存在着7个节点,这7个节点将进行协作,共同对一个未知向量W“进行估计。节点与节点用直线相连表示这两个节点将在估计未知向量的过程中进行数据协作。用NJt表示第攵个节点与其相邻节点的集合,用IMI表示第2个节点集合内的节点个数。例如节点1与节点2、3、4相邻,则集合乂=1,2,3,4,INJ=4;节点4与节点1、2、3、5、6、7相邻,则集合乂=123,4,567,V4
15、=7o这7个节点将通过相邻节点传输数据的方式协作估计一个未知向量城。图2-1单任务网络拓扑结构2.2 单任务分布式LMS算法在扩散协作策略中,每个节点根据相邻节点的数据信息,融合相邻节点的数据估计值更新自身的估计数据U叫再把自身更新后的估计值传给下一个与它相邻的节点,因此扩散协作策略有数据融合和数据自适应更新两个阶段。见图22中的扩散协作模式图,用表示当前的迭代时刻,-1表示上一次的迭代时刻,M表示第Z节点与其相邻节点的集合Ul用N表示第4节点集合内的节点个数,IN/也被称为节点上的度。用矩阵D代表整个网络中所有节点的度,假设网络中有N个节点,则d=nJ,N2,.JNn(1xN).每个节点在第
16、时刻的数据用dk(m),ua(三)=1,N表示,dk()表示第k节点在n时刻的期望值,IIa()表示第火节点在时刻的回归向量。期望值40)和回归向量()均为互相独立的广义平稳随机过程,假设所有节点估计MXI的未知向量w。,选择所有节点N的期望值和回归向量到两个全局矩阵中:U*cou1,u2,.,uv(MXN)(2-1)d-d1,d2,.,dv(IXN)这两个矩阵代表所有节点的回归向量和期望值的集合。每个节点2的期望值可由以下公式得到:45)=M5)w+与(2-2)其中uk(n)=uk(m),w(n-l),.,wjt(n-M+1),,是节点,在一时刻的系统噪声,该噪声是空间上互相独立的零均值、均
17、匀分布的白噪声序列。(a)融合阶段4(), ()(b)自适应更新阶段图2-2扩散协作模式扩散协作策略有数据融合和数据自适应更新两个阶段,首先介绍数据融合过程。假设在-1时刻,与节点人相邻的所有节点都对未知向量w。进行了无偏估计,将这些估计值并入一个集合中,集合用a5-1),ZM表示,其中Nk是与节点火相邻的节点,包括节点。这些估计集合将会进行数据融合,融合后的数据将会被用来更新节点上的估计值”叫数据融合的公式如下m(T)=SM5T)(2-3)fe其中QJ是节点的融合系数,代表节点攵与相邻节点/之间的相关性权值,一般/0且满足2叽c*=l,如果M那么Cm=0。在扩散协作模式的数据融合过程中,融合
18、参数先起着非常重要的作用,参数为可通过融合参数准则得到,见表1可知道不同融合参数准则的计算方法。其中项=deg(Nj,max(.)表示求最大值,NJ2表示NK中除去Z节点的其他与Z相邻的节点。在这些准则中,ckl=OJNko表1融合参数准则及其计算方法融合参数准则融合参数Ck,IWNzlk邻近准则Qj=I/拉普拉斯准则GJ=I/max最大度准则Ckj=,1/N,lk1-(M-l)N,l=kMetropolis准则CkLlmax(%,),1k1-cLk二ker*相对程度准则数据融合过程一旦完成,就会进入数据自适应更新过程。在单任务网络中,节点2通过公式(2-3)不断融合相邻节点的数据,再通过LM
19、S的自适应算法,根据得到的融合数据更新自身的数据估计值,数据自适应更新的公式如下:()=jl(h-1)+i(11)(J(n)-u,(w)(n-l)(2-4)其中aG)为节点上经过自适应过程在当前时刻更新的数据估计值,牝(-1)是在节点2处的数据融合值,是收敛步长,一般0。扩散协作策略有数据融合和数据自适应更新两个阶段,若先经历数据融合阶段再进行数据自适应更新,即为CTAdLMS(CombineThen-AdaPtdiffiISiOnLMS)算法,公式如下:%(鹿T)=CaM(T)(2-5)%5)=%(T)+u:(乂4()-%()(p(-l)若先经历数据自适应更新阶段再进行数据融合,即为ArCd
20、LMS(Adapt-then-CombinediffusionLMS)算法,公式如下:(2-6)/5T)=(T)+国(4(n)-u(?)i(w-l)弘()=%R(T)由于ATCdLMS算法在某些情况下能实现更低的稳态失调,目前的应用十分广泛,所以可用ATCdLMS算法来处理单任务问题。2.3 性能指标采用全局均方偏差(MeanSquareDeViatiOn,简记MSD)来表示网络在经过自适应学习后用达到稳定的标准,能够用来评判算法的性能。公式定义如下:1NMSD=101og10w(11)-w02(2-7)Nk=其中,W。表示未知向量,WA5)表示第Z节点在时刻的权值向量。2.4MATLAB仿真
21、2.4.1 仿真要求基于MATLAB,采用单任务分布式LMS算法对一个未知系统w进行估计,通过MSD收敛曲线来判定算法的性能。(1)未知系统w。为一矩阵,矩阵大小为Mxl。在本实验中,M取值为2且令w=0;0.5o(2)输入信号处()为相关度较高的有色信号,由均值为零的高斯白噪声通过系统T(Z)=Il-0.4z/+0.4z-2产生,大小为LXl。本实验中,L取1000。(3)干扰噪声$()为零均值的高斯白噪声。(4)网络拓扑图如图2-3,节点个数N=5。本次实验的单任务分布式LMS算法仿真都基于此网络拓扑图进行。图23单任务网络拓扑2.4.2仿真结果与分析(1)考虑到不同步长因子会对算法的性能
22、造成影响,本节先在不同步长因子的情况下单独对单任务分布式LMS算法进行MATLAB仿真,仿真结果用I(M)次单独实验得到的MSD收敛曲线表示,本实验中步长因子选用=0.3、=0.08以及4=0.04,仿真图见图2-4。从图中看到,当步长因子=0.3时,MSD曲线大约在迭代30次后趋于稳定,收敛值为MSl-30dB;当步长因子=0.08时,MSD曲线大约在迭代100次后趋于稳定,收敛值为MSD=-38dB;当步长因子以=0.04时,MSD曲线大约在迭代200次后趋于稳定,收敛值为MSD=-40dB。收敛值越小代表对未知系统的估计越精确。由以上结果可分析出:单任务分布式LMS算法的性能受步长因子的
23、影响,步长因子较大时(041),收敛曲线的收敛速度较快,即对未知系统的估计速度会加快,但是稳态偏差会加大也就是对未知系统的估计精确度会降低;步长因子较小时(0l),收敛曲线的收敛速度较慢,即对未知系统的估计速度会变慢,不过稳态偏差会减少也就是对未知系统的估计精确度会增加。-10-20-30-40O 2004006008001000迭代次数图2-4单任务分布式LMS算法仿真图(2)为了比较出单任务分布式LMS算法在整个网络上的性能,还需要对在单任务网络上所有节点进行不作数据协作的LMS算法的仿真,比较出在单任务网络上进行分布式LMS算法与只进行LMS算法的差别。仿真结果用100次单独实验得到的M
24、SD收敛曲线表示,本实验中步长因子仍选用=0.3、M=O.08以及=0.04。如图2-5,这是步长因子为4=0.3的单任务网络中分布式LMS算法和不参与联合的节点的LMS算法仿真图。从图中可看到,当收敛因子较大时(=0.3),单任务网络中不参与联合的节点进行LMS算法的MSD收敛曲线图会出现发散的现象,然而在单任务网络中进行了分布式LMS算法的MSD收敛曲线图会趋于稳定。并且进行了分布式LMS算法的MSD收敛值为-31dB,而不参与联合的节点的LMS算法的MSD收敛值为-2IdB,收敛值相差IodB。两者的收敛速度是一致的,大约在迭代30次的时候趋于稳定。如图2-6,这是步长因子为=0.08的
25、单任务网络中分布式LMS算法和不参与联合的节点的LMS算法仿真图。从图中可看到,当收敛因子较小时(=0.08),在单任务网络中,不参与联合的节点进行LMS算法的MSD收敛曲线和进行了分布式LMS算法的MSD收敛曲线都会趋于稳定。进行了分布式LMS算法的MSD收敛值为-38dB,而不参与联合的节点的LMS算法的MSD收敛值为-30dB,收敛值相差8dB。两者的收敛速度是一致的,大约在迭代100次的时候趋于稳定。5-35 02004006008001000迭代次数图25单任务分布式LMS算法在网络中的性能(4=0.3)-40 02004006008001000迭代次数图2-6单任务分布式LMS算法
26、在网络中的性能(4=0.08)如图2-7,这是步长因子为=0.04的单任务网络中分布式LMS算法和不参与联合的节点的LMS算法仿真图。从图中可看到,进行了分布式LMS算法的MSD收敛值为TOdB,而不参与联合的节点的LMS算法的MSD收敛值为-33dB,收敛值相差7dBo两者的收敛速度是一致的,大约在迭代200次的时候趋于稳定。结合以上的仿真结果进行分析,单任务网络中分布式LMS算法具有特别稳定的性能,能适应收敛步长较大的情况,并且比不参与联合的节点的LMS算法的MSD的稳态偏差更少。在单任务网络中,分布式LMS算法的MSD收敛值比不参与联合的节点的LMS算法的MSD收敛值少7-1OdB,且两
27、者的收敛速度是一致的。所以,在单任务网络中使用分布式LMS算法会使整个网络更具有稳定性,并且对未知系统的估计也会更加精确。-40O O -2-3 pQs02004006008001000迭代次数图2-7单任务分布式LMS算法在网络中的性能(=0.04)第3章多任务分布式LMS算法网络中的所有节点共同协作估计一个最佳参数向量,这种问题为单任务问题,然而在许多情况下,很多问题是多任务的,即有多个最佳参数向量要以协作的方式同时进行估计,这种问题为多任务问题。多任务学习方法与多种机器学习方法相关,并且在网页分类,网络搜索排名和疾病进展模型等方面都有广泛应用,当然,多任务学习在网络上也同样适用。在本章中
28、,用分布式扩散策略来解决多任务问题,所用算法为多任务分布式LMS算法,并用均方误差和收敛速度分析它的性能。3.1 多任务网络由于分布式中的扩散策略能应用于有大量节点存在的网络中I,相对于递增策略容易实现,所以用扩散式策略来处理多任务网络问题。在单任务网络中,每个节点都对同一个未知系统进行估计,并且节点与相邻节点之间进行数据协作,协作共同估计出一个最佳的参数向量。而在多任务网络中,节点分为N个集合,一个集合称为一个簇,每个簇代表一个任务,簇与簇之间的任务不同但相邻簇的任务具有相似性【,即不同簇估计不同的未知向量w;,簇中的节点对相同的未知向量进行估计且相邻簇之间估计的未知向量是具有相似性的。用S
29、l和S2表示两个簇,如果簇加中至少存在一个节点与簇S2中的某个节点相连,则说明簇Sl和簇S?是相邻的。假设在待监测的传感网络区域内分布着N个节点,用网络的拓扑结构来表示,如图31所示的多任务网络拓扑结构,可以看到在一个区域中存在着9个节点,这9个节点中,节点1、2、3分为一个簇,节点4、5、6分为一个簇,节点7、8、9分为一个簇H3每个簇内的节点将进行协作,相邻簇之间也会进行数据协作,最后完成对未知向量w;、w;、w;的估计。同一簇内的节点与节点用直线相连表示这两个节点将在估计同一个未知向量的过程中进行数据传输。如果簇中至少存在一个节点与其他簇中的某个节点相连,则说明这两个簇是相邻的“叫相邻簇
30、之间也会进行任务间的数据传输,以至于能够估计出最佳的参数向量。用Na表示第个节点与其相邻节点的集合,用INJ表示第上个节点集合内的节点个数,例如节点1与节点2、3、9相邻,则集合M=1,2,3,9,INJ=4;用。(女)表示节点2所在的簇,例如C(2)表示节点2所在的簇,该簇内存在节点1、2、3;用MrlC(攵)表示仅在簇内相邻的节点,例节点2仅在簇内相邻的节点有节点1、3;用NaC(Z)表示与其它簇内相邻的节点,例如节点3与其它簇内相邻的节点有节点5、8o在这个网络中,相同簇内节点进行数据协作,不同簇之间也进行任务间的数据协作12叫共同估计出各自簇内的最佳参数向量。图3-1多任务网络拓扑结构
31、3.2 多任务分布式LMS算法在上一章中已经介绍了,在扩散协作策略中,每个节点根据相邻节点的数据信息,融合相邻节点的数据估计值更新自身的估计数据,再把自身更新后的估计值传给下一个与它相邻的节点。把扩散策略应用在解决多任务的问题中。扩散策略可分为数据自适应更新阶段和数据融合阶段,而在多任务网络问题中,又可分为簇内节点和相邻簇之间的数据自适应更新阶段和数据融合阶段】,多任务分布式LMS算法就根据这种思想来解决网络上的多任务问题。对于簇内的节点,相邻节点间进行数据协作估计同一个未知系统w;,该协作估计分为数据融合阶段和数据自适应更新阶段。在数据融合阶段,假设在-1时刻,节点Z所在簇C(Q内与节点归相
32、邻的所有节点都对未知向量w;进行了无偏估计,将这些估计值并入一个集合中,集合用l5-1),&MC(Z)表示,其中NJC(Z)是在簇CW)内与节点上相邻的节点,包括节点火。这些估计集合将会进行数据融合,融合后的数据将会被用来更新节点火的估计值,簇内节点数据融合的公式如下(一1)=q,M(一1)(L8)KNkC(k其中%,是节点的融合系数,代表在同一个簇内节点与相邻节点/之间的相关性权值,一般/./0且满足/叫的/=1,如果/C(八)那么=0。在扩散协作模式的数据融合过程中,融合参数Cr起着非常重要的作用,参数牝可通过融合参数准则得到,见表1可知道不同融合参数准则的计算方法。其中项=deg(M),
33、max(.)表示求最大值,NJ#表示NA.中除去&节点的其他与左相邻的节点,/表示系统噪声功率。在这些准则中,u=O,M对于不同簇之间相邻的节点也需要进行数据融合Qi,称为不同任务间的数据融合。在相邻簇间的数据融合阶段,假设在-1时刻,簇C(&)中的节点上与其他簇中相邻的所有节点都对各自未知向量可进行了无偏估计,将这些估计值并入一个集合中,集合用(-1)/U。(后)表示,其中做。仕)是节点R与其它簇内节点相邻的节点,包括节点。这些估计集合将会进行数据融合,融合后的数据将会被用来更新节点上的估计值,簇内节点数据融合的公式如下武4,2式-1)(3-1)kNiC(k)其中01是相邻簇间的融合系数P叫
34、代表相邻簇之间的相关性权值,一般0jO且满足A,z=l,andpkl=0ifI史N*)(3-2)数据融合过程一旦完成,就会进入数据自适应更新过程。在多任务网络中,簇内节点&通过公式(31)不断融合相邻节点的数据,再通过LMS的自适应算法,根据得到的融合数据更新自身的数据估计值,簇内数据自适应更新的公式如下:M0。然而在多任务网络中,节点上的数据自适应更新需要结合相邻簇内的数据融合值共同进行,于是,再结合了相邻簇内的数据融合值之后,数据自适应公式就变为5)=%()+U(冷(4()一叫%(I)+XAK-0)(3-4)GNtC(k)其中(3-5);(-I)=(p;(-1)-%(M-I)其中,为正则化
35、常数,用来控制正则化强度,而0能在连接的相邻簇之间调整这个强度1241。在多任务网络中,簇内节点的数据更新不仅仅依靠共同簇内节点的数据融合,还需要结合相邻簇间的融合数据。扩散协作策略有数据融合和数据自适应更新两个阶段,若先进行数据融合阶段再进行数据自适应更新,则为CTA(Combine-then-Adapt)策略,使用该策略的多任务分布式LMS算法公式如下:%(T)=%a(1)a5)=%(11-1)+X(乂4一%()曾(一1)(3-6)+0(则(一1)一牝5-1)etjlC()若先经历数据自适应更新阶段再进行数据融合,即为ATC(Adapt-then-COmbine)策略,使用该策略的多任务分
36、布式LMS算法公式如下:R()=ft(T-(4()一如(n)(n-l)+0(1)-a(D)(3-7)/GhtXC(Jt)WA(ZiT)=Z(T)由于ATC策略在某些情况下能实现更低的稳态失调,目前的应用十分广泛,所以可用ATC策略来处理多任务问题。在多任务分布式LMS算法中通常根据先验信息或用户偏好来预先设置参数。可以看到,如果被设置为0,则该算法变为在每个簇内使用扩散LMS,没有了任务之间的信息交换。在多任务分布式LMS算法中,正则化常数越大,在整个网络中对未知系统的估计也就越均匀。人们可以根据任务的不同、问题的不同来调整正则化常数小也可以根据网络的不同拓扑结构来调整,以便能更好地解决多任务
37、问题。3.3 性能指标采用全局均方偏差(MeanSquareDeViatiOn,简记MSD)来表示网络在经过自适应学习后达到稳定的标准,能够用来评判算法的性能。公式定义如下:1NMSD=101ogloM()一w;(3-8)Nk=i其中,W;表示各自节点需要估计的未知向量,WA.()表示第后节点在时刻的权值向量。3.4MATLAB仿真3.4.1 仿真要求基于MATLAB,采用多任务分布式LMS算法对不同的未知系统%进行估计,通过MSD收敛曲线来判定算法的性能。图32多任务网络拓扑(1)未知系统崛为A个矩阵,每个矩阵的大小为MX1。该实验中取M=2,未知系统1为w;=0.5287;-0.405,未
38、知系统2为w=0.5234;-0.395,未知系统3为w=0.5230;-0.3971,未知系统4为w;=0.5230;-0.3971。(2)输入信号处()为相关度较高的有色信号,由均值为零的高斯白噪声通过系统T(Z)=Ib.4z+0.4z”产生,大小为Lxl。本实验中,L取IoOoo(3)干扰噪声s()为零均值的高斯白噪声。(4)选用的多任务网络拓扑图见图3-2。该多任务网络中有20个节点,每5个节点为一个簇,4个簇之间都相邻。存在4个未知系统,节点1、2、3、4、5估计未知系统W;,节点6、7、8、9、10估计未知系统W;,节点11、12、13、14、15估计未知系统w;,节点16、17、
39、18、19、20估计未知系统w;。接下来的仿真都是基于该网络拓扑图进行。3.4.2仿真结果与分析(1)考虑到不同步长因子会对算法的性能造成影响,本节先在相同的正则化常数下对不同的步长因子做多任务分布式LMS算法的MATLAB仿真,仿真结果用100次单独实验得到的MSD收敛曲线表示,本实验中步长因子选用=0.3、=0.08以及=0.04,正则化常数=1和%0.01,当正则化常数时,对不同的步长因子=0.3、=0.08、=0.04进行仿真。见仿真图33,规定正则化常数当步长因子=0.3时,MSD曲线大约在迭代30次后趋于稳定,收敛值为MSD=-34dB;当步长因子=0.08时,MSD曲线大约在迭代
40、100次后趋于稳定,收敛值为MSD=-4IdB;当步长因子=0.04时,MSD曲线大约在迭代200次后趋于稳定,收敛值为MSD=-44dB0-45 02004006008001000迭代次数图33多任务分布式LMS算法仿真图(7=l)当正则化常数=0.01时,对不同的步长因子=0.3、=0.08、4=0.04进行仿真。见仿真图3d,规定正则化常数=0.01,当步长因子=0.3时,MSD曲线大约在迭代30次后趋于稳定,收敛值为MSD=-33dB;当步长因子=0.08时,MSD曲线大约在迭代100次后趋于稳定,收敛值为MSD=-40dB;当步长因子=0.04时,MSD曲线大约在迭代200次后趋于稳
41、定,收敛值为MSD=-43dB。O图3-4多任务分布式LMS算法仿真图(7=0.01)结合上面两个仿真结果分析,无论正则化常数在理想范围内取何值,多任务分布式LMS算法的性能都会受步长因子的影响,步长因子较大时(04N1),收敛曲线的收敛速度较快,即对未知系统的估计速度会加快,但是稳态偏差会加大也就是对未知系统的估计精确度会降低;步长因子较小时(0l),收敛曲线的收敛速度较慢,即对未知系统的估计速度会变慢,不过稳态偏差会减少也就是对未知系统的估计精确度会增加。(2)考虑到不同正则化常数会对算法的性能造成影响,在相同的步长因子M下对不同的正则化常数做多任务分布式LMS算法的MATLAB仿真,仿真
42、结果用100次单独实验得到的MSD收敛曲线表示,本实验中正则化常数选用=1、77=O.O1,步长因子用=0.3、M=O.08,选用网络图见图32从仿真图35可看到,在步长因子=0.3情况下,当正则化常数T7=(三)I时,MSD曲线大约在迭代30次后趋于稳定,收敛值为MSD=-33dB,当正则化常数时,MSD曲线大约在迭代30次后趋于稳定,收敛值为MSD=-34dB;在步长因子=0.08情况下,当正则化常数时,MSD曲线大约在迭代100次后趋于稳定,收敛值为MSD=-OdB,当正则化常数时,MSD曲线大约在迭代100次后趋于稳定,收敛值为MSD=-41dB从这次仿真结果来看,在步长因子相同的情况
43、下,不同的正则化常数对多任务分布式LMS算法的影响较小。对于该网络拓扑来说,无论步长因子取值如何,正则化常数在理想范围内取值越大,MSD的收敛值越小,对未知向量的估计越精确,在整个网络中对未知系统的估计也越均匀。图35不同正则化常数的多任务分布式LMS算法仿真图(3)为了比较出多任务分布式LMS算法在整个网络上的性能,还需要对在多任务网络上所有节点进行不作数据协作的LMS算法的仿真,比较出在多任务网络上进行分布式LMS算法与只进行LMS算法的差别。如果将多任务分布式LMS算法中的正则化常数设置为0,则表示任务间数据不进行数据协作。仿真结果用100次单独实验得到的MSD收敛曲线表示,本实验中步长
44、因子选用=0.3、=0.08以及=0.04,正则化常数选用片0以及二1。如图3-6,这是步长因子为4=0.3的多任务网络中分布式LMS算法和不参与联合的节点的LMS算法仿真图。从图中可看到,当收敛因子较大时(Zz=O.3),多任务网络中不参与联合的节点进行LMS算法的MSD收敛曲线图会出现发散的现象,然而在多任务网络中进行了分布式LMS算法的MSD收敛曲线图会趋于稳定。当正则化常数=1时,即进行了任务间数据融合算法的MSD收敛值为-34dB,而不参与联合的节点的LMS算法的MSD收敛值为-23dB,收敛值相差1IdB;当正则化常数=0时,即任务间数据没有融合算法的MSD收敛值为-32dB。三者
45、的收敛速度是一致的,大约在迭代30次的时候趋于稳定。如图3-7,这是步长因子为=0.08的多任务网络中分布式LMS算法和不参与联合的节点的LMS算法仿真图。从图中可看到,当正则化常数二1时,即进行了任务间数据融合算法的MSD收敛值为-41dB,而不参与联合的节点的LMS算法的MSD收敛值为-32dB,收敛值相差9dB;当正则化常数片。时,即任务间数据没有融合算法的MSD收敛值为-40dB。三者的收敛速度是一致的,大约在迭代100次的时候趋于稳定。迭代次数图3-6多任务分布式LMS算法在网络中的性能(=0.3)200不作数据协作LMS,JJ=O.08=0,=0.08=1,=0.084006008001000迭代次数图3-7多任务分布式LMS算法在网络中的性能(z=0.08)mpQsn-20-25-30-40400600800迭代次数-45 l 02001000图38多任务分布式LMS算法在网络中的性能(=0.04)如图3-8,这是步长因子为4=0.04的多任务网络中分布式LMS算法和不参与联合的节点的LMS算法仿真图。从图中可看到,当正则化常数时,即进行了任务间数据融合算法的MSD收敛值为-44dB,而不参与联合的节点的LMS算法的MSD收敛值为-35dB,
链接地址:https://www.31ppt.com/p-7031772.html