自适应
自适应就是在处理和分析过程中,根据处理数据的数据特征自动调整处理方法、处理顺序、处理参数、边界条件或约束条件,使其与所处理数据的统计分布特征、结构特征相适应,以取得最佳的处理效果的过程。
自适应过程是一个不断逼近目标的过程,它所遵循的途径以数学模型表示,称为自适应算法。通常采用基于梯度的算法,其中最小均方误差算法(即LMS算法)尤为常用。1
自适应算法自适应算法可以用硬件(处理电路)或软件(程序控制)两种办法实现。前者依据算法的数学模型设计电路,后者则将算法的数学模型编制成程序并用计算机实现。算法有很多种,它的选择很重要,它决定处理系统的性能质量和可行性。常用的自适应算法有迫零算法,最陡下降算法,LMS算法,RLS算法以及各种盲均衡算法等。
例如,自适应均衡器就是按照某种准则和算法对其系数进行调整最终使自适应均衡器的代价(目标)函数最小化,达到最佳均衡的目的,而各种调整系数的算法就称为自适应算法。
自适应算法是根据某个最优准则来设计的。自适应算法所采用的最优准则有最小均方误差(LMS)准则,最小二乘(LS)准则、最大信噪比准则和统计检测准则等。LMS算法和RLS算法由于采用的最优准则不同,因此这两种算法在性能,复杂度等方面均有许多差别。
子空间子空间有多个意义,出现在不同领域。在数学上,子空间指的是维度小于全空间的部分空间。所谓空间,所指为带有一些特定性质的集合,是故子空间可以算是子集合。在科幻上,比如在星际旅行中的设定,是一种具有特殊性质的额外连续体,有别于寻常的(3+1)维时空连续体。这样的设定原先用意是想回避爱因斯坦所提相对论中的光速限制。2
子空间是指一类拓扑空间。设(X,T)是拓扑空间,若Y是X的非空子集,则族:
U={U|U=G∩Y,G∈T}
是Y上的拓扑,称U是T在Y上的相对拓扑。拓扑空间(Y,U)称为(X,T)的子空间。
自适应子空间自组织映射定义自适应子空间自组织映射模拟人脑中处于不同区域的神经细胞分工不同的特点,即不同区域具有不同的响应特征,而且这一过程是自动完成的。自组织映射网络通过寻找最优参考矢量集合来对输入模式集合进行分类。每个参考矢量为一输出单元对应的连接权向量。与传统的模式聚类方法相比,它所形成的聚类中心能映射到一个曲面或平面上,而保持拓扑结构不变。对于未知聚类中心的判别问题可以用自组织映射来实现。
特点自组织神经网络是神经网络最富有魅力的研究领域之一,它能够通过其输入样本学会检测其规律性和输入样本相互之间的关系,并且根据这些输入样本的信息自适应调整网络,使网络以后的响应与输入样本相适应。竞争型神经网络的神经元通过输入信息能够识别成组的相似输入向量;自组织映射神经网络通过学习同样能够识别成组的相似输入向量,使那些网络层中彼此靠得很近的神经元对相似的输入向量产生响应。与竞争型神经网络不同的是,自组织映射神经网络不但能学习输入向量的分布情况,还可以学习输入向量的拓扑结构,其单个神经元对模式分类不起决定性作用,而要靠多个神经元的协同作用才能完成模式分类。
作用学习向量量化LVQ(learning vector quantization)是一种用于训练竞争层的有监督学习(supervised learning)方法。竞争层神经网络可以自动学习对输入向量模式的分类,但是竞争层进行的分类只取决于输入向量之间的距离,当两个输入向量非常接近时,竞争层就可能把它们归为一类。在竞争层的设计中没有这样的机制,即严格按地区判断任意两个输入向量是属于同一类还是属于不同类。而对于LVQ网络用户指定目标分类结果,网络可以通过监督学习,完成对输入向量模式的准确分类。