您的当前位置:首页正文

基于OLS算法的RBF网设计方法与实现

2024-01-16 来源:易榕旅网
计算机时代2010年第7期 ・2l ・ 基于O LS算法的R B F网设计方法与实现 刘金玲 (徐州广播电视大学铜山分校,江苏徐州221116) 摘要:在RBF网络学习中用随机数据点作为径向基函数中心,计算神经网络的权,这样的结果往往会造成网络过大或 者结果不理想,从而无法满足要求。径向基函数中心的选择基于正交最小二乘法,逐个找出径向基函数的中心,构建出 良好的网络。该算法选择的中心最大值不会产生数字的病态问题。正交最小二乘法策略简单、有效,设计的径向基函数 网络效果很好。 关键词:基函数;最小二乘法;神经网络;回归;正交 Design Method and Implementation of RLBF Network Based on OLS Algorithm LIU Jin—ling (Tongshan Branch School,X ̄hou Radio and TV University,Xuzhou,Jiangsu 221116,China) Abstract:In RBF network learning,using random data points as radial basis function centers to compute neural network weights, the result is often large network or unsatisfactory,and thereby cannot meet the requirements.Based on orthogonal least squares method,selecting radial basis function centers can find the centers one by one to build good network,and the maximum of the center selected by the algorithm can avoid ill—conditioned problem.The orthogonal least squares strategy is simple and effective, and the designed radial basis function network has a very good effect. Key words:basis function;least squares method;neural network;regression;orthogonal 0引言 前向神经网络已经应用在很多领域,用前向神经网络处理 复杂信号可以看成是在多维空间的曲面拟合操作。这些应用 1径向基函数网络 径向基函数网络的原理是用隐单元实现输入空间到隐含 层空间的变换,矢量不通过连接权直接映射到了隐空间,只要 这种关系也就确定了。输入层到隐含层的 从理论上讲是可行的,在网络结构足够大时,通过参数的选择 确定了RBF的中心,可以将连续函数逼近到一定的精确值。其学习过程需要基于 变换是非线性的,而隐含层到输出层的映射是线性的,即网络 非线性优化技术,在应用梯度下降算法的时候,达到优化标准 的局部最小化。其他的优化技术,比如基因算法、学习自动机、 模拟退火,尽管可以完成扩展计算的全局最小化,但非线性参 的实际输出是单元响应的线性和。 RBF网络如图1所示,映射 :R L_+R: n. fax)= o+ 。j(Hx—c,l1) (1) ‘i 数神经网络最好的选择是径向基函数RBF(Radial Basis x∈R 是输入, (・)是R 到R的函数, ,(0≤i≤nr)是权 Function)。RBF神经网络 可以作为两层网络,由线性参数拟 式中,∈R”,1≤i≤nr是RBF的中心值,nr是中心点的数目,RBF 合所有的RBF中心,在隐藏层是非线性的,不需要调节参数在 值,C,隐藏层的非线性转换,映射输入空间到新的空间,在新的空间 网络函数形式 (・)和中心Ci假设是固定的,权值 由线性最小  (・)和Ci的选择要与两层神经网络相匹配。 输出层执行线性合并。RBF神经网络之间的强连接性,使得它 二乘法决定。能够提供类似于两层神经网络的逼近能力。 基函数可以从一些典型的非线性函数中选择。一般来 讲,非线性函数的选择是无关紧要的,但是中心的选择则是关 y 键的。如果中心数据任意选择,构建的网络明显无法满足要 求或效果不好,或生成的网络非常大,或数字的病态产生线性 的结果,或造成有些中心值很接近。采用正交最小二乘法OLS 隐舍层 (Orthogonal Least Squares),其正交性可以有效地解决上述问 题。线性回归模型中固定中心对应于已知的回归值,中心的选 择可以看作是子集建模问题,OLS算法是从大量的候选值中选 择合适的回归中心子集,可以避免在随机中心选择时出现超规 图l径向基函数网络图 函数 (・)可以选择薄板样条函数 : (V)=V2Iog(v) 或高斯函数: (v)=exp(一V /p ) (3) (2) 模和病态的情况,这样就为拟合RBF网络提供了一个有效的学 习算法。 ・ 22 ・ Computer Era No.7 2010 其中B是常量。 骤:当k=l时,令P的各列为w的第一列,计算误差压缩比,选 择误差压缩比大的回归算子作为w的第一列;当k≥2时,依次 选择回归矩阵P中佘下的N_k列作w的第k列,用施密特正交 法(Gram—Schmidt)将其与前k列向量正交,计算误差压缩比, (4) 实践表明这两个函数对于RBF网络的逼近结果都很好。 下面用线性回归的具体例子说明OLS算法如何选择合适 的RBF网络中心点。 M d(t)= 百 (t)0。+E(t) 选择带来误差压缩比最大的回归算子最终确定为w的第k列; M、 式中,d(t)是目标输出,0。是参数,p,(t)是x(t)的回归值。中心C. 是已知的非线性函数 (・)对应的回归p.(t),选择合适的RBF中 计算相对二次误差,如果1一∑[err] 小于选定的公差则不加入 J=l M、 心就是从给定的候选集合中选择符号回归子集。 2正交最小二乘法学习算法 OLS方法解决了集合pi和正交基向量的转换,且可以计算 出每个基向量的影响值 ,。回归矩阵P可以分解为: P=WA (5) A是对角线为l的M×M三角矩阵,对角线的下三角值部为0, 1 12 o【l{…O[1M 0 1 {… M A=l 0 w是N×M矩阵, : ’. 1 MlM 《) ..・ () 【) 1 W W=H (6) H是对角阵。 N h=w w。=Zw。t=1 (t)w.(t),1 i M (7) 正交基向量W.和集合pi的步距是相同的。用Householder转换 法可以求出P的类似正交分解。下面是用Gram~Schmidt法计 算A的一列和P的正交化,其过程如下: W1 P1 a。k=wZpk/(w w.),1 i k k=2,…,M (8) k一1 Wk=Pk-Za|kW. 1=1 在RBF网络中,数据点x(t)的数量一般很大,中心点被选择 作为一个子集,通常所有候选回归量M也是很大的,实际需要 的关键回归量M(<< ,关键回归量可以用OLS算法得到。当 i≠j时W,和 是正交的,d(t)的平方和是: M dTd=∑g2.w.Tw.+E E (9) i=1 如果d是目标输出,在求出均值后它的值已经被改变,d(t) 的方差由: M N-Id d= ∑g w w. E E a i=1 得出。g2.w'1 W.是由W.引入的目标输出方差的增量,误差压缩 比可以定义为: [e = w /(drd),1≤i≤M 01) 该式给出了采用前向回归方法查找子集关键回归量的简 单有效方法。下面是用施密特正交法 (Gram—Schmidt)的步 回归算子;当1一∑[errl 大于选定的公差,则继续计算w的第 J=1 k+l列。心归算子选择完毕后,即可解得权值的最小二乘解。 OLS程序的几何意义是明显的,在第k步,由回归算子张成 的空间维数从k-1变成k维,新添加的回归算子使得对于相关 变量的误差压缩比最大。正交性质使得这种选择步骤简单有 效。为了避免数字的病态,W IW =0表明pk是P。到P 的线性 合并,因此,如果w rl W 小于预设的阈值,回归量P 不被选择,这 对于拟合RBF网络是重要的。如果中心是随意选择的,通常会 发现LS问题是病态的,需要更多鲁棒的技术,比如奇异值分 解,在OLS选择算法中这样的问题很容易被克服 。 3应用实例 下面给出应用该算法对一组信号数据得到的基于OLS算 法的RBF网设计的结果 : k=8 UnitCenters=.1.1647 1 0826 2.1570 .0.1996 2.0862 —1 8480 -3.0257 —0.5566 W2=2.2228 1.4309 0.4536 0.8406 0.7801 0.9340 0.1202 0 5159 B2=0.0606 图2基于OLS算法RBF网设计测试结果 从实验结果可以看出,根据样本输入维数和最大允许隐节 点数,计算隐节点输出阵,记录每次增加隐节点后的训练误差, 再选择具有最大投影的矢量,得到相应的数据中心,然后用广 (下转第25页) 计算机时代2010年第7期 (1)擞据冗余与处理速度 ・ 25 ・ 进行反规范化。 数据冗余和规范化是相互制约的一对关系,关系模式规范 上述的单据明细表(表3)为例,假如有以下应用需求:某顾 化程度越低,则数据冗余度越大。数据冗余是指相同数据在不 客2009年10月25日在某文具店购买了一些文具(如表l、表2、 同表中的重复出现。必须注意的是,主键与外键在多表中的重 表3中数据所示),J1月2日,顾客才到商店索要l0月25日所买 复出现,不属于数据冗余,非键字段的重复出现,才是数据冗 物品相应发票。按第3范式要求,在存储销售单明细信息时,只 余。数据冗余有低级冗余和高级冗余两种,低级冗余是数据或 需要存储“流水号”、“商品编码”,“单据编码”和“数量”属性, 字段的重复性出现,而高级冗余是字段的派生出现。 “商品名称”、“商品型号”、“单价”等均属于低级冗余信息,可以 例如,某文具店数据库中与销售单据信息有关的表有商品 根据“商品编码”信息轻松地在商品基本信息表(表1)中获取。 基本信息表(表1)、单据信息表(表2)以及单据明细表(表3)。 额”等属性都不依赖于主码(单据编号+商品编码,或流水号), 表明该表的设计不满足第三范式。因为“商品名称”、“商品型 但是,产品“单价”信息有可能会随着时间而改变,比如,就在l0 息从商品信息基本表复制到单据明细表中,则l1月2日就无法 准确地重新打印原始发票。如果顾客是按发票金额付款,问题 将非常严重。 因此,虽然规范化可以将相同的数据很好地保存在一个地 其中表3单据明细表中“商品名称”、“商品型号”、“单价”、“金 月27日,打印纸“单价”由22元降为20元。如果不将“单价”信 号”、“单价”只依赖于“商品编码”属性,而“金额”可以由“单价” 乘以“数量”得到,因此“商品名称”、“商品型号”、“单价”以及 “金额”均是冗余字段。但“商品名称”、“商品型号”、“单价”是 方并能简化编辑工作,但某些情况下却不需要这样做。如果由 相同数据的重复出现,属于低级冗余,而“金额’’字段是派生属 于历史原因需要某些数据的怏照,则必须从一开始就在数据库 性(汁算列),是高级冗余。增加“金额”这个冗余字段,可以大大 中设计好。否则,一旦数据被覆盖就无法再找回。 提高查询统计的速度,这就是以空间换时问的作法。冗余的目 3结束语 数据库设计离不开业务实践过程。在70年代末80年代 初,人们为了研究数据库设计方法学的便利,曾主张将结构设 的是为了提高处理速度。只有低级冗余才会增加数据的不一 致性。因此,在进行数据库设计时可根据需要适当提高高级冗 余的比例,尽量避免低级冗余的情况。 表1商品表的表结构 计和行为设计两者分离,但没有成功。针对数据库设计过程实 践性强、主观性高及不断反复的特点,笔者在教学中,不但大量 搜集了原始单据资料,力争对业务环境给出详细清晰的讲解, 而且理清同一个业务在不同环境下的不同设计方法,在确认学 生和教师对业务需求的理解达到一致的前提下加深学生对数 【axx)2 1打印纸  ARP jA4  22l  32l { 表2单据信息表 单据日期 2(X)9—10—25 据库的设计主客观过程的理解。实践证明,理清数据库设计的 f 126  经办人 Il 审核人 I 总金额 i 凡 f李鑫 主客观关系,强调加强主观分析及讨论的教学方式对培养学生 需求分析能力和数据库设计能力具有很好的促进作用,能取得 良好的教学效果。 参考文献: [11王珊,萨师煊.毅据库系统概论(第四版)[M】高等毅育出版社,2006. [2l Abraham Silberschatz等著,杨冬青等锋.数据库系统概念(原书第5 表3单据明细表 《2J规范化与历史数据 版)【MJ.机械工业出版社,2008. 低级冗余不但浪费数据库的存储空间,而且容易导致数据 [31 JeffreyD.Ullman等著,岳丽华等译.数据库系统基础教#I[MI.机械工 不一致,因为同一数据,可能会从不同时间、地点、角色上多次 业出版社.2006. 录入。但很多时候为了实际应用的需要,必须允许一定程度的 【4l Ryan K.Stephens等著,何玉洁等译.数据库设计【M】.机械工业出版 社.2001 低级冗余,否则可能会出现严重的商业问题。这一点主要体现 在有时候需要保存可能会随时间变化的历史数据,因此需要根 据实际情况有选择地决定复制哪些数据,对设计出的关系模式 【5】王预.数字图书馆信息检索技术及其应用[a1.计算机技术与霞展, 2006.10. (上接第22页) 3】刘文菊,郭景.RBF神经网络中心选取OLS算法的研究【J】.天津工业 义逆求广义输出权值,得到输出权值,作Gram—Schmidt正交 [化。从图中的测试结果可知,基于OLS算法的径向基函数神经 文学学报,2002.21(2):71~73 【4】S.Chen,C.F.N.Cowan,and P.M.Grant,Orthogonal Least Squares Learning Algorithm for Radial Basis Function Networks[J]. IEEE Transactions on Neural Networks,1991.2(2):302-309 网络的过程简单,实验得到的效果很好。 参考文献: 【1】魏海坤神经网络结构设计的理论与方法【M】.国防工业出版社, 2005. f5】倪友平,姜卫东,陈曾平一种优化神经网络剐练算法及其在目标识 别中的应用[J】.现代电子技术,2005 3:18~20 [61 http://www.chinavib.com/forum/fomm一35—1.html 【21马永其,冯伟.RBF神经网络在“薄管板”结构强度分析中的应用【31. 应用力学学报,2002.19(2):91~93 

因篇幅问题不能全部显示,请点此查看更多更全内容