登录 | 注册 | 充值 | 退出 | 公司首页 | 繁体中文 | 满意度调查
综合馆
一种基于误差放大的快速BP学习算法
  • 摘要

    针对目前使用梯度下降原则的BP学习算法,受饱和区域影响容易出现收敛速度趋缓的问题,提出一种新的基于误差放大的快速BP学习算法以消除饱和区域对后期训练的影响.该算法通过对权值修正函数中误差项的自适应放大,使权值的修正过程不会因饱和区域的影响而趋于停滞,从而使BP学习算法能很快地收敛到期望的精度值.对3-parity问题和Soybean分类问题的仿真实验表明,与目前常用的Delta-bar-Delta方法、加入动量项方法、Prime Offset等方法相比,该方法在不增加算法的复杂度和额外的CPU机时的情况下能更快地收敛到目标精度值.

  • 作者

    杨博  王亚东  苏小红 

  • 作者单位

    哈尔滨工业大学计算机学院,哈尔滨,150001

  • 刊期

    2004年5期 ISTIC EI PKU

  • 关键词

    反向传播  多层人工神经网络  误差放大  饱和区域  奇偶问题  Soybean数据集 

参考文献
  • [1] 田岚,陆小珊,白树忠. 基于快速神经网络算法的非特定人语音识别. 控制与决策, 2002,1
  • [2] 郑志军,郑守淇. 进化神经网络中的变异算子研究. 软件学报, 2002,4
  • [3] 卜东波,许洪波,白硕. 基于描述复杂性的优化学习算法. 计算机学报, 2002,8
  • [4] 骆德汉. 一种前馈神经网络的变误差主动式学习算法. 北京航空航天大学学报, 1998,3
  • [5] S E Fahlman. Faster-learning variations of back propagation:An empirical study.In..D Touretzky,G E Hinton,T J Sejnowski eds. San Mateo,CA:Morgan Kaufmann Publishers, 1988
  • [6] R A Jacobs. Increased rates of convergence through learning rate adaptation. Neural Networks, 1988,04
  • [7] 阎平凡;张长水. 人工神经网络与模拟进化计算. 北京:清华大学出版社, 2000
  • [8] M Wilamowski Bogdan;Chen Yixin. Efficient algorithm for training neural networks with one hidden layer. Washington,DC:IEEE Press, 1999
  • [9] K Balakrishnan;V Honavar. Improving convergence of back propagation by handling flat-spots in the output layer. Brighton,UK, 1992
  • [10] 蔡自兴;徐光祐. 人工智能及其应用. 北京:清华大学出版社, 1996
  • [11] D B Skalak. Prototype and feature selection,by sampling and random mutation hill climbing algorithms. New Brunswick,NJ:Morgan Kauffrnann, 1994
  • [12] Zhexue Huang. A fast clustering algorithm to cluster very large categorical data sets in data mining. Tucson,Arizona, 1997
  • [13] Andrea Passerini;Massimiliano Pontil;Paolo Frasconi. From margins to probabilities in multiclass learning problems. Amsterdam IOS Press, 2002
  • [14] R Parekh;K Balakrishnan;V Honavor. An empirical comparison of flat-spot elimination techniques in back-propagation networks. Auburn, 2002
  • [15] 靳蕃. 神经计算智能基础·原理·方法. 成都:西南交通大学出版社, 2000
查看更多︾
相似文献 查看更多>>
18.206.168.65