李正学,吴微,张宏伟.二层前传神经网络中在线梯度法的收敛性[J].数学研究及应用,2001,21(2):219~228
二层前传神经网络中在线梯度法的收敛性
Convergence of On-Line Gradient Methods for Two-Layer Feedforward Neural Networks
投稿时间:1999-12-27  
DOI:10.3770/j.issn:1000-341X.2001.02.012
中文关键词:  
英文关键词:on-line gradient method  feedforward neural network  convergence.
基金项目:
作者单位
李正学 吉林大学数学系长春 130023 
吴微 大连理工大学应用数学系116024 
张宏伟 大连理工大学应用数学系116024 
摘要点击次数: 3045
全文下载次数: 1788
中文摘要:
      本文给出了一般情况下二层前传神经网络中的在线梯度法的收敛性定理,并将其应用于一些常用的活化函数和能量函数。
英文摘要:
      A discussion is given on the convergence of the on-line gradient methods for two-layer feedforward neural networks in general cases. The theories are applied to some usual activation functions and energy functions.
查看全文  查看/发表评论  下载PDF阅读器