神经网络与机器学习 笔记—改善反向传播的性能试探法
改善反向传播的性能试探法
整理8个能提高BP效率的方法:
反向传播学习的随机(串行)方式(涉及一个模式接一个模式的更新)要比批量方式
计算快。特别是当新联数据集很大且高度冗余时,更是如此。(批量学习再高度冗余的时候Jacobi矩阵会很麻烦)
作为一个基本的规则,对呈现给反向传播算法的每一个训练样本的挑选必须建立在其信息内容对解决问题有很大可能的基础上。达到这个目标的两种方法是:
使用训练误差最大的样本。
使用的样本要与以前使用的有区别。
这两个试探方法起因于对权空间进行更多搜索的愿望。
在模式分类的任务中使用串行反向传播学习,经常使用的一个简单技巧是将样本的每个回合呈现给多层感知器的顺序随机化(即弄乱)。理想情况下,随机化可以确保一个回合中的相继的样本很少属于同一类。
建议选择奇函数的sigmoid激活函数即
F(-v) = - F(v)
如下的双曲正切函数满足这个条件(logistic函数不满足)
F(v) = a tanh (bv) 其中a和b的合适值:a=1.7159 b=2/3
4.目标值。
在sigmoid激活函数的范围内选择目标值(期望响应)是很重要的。更具体来说,多层感知器输出层的神经元j的期望响应dj必须与sigmoid激活函数的极限值偏离某个值,具体取决于极限值是正或负。否则反向传播算法会使网络的自由参数趋向于无穷大,驱使隐藏神经元达到饱和从而减慢学习过程。
训练集包含的输入变量应该是不相关的;
区相关后的输入变量应调整其长度使得它们的协方差近似相等,因此可以保证网络中的不同突触权值以大约相等的速度进行学习。
总结
以上是生活随笔为你收集整理的神经网络与机器学习 笔记—改善反向传播的性能试探法的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇: 设计模式复习-装饰模式
- 下一篇: 神经网络与机器学习 笔记—泛化和交叉验证