EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 ! T+ b& ~. A; b
引言 : C# `* o" _2 E& r& R% j2 @
极限学习机原理 . f- ~1 K X* V2 C
MATLAB中重点函数解读
3 K. N% N) S' V- ~极限学习机的MATLAB实践
1 ]: A9 o+ Q. K: W1 ]1 _引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。
. Q" I' h1 o/ `9 {5 J7 m# V+ j
2 d1 e7 _0 k+ s- V6 k+ a% K3 k为什么我们需要ELM?
" F, [* R: A+ X4 K8 z' |. q+ H, KThe learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
2 H3 Y! Z. D p- U1) the slow gradient-based learning algorithms are extensively used to train neural networks. 5 b" n U% d& D# `; m& ]
2) all the parameters of the networks are tuned iteratively by using such learning algorithms. 8 B( h. m) c7 p0 k4 m; B U
最大的创新点:
% e3 q" ]* `; }8 X+ r: e: y$ o1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。 - S8 l' C) X2 |
2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。
3 ?6 ~7 ~( w7 F i. ^研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。 ! M7 x2 @( L) A# Z
一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
/ c. Z+ B9 H+ f
|