EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录
% ?9 Z, p8 D6 W( l: S8 k, z引言 $ s$ c, K9 T3 p: I5 q% @! F: @
极限学习机原理 : q8 Y4 m, \# z8 l
MATLAB中重点函数解读 2 A N9 [6 |! [7 C! V! p
极限学习机的MATLAB实践
$ m4 {5 x; a9 I引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。 6 r6 |, X# }7 c I$ c- L" |
& q2 c3 X- h5 r3 K为什么我们需要ELM? Y. r: M5 Y4 \) V* @
The learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be:
1 d$ Z% P. E/ E. j. W6 f) r; B1) the slow gradient-based learning algorithms are extensively used to train neural networks. : h) v6 ^2 K- A, ]5 _! O# }
2) all the parameters of the networks are tuned iteratively by using such learning algorithms.
1 v" K. [8 V0 }1 q最大的创新点:
( {) {# E. i) H1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。
. {: F! a% M' w# Z" r9 R6 L6 ^ c; o2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。
3 u- `9 V3 ^4 _8 j) ]研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。
( N5 E; z, V }; M" E, r3 v一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。 ' g( [8 w- V' A0 \ J7 B
|