EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
目录 8 A- q' n" R$ k) {* H1 q
引言 # G; `" a( Z! X2 p* @
极限学习机原理 9 a( C9 K2 ^( G% C n+ ~3 w
MATLAB中重点函数解读
V5 ^& {2 m/ n2 B% R- c# m) N- b1 v极限学习机的MATLAB实践 - R4 H$ J* S5 R" V Z" b1 o6 x
引言 极限学习机不是一个新的东西,只是在算法(方法)上有新的内容。在神经网络结构上,就是一个前向传播的神经网络,和之前几篇博文讲的意义。
! r) d0 h+ d) ~
4 x! X% \* U1 j为什么我们需要ELM? 0 [- H5 A( k! V; D8 `% K1 x6 Y& U
The learning speed of feedforward neural networks is in general far slower than required and it has been a major bottleneck in their applications for past decades. Two key reasons behind may be: - @$ L- a0 { }9 O
1) the slow gradient-based learning algorithms are extensively used to train neural networks.
! T% {$ b& M4 S& G8 C E+ N# P2) all the parameters of the networks are tuned iteratively by using such learning algorithms.
, q, i1 s2 D, @. O/ ~! y7 F+ n最大的创新点: 8 j7 A! }, F, q- R8 s) |9 x
1)输入层和隐含层的连接权值、隐含层的阈值可以随机设定,且设定完后不用再调整。这和BP神经网络不一样,BP需要不断反向去调整权值和阈值。因此这里就能减少一半的运算量了。 + `4 W. p! b" D# S% x
2)隐含层和输出层之间的连接权值β不需要迭代调整,而是通过解方程组方式一次性确定。 6 x7 h" O! B+ R* u* {0 [
研究表明,通过这样的规则,模型的泛化性能很好,速度提高了不少。 - l3 P& s2 w; H: v# \' \" j
一言概之,ELM最大的特点就是对于传统的神经网络,尤其是单隐层前馈神经网络(SLFNs),在保证学习精度的前提下比传统的学习算法速度更快。
2 K- H2 k1 V2 ~/ F. _7 X3 ^) w$ d) c
|