找回密码
 注册
关于网站域名变更的通知
查看: 390|回复: 1
打印 上一主题 下一主题

[毕业设计] 基于弱分类器调整的多分类 Adaboost 算法

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2020-12-2 11:19 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

EDA365欢迎您登录!

您需要 登录 才可以下载或查看,没有帐号?注册

x
要:Adaboost.M1 算法要求每个弱分类器的正确率大于 1/2,但在多分类问题中寻找这样的弱分类器较为困难。
9 M" R9 X, _  q3 P3 P有学者提出了多类指数损失函数的逐步添加模型(SAMME),把弱分类器的正确率要求降低到大于 1/k (k 为类别; Y7 b1 k& E  F6 U( d) K& R% d
),降低了寻找弱分类器的难度。由于 SAMME 算法无法保证弱分类器的有效性,从而并不能保证最终强分类器
( @3 T  [8 Y, V! {  x1 ]正确率的提升。为此,该文通过图示法及数学方法分析了多分类 Adaboost 算法的原理,进而提出一种新的既可以
' r& u0 Y6 {) P# u! \* p降低弱分类器的要求,又可以确保弱分类器有效性的多分类方法。在 UCI 数据集上的对比实验表明,该文提出的/ \: f# _5 s5 v, O% W: O# V: V* a
算法的结果要好于 SAMME 算法,并达到了不弱于 Adaboost.M1 算法的效果。9 h+ O" e2 Q* X" u8 U& i8 m6 ~
关键词:多类分类器;多类指数损失函数的逐步添加模型;Adaboost.M1
% V9 P3 u. L$ C1 I" W4 H) }; j1 引言
* R# J5 |2 H( G! C8 k$ r! mAdaboost算法的思想起源于VALIANT提出的' e8 _9 Z# f  b" e& _
PAC(Probably Approximately Correct)学习模型[1]
3 E" m8 H# l- l' n$ g  t5 U( e  tSCHAPIRE 提出了 Boosting[2]算法,Boosting[3 5]
6 d# Z' c2 Z/ O7 M法是一种通过结合多个弱分类器提高最终分类准确
4 u% M, N' ^  z& l" v率的方法。基于 Boosting 算法,1995 年,FREUND
8 k3 N# K! T5 y* A提出的 Boost-by-majority 算法[3],在某种意义上说
! ~; A) z1 F, O9 e是最佳的 Boosting 算法,而 1997 FREUND
  T  U% ]5 T+ a" A9 m- F- q  `3 cSCHAPIRE 提出的 Adaboost 算法[6]是更面向于实4 `2 G3 c) Q! _6 \7 h. X1 i/ T8 s
际应用的方法。Boosting 方法一般只适用于二分类0 |) Z# @( b* J! c5 E1 ]- ~
问题,在实际应用中,大多数的应用场景会多于两
( W2 A& W2 ]' E4 B; B/ ^2 R  `! n. }' n  P7 [! k( e

6 j. E# M/ A: Q, |* j+ G3 B7 {8 O6 D* B  u5 C8 w! P: l2 z
: ^4 Y. S+ X+ o! Y& b1 n
附件下载:
游客,如果您要查看本帖隐藏内容请回复
3 V, @1 M/ D1 }8 L

, ?2 K2 S) G( |1 x7 M0 m
* H  |  ]5 G& l( B. V  S. ?
) U, V8 I2 l- w! B1 w4 i' o% F  N# }! b

该用户从未签到

2#
发表于 2020-12-2 14:30 | 只看该作者
来看看                                 
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

推荐内容上一条 /1 下一条

EDA365公众号

关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

GMT+8, 2025-6-23 23:36 , Processed in 0.078125 second(s), 26 queries , Gzip On.

深圳市墨知创新科技有限公司

地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

快速回复 返回顶部 返回列表