找回密码
 注册
关于网站域名变更的通知
查看: 400|回复: 1
打印 上一主题 下一主题

[毕业设计] 基于弱分类器调整的多分类 Adaboost 算法

[复制链接]

该用户从未签到

跳转到指定楼层
1#
发表于 2020-12-2 11:19 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式

EDA365欢迎您登录!

您需要 登录 才可以下载或查看,没有帐号?注册

x
要:Adaboost.M1 算法要求每个弱分类器的正确率大于 1/2,但在多分类问题中寻找这样的弱分类器较为困难。& N) H& c$ g. q
有学者提出了多类指数损失函数的逐步添加模型(SAMME),把弱分类器的正确率要求降低到大于 1/k (k 为类别
; N3 R  m/ ]0 e; o1 T9 n),降低了寻找弱分类器的难度。由于 SAMME 算法无法保证弱分类器的有效性,从而并不能保证最终强分类器
0 ]+ H. s; v& W; z4 P/ [正确率的提升。为此,该文通过图示法及数学方法分析了多分类 Adaboost 算法的原理,进而提出一种新的既可以7 i1 [, k+ M( C! ^# }! |
降低弱分类器的要求,又可以确保弱分类器有效性的多分类方法。在 UCI 数据集上的对比实验表明,该文提出的
; k, m& g" J: P6 w  q算法的结果要好于 SAMME 算法,并达到了不弱于 Adaboost.M1 算法的效果。% U- H, N4 {( a2 H7 u
关键词:多类分类器;多类指数损失函数的逐步添加模型;Adaboost.M1
# C) I0 P: a' u( _$ R1 引言2 d# L/ w9 J$ s' g- [# `4 F: x2 T
Adaboost算法的思想起源于VALIANT提出的& k# Q1 `$ U0 g
PAC(Probably Approximately Correct)学习模型[1]
% y$ N! o* W7 r+ |# aSCHAPIRE 提出了 Boosting[2]算法,Boosting[3 5] 8 Q$ h7 j6 G& D8 S, h
法是一种通过结合多个弱分类器提高最终分类准确( g( R; o; n/ q
率的方法。基于 Boosting 算法,1995 年,FREUND8 V5 [' w3 E. k# u) X
提出的 Boost-by-majority 算法[3],在某种意义上说8 K! b( P& i, J0 Y# ]1 M/ m
是最佳的 Boosting 算法,而 1997 FREUND
# l2 u- h6 P. B6 B$ O$ m) `% uSCHAPIRE 提出的 Adaboost 算法[6]是更面向于实
1 A& m- x- J# @' r( u  ]) v际应用的方法。Boosting 方法一般只适用于二分类% }6 V) C3 b7 B+ c) C
问题,在实际应用中,大多数的应用场景会多于两8 `7 t/ i; c2 ~6 K/ Q
. [$ I& |) x0 C' _8 ]  ~! ^4 m
* ?: H6 ]! b* V& Z6 S) n# \$ `
, P3 t8 k/ }! U6 _! t

8 B& S9 p- D% r, v. w( n+ m附件下载:
游客,如果您要查看本帖隐藏内容请回复
; t; F( |+ _+ j8 n6 L3 j; r

' N8 @- A  H: p. u4 @4 V# a$ Q3 M& \0 j' U7 p. {! D) @- e8 Y0 K

5 G; h( _% \0 M9 w! k* f) F6 M! `  [

该用户从未签到

2#
发表于 2020-12-2 14:30 | 只看该作者
来看看                                 
您需要登录后才可以回帖 登录 | 注册

本版积分规则

关闭

推荐内容上一条 /1 下一条

EDA365公众号

关于我们|手机版|EDA365电子论坛网 ( 粤ICP备18020198号-1 )

GMT+8, 2025-7-27 19:51 , Processed in 0.140625 second(s), 26 queries , Gzip On.

深圳市墨知创新科技有限公司

地址:深圳市南山区科技生态园2栋A座805 电话:19926409050

快速回复 返回顶部 返回列表