|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
摘 要:Adaboost.M1 算法要求每个弱分类器的正确率大于 1/2,但在多分类问题中寻找这样的弱分类器较为困难。& N) H& c$ g. q
有学者提出了多类指数损失函数的逐步添加模型(SAMME),把弱分类器的正确率要求降低到大于 1/k (k 为类别
; N3 R m/ ]0 e; o1 T9 n数),降低了寻找弱分类器的难度。由于 SAMME 算法无法保证弱分类器的有效性,从而并不能保证最终强分类器
0 ]+ H. s; v& W; z4 P/ [正确率的提升。为此,该文通过图示法及数学方法分析了多分类 Adaboost 算法的原理,进而提出一种新的既可以7 i1 [, k+ M( C! ^# }! |
降低弱分类器的要求,又可以确保弱分类器有效性的多分类方法。在 UCI 数据集上的对比实验表明,该文提出的
; k, m& g" J: P6 w q算法的结果要好于 SAMME 算法,并达到了不弱于 Adaboost.M1 算法的效果。% U- H, N4 {( a2 H7 u
关键词:多类分类器;多类指数损失函数的逐步添加模型;Adaboost.M1
# C) I0 P: a' u( _$ R1 引言2 d# L/ w9 J$ s' g- [# `4 F: x2 T
Adaboost算法的思想起源于VALIANT提出的& k# Q1 `$ U0 g
PAC(Probably Approximately Correct)学习模型[1]。
% y$ N! o* W7 r+ |# aSCHAPIRE 提出了 Boosting[2]算法,Boosting[3 5] 8 Q$ h7 j6 G& D8 S, h
算法是一种通过结合多个弱分类器提高最终分类准确( g( R; o; n/ q
率的方法。基于 Boosting 算法,1995 年,FREUND8 V5 [' w3 E. k# u) X
提出的 Boost-by-majority 算法[3],在某种意义上说8 K! b( P& i, J0 Y# ]1 M/ m
是最佳的 Boosting 算法,而 1997 年 FREUND 和
# l2 u- h6 P. B6 B$ O$ m) `% uSCHAPIRE 提出的 Adaboost 算法[6]是更面向于实
1 A& m- x- J# @' r( u ]) v际应用的方法。Boosting 方法一般只适用于二分类% }6 V) C3 b7 B+ c) C
问题,在实际应用中,大多数的应用场景会多于两8 `7 t/ i; c2 ~6 K/ Q
. [$ I& |) x0 C' _8 ] ~! ^4 m
* ?: H6 ]! b* V& Z6 S) n# \$ `
, P3 t8 k/ }! U6 _! t
8 B& S9 p- D% r, v. w( n+ m附件下载:; t; F( |+ _+ j8 n6 L3 j; r
' N8 @- A H: p. u4 @4 V# a$ Q3 M& \0 j' U7 p. {! D) @- e8 Y0 K
5 G; h( _% \0 M9 w! k* f) F6 M! ` [
|
|