|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
摘 要:在目标分类领域,当前主流的目标分类方法是基于视觉词典模型,而时间效率低、视觉单词同义性和歧义3 z9 X. ]1 B9 M& W* I9 V
性及单词空间信息的缺失等问题严重制约了其分类性能。针对这些问题,该文提出一种基于弱监督的精确位置敏感5 X1 B! ?/ l2 @' M
哈希(E2LSH)和显著图加权的目标分类方法。首先,引入 E2LSH 算法对训练图像集的特征点聚类生成一组视觉词! t3 K+ i7 E% K2 a! }# ` [
典,并提出一种弱监督策略对 E2LSH 中哈希函数的选取进行监督,以降低其随机性,提高视觉词典的区分性。然- U1 z+ x5 P2 t I2 n7 g% @
后,利用 GBVS(Graph-Based Visual Saliency)显著度检测算法对图像进行显著度检测,并依据单词所处区域的显 y! a. a. ?7 G' w- V$ a5 b
著度值为其分配权重;最后,利用显著图加权的视觉语言模型完成目标分类。在数据集 Caltech-256 和 Pascal VOC
$ O+ F* _. t: x* x2007 上的实验结果表明,所提方法能够较好地提高词典生成效率,提高目标表达的分辨能力,其目标分类性能优2 R* h' U) r7 H8 @& ]
于当前主流方法。( m8 U; K& N9 b# ^$ N/ z
关键词:目标分类;视觉词典模型;精确位置敏感哈希;视觉显著图;视觉语言模型
2 n! e1 s; }( Q, o1 引言
0 ]' f3 z: e9 P* P( J视觉词典模型(Bag of Visual Words Model, ' x1 X9 s0 |" L6 M1 D' u# s: J& k
BoVWM)[1 4]的出现迈出了由图像底层特征向高层
' i: y7 A* L" I' D7 W视觉语义过渡的第 1 步。由于其性能优越,在图像
% j, W; u. a1 G2 P+ O- M! h6 ]# X" l5 O3 J/ c# X
分类[5]等领域的应用十分广泛,然而,以下几个关键" Z; |. D9 {9 c6 J; s/ Y7 y
问题的存在却极大地限制了其性能。首先是词典生
8 E% a% v$ f' g; M4 d: `成效率低,当前主要的词典生成算法(如 K-Means[1])6 X! X/ B/ `! o7 q
在对特征点[6]聚类时都需要多次迭代高维近似近邻6 j( @0 |" W4 d Q' r
计算,随着数据量的增大时间效率会急剧下降。其+ h! F8 N; \6 a4 ~3 m6 D$ F/ P% Y
次是传统聚类算法的初始聚类中心大都是随机生成+ |' ^& E4 E4 K. a" S! R" |
的,导致聚类结果对噪声的鲁棒性较差且容易引起
" a: O7 T; @; {6 C视觉单词同义性和歧义性问题[7]。此外,传统的视觉
1 o, Q3 a$ R# ?词典模型都面临视觉单词空间信息缺失的问题,极
0 P9 v0 C' _* P; H1 [8 h9 q, n大地降低了该模型的语义表达能力。
; k3 _9 \, o* B, ^
" v! m$ p- C5 A* s
! H8 a- N( u2 x; g! P4 U7 O" g$ F3 D0 P9 K4 W9 r
, S2 t8 g/ _ ~ x2 H, E2 r' r
$ Q* l, h( `! q
附件下载:+ e. }# H- N- b. `6 X
8 N" b/ Y1 Y: b, Y; j/ l9 p" ?5 l8 ~ |
|