|
EDA365欢迎您登录!
您需要 登录 才可以下载或查看,没有帐号?注册
x
摘 要:在目标分类领域,当前主流的目标分类方法是基于视觉词典模型,而时间效率低、视觉单词同义性和歧义( q$ H- u% @3 E: |
性及单词空间信息的缺失等问题严重制约了其分类性能。针对这些问题,该文提出一种基于弱监督的精确位置敏感
& `: h8 V3 Z0 V- m6 Z! e4 b哈希(E2LSH)和显著图加权的目标分类方法。首先,引入 E2LSH 算法对训练图像集的特征点聚类生成一组视觉词5 i: A/ j: v7 ^' L
典,并提出一种弱监督策略对 E2LSH 中哈希函数的选取进行监督,以降低其随机性,提高视觉词典的区分性。然
, F; h! ?+ n1 O' c9 n* ^后,利用 GBVS(Graph-Based Visual Saliency)显著度检测算法对图像进行显著度检测,并依据单词所处区域的显
! A! C3 t' q" b$ G: T6 N著度值为其分配权重;最后,利用显著图加权的视觉语言模型完成目标分类。在数据集 Caltech-256 和 Pascal VOC ' r: F j! ~+ Z9 J9 F) `! q
2007 上的实验结果表明,所提方法能够较好地提高词典生成效率,提高目标表达的分辨能力,其目标分类性能优
1 i$ ~3 O F" C/ L1 E% t于当前主流方法。
' S. x6 p- n: b关键词:目标分类;视觉词典模型;精确位置敏感哈希;视觉显著图;视觉语言模型 a6 ~& r2 o0 f. ], K
1 引言
8 ?' o6 u O# Y( y6 Z1 Y" d! Q视觉词典模型(Bag of Visual Words Model, 4 K! F0 k( ~+ ~- j4 G' w
BoVWM)[1 4]的出现迈出了由图像底层特征向高层
0 ]' Q/ K L& l0 Y o视觉语义过渡的第 1 步。由于其性能优越,在图像3 @$ `: G6 [7 L9 t$ ^7 \
8 J% t; j" ]+ }- ]; d/ q分类[5]等领域的应用十分广泛,然而,以下几个关键! q( M+ M8 L8 W& m' d* E, ~6 T0 {
问题的存在却极大地限制了其性能。首先是词典生. e' k7 A8 `3 D+ ]
成效率低,当前主要的词典生成算法(如 K-Means[1]). ~- ~7 H' {. b
在对特征点[6]聚类时都需要多次迭代高维近似近邻
1 c& Z! v* i, s. u; ?* C计算,随着数据量的增大时间效率会急剧下降。其
0 t1 v+ t! k+ V8 K; f次是传统聚类算法的初始聚类中心大都是随机生成
4 w0 |) w* A6 i- c的,导致聚类结果对噪声的鲁棒性较差且容易引起$ ?/ }) I% v1 X8 q
视觉单词同义性和歧义性问题[7]。此外,传统的视觉
. } z- K8 R T! e9 n3 r* |8 V& E0 ~2 h词典模型都面临视觉单词空间信息缺失的问题,极) b/ j1 v* B. j- h$ O* d& e: w- p |
大地降低了该模型的语义表达能力。: t" p- T( I3 d2 o3 V
& H( c* M) q# k' J1 f& w* V& d0 W1 q3 G) f5 P! \/ o& T1 z( j
/ p2 q S$ `3 Q) f, S
3 t4 P3 ^ P* H( g9 Z- {
3 D. E/ i* [! ~附件下载:# [! u8 _( w. t# h; b
% M! ^. ~ ~ M1 V7 `, m |
|