強(qiáng)化深度特征融合的行人搜索系統(tǒng)
發(fā)布時(shí)間:2024-06-29 14:05
針對(duì)行人圖像的深度特征缺乏對(duì)局部細(xì)節(jié)的描述,及不完全具備對(duì)尺度、旋轉(zhuǎn)、平移及光照變化等各種因素的不變性而導(dǎo)致行人搜索準(zhǔn)確率低的問(wèn)題,本文提出一種具有強(qiáng)化深度特征融合的行人搜索系統(tǒng)。該系統(tǒng)將行人候選網(wǎng)絡(luò)和行人識(shí)別網(wǎng)絡(luò)兩部分整合優(yōu)化成統(tǒng)一框架。其中,行人候選網(wǎng)絡(luò)實(shí)現(xiàn)行人框的獲取及標(biāo)定,而行人識(shí)別網(wǎng)絡(luò)在獲取深度學(xué)習(xí)特征的基礎(chǔ)上融入具有幾何不變性的傳統(tǒng)特征,建立一個(gè)強(qiáng)化深度特征融合網(wǎng)絡(luò)模型。實(shí)驗(yàn)結(jié)果表明,本文采用強(qiáng)化深度特征融合的網(wǎng)絡(luò)模型,在SSM數(shù)據(jù)集上檢測(cè)并框出圖片中的行人,其Top-1識(shí)別正確率高達(dá)80.7%,比單純采用深度特征模型更具優(yōu)越性。
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
本文編號(hào):3997665
【文章頁(yè)數(shù)】:6 頁(yè)
【部分圖文】:
圖3深度特征融合模型深度學(xué)習(xí)自主學(xué)習(xí)到的CNN特征具有良好的通
,其中行人識(shí)別網(wǎng)絡(luò)與行人候選網(wǎng)絡(luò)共享基本的卷積特征映射圖;最后實(shí)現(xiàn)在行人識(shí)別網(wǎng)絡(luò)上提取行人圖像特征,進(jìn)行行人特征匹配得到正確目標(biāo)人物。行人識(shí)別網(wǎng)絡(luò)在ResNet-50的剩余網(wǎng)絡(luò)部分加入具有幾何不變性的SIFT特征,實(shí)現(xiàn)特征融合互補(bǔ)[11]。在訓(xùn)練階段,通過(guò)多任務(wù)方式來(lái)采用OIM損....
圖5行人搜索結(jié)果(c)(c1)(c2)(c3)
3個(gè)行人檢測(cè)器和5個(gè)行人再識(shí)別方法,F(xiàn)成的檢測(cè)器有CCF[19]、ACF[20]和基于神經(jīng)網(wǎng)絡(luò)的ResNet-50;行人再識(shí)別采用的特征表示有DenseSIFT-ColorHist(DSIFT)[21]、BagofWords(BoW)[22]和LOMO[23];相對(duì)應(yīng)的度量距離方....
本文編號(hào):3997665
本文鏈接:http://www.lk138.cn/kejilunwen/sousuoyinqinglunwen/3997665.html
最近更新
教材專著