中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁 > 科技論文 > 自動化論文 >

基于卷積神經(jīng)網(wǎng)絡(luò)的定向擾動和多特征目標(biāo)跟蹤研究

發(fā)布時間:2020-04-05 00:56
【摘要】:隨著計算機視覺和科學(xué)技術(shù)的不斷發(fā)展,視頻目標(biāo)跟蹤技術(shù)已經(jīng)得到了廣泛的普及并且應(yīng)用到了人們生活的每一個角落。國防監(jiān)控,社會安全、智慧城市和輔助醫(yī)療等領(lǐng)域都離不開目標(biāo)跟蹤技術(shù)。近些年來,深度學(xué)習(xí)的成功以及計算機性能的大幅提升,讓深度學(xué)習(xí)方法廣泛應(yīng)用到了視頻目標(biāo)跟蹤任務(wù)中,并在一系列數(shù)據(jù)集上取得了優(yōu)于傳統(tǒng)方法的成績。因此,基于深度學(xué)習(xí)的目標(biāo)跟蹤技術(shù)獲得了國內(nèi)外學(xué)者的高度關(guān)注。盡管視頻目標(biāo)跟蹤技術(shù)取得了可喜的成績,但是在視頻目標(biāo)跟蹤過程中,由于視頻場景里存在各種干擾,如:目標(biāo)快速移動、攝像機抖動、光照變化、目標(biāo)遮擋等等。這些干擾項都會使跟蹤器精度、穩(wěn)定性、成功率下降。雖然有些跟蹤器在有限類甚至一類的跟蹤任務(wù)上有很高的精度和成功率,如:車輛跟蹤、行人跟蹤、導(dǎo)彈跟蹤等。但這些跟蹤器普遍泛化能力不強,難以適用于通用目標(biāo)跟蹤任務(wù),通用目標(biāo)跟蹤的算法仍然有很大的提升空間。很多基于深度學(xué)習(xí)的跟蹤器只考慮了目標(biāo)的卷積特征,卷積特征的可解釋性不強且針對性不足,若能加入其它有效的跟蹤特征能更出色的完成跟蹤任務(wù)。本文以卷積神經(jīng)網(wǎng)絡(luò)特征為基礎(chǔ)研究通用目標(biāo)跟蹤問題,跟蹤過程中通過定向擾動算法和多特征算法進行修正,從而達到提升跟蹤器精度、穩(wěn)定性、成功率的目的。主要研究工作如下:(1)在大多數(shù)傳統(tǒng)基于深度學(xué)習(xí)的跟蹤器工作中,默認(rèn)下一幀圖片的候選位置是以上一幀結(jié)果位置為中心的高斯分布。然而在實際應(yīng)用的情況下,一旦目標(biāo)發(fā)生快速移動、攝像機偏移、目標(biāo)丟失等情況,跟蹤器則會在距離目標(biāo)真實位置相對較遠的區(qū)域產(chǎn)生候選位置,這嚴(yán)重影響了跟蹤器的精度、穩(wěn)定性和成功率。針對這種不足,本文充分利用了卷積神經(jīng)網(wǎng)絡(luò)可以定位的特點,改變粒子濾波器的擾動中心,進行定向擾動采樣,使得候選樣本更加接近真實位置,加速目標(biāo)找回,防止目標(biāo)丟失,進而提升跟蹤器的精度、成功率和魯棒性。(2)因為跟蹤器對初始化圖片非常敏感,在同一個視頻圖像序列中,給予不同的初始化圖片會對追蹤器性能有很大影響。為了解決以上問題,本文在提取卷積神經(jīng)網(wǎng)絡(luò)特征的基礎(chǔ)上,分別提取不同時段跟蹤目標(biāo)和候選圖的HOG特征和顏色直方圖,通過計算相似度找到最優(yōu)解。在加入HOG特征和顏色直方圖特征后,跟蹤器可以適應(yīng)更多的復(fù)雜場景,提升了跟蹤器的魯棒性。本文在通用類基準(zhǔn)數(shù)據(jù)庫obt-13上驗證了所提算法的有效性并與一些主流跟蹤器進行了對比。本文方法亦可擴展至別的跟蹤器中。
【圖文】:

導(dǎo)彈瞄準(zhǔn),監(jiān)控設(shè)備,彩虹,無人機


圖 1.1 中國彩虹 4 無人機導(dǎo)彈瞄準(zhǔn)頻監(jiān)控:在現(xiàn)代社會中,隨處可見的攝像頭監(jiān)控設(shè)備正在實活安全秩序。如圖 1.2,交通路口監(jiān)控行人和車輛的運行。場、車站等公共場所,將指定對象的目標(biāo)跟蹤與行為分析進否有可疑行為。中科院也分別研發(fā)了監(jiān)控視頻內(nèi)容的分析系r(Visual Surveillance Star)[12]和人臉識別監(jiān)控系統(tǒng)中科奧

交通路口,視頻監(jiān)控


圖 1.1 中國彩虹 4 無人機導(dǎo)彈瞄準(zhǔn)2)視頻監(jiān)控:在現(xiàn)代社會中,隨處可見的攝像頭監(jiān)控設(shè)備正在實時的生活安全秩序。如圖 1.2,交通路口監(jiān)控行人和車輛的運行。文在商場、車站等公共場所,將指定對象的目標(biāo)跟蹤與行為分析進行象是否有可疑行為。中科院也分別研發(fā)了監(jiān)控視頻內(nèi)容的分析系統(tǒng)S-Star(Visual Surveillance Star)[12]和人臉識別監(jiān)控系統(tǒng)中科奧森[13]。
【學(xué)位授予單位】:湘潭大學(xué)
【學(xué)位級別】:碩士
【學(xué)位授予年份】:2019
【分類號】:TP391.41;TP183

【相似文獻】

相關(guān)期刊論文 前10條

1 胡悅;;金融市場中的神經(jīng)網(wǎng)絡(luò)拐點預(yù)測法[J];金融經(jīng)濟;2017年18期

2 遲惠生;陳珂;;1995年世界神經(jīng)網(wǎng)絡(luò)大會述評[J];國際學(xué)術(shù)動態(tài);1996年01期

3 吳立可;;脈沖神經(jīng)網(wǎng)絡(luò)和行為識別[J];通訊世界;2018年12期

4 林嘉應(yīng);鄭柏倫;劉捷;;基于卷積神經(jīng)網(wǎng)絡(luò)的船舶分類模型[J];信息技術(shù)與信息化;2019年02期

5 俞頌華;;卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展與應(yīng)用綜述[J];信息通信;2019年02期

6 韓真;凱文·哈特尼特;;為神經(jīng)網(wǎng)絡(luò)的通用理論建造基石[J];世界科學(xué);2019年04期

7 鮑偉強;陳娟;熊濤;;基于進化神經(jīng)網(wǎng)絡(luò)的短期電力負荷預(yù)測研究[J];電工技術(shù);2019年11期

8 陳曉燕;;淺析簡單神經(jīng)網(wǎng)絡(luò)的發(fā)展及簡單模型[J];數(shù)字技術(shù)與應(yīng)用;2019年05期

9 李青華;李翠平;張靜;陳紅;王紹卿;;深度神經(jīng)網(wǎng)絡(luò)壓縮綜述[J];計算機科學(xué);2019年09期

10 劉高宇;;深度神經(jīng)網(wǎng)絡(luò)在煤質(zhì)數(shù)據(jù)分析與預(yù)測中的應(yīng)用[J];電腦知識與技術(shù);2019年28期

相關(guān)會議論文 前10條

1 孫軍田;張U,

本文編號:2614304


資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/2614304.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4b517***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com