中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

基于深度遷移學(xué)習的行人重識別技術(shù)研究與實現(xiàn)

發(fā)布時間:2024-11-02 07:31
  行人重識別(Person Re-Identification,ReID)是利用計算機視覺技術(shù)判斷不同監(jiān)控攝設(shè)備拍攝到的行人是否屬于同一行人的技術(shù),在智能安防、刑偵檢測等領(lǐng)域具有良好的應(yīng)用前景。近年來,以深度卷積網(wǎng)為代表的深度學(xué)習方法在計算機視覺領(lǐng)域取得了突破性成果,但深度學(xué)習往往需要大量的訓(xùn)練數(shù)據(jù)。遷移學(xué)習(Transfer Learning)的目的是利用已有的知識和經(jīng)驗來解決不同但相關(guān)領(lǐng)域的新任務(wù)。針對實際中只有少量用于行人重識別標簽數(shù)據(jù)的情況,本文在深度卷積網(wǎng)基礎(chǔ)上,研究如何運用遷移學(xué)習技術(shù)實現(xiàn)行人重識別。主要工作如下:1.構(gòu)建了小規(guī)模行人重識別數(shù)據(jù)集。其中包含1613幅圖像,5647個標注的行人框,共572個身份。該數(shù)據(jù)集采用手持攝像頭通過輾轉(zhuǎn)多個場景收集得到,在圖像采集過程中盡可能多地包括視點、光照、分辨率、遮擋和背景的變化,以便反映實際應(yīng)用場景并增加場景多樣性,適用于本文對小規(guī)模數(shù)據(jù)集下行人重識別問題的研究。2.設(shè)計并實現(xiàn)了基于深度卷積網(wǎng)絡(luò)微調(diào)的行人重識別。在基于改進的深度卷積網(wǎng)絡(luò)ResNet50的基礎(chǔ)上采用雙步微調(diào)的遷移學(xué)習方法。該方法利用大規(guī)模重識別數(shù)據(jù)集對ImageNet...

【文章頁數(shù)】:62 頁

【學(xué)位級別】:碩士

【部分圖文】:

基于深度遷移學(xué)習的行人重識別技術(shù)研究與實現(xiàn)



大連交通大學(xué)全日制專業(yè)碩士學(xué)位論文???_?■??圖1.1行人重識別示意圖??Fig.?1.1?The?schematic?of?person?re-identification??行人重識別的前提是己經(jīng)得到行人樣本,這就涉及到監(jiān)控系統(tǒng)中另外一個重要的研??宄領(lǐng)域行人檢測(Ped....


基于深度遷移學(xué)習的行人重識別技術(shù)研究與實現(xiàn)



PM檢測器檢測得到的,并且提供了?2793個檢測錯誤的矩形框。??VIPeR數(shù)據(jù)集中有632個行人的1264張圖像,每個行人有兩張圖像,采集自攝像??頭a和攝像頭b。圖像尺寸為128x48,它還提供每個圖像的視點角度。雖然它已經(jīng)過許??多研宄人員的測試,但它仍然是最具挑戰(zhàn)性的數(shù)據(jù)....


基于深度遷移學(xué)習的行人重識別技術(shù)研究與實現(xiàn)



?大連交通大學(xué)全日制專業(yè)碩士學(xué)位論文???圖1.5?OURS?1數(shù)據(jù)集的行人示例??Fig.?1.5?The?pedestrian?examples?of?0URS1?dataset??1.5本文的主要工作及內(nèi)容安排??本文針對實際中只有少量用于行人重識別標簽數(shù)據(jù)的情況,在深度卷....


基于深度遷移學(xué)習的行人重識別技術(shù)研究與實現(xiàn)



?大連交通大學(xué)全日制專業(yè)碩士學(xué)位論文???空間就可以分別表示為Fj〇Fs。則任務(wù)可以表示為T?=?{A/G}。??有了上面領(lǐng)域和任務(wù)的定義,就可以對遷移學(xué)習進行形式化[29]。??遷移學(xué)習(Transfer?Learning):給定一個有標記的源,當出現(xiàn)一個??新的任務(wù)7;以及目....



本文編號:4009241

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/shengwushengchang/4009241.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶903c2***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com