中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當前位置:主頁 > 科技論文 > 路橋論文 >

視頻序列中車輛的分類及行為分析研究

發(fā)布時間:2020-12-10 13:01
  隨著國家交通網(wǎng)絡(luò)的日趨完善,交通工程的信息化和智能化已經(jīng)成為當今發(fā)展的主流,而車輛的分類以及車輛的行為識別作為其中的關(guān)鍵技術(shù),在工業(yè)領(lǐng)域和學(xué)術(shù)領(lǐng)域同樣受到了廣泛關(guān)注。在車輛分類的過程中,車輛之間的相互遮擋和天氣條件等因素影響著其結(jié)果的準確性和穩(wěn)定性;在對車輛進行行為分析時,其結(jié)果的魯棒性和準確性往往取決于視頻源拍攝的角度與質(zhì)量,這些都對車輛的分類及其行為識別技術(shù)提出了更高的要求。因此本文分別對車輛的分類算法和車輛的行為識別算法進行了研究,主要貢獻如下:針對視頻序列中車輛的分類問題,本文提出一種基于改進YOLOv3網(wǎng)絡(luò)的車輛分類方法。在YOLOv3目標檢測網(wǎng)絡(luò)的基礎(chǔ)上,借鑒密集連接卷積網(wǎng)絡(luò)的設(shè)計思想,將原網(wǎng)絡(luò)中的殘差層替換為密集卷積模塊,并對網(wǎng)絡(luò)的設(shè)計結(jié)構(gòu)以及網(wǎng)絡(luò)的特征最小分辨尺度進行調(diào)整與改進,參照金字塔網(wǎng)絡(luò)模型對車輛特征進行多尺度的預(yù)測。利用Softmax函數(shù)作為分類器,將卷積層與對應(yīng)尺度密集卷積模塊融合的車輛特征進行分類,基于錨點框機制標注車輛的邊界框。根據(jù)單幀圖像的分類結(jié)果,設(shè)計目標匹配跟蹤函數(shù)對視頻序列中的車輛進行持續(xù)穩(wěn)定的檢測。針對視頻序列中車輛的行為分析問題,提出一種基于車... 

【文章來源】:長春理工大學(xué)吉林省

【文章頁數(shù)】:81 頁

【學(xué)位級別】:碩士

【部分圖文】:

162)權(quán)值共享權(quán)值共享也稱作參數(shù)共享,通常卷積核能夠提取圖像中的紋理、顏色等特征,增加卷積核的個數(shù)可以實現(xiàn)對圖像中多種特征的提取,權(quán)值共享通過將各個卷積核的參數(shù)進行確定,以實現(xiàn)改變卷積核的個數(shù)和尺寸達到調(diào)節(jié)卷積神經(jīng)網(wǎng)絡(luò)參數(shù)的目的,加快網(wǎng)絡(luò)的訓(xùn)練速度。如圖2.12所示,若第m+1層的每個神經(jīng)元節(jié)點與第m層的部分神經(jīng)元節(jié)點相連接,而在此基礎(chǔ)上通過權(quán)值共享的方式進行處理,能夠進一步降低權(quán)值參數(shù)的數(shù)量。W1W1W1W1W2W2W2W2W3W3W3W3第m層第m+1層W1W3W2圖2.12權(quán)值共享示意圖3)多特征圖多特征圖也稱作多卷積核,利用線性卷積核在圖像區(qū)域中進行卷積運算并增加偏置頂,最后將所得結(jié)果與非線性函數(shù)映射得到特征圖,多特征圖可以對原圖像的不同特征進行刻畫。通常利用一個卷積核與圖像進行卷積操作可以獲得圖像的一個特征響應(yīng),利用多個卷積核與圖像進行卷積運算可以得到多個特征響應(yīng),其具體計算過程如圖2.13所示。對于第m層特征圖1w中像素點(i,j)位置的響應(yīng)數(shù)值,需要利用第m-1層4個特征圖在像素點(i,j)的數(shù)值與4個卷積核進行卷積操作相加獲取,對于第m層特征圖w2的計算方式操作同特征圖1w。圖2.13多特征圖計算示意圖2.3.3基于區(qū)域的目標檢測模型基于區(qū)域的目標檢測模型為兩階段目標檢測方法,即把目標檢測的過程分為生成候選框和識別框內(nèi)物體兩個部分,本節(jié)對經(jīng)典的兩階段目標檢測方法的檢測原理進行概述。1)R-CNNR-CNN算法[49]最先實現(xiàn)了將深度學(xué)習(xí)應(yīng)用到目標檢測領(lǐng)域,為卷積神經(jīng)網(wǎng)絡(luò)在

流程圖,算法,流程圖,區(qū)域


ㄖ械幕??翱諶哂轡侍狻?通過R-CNN算法實現(xiàn)目標檢測的具體過程如圖2.14所示,首先,通過選擇性搜索算法從原始的圖像中搜索并提取候選區(qū)域判定框;然后,針對需要處理的候選區(qū)域判定框,在縮放成固定維度的特征矩陣的基礎(chǔ)上再輸入到CNN網(wǎng)絡(luò)中,并通過支持向量機SVM算法實現(xiàn)對判定框獲得的CNN特征的分類;最后,根據(jù)候選區(qū)域的得分結(jié)果判斷原始圖像中目標的所屬類別,并利用邊界回歸的思想對目標的位置進行計算。由于需要對每個候選區(qū)域框進行特征提取與分類,因此通過R-CNN算法實現(xiàn)目標檢測的過程計算量大、檢測速度慢。圖2.14R-CNN算法流程圖2)FastR-CNNFastR-CNN算法[50]可以視為R-CNN算法的進階版,其在R-CNN網(wǎng)絡(luò)的基礎(chǔ)上參考了SPPNet網(wǎng)絡(luò)[51]的設(shè)計思想,引入ROI池化層的概念,同時在FastR-CNN算法中將邊框回歸預(yù)測與目標分類兩個任務(wù)進行歸一化處理,并一起加入到CNN網(wǎng)絡(luò)中進行訓(xùn)練。FastR-CNN實現(xiàn)目標檢測的原理如圖2.15所示。具體地,將原始圖像和經(jīng)過處理的候選區(qū)域判定窗口輸入到FastR-CNN網(wǎng)絡(luò)中,即完成對原始圖像的信息整合工作;然后,將候選區(qū)域判定窗口映射到CNN網(wǎng)絡(luò)的卷積特征圖上,并通過ROI池化層降采樣為固定尺寸傳遞至全連接層中;最后,采用并行連接的方式通過Softmax分類層輸出目標類別,結(jié)合回歸層的輸出結(jié)果獲取目標的位置信息。FastR-CNN由于省略特征的保存過程,因此節(jié)省了大量的存儲空間,在一定程度上提高了檢測的速度。但候選區(qū)域窗口的獲取依然為一個獨立的過程,并且該過程占據(jù)了整個檢測步驟的大量時間,仍然存在速度瓶頸的現(xiàn)象。圖2.15FastR-CNN算法流程圖

【參考文獻】:
期刊論文
[1]基于車道信息融合的車輛行為識別[J]. 宋士奇,樸燕,王健.  液晶與顯示. 2020(01)
[2]基于改進YOLOv3的復(fù)雜場景車輛分類與跟蹤[J]. 宋士奇,樸燕,蔣澤新.  山東大學(xué)學(xué)報(工學(xué)版). 2020(02)
[3]網(wǎng)聯(lián)共享車路協(xié)同智能交通系統(tǒng)綜述[J]. 郭戈,許陽光,徐濤,李丹丹,王云鵬,袁威.  控制與決策. 2019(11)
[4]基于長短期記憶的車輛行為動態(tài)識別網(wǎng)絡(luò)[J]. 衛(wèi)星,樂越,韓江洪,陸陽.  計算機應(yīng)用. 2019(07)
[5]智能交通信息物理融合云控制系統(tǒng)[J]. 夏元清,閆策,王笑京,宋向輝.  自動化學(xué)報. 2019(01)
[6]基于感興趣區(qū)域模型的車道線快速檢測算法[J]. 錢基德,陳斌,錢基業(yè),陳剛.  電子科技大學(xué)學(xué)報. 2018(03)
[7]基于混合貝塞爾曲線模型的車道檢測算法[J]. 韓浩,王舜燕.  計算機工程與設(shè)計. 2018(03)
[8]基于協(xié)同表示的聲振傳感器網(wǎng)絡(luò)車輛分類識別[J]. 王瑞,劉賓,周天潤,楊羽.  上海交通大學(xué)學(xué)報. 2018(01)
[9]基于Fg-CarNet的車輛型號精細分類研究[J]. 余燁,金強,傅云翔,路強.  自動化學(xué)報. 2018(10)
[10]基于Haar-like和MB-LBP特征分區(qū)域多分類器車輛檢測[J]. 朱彬,王少平,梁華為,袁勝,楊靜,黃俊杰.  模式識別與人工智能. 2017(06)

博士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像分類方法研究及應(yīng)用[D]. 高震宇.中國科學(xué)技術(shù)大學(xué) 2018
[2]復(fù)雜交通視頻場景中的車輛軌跡提取及行為分析[D]. 盧勝男.長安大學(xué) 2016

碩士論文
[1]基于深度卷積神經(jīng)網(wǎng)絡(luò)的目標檢測算法研究[D]. 周天怡.哈爾濱工業(yè)大學(xué) 2019
[2]基于深度卷積神經(jīng)網(wǎng)絡(luò)和圖像傳感器的道路多目標檢測研究[D]. 謝一德.北京交通大學(xué) 2018
[3]基于深度學(xué)習(xí)的目標檢測算法研究[D]. 李明攀.浙江大學(xué) 2018
[4]基于深度學(xué)習(xí)的交通視頻檢測及車型分類研究[D]. 楚翔宇.哈爾濱工業(yè)大學(xué) 2017



本文編號:2908739

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/daoluqiaoliang/2908739.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3e1f2***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com