中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

基于深度學(xué)習(xí)的實(shí)時(shí)姿態(tài)識(shí)別與人物動(dòng)畫生成

發(fā)布時(shí)間:2024-05-31 01:37
  對(duì)人體進(jìn)行姿態(tài)識(shí)別并在此基礎(chǔ)上實(shí)現(xiàn)人物動(dòng)畫生成,是計(jì)算機(jī)圖形學(xué)領(lǐng)域的重要研究?jī)?nèi)容,其首先以圖像作為輸入,提取其中的人體姿態(tài),并轉(zhuǎn)化為抽象的姿態(tài)數(shù)據(jù)結(jié)構(gòu),隨后以轉(zhuǎn)化得到的數(shù)據(jù)集為基礎(chǔ),在運(yùn)行時(shí)根據(jù)輸入產(chǎn)生需要的人物動(dòng)畫。在較低成本的設(shè)備上實(shí)現(xiàn)該目標(biāo)的傳統(tǒng)算法在精度上不盡人意,因此隨著深度學(xué)習(xí)技術(shù)的發(fā)展,越來越多的研究者開始嘗試使用深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)這一任務(wù),然而該任務(wù)依然面臨精確度和速度等方面的挑戰(zhàn)。本文以深度學(xué)習(xí)實(shí)現(xiàn)姿態(tài)識(shí)別和人物動(dòng)畫生成為研究課題,并著重研究了如何構(gòu)筑合理的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)以達(dá)成高性能、高準(zhǔn)確度的目標(biāo),并進(jìn)一步闡述了如何在對(duì)運(yùn)行速度要求較高的動(dòng)畫生成部分進(jìn)行特定性加速。本文的主要?jiǎng)?chuàng)新體現(xiàn)在針對(duì)2D和3D姿態(tài)提取任務(wù)設(shè)計(jì)的2個(gè)全新的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),以及對(duì)應(yīng)的面向GPU的加速方案。并通過和相關(guān)工作的比較,證實(shí)了本文所述設(shè)計(jì)的實(shí)際效果。本文的主要工作如下:1.基于深度卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的實(shí)時(shí)2D姿態(tài)識(shí)別系統(tǒng)。該系統(tǒng)能夠?qū)斎雸D像中的多人的姿態(tài)進(jìn)行識(shí)別,并輸出2D的標(biāo)記點(diǎn)。整個(gè)系統(tǒng)能夠在384的分辨率下在主流GPU上達(dá)到實(shí)時(shí)的運(yùn)行速度2.進(jìn)一步地,在2D姿態(tài)識(shí)別系統(tǒng)的設(shè)計(jì)思想基礎(chǔ)上,進(jìn)...

【文章頁數(shù)】:108 頁

【學(xué)位級(jí)別】:碩士

【部分圖文】:

圖2-3ReLU激活函數(shù)

圖2-3ReLU激活函數(shù)

第二章基礎(chǔ)理論和相關(guān)技術(shù)112.1.1.2神經(jīng)網(wǎng)絡(luò)模型的數(shù)學(xué)推導(dǎo)圖2-2兩種主流激活函數(shù)的形態(tài)圖對(duì)于每個(gè)輸入與對(duì)應(yīng)權(quán)重的乘積,就是上述中從其他神經(jīng)元傳來的神經(jīng)沖動(dòng),將他們求和,產(chǎn)生的結(jié)果如果超過閾值,即產(chǎn)生新的神經(jīng)沖動(dòng),在數(shù)學(xué)上用激活函數(shù)來實(shí)現(xiàn)這個(gè)功能,常用的激活函數(shù)有sigmo....


圖2-2兩種主流激活函數(shù)的形態(tài)圖

圖2-2兩種主流激活函數(shù)的形態(tài)圖

第二章基礎(chǔ)理論和相關(guān)技術(shù)112.1.1.2神經(jīng)網(wǎng)絡(luò)模型的數(shù)學(xué)推導(dǎo)圖2-2兩種主流激活函數(shù)的形態(tài)圖對(duì)于每個(gè)輸入與對(duì)應(yīng)權(quán)重的乘積,就是上述中從其他神經(jīng)元傳來的神經(jīng)沖動(dòng),將他們求和,產(chǎn)生的結(jié)果如果超過閾值,即產(chǎn)生新的神經(jīng)沖動(dòng),在數(shù)學(xué)上用激活函數(shù)來實(shí)現(xiàn)這個(gè)功能,常用的激活函數(shù)有sigmo....


圖2-4LeakyReLU激活函數(shù)

圖2-4LeakyReLU激活函數(shù)

電子科技大學(xué)碩士學(xué)位論文12ReLU做簡(jiǎn)單的介紹,并闡述采用該函數(shù)的理論依據(jù)。如上圖所示,線性整流函數(shù)ReLU(RectifiedLinearUnit),是深度學(xué)習(xí)領(lǐng)域最具代表性的激活函數(shù)之一,它具有加速網(wǎng)絡(luò)收斂,緩解梯度消失的作用。采用ReLU而不采用傳統(tǒng)的激活函數(shù)如Sigmo....


圖2-5AlexNet卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

圖2-5AlexNet卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

明是提高卷積神經(jīng)網(wǎng)絡(luò)精度,降低其復(fù)雜度的重要手段。2.1.3著名的深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)近年來,由于卷積神經(jīng)網(wǎng)絡(luò)帶來的巨大影響,各領(lǐng)域的研究者都對(duì)卷積神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)行了大量的精力投入,與之想對(duì)應(yīng)的是各種優(yōu)秀神經(jīng)網(wǎng)絡(luò)架構(gòu)的產(chǎn)生與大量使用。在吸取了一系列現(xiàn)有的優(yōu)秀神經(jīng)網(wǎng)絡(luò)架構(gòu)....



本文編號(hào):3984957

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/wenyilunwen/dongmansheji/3984957.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶9b5df***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com