基于深度學習的實時姿態(tài)識別與人物動畫生成
【文章頁數(shù)】:108 頁
【學位級別】:碩士
【部分圖文】:
圖2-3ReLU激活函數(shù)
第二章基礎理論和相關技術112.1.1.2神經(jīng)網(wǎng)絡模型的數(shù)學推導圖2-2兩種主流激活函數(shù)的形態(tài)圖對于每個輸入與對應權重的乘積,就是上述中從其他神經(jīng)元傳來的神經(jīng)沖動,將他們求和,產(chǎn)生的結果如果超過閾值,即產(chǎn)生新的神經(jīng)沖動,在數(shù)學上用激活函數(shù)來實現(xiàn)這個功能,常用的激活函數(shù)有sigmo....
圖2-2兩種主流激活函數(shù)的形態(tài)圖
第二章基礎理論和相關技術112.1.1.2神經(jīng)網(wǎng)絡模型的數(shù)學推導圖2-2兩種主流激活函數(shù)的形態(tài)圖對于每個輸入與對應權重的乘積,就是上述中從其他神經(jīng)元傳來的神經(jīng)沖動,將他們求和,產(chǎn)生的結果如果超過閾值,即產(chǎn)生新的神經(jīng)沖動,在數(shù)學上用激活函數(shù)來實現(xiàn)這個功能,常用的激活函數(shù)有sigmo....
圖2-4LeakyReLU激活函數(shù)
電子科技大學碩士學位論文12ReLU做簡單的介紹,并闡述采用該函數(shù)的理論依據(jù)。如上圖所示,線性整流函數(shù)ReLU(RectifiedLinearUnit),是深度學習領域最具代表性的激活函數(shù)之一,它具有加速網(wǎng)絡收斂,緩解梯度消失的作用。采用ReLU而不采用傳統(tǒng)的激活函數(shù)如Sigmo....
圖2-5AlexNet卷積神經(jīng)網(wǎng)絡的結構
明是提高卷積神經(jīng)網(wǎng)絡精度,降低其復雜度的重要手段。2.1.3著名的深度卷積神經(jīng)網(wǎng)絡結構近年來,由于卷積神經(jīng)網(wǎng)絡帶來的巨大影響,各領域的研究者都對卷積神經(jīng)網(wǎng)絡的發(fā)展進行了大量的精力投入,與之想對應的是各種優(yōu)秀神經(jīng)網(wǎng)絡架構的產(chǎn)生與大量使用。在吸取了一系列現(xiàn)有的優(yōu)秀神經(jīng)網(wǎng)絡架構....
本文編號:3984957
本文鏈接:http://lk138.cn/wenyilunwen/dongmansheji/3984957.html