基于神經(jīng)網(wǎng)絡(luò)實現(xiàn)光網(wǎng)絡(luò)OSNR估計及鏈路軟故障定位
【文章頁數(shù)】:65 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1MP神經(jīng)元模型
神經(jīng)網(wǎng)絡(luò)的提出是出于對生物神經(jīng)網(wǎng)絡(luò)的思考,模擬生物大腦的網(wǎng)絡(luò)處理方式。在生物神經(jīng)網(wǎng)絡(luò)中,每個神經(jīng)元之間互連,當(dāng)神經(jīng)元接收了外部的輸入,其神經(jīng)元電位處于較高電平時,神經(jīng)元會處于“興奮”狀態(tài),會向其他神經(jīng)元傳遞化學(xué)物質(zhì)。如圖2-1所示,一直沿用至今的“感知網(wǎng)絡(luò)(Multilayer....
圖2-2DNN基本結(jié)構(gòu)
圖2-1MP神經(jīng)元模型將多個神經(jīng)元按不同的層次結(jié)構(gòu)進行連接擴展,就產(chǎn)生了神經(jīng)網(wǎng)絡(luò)。如圖2-2,神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)為一個輸入層,一個輸出層,及大于等于一層的隱藏層,通常把大于三層隱藏層的神經(jīng)網(wǎng)絡(luò)稱為深度神經(jīng)網(wǎng)絡(luò)。假設(shè)輸入層有5個神經(jīng)元,隱藏層第一層有10個神經(jīng)元,則他們之間會產(chǎn)生50....
圖2-3四種激活函數(shù)
ReLu函數(shù)的全稱為RectifiedLinearUnits,ReLu是目前深層神經(jīng)網(wǎng)絡(luò)中經(jīng)常使用的激活函數(shù),是一個斜坡函數(shù),定義為:ReLu對于隨機梯度下降的收斂有巨大的加速作用,但當(dāng)x是小于0的時候,從此所有流過這個神經(jīng)元的梯度將都變成0,這個時候這個ReLu神經(jīng)元在訓(xùn)練....
圖2-4BP算法步驟
因此,得到神經(jīng)網(wǎng)絡(luò)的最后輸出后,再使用BP算法,通過迭代調(diào)整來更新權(quán)重值,進而優(yōu)化神經(jīng)網(wǎng)絡(luò)模型,最終實際結(jié)果與預(yù)測結(jié)果之間的誤差得以進一步減小。通常將交叉熵作為神經(jīng)網(wǎng)絡(luò)的損失函數(shù),用來衡量神經(jīng)網(wǎng)絡(luò)期望輸出向量Y與輸出向量?Y的距離。交叉熵產(chǎn)生于信息論里面的信息壓縮編碼技術(shù),但是它....
本文編號:3974756
本文鏈接:http://www.lk138.cn/kejilunwen/xinxigongchenglunwen/3974756.html