面向新聞領(lǐng)域的論元因果關(guān)系判斷
【文章頁數(shù)】:68 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖2-1例2-1的句法樹表示本文使用子樹提取算法獲取候選論元
哈爾濱工業(yè)大學(xué)碩士學(xué)位論文可以看出最大熵模型學(xué)習(xí)的主要是特征函數(shù)f(x,y)的權(quán)重。目標(biāo)函數(shù)是最大熵模型的似然函數(shù),可以通過最大似然估計參數(shù)。2.3.2基于句子成分的論元識別基于句子成分(Constitute-Based)的識別方法首先需用句法樹(parsetree....
圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)的神經(jīng)元示意圖
網(wǎng)絡(luò)RNN)接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)或者卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)都是首先隱藏層,再將隱藏層得到的中間數(shù)據(jù)信息傳遞給輸全部連接要么是部分連接,但事每一層內(nèi)部的所有自然語言處理任務(wù)中存在一個比較常見的問題:句子具有正確的詞語順序、合理的結(jié)構(gòu)、確定的語生變化就有可能破壞這種嚴(yán)謹(jǐn)?shù)暮侠泶_定的唯一語沒有辦法....
圖2-3LSTM記憶單元示意圖
泛的一種形式,LSTM比標(biāo)準(zhǔn)RNN在眾多的方面都單的循環(huán)神經(jīng)網(wǎng)絡(luò)雖然可以很好的處理短距離(卻無法較好處理長距離(long-term)依賴關(guān)系。部分推移下多次乘法操作導(dǎo)致的梯度爆炸或者梯度消散絡(luò)能夠解決RNN存在的梯度消散問題,它在反向進(jìn)行傳播,從而可以學(xué)習(xí)長期依賴信息。....
圖 2-4 Tree-LSTM 模型結(jié)構(gòu)示意圖
[37](數(shù)量和孩子節(jié)點數(shù)相同),圖2-4是Tree-LSTM模型的結(jié)構(gòu)示意圖。圖2-4Tree-LSTM模型結(jié)構(gòu)示意圖本文中給出的是二叉樹結(jié)構(gòu),故有兩個遺忘門。在多數(shù)應(yīng)用中,可以把多叉樹表示轉(zhuǎn)化為二叉樹。下圖2-5是一個tree-LSTM記憶細(xì)胞圖:圖2....
本文編號:4018731
本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/4018731.html