面向新聞?lì)I(lǐng)域的論元因果關(guān)系判斷
【文章頁(yè)數(shù)】:68 頁(yè)
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2-1例2-1的句法樹(shù)表示本文使用子樹(shù)提取算法獲取候選論元
哈爾濱工業(yè)大學(xué)碩士學(xué)位論文可以看出最大熵模型學(xué)習(xí)的主要是特征函數(shù)f(x,y)的權(quán)重。目標(biāo)函數(shù)是最大熵模型的似然函數(shù),可以通過(guò)最大似然估計(jì)參數(shù)。2.3.2基于句子成分的論元識(shí)別基于句子成分(Constitute-Based)的識(shí)別方法首先需用句法樹(shù)(parsetree....
圖2-2循環(huán)神經(jīng)網(wǎng)絡(luò)的神經(jīng)元示意圖
網(wǎng)絡(luò)RNN)接神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)或者卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)都是首先隱藏層,再將隱藏層得到的中間數(shù)據(jù)信息傳遞給輸全部連接要么是部分連接,但事每一層內(nèi)部的所有自然語(yǔ)言處理任務(wù)中存在一個(gè)比較常見(jiàn)的問(wèn)題:句子具有正確的詞語(yǔ)順序、合理的結(jié)構(gòu)、確定的語(yǔ)生變化就有可能破壞這種嚴(yán)謹(jǐn)?shù)暮侠泶_定的唯一語(yǔ)沒(méi)有辦法....
圖2-3LSTM記憶單元示意圖
泛的一種形式,LSTM比標(biāo)準(zhǔn)RNN在眾多的方面都單的循環(huán)神經(jīng)網(wǎng)絡(luò)雖然可以很好的處理短距離(卻無(wú)法較好處理長(zhǎng)距離(long-term)依賴(lài)關(guān)系。部分推移下多次乘法操作導(dǎo)致的梯度爆炸或者梯度消散絡(luò)能夠解決RNN存在的梯度消散問(wèn)題,它在反向進(jìn)行傳播,從而可以學(xué)習(xí)長(zhǎng)期依賴(lài)信息。....
圖 2-4 Tree-LSTM 模型結(jié)構(gòu)示意圖
[37](數(shù)量和孩子節(jié)點(diǎn)數(shù)相同),圖2-4是Tree-LSTM模型的結(jié)構(gòu)示意圖。圖2-4Tree-LSTM模型結(jié)構(gòu)示意圖本文中給出的是二叉樹(shù)結(jié)構(gòu),故有兩個(gè)遺忘門(mén)。在多數(shù)應(yīng)用中,可以把多叉樹(shù)表示轉(zhuǎn)化為二叉樹(shù)。下圖2-5是一個(gè)tree-LSTM記憶細(xì)胞圖:圖2....
本文編號(hào):4018731
本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/4018731.html