中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁 > 科技論文 > 計算機應(yīng)用論文 >

基于深度學(xué)習(xí)的英文關(guān)系體抽取

發(fā)布時間:2024-06-13 23:51
  關(guān)系體抽取,即實體關(guān)系抽取,常用于問答系統(tǒng)和知識圖譜構(gòu)建等應(yīng)用,是信息抽取領(lǐng)域中基礎(chǔ)且重要的環(huán)節(jié)。本文主要講述了結(jié)合ResNet、RNN以及Attention機制去完成關(guān)系體抽取任務(wù)。就目前而言,很多有效的實驗普遍僅使用CNN作為encoder,經(jīng)過多層卷積操作后,對池化的結(jié)果進行softmax分類。而本文使用RNN,并結(jié)合Attention機制對最后的結(jié)果做分類。在這個任務(wù)上很少有人將兩者結(jié)合起來去做關(guān)系體抽取任務(wù)。本文模型用RNN結(jié)合Attention對卷積后的結(jié)果進行處理,而不是使用卷積神經(jīng)網(wǎng)絡(luò)的最大池化。此模型提高了使用深層CNN在遠程監(jiān)督的關(guān)系體抽取任務(wù)上的表現(xiàn)。有論文指出在完全監(jiān)督的數(shù)據(jù)集Sem Eval-task8上使用RNN接卷積操作是有效果的,而在遠程監(jiān)督的數(shù)據(jù)集上受大量噪聲影響,模型的效果并不盡人意。在本文實驗中,結(jié)合ResNet殘差塊的特性,將殘差塊和RNN以及A ttention機制同時用于遠程監(jiān)督的關(guān)系體抽取當(dāng)中去。最終,在NYT-Freebase數(shù)據(jù)集上獲得的表現(xiàn)比使用單一模型ResNet的更要好。本文主要的貢獻如下:(1)在弱監(jiān)督關(guān)系體抽取考慮使用復(fù)合模型...

【文章頁數(shù)】:78 頁

【學(xué)位級別】:碩士

【部分圖文】:

圖1.1論文組織結(jié)構(gòu)

圖1.1論文組織結(jié)構(gòu)


圖2.1錨定Fig2.1Anchored

圖2.1錨定Fig2.1Anchored


圖3.1神經(jīng)網(wǎng)絡(luò)Fig3.1ArtificialNeuralNetwork

圖3.1神經(jīng)網(wǎng)絡(luò)Fig3.1ArtificialNeuralNetwork

Fig3.1ArtificialNeuralNetwork,人工神經(jīng)元之間的連接處的信號是實數(shù),線性函數(shù)來計算。人工神經(jīng)元之間的聯(lián)系稱些權(quán)重在學(xué)習(xí)過程中做調(diào)整。權(quán)重的改變意有閾值,當(dāng)聚合信號超過該閾值時才發(fā)送信對輸入執(zhí)行著不同的操作。信號在多次遍歷輸出層),即前向傳播,如....


圖3.2前向傳播Fig3.2Forwardpropagation

圖3.2前向傳播Fig3.2Forwardpropagation

圖3.1神經(jīng)網(wǎng)絡(luò)Fig3.1ArtificialNeuralNetwork現(xiàn)中,人工神經(jīng)元之間的連接處的信號是實數(shù),并且的非線性函數(shù)來計算。人工神經(jīng)元之間的聯(lián)系稱為“邊,這些權(quán)重在學(xué)習(xí)過程中做調(diào)整。權(quán)重的改變意味著元具有閾值,當(dāng)聚合信號超過該閾值時才發(fā)送信號。的層對....



本文編號:3993833

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/shengwushengchang/3993833.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶2279f***提供,本站僅收錄摘要或目錄,作者需要刪除請E-mail郵箱bigeng88@qq.com