旅游領(lǐng)域?qū)傩猿槿》椒ǖ难芯?/H1>
發(fā)布時間:2024-02-25 22:44
隨著計算機(jī)應(yīng)用技術(shù)的發(fā)展與人工智能技術(shù)的興起,如何快速且高效的從日益劇增的互聯(lián)網(wǎng)數(shù)據(jù)中獲取有價值的數(shù)據(jù),是當(dāng)前自然語言處理領(lǐng)域的重要研究問題。屬性抽取(Attribute Extraction),即實體的屬性值抽取,是從非結(jié)構(gòu)化文本等數(shù)據(jù)源中自動抽取出實體的相關(guān)屬性值,是問答系統(tǒng)(Question Answer ing System,QA)、信息抽取(Information Extraction)、知識圖譜(Knowledge Gra ph,KG)等自然語言處理任務(wù)(Nature Language Process,NLP)的基礎(chǔ)。本文研究旅游領(lǐng)域的實體屬性抽取方法,以雙向長短時記憶網(wǎng)絡(luò)-條件隨機(jī)場(Bidirectional Long Short-term Memory-Conditional Random Fields,BLSTM-CRF)模型為基礎(chǔ),提出一種新的融合殘差卷積神經(jīng)網(wǎng)絡(luò)與自注意力機(jī)制的屬性抽取方法。過去有關(guān)屬性抽取的工作多是基于封閉世界假說(Closed World Assumption)的條件下,或是引入詞典,或是引入人工特征。但是這種方法只能發(fā)現(xiàn)已有的屬性,不能夠發(fā)...
【文章頁數(shù)】:64 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1本文方法原理框架圖Fig.1Frameworkoftheproposedmethod
.針對負(fù)例數(shù)據(jù)中存在可以作為正例數(shù)據(jù)的上下位關(guān)系文本,采用關(guān)鍵詞模式匹配,二次獲取負(fù)例數(shù)據(jù)中的正例數(shù)據(jù),使正例數(shù)據(jù)得到極大豐富.最后使用各個關(guān)系下的正例數(shù)據(jù)和少量負(fù)例數(shù)據(jù)組合成的訓(xùn)練語料,提取訓(xùn)練語料的詞性特征、依存關(guān)系特征和短語句法樹特征,使3種特征融合為一個語義信息更豐富的大....
圖2.2無監(jiān)督學(xué)習(xí)屬性抽取流程圖Figure2.2Flowchartofunsupervisedlearningattributeextraction
內(nèi)蒙古大學(xué)碩士學(xué)術(shù)論文9∑[1(+)]+||||2=1(2-3)2.2.2無監(jiān)督的屬性抽取在現(xiàn)實生活中,常常由于缺乏足夠的先驗知識,難以對樣本數(shù)據(jù)進(jìn)行人工標(biāo)注或進(jìn)行標(biāo)注所花費(fèi)的代價太高。為了解決這一類問題,研究人員提出了不需要標(biāo)記樣本的無監(jiān)督學(xué)習(xí)方法。當(dāng)前無監(jiān)督學(xué)習(xí)主要分為兩種,....
圖2.4LSTM結(jié)構(gòu)圖Figure2.4thearchitectureofLSTM
旅游領(lǐng)域?qū)傩猿槿》椒ǖ难芯?2并把它作為當(dāng)前時刻神經(jīng)元的輸入[24]。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,RNN隱藏層中的神經(jīng)元不是無連接的,而是有連接的。RNN通過基于時間的反向傳播算法(Back-propagationThroughTime,BPTT)反向傳播誤差,BPTT的基礎(chǔ)是反向傳播算....
圖3.1Skip-gram和CBOW結(jié)構(gòu)圖Figure3.1thearchitectureofSkip-gramandCBOWGlove是JeffreyPennington等人在2014年提出來的[31]
內(nèi)蒙古大學(xué)碩士學(xué)術(shù)論文15圖3.1Skip-gram和CBOW結(jié)構(gòu)圖Figure3.1thearchitectureofSkip-gramandCBOWGlove是JeffreyPennington等人在2014年提出來的[31]。當(dāng)時的詞嵌入主要分為兩種,一種是基于窗口的方法(....
本文編號:3910956
本文鏈接:http://www.lk138.cn/shoufeilunwen/xixikjs/3910956.html
【文章頁數(shù)】:64 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1本文方法原理框架圖Fig.1Frameworkoftheproposedmethod
.針對負(fù)例數(shù)據(jù)中存在可以作為正例數(shù)據(jù)的上下位關(guān)系文本,采用關(guān)鍵詞模式匹配,二次獲取負(fù)例數(shù)據(jù)中的正例數(shù)據(jù),使正例數(shù)據(jù)得到極大豐富.最后使用各個關(guān)系下的正例數(shù)據(jù)和少量負(fù)例數(shù)據(jù)組合成的訓(xùn)練語料,提取訓(xùn)練語料的詞性特征、依存關(guān)系特征和短語句法樹特征,使3種特征融合為一個語義信息更豐富的大....
圖2.2無監(jiān)督學(xué)習(xí)屬性抽取流程圖Figure2.2Flowchartofunsupervisedlearningattributeextraction
內(nèi)蒙古大學(xué)碩士學(xué)術(shù)論文9∑[1(+)]+||||2=1(2-3)2.2.2無監(jiān)督的屬性抽取在現(xiàn)實生活中,常常由于缺乏足夠的先驗知識,難以對樣本數(shù)據(jù)進(jìn)行人工標(biāo)注或進(jìn)行標(biāo)注所花費(fèi)的代價太高。為了解決這一類問題,研究人員提出了不需要標(biāo)記樣本的無監(jiān)督學(xué)習(xí)方法。當(dāng)前無監(jiān)督學(xué)習(xí)主要分為兩種,....
圖2.4LSTM結(jié)構(gòu)圖Figure2.4thearchitectureofLSTM
旅游領(lǐng)域?qū)傩猿槿》椒ǖ难芯?2并把它作為當(dāng)前時刻神經(jīng)元的輸入[24]。與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)相比,RNN隱藏層中的神經(jīng)元不是無連接的,而是有連接的。RNN通過基于時間的反向傳播算法(Back-propagationThroughTime,BPTT)反向傳播誤差,BPTT的基礎(chǔ)是反向傳播算....
圖3.1Skip-gram和CBOW結(jié)構(gòu)圖Figure3.1thearchitectureofSkip-gramandCBOWGlove是JeffreyPennington等人在2014年提出來的[31]
內(nèi)蒙古大學(xué)碩士學(xué)術(shù)論文15圖3.1Skip-gram和CBOW結(jié)構(gòu)圖Figure3.1thearchitectureofSkip-gramandCBOWGlove是JeffreyPennington等人在2014年提出來的[31]。當(dāng)時的詞嵌入主要分為兩種,一種是基于窗口的方法(....
本文編號:3910956
本文鏈接:http://www.lk138.cn/shoufeilunwen/xixikjs/3910956.html