基于深度學(xué)習(xí)的跨語言文本情感分類技術(shù)研究
【文章頁數(shù)】:66 頁
【學(xué)位級(jí)別】:碩士
【部分圖文】:
圖2.1支持向量與間隔
支持向量機(jī)的應(yīng)用很廣泛,應(yīng)用的領(lǐng)域不同,優(yōu)化的方法也不盡相同。根據(jù)實(shí)際所研究的內(nèi)容,將該方法與實(shí)際任務(wù)結(jié)合,許多學(xué)者還在不斷的進(jìn)行著相應(yīng)的探索[51][52]。2.2.2.2樸素貝葉斯
圖2.2 LSTM單元結(jié)構(gòu)
為了應(yīng)對(duì)這個(gè)問題,研究人員提出了許多解決辦法[66][67]。而長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)就是其中比較著名且應(yīng)用最廣泛的一種,長(zhǎng)短時(shí)記憶算法最早由Hochreiter于1997年提出[68]。LSTM通過增加門機(jī)制以及記憶單元,使得自循環(huán)的權(quán)重在訓(xùn)練期間不斷變化,從而有效地解決了上述問題。L....
圖3.1 Encoder-Decoder模型結(jié)構(gòu)圖
若給定源語句source=(x1,x2,...,xm),則編碼器Encoder會(huì)對(duì)源語句進(jìn)行編碼。然后,通過非線性變化轉(zhuǎn)化為中間語義表示C=F(x1,x2,...,xm)。解碼器Decoder根據(jù)源語句的中間語義表示C和之前已經(jīng)生成的歷史信息y1,y2,...yi-1生成i時(shí)刻要....
圖3.2加入Attention機(jī)制的Encoder-Decoder模型結(jié)構(gòu)圖
其中,表示輸入對(duì)輸出的概率,其代表的信息越重要,分配的權(quán)重相應(yīng)的也會(huì)越大。這種對(duì)輸入進(jìn)行選擇性的學(xué)習(xí)的做法,避免了大量繁復(fù)盲目的學(xué)習(xí),提高了模型的學(xué)習(xí)效率和準(zhǔn)確率。3.2.2跨語言文本特征提取網(wǎng)絡(luò)
本文編號(hào):4018653
本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/4018653.html