基于深度學(xué)習(xí)的機器翻譯建模方法研究
發(fā)布時間:2024-06-02 05:54
近些年自然語言處理技術(shù)取得了長足的發(fā)展,機器翻譯技術(shù)也一直受到了研究者們廣泛的關(guān)注。神經(jīng)機器翻譯技術(shù)其翻譯模型簡單,可操作性強,不需要大量專家知識,成為了主流翻譯模型。但其仍面臨許多問題。一方面,由于依賴于神經(jīng)網(wǎng)絡(luò)在大規(guī)模語料庫上訓(xùn)練,所以模型訓(xùn)練的周期都特別長;另一方面,模型在翻譯效果上仍不如人意,會出現(xiàn)漏譯,誤譯等情況。神經(jīng)機器翻譯的兩個主要問題是訓(xùn)練周期長以及翻譯效果仍不理想。針對這兩個問題,在模型的編碼階段和解碼階段分別進行了改進,分別提出了基于衰減權(quán)重損失函數(shù)的模型以及基于組嵌入的自然語言處理模型:(1)提出一種基于衰減權(quán)重的損失函數(shù)模型幫助在解碼階段進行訓(xùn)練。傳統(tǒng)神經(jīng)機器翻譯的解碼過程中,通常是利用之前翻譯的詞作為解碼器的一部分輸入進行下一個詞的翻譯,所以序列開頭的詞對翻譯有更大的影響;谒p權(quán)重的損失函數(shù)會賦予越早出現(xiàn)的詞更大的權(quán)重進行訓(xùn)練,從而讓模型盡可能地翻譯對先出現(xiàn)的詞。在國際口語機器翻譯評測比賽(IWSLT)翻譯數(shù)據(jù)集上的德英機器翻譯實驗表明,使用了衰減權(quán)重損失函數(shù)的模型相比于傳統(tǒng)恒定權(quán)重損失函數(shù),翻譯的bleu score上面最多提升了 1.63%。(2)提出...
【文章頁數(shù)】:45 頁
【學(xué)位級別】:碩士
【部分圖文】:
本文編號:3986950
【文章頁數(shù)】:45 頁
【學(xué)位級別】:碩士
【部分圖文】:
圖1.1利用平行語料進行翻譯(1)基于實例的翻譯方法
1緒論料[4],包括公開資源軟件本地化的語料和文檔。AcquisCommunautaire語料是由歐盟成員國簽訂的法律文獻的集合,有超過20多種語言。基于語料庫的翻譯方式如圖1.1所示。按翻譯方法提出的先后次序,基于語料庫的機器翻譯方法又可以進一步劃分為基于實例的機器....
圖1.2基于詞的翻譯模型
西安科技大學(xué)碩士學(xué)位論文T'=TargmaxP(T)P(S|T)要解決三個問題:估計語言模型概率P(T);速的搜索算法來求解T’使得P(T)P(T|S)最要求目標(biāo)語言與源語言保持一致,估計語言模分為基于詞的翻譯模型(圖1.2),基于短語的模型。于20世紀80年....
圖1.3IBM模型1把詞作為最小的翻譯單元并不一定是最好的選擇
譯又可分為基于詞的翻譯模型(圖1.2),基于短語的翻譯的翻譯模型。型起源于20世紀80年代末到90年代初IBMCandide項性工作。雖然這一技術(shù)已經(jīng)跟不上最新的技術(shù)水平,但其適用。基于詞的翻譯模型的例子就是免費開源的工具包圖1.2基于詞的翻譯模型IB....
圖1.4基于短語的翻譯模型
圖1.4基于短語的翻譯模型樹的模型將句法假如到了機器翻譯之中。而且能可以與基于短語的模型相媲美,在某些情況圖1.5統(tǒng)計機器翻譯的發(fā)展過程的翻譯方法深度學(xué)習(xí)方法在特征表示和端到端建模方面具
本文編號:3986950
本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/3986950.html
最近更新
教材專著