中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁(yè) > 科技論文 > 自動(dòng)化論文 >

基于生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)方法的研究

發(fā)布時(shí)間:2020-04-05 20:47
【摘要】:語(yǔ)音增強(qiáng)的目的是消除語(yǔ)音信號(hào)中的背景噪聲與環(huán)境干擾,來(lái)改善提高污染語(yǔ)音的質(zhì)量,盡最大可能提取出純凈的沒(méi)有被污染的語(yǔ)音,多運(yùn)用在語(yǔ)音識(shí)別系統(tǒng)、通信系統(tǒng)中,有非常重要的作用。但是由于環(huán)境的多樣化,噪聲的不穩(wěn)定性和隨機(jī)性,并且基本不可能得到所有樣本數(shù)據(jù),在實(shí)際應(yīng)用中,這些方法很難取得較好的效果。另外,傳統(tǒng)的增強(qiáng)方法會(huì)對(duì)語(yǔ)音信號(hào)進(jìn)行一些分布性的假設(shè),不準(zhǔn)確的假設(shè)會(huì)使增強(qiáng)后的語(yǔ)音與純凈語(yǔ)音信號(hào)差別比較大,語(yǔ)音的失真度相對(duì)比較高,結(jié)果就導(dǎo)致語(yǔ)音的可懂度不高,質(zhì)量下降。針對(duì)這些問(wèn)題,本文研究基于生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)方法。生成對(duì)抗網(wǎng)絡(luò)屬于生成式模型,采用零和博弈的思想讓生成器和判別器進(jìn)行對(duì)抗訓(xùn)練。它的生成器不需要對(duì)數(shù)據(jù)的分布做任何假設(shè),最大的優(yōu)勢(shì)在于能夠?qū)W習(xí)任何分布下的真實(shí)數(shù)據(jù),并生成相似分布的數(shù)據(jù)。此外,生成對(duì)抗網(wǎng)絡(luò)多采用神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搭建,不僅可以提高模型的泛化能力,還可以加速網(wǎng)絡(luò)的對(duì)抗訓(xùn)練速度,具有非常大的優(yōu)勢(shì)。本文的主要工作包括以下兩個(gè)方面:(1)生成對(duì)抗網(wǎng)絡(luò)損失函數(shù)的選擇和網(wǎng)絡(luò)模型的性能緊密相關(guān)。通過(guò)分析原始生成對(duì)抗網(wǎng)絡(luò)的損失函數(shù)在模型訓(xùn)練過(guò)程中面臨的問(wèn)題,選擇最小二乘損失函數(shù)。針對(duì)利用生成器重構(gòu)出的語(yǔ)音信號(hào)質(zhì)量不高的問(wèn)題,改進(jìn)了最小二乘損失函數(shù)。在生成器的損失函數(shù)中引入L1范數(shù),并用超參數(shù)ρ來(lái)控制L1正則化影響的權(quán)重系數(shù),并通過(guò)實(shí)驗(yàn)得出最優(yōu)值。針對(duì)語(yǔ)音信號(hào)的特點(diǎn),在改進(jìn)的基礎(chǔ)上搭建了基于語(yǔ)音增強(qiáng)的判別器和生成器的網(wǎng)絡(luò)結(jié)構(gòu),訓(xùn)練并測(cè)試模型的性能。通過(guò)與傳統(tǒng)的語(yǔ)音增強(qiáng)算法進(jìn)行比較,得出基于生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)效果好于傳統(tǒng)的語(yǔ)音增強(qiáng)算法。(2)本文在深度卷積生成對(duì)抗網(wǎng)絡(luò)的基礎(chǔ)上,針對(duì)模型在訓(xùn)練過(guò)程中收斂速度慢、梯度消失等問(wèn)題,對(duì)生成器和判別器的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行改進(jìn);跅l件生成對(duì)抗網(wǎng)絡(luò),將判別器抽取的高維抽象特征作為生成器的條件信息,與高斯噪聲一同輸入到生成器,構(gòu)建條件生成對(duì)抗網(wǎng)絡(luò)模型。最后通過(guò)跟改進(jìn)前的基于生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)算法進(jìn)行對(duì)比分析,發(fā)現(xiàn)生成對(duì)抗網(wǎng)絡(luò)能夠獲得更好的增強(qiáng)效果,增強(qiáng)后的語(yǔ)音質(zhì)量得到了提升,也增加了算法的穩(wěn)定性和泛化能力。
【圖文】:

函數(shù)對(duì),函數(shù),梯度,最小二乘函數(shù)


圖4.1 Sigmod 函數(shù)和 Least Square 函數(shù)對(duì)比圖發(fā)現(xiàn),,sigmod 函數(shù)僅在 0 中心左右的區(qū)間上有梯度幾乎不變化。而最小二乘函數(shù)的梯度只有在取有足夠的梯度,因此,最小二乘損失函數(shù)在 GAN 度會(huì)更加快。

損失函數(shù),交叉熵,判別器


數(shù)會(huì)將這些樣本拉向決策邊界,如圖 4.3 所示,可以更好的利用模型樣本對(duì)模型進(jìn)行訓(xùn)練,收斂速度快,且不會(huì)出現(xiàn)梯度消失的問(wèn)題。圖4.2 交叉熵?fù)p失函數(shù)圖4.3 最小二乘損失函數(shù)基于這一觀察,我們選擇最小二乘生成對(duì)抗網(wǎng)絡(luò)(LSGAN)。判別器的損失函數(shù)如式(4-7)所示,生成器的損失函數(shù)如式(4-8)所示。( )( )( ( ))( )( ( ))2 2~ ~1 1min2 2data zLSGAN x P x z P zDV D E D xb E D G z a = + (4-7)( )( )( ( ))2~1min2zLSGAN z P zGV G E D G z c = (4-8)上式中,通過(guò)最小化判別器的損失函數(shù),使真實(shí)數(shù)據(jù)被編碼為 a,生成數(shù)據(jù)被編碼為 b。通過(guò)最小化生成器的損失函數(shù),使得到生成的數(shù)據(jù)能夠混淆判別器,同時(shí)被
【學(xué)位授予單位】:西安電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2019
【分類號(hào)】:TN912.35;TP183

【相似文獻(xiàn)】

相關(guān)期刊論文 前10條

1 劉鵬;;基于深度學(xué)習(xí)的語(yǔ)音增強(qiáng)方法研究[J];智能計(jì)算機(jī)與應(yīng)用;2019年05期

2 石玲;;基于計(jì)算機(jī)聲卡的譜相減語(yǔ)音增強(qiáng)系統(tǒng)分析[J];信息與電腦(理論版);2010年02期

3 孫濤;;基于計(jì)算機(jī)聲卡的譜相減語(yǔ)音增強(qiáng)系統(tǒng)分析[J];南昌教育學(xué)院學(xué)報(bào);2010年05期

4 張曉雷;;基于深度學(xué)習(xí)的語(yǔ)音增強(qiáng)簡(jiǎn)述[J];網(wǎng)絡(luò)新媒體技術(shù);2019年02期

5 李璐君;屈丹;;一種基于組合深層模型的語(yǔ)音增強(qiáng)方法[J];信息工程大學(xué)學(xué)報(bào);2018年04期

6 袁文浩;婁迎曦;梁春燕;夏斌;;利用生成噪聲提高語(yǔ)音增強(qiáng)方法的泛化能力[J];電子學(xué)報(bào);2019年04期

7 陰法明;唐於烽;;基于深度置信網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)算法[J];電子器件;2018年05期

8 余華;唐於烽;趙力;;基于改進(jìn)深度置信網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)算法[J];數(shù)據(jù)采集與處理;2018年05期

9 薛慧君;李盛;路國(guó)華;張楊;焦騰;王健琪;荊西京;;提升小波用于非接觸語(yǔ)音增強(qiáng)算法的研究[J];醫(yī)療衛(wèi)生裝備;2013年05期

10 胡海波;劉柏森;許銀;;基于小波變換的語(yǔ)音增強(qiáng)研究[J];黑龍江工程學(xué)院學(xué)報(bào)(自然科學(xué)版);2011年01期

相關(guān)會(huì)議論文 前10條

1 王世偉;胡笑滸;鄭成詩(shī);李曉東;;一種改進(jìn)的基于能量差語(yǔ)音增強(qiáng)算法[A];中國(guó)聲學(xué)學(xué)會(huì)第九屆青年學(xué)術(shù)會(huì)議論文集[C];2011年

2 江峰;李曉東;;適用于抑制非平穩(wěn)背景噪聲的語(yǔ)音增強(qiáng)算法[A];中國(guó)聲學(xué)學(xué)會(huì)2003年青年學(xué)術(shù)會(huì)議[CYCA'03]論文集[C];2003年

3 閻兆立;杜利民;;維納后濾波語(yǔ)音增強(qiáng)算法研究[A];中國(guó)聲學(xué)學(xué)會(huì)2005年青年學(xué)術(shù)會(huì)議[CYCA'05]論文集[C];2005年

4 童峰;許肖梅;洪青陽(yáng);;一種帶階數(shù)估計(jì)的語(yǔ)音增強(qiáng)算法[A];第八屆全國(guó)人機(jī)語(yǔ)音通訊學(xué)術(shù)會(huì)議論文集[C];2005年

5 袁榕嶸;吳鳴;楊軍;;雙麥克風(fēng)語(yǔ)音增強(qiáng)快速算法[A];泛在信息社會(huì)中的聲學(xué)——中國(guó)聲學(xué)學(xué)會(huì)2010年全國(guó)會(huì)員代表大會(huì)暨學(xué)術(shù)會(huì)議論文集[C];2010年

6 國(guó)雁萌;;一種極低信噪比條件下的語(yǔ)音增強(qiáng)方法[A];第六屆全國(guó)人機(jī)語(yǔ)音通訊學(xué)術(shù)會(huì)議論文集[C];2001年

7 李海峰;韓紀(jì)慶;鄭鐵然;;元音、輔音粗判自適應(yīng)電話語(yǔ)音增強(qiáng)方法[A];第七屆全國(guó)人機(jī)語(yǔ)音通訊學(xué)術(shù)會(huì)議(NCMMSC7)論文集[C];2003年

8 高登峰;楊波;郭東岳;;基于深度神經(jīng)網(wǎng)絡(luò)的地空通話語(yǔ)音增強(qiáng)方法[A];第一屆空中交通管理系統(tǒng)技術(shù)學(xué)術(shù)年會(huì)論文集[C];2018年

9 樓廈廈;鄭成詩(shī);李曉東;;濾波器權(quán)值約束對(duì)自適應(yīng)零限波束形成語(yǔ)音增強(qiáng)算法魯棒性影響分析[A];中國(guó)聲學(xué)學(xué)會(huì)2007年青年學(xué)術(shù)會(huì)議論文集(上)[C];2007年

10 任玉寶;;基于聯(lián)合字典學(xué)習(xí)的語(yǔ)音增強(qiáng)算法[A];中國(guó)聲學(xué)學(xué)會(huì)水聲學(xué)分會(huì)2019年學(xué)術(shù)會(huì)議論文集[C];2019年

相關(guān)重要報(bào)紙文章 前3條

1 ;NMS Sonata Ⅲ/Studio Sound級(jí)語(yǔ)音增強(qiáng)系統(tǒng)話音更清晰[N];中國(guó)計(jì)算機(jī)報(bào);2003年

2 本報(bào)記者 馬楠;NMS市場(chǎng)目標(biāo)轉(zhuǎn)向無(wú)線服務(wù)提供商[N];通信產(chǎn)業(yè)報(bào);2001年

3 ;VoIP服務(wù)不只是便宜的通話[N];網(wǎng)絡(luò)世界;2002年

相關(guān)博士學(xué)位論文 前10條

1 江文斌;面向復(fù)雜場(chǎng)景的極低碼率語(yǔ)音編解碼和語(yǔ)音增強(qiáng)關(guān)鍵技術(shù)研究[D];上海交通大學(xué);2018年

2 高天;復(fù)雜環(huán)境下基于深度學(xué)習(xí)的語(yǔ)音信號(hào)預(yù)處理方法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2018年

3 童仁杰;基于信號(hào)稀疏特性的語(yǔ)音增強(qiáng)算法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2018年

4 王青;基于深層神經(jīng)網(wǎng)絡(luò)的多目標(biāo)學(xué)習(xí)和融合的語(yǔ)音增強(qiáng)研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2018年

5 王冬霞;麥克風(fēng)陣列語(yǔ)音增強(qiáng)的若干方法研究[D];大連理工大學(xué);2007年

6 歐世峰;變換域語(yǔ)音增強(qiáng)算法的研究[D];吉林大學(xué);2008年

7 孫琦;基于子空間的低計(jì)算復(fù)雜度語(yǔ)音增強(qiáng)算法研究[D];吉林大學(xué);2017年

8 夏丙寅;面向移動(dòng)通信的單通道語(yǔ)音增強(qiáng)方法研究[D];北京工業(yè)大學(xué);2014年

9 姚峰英;語(yǔ)音增強(qiáng)系統(tǒng)的研究與實(shí)現(xiàn)[D];中國(guó)科學(xué)院上海冶金研究所;2001年

10 張龍;有監(jiān)督學(xué)習(xí)條件下的單通道語(yǔ)音增強(qiáng)算法研究[D];中國(guó)科學(xué)技術(shù)大學(xué);2017年

相關(guān)碩士學(xué)位論文 前10條

1 李nQ;單聲道語(yǔ)音增強(qiáng)關(guān)鍵技術(shù)研究[D];重慶郵電大學(xué);2019年

2 吳曉華;基于聽覺(jué)感知加權(quán)的時(shí)域語(yǔ)音增強(qiáng)算法研究[D];南京航空航天大學(xué);2019年

3 Guernaz Zineddine;電話和語(yǔ)音識(shí)別系統(tǒng)的語(yǔ)音增強(qiáng)[D];哈爾濱工業(yè)大學(xué);2019年

4 葉富強(qiáng);基于主觀聽覺(jué)反饋的機(jī)器學(xué)習(xí)語(yǔ)音增強(qiáng)模型優(yōu)化研究[D];哈爾濱工業(yè)大學(xué);2019年

5 余國(guó)修;麥克風(fēng)陣列語(yǔ)音增強(qiáng)算法研究[D];西安電子科技大學(xué);2019年

6 張鶴鳴;基于深度學(xué)習(xí)的語(yǔ)音增強(qiáng)方法研究[D];大連理工大學(xué);2019年

7 孫桂琪;基于相空間重構(gòu)的語(yǔ)音增強(qiáng)方法研究[D];青島大學(xué);2019年

8 吳衛(wèi)鵬;基于改進(jìn)譜減的語(yǔ)音增強(qiáng)算法研究[D];南京郵電大學(xué);2019年

9 張文瑞;基于生成對(duì)抗網(wǎng)絡(luò)的語(yǔ)音增強(qiáng)方法的研究[D];西安電子科技大學(xué);2019年

10 霍陸陸;基于自適應(yīng)噪聲相消的語(yǔ)音增強(qiáng)系統(tǒng)研究[D];西安電子科技大學(xué);2019年



本文編號(hào):2615512

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/zidonghuakongzhilunwen/2615512.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶3c77e***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com