中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

當(dāng)前位置:主頁 > 科技論文 > 信息工程論文 >

低信噪比下QPSK信號(hào)的解調(diào)技術(shù)研究

發(fā)布時(shí)間:2021-03-11 18:27
  深空信道是一種典型功率受限信道,其頻帶利用率高,但是由于傳輸環(huán)境特殊性,較大的傳輸距離和時(shí)延導(dǎo)致信道的信噪比極低。除此之外,偵察通信中,由于傳輸距離較遠(yuǎn)也導(dǎo)致信道信噪比較低。如何將低信噪比條件下的信號(hào)準(zhǔn)確的恢復(fù)出來是現(xiàn)在急需研究的難點(diǎn)。針對(duì)這些問題,在閱讀了大量文獻(xiàn)的基礎(chǔ)上,本文對(duì)低信噪比下QPSK信號(hào)解調(diào)中的關(guān)鍵技術(shù)進(jìn)行了研究。本文主要進(jìn)行了三方面的研究工作:(1)介紹了數(shù)字QPSK通信系統(tǒng)模型,并詳細(xì)闡述了Turbo碼的原理和常用譯碼算法;(2)研究了基于軟譯碼判決、EM以及基于最大能量的定時(shí)同步算法,在此基礎(chǔ)上提出改進(jìn)定時(shí)算法;(3)分析了常用的CA載波同步,結(jié)合DA同步算法給出了改進(jìn)的載波同步算法。將本文的主要研究成果歸納如下:(1)結(jié)合梯度下降算法和群方差直接判決恢復(fù)算法,給出了改進(jìn)的符號(hào)同步算法,并進(jìn)行了計(jì)算機(jī)仿真,仿真結(jié)果表明該算法擁有收斂速度快、容易實(shí)現(xiàn)的特點(diǎn)。(2)在已有CA、DA同步的基礎(chǔ)上,給出利用導(dǎo)頻和編碼共同輔助的改進(jìn)載波同步算法,通過導(dǎo)頻序列進(jìn)行基于相位偏差算法的粗同步,再進(jìn)行編碼和軟信息譯碼的迭代來補(bǔ)償進(jìn)行細(xì)同步,分別利用時(shí)頻相關(guān)算法和最大似然估計(jì)算法完成對(duì)頻偏和相偏的補(bǔ)償,計(jì)算機(jī)仿真結(jié)果表明改進(jìn)算法具有校正的載波頻偏范圍較大、收斂速度較快的特點(diǎn)。(3)給出低信噪比下QPSK通信系統(tǒng)的兩種迭代同步譯碼接收機(jī)方案,通過計(jì)算機(jī)仿真結(jié)果對(duì)比兩種方案的譯碼性能,仿真結(jié)果表明兩種方案都有各自的優(yōu)點(diǎn),均可以達(dá)到低信噪比下的譯碼要求。本文設(shè)計(jì)的聯(lián)合處理接收機(jī)系統(tǒng)同步精度高,誤碼率低,穩(wěn)定性良好,實(shí)現(xiàn)復(fù)雜度低,在低信噪比的通信系統(tǒng)中具有較好的應(yīng)用前景。
【學(xué)位授予單位】:電子科技大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2016
【分類號(hào)】:TN911.3
文章目錄
摘要
ABSTRACT
縮略詞表
第一章 緒論
    1.1 研究背景
    1.2 研究現(xiàn)狀
        1.2.1 編譯碼技術(shù)研究現(xiàn)狀
        1.2.2 定時(shí)同步算法研究現(xiàn)狀
        1.2.3 載波同步算法研究現(xiàn)狀
    1.3 論文的主要內(nèi)容及結(jié)構(gòu)安排
第二章 全數(shù)字通信系統(tǒng)
    2.1 QPSK系統(tǒng)調(diào)制基本原理
        2.1.1 發(fā)射機(jī)模型
        2.1.2 成型濾波器
    2.2 QPSK系統(tǒng)解調(diào)基本原理
        2.2.1 接收機(jī)模型
        2.2.2 數(shù)字下變頻
    2.3 Turbo信道編譯碼原理
        2.3.1 Turbo編碼原理
        2.3.2 Turbo譯碼原理
            2.3.2.1 MAP譯碼
            2.3.2.2 Log-MAP算法
            2.3.2.3 SOVA算法
    2.4 影響Turbo算法的性能分析
        2.4.1 迭代次數(shù)
        2.4.2 碼長
        2.4.3 碼率
    2.5 本章小結(jié)
第三章 符號(hào)同步
    3.1 符號(hào)定時(shí)同步算法
        3.1.1 內(nèi)插濾波器
        3.1.2 奈奎斯特準(zhǔn)則
        3.1.3 符號(hào)定時(shí)同步環(huán)路
    3.2 CA定時(shí)同步
        3.2.1 軟硬射與軟解映射
            3.2.1.1 軟映射
            3.2.1.2 軟解映射
        3.2.2 基于軟譯碼判決的定時(shí)同步
        3.2.3 基于EM算法的定時(shí)同步
    3.3 梯度下降法與直接判決恢復(fù)聯(lián)合的定時(shí)同步
        3.3.1 算法描述
        3.3.2 仿真結(jié)果
    3.4 本章小結(jié)
第四章 載波同步
    4.1 基于EM算法的編碼輔助載波同步
        4.1.1 原EM算法
        4.1.2 簡化的EM編碼輔助算法
            4.1.2.1 SEM算法
            4.1.2.2 SAEM算法
        4.1.3 復(fù)雜度分析
    4.2 基于相關(guān)的編碼輔助載波同步
    4.3 改進(jìn)的導(dǎo)頻與編碼輔助聯(lián)合的載波同步
        4.3.1 系統(tǒng)模型
        4.3.2 利用導(dǎo)頻的載波粗同步
            4.3.2.1 導(dǎo)頻放置方式
            4.3.2.2 基于相位偏差算法的粗同步算法
            4.3.2.3 導(dǎo)頻序列的選取
        4.3.3 基于時(shí)頻相關(guān)最大似然法與譯碼聯(lián)合的精同步算法
            4.3.3.1 頻率精同步算法
            4.3.3.2 相位精同步算法
        4.3.4 仿真結(jié)果
    4.4 本章小結(jié)
第五章 定時(shí)同步聯(lián)合載波同步系統(tǒng)
    5.1 編碼輔助定時(shí)聯(lián)合載波迭代的系統(tǒng)模型
    5.2 定時(shí)同步與載波同步獨(dú)立的系統(tǒng)模型
    5.3 仿真驗(yàn)證
    5.4 本章小結(jié)
第六章 全文總結(jié)與展望
    6.1 全文總結(jié)
    6.2 后續(xù)工作展望
致謝
參考文獻(xiàn)
攻讀碩士期間取得的研究成果

【相似文獻(xiàn)】

相關(guān)期刊論文 前9條

1 劉會(huì)杰,張乃通;QPSK信號(hào)相干載波提取的仿真研究[J];系統(tǒng)工程與電子技術(shù);2003年04期

2 何松柏,鄧洪敏,楊玉梅;對(duì)射頻信道非線性影響QPSK信號(hào)的分析[J];系統(tǒng)工程與電子技術(shù);2003年02期

3 郝建民;QPSK信號(hào)相干檢測的錯(cuò)誤概率計(jì)算公式辨析[J];遙測遙控;2003年04期

4 黃碩翼;石榮;陳錫明;;基于碼周期的延時(shí)相乘法估計(jì)擴(kuò)頻QPSK信號(hào)載頻[J];電子信息對(duì)抗技術(shù);2007年06期

5 張麗麗;陳偉;;多徑衰落信道中QPSK信號(hào)傳輸特性的研究[J];武漢理工大學(xué)學(xué)報(bào)(信息與管理工程版);2007年12期

6 令狐俊珍;姚遠(yuǎn)程;;QPSK信號(hào)碼元速率估計(jì)[J];現(xiàn)代電子技術(shù);2011年01期

7 吳隆恕;;在含有噪聲的載波參考信號(hào)作用下QPSK信號(hào)檢測系統(tǒng)的性能[J];無線電通信技術(shù);1984年01期

8 王星;曹晉龍;趙玉;王士巖;李承志;;基于瞬時(shí)測頻的BPSK和QPSK信號(hào)參數(shù)估計(jì)[J];電訊技術(shù);2014年04期

相關(guān)碩士學(xué)位論文 前1條

1 鐘雪韜;低信噪比下QPSK信號(hào)的解調(diào)技術(shù)研究[D];電子科技大學(xué);2016年



本文編號(hào):2313400

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/kejilunwen/xinxigongchenglunwen/2313400.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶4d67d***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com