中国韩国日本在线观看免费,A级尤物一区,日韩精品一二三区无码,欧美日韩少妇色

多方法融合特征提取在不同時(shí)序分類(lèi)中的應(yīng)用研究

發(fā)布時(shí)間:2018-04-03 11:44

  本文選題:時(shí)序分類(lèi) 切入點(diǎn):特征提取 出處:《哈爾濱商業(yè)大學(xué)》2017年碩士論文


【摘要】:時(shí)序數(shù)據(jù)普遍存在于許多重要應(yīng)用領(lǐng)域,其中大多數(shù)問(wèn)題的解決可歸屬為時(shí)序數(shù)據(jù)挖掘問(wèn)題,時(shí)序分類(lèi)是時(shí)序數(shù)據(jù)挖掘的重要研究?jī)?nèi)容之一。衡量分類(lèi)性能好壞的一個(gè)重要指標(biāo)是分類(lèi)準(zhǔn)確率,而提高分類(lèi)準(zhǔn)確率的方法主要有兩種:一是改進(jìn)分類(lèi)器;二是改進(jìn)時(shí)序分類(lèi)特征提取方法。針對(duì)時(shí)序分類(lèi)問(wèn)題,通過(guò)改進(jìn)分類(lèi)特征提取方法來(lái)提高分類(lèi)準(zhǔn)確率,提出一種多方法融合的時(shí)序分類(lèi)特征提取方法,應(yīng)用多個(gè)仿真實(shí)驗(yàn)驗(yàn)證了該方法的性能,并將其應(yīng)用于不同領(lǐng)域的時(shí)序分類(lèi)問(wèn)題中,提高了時(shí)序分類(lèi)問(wèn)題的分類(lèi)準(zhǔn)確率。在對(duì)時(shí)序數(shù)據(jù)特點(diǎn)深入分析的基礎(chǔ)上,將小波、分形和統(tǒng)計(jì)三種方法相結(jié)合,提出一種多方法融合的時(shí)序分類(lèi)特征提取方法。首先應(yīng)用小波對(duì)原始時(shí)序數(shù)據(jù)去噪,并對(duì)去噪重構(gòu)后的時(shí)序數(shù)據(jù)進(jìn)行分解,計(jì)算各尺度空間上的平均高頻系數(shù)構(gòu)成特征向量作為第一部分時(shí)序分類(lèi)特征;然后在多尺度下對(duì)去噪重構(gòu)后的時(shí)序數(shù)據(jù)進(jìn)行多重分形分析,依據(jù)具體時(shí)序數(shù)據(jù)的特點(diǎn)和分類(lèi)的需要,提取相關(guān)多重分形譜參數(shù)作為第二部分時(shí)序分類(lèi)特征;再次根據(jù)不同領(lǐng)域時(shí)間序列的特點(diǎn),提取相關(guān)時(shí)序統(tǒng)計(jì)特征作為第三部分時(shí)序分類(lèi)特征;最后對(duì)上述小波、分形、統(tǒng)計(jì)方法提取的特征進(jìn)行綜合分析,結(jié)合時(shí)序的自身特點(diǎn)和實(shí)驗(yàn)結(jié)果,選擇確定最終的時(shí)序分類(lèi)特征。其次,通過(guò)不同領(lǐng)域時(shí)序分類(lèi)數(shù)據(jù)的仿真實(shí)驗(yàn)驗(yàn)證了該方法的性能。使用UCI數(shù)據(jù)集中的Japanese Vowels數(shù)據(jù)和Synthetic Control數(shù)據(jù)分別進(jìn)行仿真實(shí)驗(yàn),通過(guò)與其他特征提取方法的多角度比較分析,驗(yàn)證了本文方法的有效性和優(yōu)越性。最后,對(duì)多方法融合特征提取在不同時(shí)序分類(lèi)中的應(yīng)用進(jìn)行研究,將該方法應(yīng)用于不同時(shí)序問(wèn)題,驗(yàn)證了該方法在不同時(shí)序分類(lèi)問(wèn)題中的實(shí)用性和優(yōu)越性。將該方法應(yīng)用于EEG信號(hào)分類(lèi),對(duì)來(lái)自科拉羅多州發(fā)布的EEG腦電信號(hào)分類(lèi)問(wèn)題展開(kāi)研究,通過(guò)與以往使用相同數(shù)據(jù)進(jìn)行特征提取的分類(lèi)結(jié)果比較,說(shuō)明了該方法在所有分類(lèi)下的分類(lèi)準(zhǔn)確率均明顯高于以往方法的分類(lèi)準(zhǔn)確率;同時(shí)與其他兩種方法結(jié)合進(jìn)行特征提取的分類(lèi)結(jié)果對(duì)比,從結(jié)果可見(jiàn),使用該方法進(jìn)行EEG分類(lèi)特征提取在所有分類(lèi)下的分類(lèi)結(jié)果均高于其他兩種分類(lèi)特征提取方法結(jié)合對(duì)應(yīng)的分類(lèi)結(jié)果。然后將該方法應(yīng)用于手部動(dòng)作表面肌電信號(hào)分類(lèi),針對(duì)兩通路6個(gè)類(lèi)別對(duì)應(yīng)的六種基本手部動(dòng)作表面肌電信號(hào)的時(shí)間序列數(shù)據(jù),應(yīng)用該方法實(shí)現(xiàn)了分類(lèi),從多角度、多層次對(duì)分類(lèi)結(jié)果進(jìn)行了比較分析,結(jié)果說(shuō)明該方法的分類(lèi)準(zhǔn)確率不僅從整體上可以達(dá)到較高的分類(lèi)精度,從各個(gè)動(dòng)作分類(lèi)上也能得到很好的分類(lèi)結(jié)果。對(duì)多方法融合特征提取方法在不同時(shí)序分類(lèi)中的應(yīng)用作了初步探索。
[Abstract]:Time series data generally exist in many important application fields, and most of the problems can be attributed to time series data mining. Time series classification is one of the important research contents of time series data mining.The classification accuracy is an important index to measure the classification performance, and there are two main methods to improve the classification accuracy: one is to improve the classifier; the other is to improve the temporal classification feature extraction method.In order to solve the problem of temporal classification, an improved feature extraction method is proposed to improve the classification accuracy. A multi-method fusion method is proposed to extract the feature of temporal classification. The performance of the method is verified by several simulation experiments.It is applied to the time series classification problem in different fields, which improves the classification accuracy of the time series classification problem.On the basis of deeply analyzing the characteristics of time series data, this paper proposes a multi-method fusion time series classification feature extraction method by combining wavelet, fractal and statistical methods.Firstly, the original time series data is de-noised by wavelet transform, and the reconstructed time series data is decomposed, and the average high-frequency coefficients in each scale space are calculated as the feature vector of the first part of time series classification.Then multifractal analysis is carried out on the time series data after de-noising and reconstruction in multi-scale. According to the characteristics of specific time series data and the need of classification, the related multifractal spectrum parameters are extracted as the second part of the time series classification features.Thirdly, according to the characteristics of time series in different fields, the statistical features of correlation time series are extracted as the third part of time series classification features. Finally, the features extracted by the above wavelet, fractal and statistical methods are analyzed synthetically.Combined with the characteristics of time series and experimental results, the final time series classification features are selected.Secondly, the performance of this method is verified by simulation experiments of time series classification data in different fields.The Japanese Vowels data and Synthetic Control data in UCI dataset are used to carry out simulation experiments, and the effectiveness and superiority of this method are verified by comparing and analyzing with other feature extraction methods.The results show that the classification accuracy of this method is obviously higher than that of the previous methods, and the classification results are compared with the other two methods, and the results can be seen from the results.The classification results of EEG classification feature extraction under all classification conditions are higher than those of other two classification methods combined with corresponding classification results.Then the method is applied to the classification of EMG signals in hand action. According to the time series data of six kinds of EMG signals corresponding to six kinds of basic hand actions, the method is applied to classify the EMG signals from different angles.The results show that the classification accuracy of this method can not only reach a higher classification accuracy, but also obtain a good classification result from each action classification.The application of multi-method fusion feature extraction in different time series classification is preliminarily explored.
【學(xué)位授予單位】:哈爾濱商業(yè)大學(xué)
【學(xué)位級(jí)別】:碩士
【學(xué)位授予年份】:2017
【分類(lèi)號(hào)】:TP311.13

【參考文獻(xiàn)】

相關(guān)期刊論文 前10條

1 郭孜政;潘毅潤(rùn);潘雨帆;吳志敏;肖瓊;譚永剛;張駿;;基于EEG熵值的駕駛員腦力負(fù)荷水平識(shí)別方法[J];東南大學(xué)學(xué)報(bào)(自然科學(xué)版);2015年05期

2 曲洪權(quán);陳雨佳;邢志強(qiáng);;基于小波變換的光纖振動(dòng)信號(hào)特征提取與識(shí)別[J];北方工業(yè)大學(xué)學(xué)報(bào);2015年03期

3 蘇濤;王志剛;劉昌明;徐增炳;;多重分形的耐火材料損傷聲發(fā)射信號(hào)特征提取方法[J];機(jī)械設(shè)計(jì)與制造;2015年08期

4 李潭;譚獻(xiàn)海;;高速列車(chē)轉(zhuǎn)向架振動(dòng)信號(hào)多重分形特征提取與故障診斷[J];工業(yè)控制計(jì)算機(jī);2015年07期

5 吳志敏;杜佳樂(lè);喬曉艷;;經(jīng)穴位電刺激下的表面肌電信號(hào)特征分析[J];中國(guó)醫(yī)學(xué)物理學(xué)雜志;2015年01期

6 馮源;葛新峰;潘天航;鄭源;;基于小波變換的水電機(jī)組振動(dòng)故障分析和特征提取[J];云南電力技術(shù);2014年06期

7 胡雯雯;;基于小波和分形理論的機(jī)車(chē)故障特征提取研究[J];煤礦機(jī)械;2014年11期

8 王月茹;李昕;李紅紅;邵成成;應(yīng)立娟;吳水才;;基于時(shí)-頻-空間域的運(yùn)動(dòng)想象腦電信號(hào)特征提取方法研究[J];生物醫(yī)學(xué)工程學(xué)雜志;2014年05期

9 劉漢麗;裴韜;周成虎;;用于時(shí)間序列聚類(lèi)分析的小波變換和特征量提取方法[J];測(cè)繪科學(xué)技術(shù)學(xué)報(bào);2014年04期

10 尚小晶;吳忠偉;徐成波;;改進(jìn)AR模型特征提取及分類(lèi)[J];吉林建筑工程學(xué)院學(xué)報(bào);2014年03期

相關(guān)會(huì)議論文 前1條

1 楊健群;馬殿富;;基于網(wǎng)絡(luò)的多導(dǎo)生理信號(hào)采集處理系統(tǒng)應(yīng)用軟件的研制[A];第六屆全國(guó)人—機(jī)—環(huán)境系統(tǒng)工程學(xué)術(shù)會(huì)議論文集[C];2003年

相關(guān)碩士學(xué)位論文 前10條

1 常靜雅;小波域多重分形和能量譜參數(shù)的病理嗓音識(shí)別研究[D];蘇州大學(xué);2016年

2 周睿;表面肌電分析反饋儀軟件系統(tǒng)設(shè)計(jì)及非線性信號(hào)處理技術(shù)的應(yīng)用研究[D];浙江大學(xué);2016年

3 李穎;多重分形信號(hào)特征提取及在往復(fù)壓縮機(jī)故障診斷中的應(yīng)用[D];東北石油大學(xué);2015年

4 楊帥;基于AdaBoost算法的手部動(dòng)作表面肌電信號(hào)分類(lèi)方法研究[D];吉林大學(xué);2015年

5 王佳佳;基于肌電信號(hào)的下肢步態(tài)特征提取及其識(shí)別方法[D];杭州電子科技大學(xué);2015年

6 高允領(lǐng);基于表面肌電信號(hào)的人手抓取動(dòng)作模式識(shí)別技術(shù)研究[D];上海師范大學(xué);2014年

7 孫保峰;基于神經(jīng)網(wǎng)絡(luò)的表面肌電信號(hào)分類(lèi)方法研究[D];吉林大學(xué);2013年

8 鄒曉陽(yáng);動(dòng)作表面肌電信號(hào)的非線性特性研究[D];上海交通大學(xué);2012年

9 周煒;基于直方圖和頻譜的表面肌電信號(hào)處理[D];杭州電子科技大學(xué);2009年

10 賈花萍;基于神經(jīng)網(wǎng)絡(luò)的EEG信號(hào)分類(lèi)方法研究[D];天津師范大學(xué);2009年

,

本文編號(hào):1705068

資料下載
論文發(fā)表

本文鏈接:http://www.lk138.cn/shoufeilunwen/xixikjs/1705068.html


Copyright(c)文論論文網(wǎng)All Rights Reserved | 網(wǎng)站地圖 |

版權(quán)申明:資料由用戶6835f***提供,本站僅收錄摘要或目錄,作者需要?jiǎng)h除請(qǐng)E-mail郵箱bigeng88@qq.com