支持向量機增量學習研究
發(fā)布時間:2024-11-02 08:22
傳統(tǒng)的機器學習方法是靜態(tài)的學習模式,即基于大量已有樣本進行訓練,然后利用訓練好的模型來完成特定的預測、分類或回歸等學習目標。然而,現(xiàn)實生活中數(shù)據(jù)不斷到來,導致舊模型需要不斷更新;而且,人類的學習也是逐漸累積、不斷成長的過程,隨著新知識的不斷涌現(xiàn),學習過程也需要同步更新。這樣,靜態(tài)的學習模式不能滿足持續(xù)學習的需要,如何在歷史學習成果的基礎上,采用增量學習的模式,更新、改進舊知識,而不必完全推倒所有歷史成果重新學習,是人工智能及機器學習理論中一個非常重要的問題。支持向量機(Support Vector Machine,SVM)是統(tǒng)計學習理論中非常重要的一種機器學習方法,它基于統(tǒng)計學習理論中結構風險最小化的思想,通過解凸二次規(guī)劃問題,來得到最優(yōu)的分類超平面。本文基于學習樣本以數(shù)據(jù)流形式出現(xiàn),從極少樣本開始學習,以及學習過程需要不斷調(diào)整與改進等實際情況,以在線式增量學習的角度,對SVM增量學習(ISVM)的相關理論、SVM增量學習的在線式過程以及如何提高SVM增量學習的效率與性能等進行了重點的研究。本文的主要工作和成果如下:1.傳統(tǒng)的SVM增量學習在每當遇到違背Karush-Kuhn-Tucke...
【文章頁數(shù)】:110 頁
【學位級別】:博士
【部分圖文】:
本文編號:4009300
【文章頁數(shù)】:110 頁
【學位級別】:博士
【部分圖文】:
第四章支持向量機的增量學習算法的研究p1=100,p2=6;pt為分類器的測試正確率(分類器在測試集上的分類正確率)sum(d)為所有樣本與分類超平面的距離之和。則每次增量學習之后,就可以拋棄那些與分類超平面距離大于β的樣本,保留其它樣本作為進一步增量學習的初始樣本。這里β為....
因而是完全可行的。根據(jù)相關向量機理論,建立的預測模型可表示為1,NiiifxwKxxb(5.3)從式(5.3)可知,并不是所有的樣本都在預測模型構建中發(fā)揮同樣重要的作用,只有很少的一部分被稱為相關向量的樣本對相關向量機性能起決定性作用。相關....
(2-2)如圖所示:圖2-1支持向量機及分類超平面示意圖其中,A,B,C三點表示當前模型對上述樣本未能最優(yōu)分類的情況。與b可通過解以下優(yōu)化問題得到:2,1min2..()11,...,bTistyxbil(2-3)其中,與b分別為最優(yōu)分....
浙江工業(yè)大學博士學位論文22圖2-2概念漂移問題[8]即類別的先驗概率發(fā)生了變化(圖2-2a)、類別本身的分布發(fā)生變化(圖2-2b)和類別中樣本的后驗概率發(fā)生變化(圖2-2c)[8]。針對概念漂移問題,一般采用如下幾種方法:(1)基本學習器的自適應方法,如自適應的決策樹方法、k....
本文編號:4009300
本文鏈接:http://lk138.cn/kejilunwen/zidonghuakongzhilunwen/4009300.html
最近更新
教材專著