0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

支持向量機尋找的最優(yōu)分類直線應滿足哪些條件?

RG15206629988 ? 來源:行業(yè)學習與研究 ? 2023-05-08 10:55 ? 次閱讀

支持向量機尋找的最優(yōu)分類直線應滿足如下條件:

(1)該直線可將訓練數(shù)據(jù)完全分為兩類。

(2)該直線可最大化間隔。

(3)該直線處于間隔的中間,其與所有支持向量(任意一條可將訓練樣本完全分類的直線分別向兩側(cè)被平行移動時,最先穿過的一個或幾個訓練樣本)的距離相等。

69b632ec-ec67-11ed-90ce-dac502259ad0.png

圖片來源:中國慕課大學《機器學習概論》

可推出支持向量機尋找最優(yōu)分類超平面(超平面是將三維以上特征空間的訓練數(shù)據(jù)分割為不同類別的“圖形”)應滿足如下條件:

(1)該超平面可將訓練數(shù)據(jù)完全分為兩類。

(2)該超平面可最大化間隔。

(3)該超平面處于間隔的中間,其與所有支持向量的距離相等。

下文介紹通過數(shù)學方法,將支持向量機尋找線性可分訓練數(shù)據(jù)集的最優(yōu)分類超平面的過程,描述為最優(yōu)化問題。

回顧線性可分的定義:訓練樣本集 {(Xi,yi)}在i=1~N線性可分是指存在ω和b(Xi=[xi1,xi2,…,xin],ω=[ω1,ω2,…,ωn]T),使得對 i=1~N,有:

若yi=+1,則ωTXi+b>0;

若yi=-1,則ωTXi+b<0。

同時,基于以下兩個事實:

事實1:ωTx+b=0與(aωTx)+(ab)=0是同一個超平面(a≠0)。(此事實可基于二維特征空間的情況理解,當a≠0時,二維特征空間中,ωx+b=0與aωx+ab=0是同一條直線)

事實2:一個點X0到超平面ωTx+b=0的距離d的公式為:d=|ωTX0+b|/||ω||,其中||ω||2=ω12+ω22…+ωn2。(此事實也可基于二維特征空間的情況理解,二維特征空間中,一個點(x0,y0)到ω1x0+ω2y0+b=0的距離為:d=|ω1x0+ω2y0+b|/√(ω12+ω22),√代表根號)

因為ωTx+b=0與(aωTx)+(ab)=0是同一個超平面,所以可以通過縮放(即直線方程兩端均乘以相同系數(shù)),使得ωTx+b在支持向量x0上有|ωTx0+b|=1(根據(jù)線性可分的定義,支持向量x0上有|ωTx0+b|>0,假設|ωTx0+b|=0.5,那么可以通過將該方程兩端均乘以2縮放為|ωTx0+b|=1,其他情況均可以此類推)。

那么,根據(jù)事實2,支持向量x0到超平面的距離d=|ωTx0+b|/||ω||=1/||ω||。因此,最大化支持向量至超平面的距離(即最大化超平面的間隔)等價于最小化||ω||。

69e4d94e-ec67-11ed-90ce-dac502259ad0.jpg

圖片來源:來自網(wǎng)絡

因此,支持向量機尋找線性可分訓練數(shù)據(jù)集的最優(yōu)分類超平面的過程可描述為最小化1/2||ω||2(最小化1/2||ω||2即可使||ω||最小化)的最優(yōu)化問題。

又因為非支持向量與超平面的距離大于支持向量與超平面的距離,所以非支持向量與超平面的距離d>1/||ω||,即在非支持向量x0上有|ωTx0+b|>1。

綜合支持向量與非支持向量距離取值,可得出支持向量機尋找線性可分訓練數(shù)據(jù)集的最優(yōu)分類超平面的限制條件:yi(ωTXi+b)≥1,i=1~N。

綜上,在線性可分情況下,支持向量機尋找最佳超平面的優(yōu)化問題可以表示為 :

最小化:1/2||ω||2,

限制條件:yi(ωTXi+b)≥1,i=1~N。

上述優(yōu)化問題中,ω和b為待求量,(Xi,yi),i=1~N為已知量。該優(yōu)化問題屬于凸優(yōu)化問題(CONVEX OPTIMIZATION)。當一個問題轉(zhuǎn)化為凸優(yōu)化問題時,該問題可使用機器學習算法的工具包求解。

6a086fd0-ec67-11ed-90ce-dac502259ad0.jpg

圖片來源:來自網(wǎng)絡





審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 向量機
    +關注

    關注

    0

    文章

    166

    瀏覽量

    20821
  • 機器學習
    +關注

    關注

    66

    文章

    8328

    瀏覽量

    132219

原文標題:機器學習相關介紹(8)——支持向量機(優(yōu)化問題)

文章出處:【微信號:行業(yè)學習與研究,微信公眾號:行業(yè)學習與研究】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    基于支持向量分類問題

    小菜鳥一枚 ,有哪位大神能提供部分基于支持向量積的分類鑒別問題的MATLAB編碼,思路過程,不勝感激
    發(fā)表于 04-03 18:54

    支持向量——機器學習中的殺手級武器!

    一條直線將它們分開呢?顯然是可以的,而且滿足這一條件直線也顯然不止一條。這類問題在模式識別領域稱為線性可分問題。支持
    發(fā)表于 08-24 09:40

    如何用支持向量分類器識別手寫字體

    sklearn實例-用支持向量分類器(SVC)識別手寫字體
    發(fā)表于 06-11 17:02

    基于多分類支持向量的隱寫域盲檢測

    提出一種區(qū)分隱寫域(包括像素域、DCT域、DWT域)的盲檢測方法,構(gòu)造圖像特征向量,建立一個多分類支持向量,根據(jù)特征
    發(fā)表于 04-20 09:32 ?14次下載

    特征加權(quán)支持向量

    該文針對現(xiàn)有的加權(quán)支持向量(WSVM)和模糊支持向量(FSVM)只考慮樣本重要性而沒有考慮特
    發(fā)表于 11-21 11:15 ?15次下載

    組合核函數(shù)多支持向量直線電機建模

    組合核函數(shù)多支持向量直線電機建模_趙吉文
    發(fā)表于 01-07 17:16 ?1次下載

    分類孿生支持向量研究進展

    孿生支持向量因其簡單的模型、快速的訓練速度和優(yōu)秀的性能而受到廣泛關注.該算法最初是為解決二分類問題而提出的。不能直接用于解決現(xiàn)實生活中普遍存在的多
    發(fā)表于 12-19 11:32 ?0次下載

    支持向量的故障預測模型

    算法優(yōu)化支持向量參數(shù),解決了蟻群算法易陷入局部最優(yōu)的問題;然后,根據(jù)最優(yōu)參數(shù)建立擬合監(jiān)測數(shù)據(jù)和未來健康度下降過程非線性映射關系的和聲蟻群算
    發(fā)表于 12-29 11:24 ?0次下載

    多核學習支持向量應用音樂流派自動分類

    針對不同特征向量下選擇最優(yōu)核函數(shù)的學習方法問題,將多核學習支持向量( MK-SVM)應用于音樂流派自動
    發(fā)表于 01-09 15:25 ?2次下載
    多核學習<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>應用音樂流派自動<b class='flag-5'>分類</b>

    基于支持向量的噪聲分類與補償

    是要盡量降低或消除此類不匹配的影響。 針對現(xiàn)有車載語音識別系統(tǒng)在實際應用環(huán)境下噪聲魯棒性較差的問題,提出一種基于支持向量(SVM)的噪聲分類與補償方法。采集各應用場景下的噪聲構(gòu)建SV
    發(fā)表于 02-23 11:11 ?0次下載
    基于<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>的噪聲<b class='flag-5'>分類</b>與補償

    支持向量分類思想

    支持向量結(jié)合了感知和logistic回歸分類思想,假設訓練樣本點(xi,yi)到超平面H的幾何間隔為γ(γ>0),由上節(jié)定義可知,幾何間
    的頭像 發(fā)表于 11-23 08:58 ?5191次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b>的<b class='flag-5'>分類</b>思想

    什么是支持向量 什么是支持向量

    支持向量,英文為Support Vector Machine,簡稱SV(論文中一般簡稱SVM)。它是一 種監(jiān)督式學習的方法,它廣泛的應用于統(tǒng)計
    發(fā)表于 01-28 16:01 ?2.2w次閱讀
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b> 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    最小內(nèi)內(nèi)方差支持向量引導的字典學習算法

    算法。將融合 Fisher線性鑒別分析和支持向量大間隔分類準則的最小類內(nèi)方差支持向量
    發(fā)表于 04-27 10:37 ?7次下載
    最小內(nèi)內(nèi)方差<b class='flag-5'>支持</b><b class='flag-5'>向量</b>引導的字典學習算法

    支持向量尋找最優(yōu)分類超平面的優(yōu)化問題

    根據(jù),在線性可分情況下,支持向量尋找最優(yōu)分類超平面的優(yōu)化問題
    的頭像 發(fā)表于 05-11 11:13 ?1397次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b><b class='flag-5'>機</b><b class='flag-5'>尋找</b><b class='flag-5'>最優(yōu)</b><b class='flag-5'>分類</b>超平面的優(yōu)化問題

    人工神經(jīng)網(wǎng)絡(感知算法的意義)

    因為支持向量算是通過所有數(shù)據(jù)尋找最優(yōu)分類方式的算法,而感知
    的頭像 發(fā)表于 07-24 18:16 ?876次閱讀
    人工神經(jīng)網(wǎng)絡(感知<b class='flag-5'>機</b>算法的意義)