<acronym id="s8ci2"><small id="s8ci2"></small></acronym>
<rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
<acronym id="s8ci2"></acronym>
<acronym id="s8ci2"><center id="s8ci2"></center></acronym>
0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

支持向量機(原問題和對偶問題)

RG15206629988 ? 來源:行業學習與研究 ? 2023-05-25 09:31 ? 次閱讀

本文主要介紹原問題(PRIME PROBLEM)和對偶問題(DUAL PROBLEM),支持向量機優化問題可通過原問題向對偶問題的轉化求解。

一、原問題的定義

原問題的定義為:

最小化:f(ω);

限制條件:gi(ω)≤0,i=1~K;hi(ω)=0,i=1~M。

其中,ω為多維向量,限制條件中具有K個不等式(gi(ω)≤0),M個等式(hi(ω)=0)。

二、對偶問題的定義

首先定義函數:L(ω,α,β)=f(ω)+∑αigi(ω)+∑βihi(ω);

該函數向量形式的定義:L(ω,α,β)=f(ω)+αTg(ω)+βTh(ω);

該函數向量形式的定義中,α=[α1,α2,…,αK]T,β=[β1,β2,…,βM]T,g(ω)=[g1(ω),g2(ω),…,gK(ω)]T,h(ω)=[h1(ω),h2(ω),…,hM(ω)]T。

基于函數L(ω,α,β)的定義,原問題的對偶問題定義如下:

最大化:θ(α,β)=infL(ω,α,β);

限制條件:αi≥0,i=1~K。

其中,infL(ω,α,β)為遍歷所有ω后,取值最小的L(ω,α,β)。

三、定理一

根據以上定義,可得出定理一:

如果ω*是原問題的解,(α*,β*)是對偶問題的解,則有: f(ω*)≥θ(α*,β*)

該定理的證明如下: θ(α*,β*)=infL(ω,α*,β*)(將α*、β*代入對偶函數的定義)

≤L(ω*,α*,β*)(此步推導由于infL(ω,α*,β*)的取值最?。?br />
=f(ω*)+α*Tg(ω*)+β*Th(ω*)(此步推導根據L(ω,α,β)的定義)

≤f(ω*)(此步推導由于原問題的限制條件gi(ω)≤0,hi(ω)=0,對偶問題的限制條件αi≥0)

四、強對偶定理

將f(ω*)-θ(α*,β*)定義為對偶差距(DUALITY GAP),根據上述定理,對偶差距是大于等于零的函數。

如果g(ω)=Aω+b,h(ω)=Cω+d,f(ω)為凸函數,則有f(ω*)=θ(α*,β*),此時對偶差距等于零。該定理為強對偶定理(STRONG DUALITY THEOREM)。

強對偶定理可更通俗地表述為:原問題的目標函數(f(ω))是凸函數,原問題的限制條件是線性函數,則原問題的解與對偶函數的解相等。

五、KKT條件

若f(ω*)=θ(α*,β*),則有: f(ω*)+α*Tg(ω*)+β*Th(ω*)=f(ω*); 即對于所有的i=1~K,要么αi=0,要么gi(ω*)=0(因為hi(ω)=0)。

該結論被稱為KKT條件,KKT分別代表先后獨立發現該結論的研究人員Karush、Kuhn、Tucker,該結論在Kuhn、Tucker發現后逐步被推廣。






審核編輯:劉清

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 向量機
    +關注

    關注

    0

    文章

    166

    瀏覽量

    20743
  • 機器學習
    +關注

    關注

    66

    文章

    8176

    瀏覽量

    131013
  • GAP
    GAP
    +關注

    關注

    0

    文章

    15

    瀏覽量

    8261

原文標題:機器學習相關介紹(12)——支持向量機(原問題和對偶問題)

文章出處:【微信號:行業學習與研究,微信公眾號:行業學習與研究】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    #硬聲創作季 人工智能入門課程:12. [2.7.1]--支持向量(原問題和對偶問題)

    向量人工智能機器學習
    Mr_haohao
    發布于 :2022年09月21日 11:11:05

    12. 2 7 支持向量(原問題和對偶問題) #硬聲創作季

    機器學習
    充八萬
    發布于 :2023年07月07日 01:27:18

    基于支持向量的分類問題

    小菜鳥一枚 ,有哪位大神能提供部分基于支持向量積的分類鑒別問題的MATLAB編碼,思路過程,不勝感激
    發表于 04-03 18:54

    支持向量——機器學習中的殺手級武器!

    ||w||,公式(6)可以轉化成:公式(7)即為支持向量的基本型。對偶問題的解決方法——拉格朗日乘子式看到這類帶約束的最小值問題,很自然我們想到了拉格朗日乘子法。由此最終求解可以得
    發表于 08-24 09:40

    支持向量是什么

    初步了解支持向量(SVM)-1
    發表于 09-03 09:59

    支持向量的SVM

    支持向量SVM
    發表于 05-20 10:21

    怎么理解支持向量SVM

    支持向量SVM理解篇
    發表于 06-14 09:05

    介紹支持向量與決策樹集成等模型的應用

    本文主要介紹支持向量、k近鄰、樸素貝葉斯分類 、決策樹、決策樹集成等模型的應用。講解了支持向量
    發表于 09-01 06:57

    特征加權支持向量

    該文針對現有的加權支持向量機(WSVM)和模糊支持向量機(FSVM)只考慮樣本重要性而沒有考慮特征重要性對分類結果的影響的缺陷,提出了基于特征加權的
    發表于 11-21 11:15 ?15次下載

    大數據中邊界向量調節熵函數支持向量機研究

    大數據中邊界向量調節熵函數支持向量機研究_林蔚
    發表于 01-07 19:08 ?0次下載

    模糊支持向量機的改進方法

    了基于同類中心和異類中心雙參照點的噪聲判別方法;分析了模糊支持向量機求解對偶問題中參數與支持向量的對應關系,進而給出新的隸屬度函數設置步驟。
    發表于 11-29 16:19 ?0次下載
    模糊<b class='flag-5'>支持</b><b class='flag-5'>向量</b>機的改進方法

    什么是支持向量機 什么是支持向量

    支持向量機,英文為Support Vector Machine,簡稱SV機(論文中一般簡稱SVM)。它是一 種監督式學習的方法,它廣泛的應用于統計分類以及回歸分析中。
    發表于 01-28 16:01 ?2.1w次閱讀
    什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>機 什么是<b class='flag-5'>支持</b><b class='flag-5'>向量</b>

    支持向量機(核函數的定義)

    根據機器學習相關介紹(10)——支持向量機(低維到高維的映射),支持向量機可通過引入φ(x)函數,將低維線性不可分問題轉換為高維線性可分問題。
    的頭像 發表于 05-20 10:41 ?604次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>機(核函數的定義)

    支持向量機(多類問題之1類對K-1類方式)

    支持向量機可求解二分類問題。當需要求解多分類問題時,支持向量機可將二分類問題的求解方式轉化為多分類問題的求解方式
    的頭像 發表于 06-30 16:07 ?348次閱讀

    支持向量機(多類問題之1類對另1類)

    假設測試樣本需被分為三類,首先需構建三個支持向量機模型
    的頭像 發表于 07-05 16:08 ?377次閱讀
    <b class='flag-5'>支持</b><b class='flag-5'>向量</b>機(多類問題之1類對另1類)
    亚洲欧美日韩精品久久_久久精品AⅤ无码中文_日本中文字幕有码在线播放_亚洲视频高清不卡在线观看
    <acronym id="s8ci2"><small id="s8ci2"></small></acronym>
    <rt id="s8ci2"></rt><rt id="s8ci2"><optgroup id="s8ci2"></optgroup></rt>
    <acronym id="s8ci2"></acronym>
    <acronym id="s8ci2"><center id="s8ci2"></center></acronym>