0
点赞
收藏
分享

微信扫一扫

详解支持向量机-软间隔SVM-模型定义【白板推导系列笔记】

我们的训练数据通常不是理想的线性可分,有时甚至是线性不可分的数据。对于存在噪声的一些数据,我们应该允许一点分类错误,因此我们需要对目标函数进行一些调整:

$$

\mathop{\text{min }}\limits_{\omega,b} \frac{1}{2}\omega^{T}\omega+\text{loss}

$$

最简单的想法,我们可以让loss为支持向量另一侧的向量以及误分类的向量,即

$$

\text{loss}=\sum\limits_{i=1}^{N}\text{I} \left{y_{i}(\omega^{T}x_{i}+b)<1\right}

$$

显然这个函数是不连续的,因此是不可导的,不利于优化求解,因此不使用这种方法

再考虑loss为支持向量另一侧的向量以及误分类的向量到过支持向量平行于超平面的距离的和,即

$$

\begin{aligned}

&\left{\begin{aligned}&如果y_{i}(\omega^{T}x_{i}+b)\geq 1,\text{loss}=0\

&如果y_{i}(\omega^{T}x_{i}+b)<1,\text{loss}=1-y_{i}(\omega^{T}x_{i}+b)\end{aligned}\right.\

\Rightarrow &\text{loss}=\max \left{0,1-y_{i}(\omega^{T}x_{i}+b)\right}

\end{aligned}

$$

$\text{loss}=\max \left{0,1-y_{i}(\omega^{T}x_{i}+b)\right}$也被称为合页损失函数,如下图

![[附件/Pasted image 20221002180124.png|400]]

 

因此软间隔SVM可以被表达为

$$

\left{\begin{aligned}&\mathop{\text{min }}\limits_{\omega,b} \frac{1}{2}\omega^{T}\omega+C \sum\limits_{i=1}^{N}\max \left{0,1-y_{i}(\omega^{T}x_{i}+b)\right}\

&s.t.y_{i}(\omega^{T}x_{i}+b)\geq 1,i=1,2,\cdots,N\end{aligned}\right.

$$

现在我们令$\xi_{i}=1-y_{i}(\omega^{T}x_{i}+b),\xi_{i}\geq 0$($\xi_{i}$可以理解为向量到过支持向量平行于超平面的距离),因此上式转化为

$$

\left{\begin{aligned}&\mathop{\text{min }}\limits_{\omega,b} \frac{1}{2}\omega^{T}\omega+C \sum\limits_{i=1}^{N}\xi_{i}\&\begin{aligned} s.t.&y_{i}(\omega^{T}x_{i}+b)\geq 1-\xi_{i}\&\xi_{i}\geq 0\end{aligned}\end{aligned}\right.

$$

 

转化成这个式子每一步都能看懂,但总觉得自己哪里没理解

求解在《统计机器学习》里面有,可以去看看

举报

相关推荐

0 条评论