SVM 是是一种二分类模型,基本模型是的定义在特征空间上的间隔最大的线性分类器,SVM的学习策略就是间隔最大化。
以逻辑回归为例,
h
θ
(
x
)
=
g
(
θ
T
x
)
=
1
1
+
e
−
θ
T
x
\displaystyle h_\theta(x)=g(\theta^Tx)=\frac{1}{1+e^{-\theta^Tx}}
hθ(x)=g(θTx)=1+e−θTx1,特征组合经过 sigmoid 函数被映射到
[
0
,
1
]
[0,1]
[0,1] 之间。
对于二分类问题,即可被视为概率,
{
p
(
y
=
1
∣
x
;
θ
)
=
h
θ
(
x
)
,
p
(
y
=
0
∣
x
;
θ
)
=
1
−
h
θ
(
x
)
\displaystyle \left\{
此时,当对样本进行分类时,则可视为
l
a
b
e
l
(
x
)
=
{
1
,
i
f
h
θ
(
x
)
>
0.5
,
0
,
o
t
h
e
r
w
i
s
e
\displaystyle label(x)=\left\{

sigmoid 函数图像如上图所示,即当
θ
T
x
\theta^Tx
θTx 越大时,
θ
T
x
>
>
0
\theta^Tx>>0
θTx>>0 ,
h
θ
(
x
)
h_\theta(x)
hθ(x)越趋近于 1,则将样本
l
a
b
e
l
(
x
)
=
1
label(x)=1
label(x)=1 有更高的可信度;
同样的, 当 θ T x \theta^Tx θTx 越小时, θ T x \theta^Tx θTx <<0, h θ ( x ) h_\theta(x) hθ(x)越趋近于 0,则将样本 l a b e l ( x ) = 0 label(x)=0 label(x)=0 有更高的可信度。
此时,即可视为
l
a
b
e
l
(
x
)
=
{
1
,
i
f
θ
T
x
>
>
0
0
,
θ
T
x
<
<
0
\displaystyle label(x)=\left\{

如上图所示,三个分类边界超平面:
H
1
,
H
2
,
H
3
H_1,H_2,H_3
H1,H2,H3,其中,
H
1
H_1
H1 不能实现完全分类;
H
2
H_2
H2 可以,但分割面与最近的数据点只有很小的间隔,如果测试数据有一些噪声的话可能就会被
H
2
H_2
H2 错误分类(即对噪声敏感、泛化能力弱),可信度不好;
H
3
H_3
H3 以较大间隔将它们分开,这样就能容忍测试数据的一些噪声而正确分类,是一个泛化能力不错的分类器,可信度较好。
对于线性支持向量机来说,数据点若是 p p p 维向量,我们用 p − 1 p-1 p−1 维的超平面来分开这些点。但是可能有许多超平面可以把数据分类。最佳超平面的一个合理选择就是以最大间隔把两个类分开的超平面。因此,SVM选择能够使离超平面最近的数据点的到超平面距离最大的超平面。
标签
y
∈
{
−
1
,
1
}
y\in\{-1,1\}
y∈{−1,1},分类器
h
ω
,
b
(
x
)
=
g
(
ω
T
x
+
b
)
=
{
1
,
i
f
ω
T
x
+
b
≥
0
−
1
,
ω
T
x
+
b
<
0
\displaystyle h_{\omega,b}(x)=g(\omega^Tx+b)=\left\{
给定一个训练样本 ( x ( i ) , y ( i ) ) (x^{(i)},y^{(i)}) (x(i),y(i)),定义该样本相对于决策边界 ( ω , b ) (\omega, b) (ω,b) 的函数间隔为 γ ( i ) = y ( i ) ( ω T x ( i ) + b ) \displaystyle \gamma^{(i)}=y^{(i)}(\omega^Tx^{(i)}+b) γ(i)=y(i)(ωTx(i)+b)。
注意到,若要保证分类结果可信,需使得函数间隔 γ ( i ) \gamma^{(i)} γ(i) 是一个大的正数,因为
{
i
f
y
(
i
)
=
1
,
为
保
证
分
类
结
果
正
确
且
可
信
,
需
使
ω
T
x
(
i
)
+
b
>
0
i
f
y
(
i
)
=
−
1
,
为
保
证
分
类
结
果
正
确
且
可
信
,
需
使
ω
T
x
(
i
)
+
b
<
0
\displaystyle \left\{
因此,一个大的函数间隔代表正确且可信的分类结果。但是,注意到,如果令 ω = 2 ω ; b = 2 b \omega=2\omega;b=2b ω=2ω;b=2b,此时,分类结果不变,但是函数间隔却增大了2倍,这个变化是无意义的。
给定训练集 S = { ( x ( i ) , y ( i ) ) ; i = 1 , ⋯ , n } S=\{(x^{(i)},y^{(i)});i=1,\cdots,n\} S={(x(i),y(i));i=1,⋯,n},将该训练集的函数间隔定义为所有训练样本中函数间隔最小的函数间隔,
即 γ = m i n i = 1 , ⋯ , n γ ( i ) \displaystyle \gamma=min_{i=1,\cdots,n} \gamma^{(i)} γ=mini=1,⋯,nγ(i)

如上图所示,
注意,当 ∣ ∣ ω ∣ ∣ = 1 ||\omega||=1 ∣∣ω∣∣=1 时,几何间隔和函数间隔相同。而 几何间隔具有参数的尺度缩放不变性。如,令 ω = 2 ω ; b = 2 b \omega=2\omega;b=2b ω=2ω;b=2b,几何间隔仍不变。
给定训练集 S = { ( x ( i ) , y ( i ) ) ; i = 1 , ⋯ , n } S=\{(x^{(i)},y^{(i)});i=1,\cdots,n\} S={(x(i),y(i));i=1,⋯,n},将该训练集的几何间隔定义为所有训练样本中几何间隔最小的几何间隔,
即 γ = m i n i = 1 , ⋯ , n γ ( i ) \displaystyle \gamma=min_{i=1,\cdots,n} \gamma^{(i)} γ=mini=1,⋯,nγ(i)
为使分类器的结果是正确的,且具有可信度,不仅需要使得分类面可以将正负样本分开,且需使得正负训练样本之间有一定的间隙,即几何间隔。
假定训练集是线性可分的,存在一个可以将正负样本分开的分类面的超平面集合,要从该集合中找到最优分类面,即最大化 几何间隔。可以将其视为优化问题,即
m
a
x
γ
,
ω
,
b
γ
s
t
.
y
(
i
)
(
ω
T
x
(
i
)
+
b
)
≥
γ
,
i
=
1
,
⋯
,
n
∣
∣
ω
∣
∣
=
1
max_{\gamma,\omega,b}\;\gamma\\ st.\;y^{(i)}(\omega^Tx^{(i)}+b)\ge\gamma,i=1,\cdots,n\\ ||\omega||=1
maxγ,ω,bγst.y(i)(ωTx(i)+b)≥γ,i=1,⋯,n∣∣ω∣∣=1
即最大化
γ
\gamma
γ,使得训练集中每个样本的函数间隔至少是
γ
\gamma
γ,
∣
∣
ω
∣
∣
=
1
||\omega||=1
∣∣ω∣∣=1 确保函数间隔等于几何间隔,
即保证了所有的几何间隔大于等于
γ
\gamma
γ。
上述问题是一个优化问题,但是其约束条件
∣
∣
ω
∣
∣
=
1
||\omega||=1
∣∣ω∣∣=1 是非凸问题,不能使用标准的解决凸优化的问题求解。将其转换为:
max
γ
^
,
ω
,
b
γ
^
∣
∣
ω
∣
∣
s
t
.
y
(
i
)
(
ω
T
x
(
i
)
+
b
)
≥
γ
^
,
i
=
1
,
⋯
,
n
\displaystyle\max_{\hat\gamma,\omega,b}\;\frac{\hat\gamma}{||\omega||}\\ st.\;y^{(i)}(\omega^Tx^{(i)}+b)\ge\hat\gamma,i=1,\cdots,n
γ^,ω,bmax∣∣ω∣∣γ^st.y(i)(ωTx(i)+b)≥γ^,i=1,⋯,n
即转换为最大化
γ
^
∣
∣
ω
∣
∣
\frac{\hat\gamma}{||\omega||}
∣∣ω∣∣γ^,几何间隔和函数间隔通过
γ
=
γ
^
∣
∣
ω
∣
∣
\gamma=\frac{\hat\gamma}{||\omega||}
γ=∣∣ω∣∣γ^联系起来。但是,目标函数
γ
∣
∣
ω
∣
∣
\frac{\gamma}{||\omega||}
∣∣ω∣∣γ 依然是非凸函数。
注意到,对 ω , b \omega,b ω,b 参数的尺度缩放不影响最终结果。因此,若对 ω , b \omega,b ω,b 进行尺度缩放,使得他们对应的训练集的函数间隔 γ ^ = 1 \hat\gamma=1 γ^=1。
此时,目标函数则变为 最大化
γ
^
∣
∣
ω
∣
∣
=
1
∣
∣
ω
∣
∣
\frac{\hat\gamma}{||\omega||}=\frac{1}{||\omega||}
∣∣ω∣∣γ^=∣∣ω∣∣1,这相当于最小化
∣
∣
ω
∣
∣
2
||\omega||^2
∣∣ω∣∣2,此时,优化问题变为:
min
ω
,
b
1
2
∣
∣
ω
∣
∣
2
s
t
.
y
(
i
)
(
ω
T
x
(
i
)
+
b
)
≥
1
,
i
=
1
,
⋯
,
n
\displaystyle\min_{\omega,b}\;\frac{1}{2}||\omega||^2\\ st.\;y^{(i)}(\omega^Tx^{(i)}+b)\ge1,i=1,\cdots,n
ω,bmin21∣∣ω∣∣2st.y(i)(ωTx(i)+b)≥1,i=1,⋯,n
此时,该问题变为一个凸二次目标函数,同时约束只有线性约束。它的解就是 最优间隔分类器。


为利用拉格朗日方法求解,这里将原问题转化为:
min
ω
,
b
1
2
∣
∣
ω
∣
∣
2
s
t
.
g
i
(
ω
)
=
−
y
(
i
)
(
ω
T
x
(
i
)
+
b
)
+
1
≤
0
,
i
=
1
,
⋯
,
n
\displaystyle\min_{\omega,b}\;\frac{1}{2}||\omega||^2\\ \\ st.\;g_i(\omega)=-y^{(i)}(\omega^Tx^{(i)}+b)+1\le0,\;i=1,\cdots,n
ω,bmin21∣∣ω∣∣2st.gi(ω)=−y(i)(ωTx(i)+b)+1≤0,i=1,⋯,n
而KKT的互补松弛条件,即当训练集中有样本点的函数间隔明确等于 1 时(此时对应着
g
i
(
ω
)
=
0
g_i(\omega)=0
gi(ω)=0)。如下图所示,最大分隔边界的超平面如实线所示。间隔最小的点事距离决策面最近的点。此处有三个点(两个正样本,一个负样本),虚线穿过这三个点与决策面平行。
α
i
\alpha_i
αi 分别对应着这三个训练样本点。这三个样本点就是 支持向量。

实际问题中支持向量的个数远小于训练集的样本数。在决定最佳分类面时只有支持向量起作用,而其他数据点并不起作用。

