{
(
x
i
,
y
i
)
}
i
=
1
N
,
x
i
∈
R
p
,
y
i
∈
{
0
,
1
}
逻辑回归是直接对
p
(
y
∣
x
)
p(y|x)
p(y∣x)建模,而高斯判别分析作为概率生成模型,是通过引入类型的先验,通过贝叶斯公式,得到联合分布
p
(
x
,
y
)
=
p
(
x
∣
y
)
p
(
y
)
p(x,y)=p(x|y)p(y)
p(x,y)=p(x∣y)p(y),再对联合分布的对数似然得到参数
贝叶斯公式为
p ( y ∣ x ) = p ( x ∣ y ) p ( y ) p ( x ) p(y|x)=\frac{p(x|y)p(y)}{p(x)} p(y∣x)=p(x)p(x∣y)p(y)
但是由于我们只关心
p
(
y
=
1
∣
x
)
=
p
(
x
∣
y
=
1
)
p
(
y
=
1
)
p
(
x
)
y
^
=
a
r
g
m
a
x
y
∈
{
0
,
1
}
p
(
y
∣
x
)
由于
p
(
y
∣
x
)
∝
p
(
x
∣
y
)
p
(
y
)
=
a
r
g
m
a
x
y
p
(
y
)
⋅
p
(
x
∣
y
)
高斯判别分析我们对数据集作出的假设有,类的先验是二项分布,每一类的似然是高斯分布,即
y
∼
B
(
1
,
ϕ
)
⇒
p
(
y
)
=
{
ϕ
y
y
=
1
(
1
−
ϕ
)
1
−
y
y
=
0
⇒
p
(
y
)
=
ϕ
y
(
1
−
ϕ
)
1
−
y
x
∣
y
=
1
∼
N
(
μ
1
,
Σ
)
x
∣
y
=
0
∼
N
(
μ
2
,
Σ
)
⇒
p
(
x
∣
y
)
=
N
(
μ
1
,
Σ
)
y
⋅
N
(
μ
2
,
Σ
)
1
−
y
因此,最大后验
L
(
μ
1
,
μ
2
,
Σ
,
ϕ
)
=
log
∏
i
=
1
N
[
p
(
x
i
∣
y
i
)
p
(
y
i
)
]
=
∑
i
=
1
N
[
log
p
(
x
i
∣
y
i
)
+
log
p
(
y
i
)
]
=
∑
i
=
1
N
[
log
N
(
μ
1
,
Σ
)
y
i
+
log
N
(
μ
2
,
Σ
)
1
−
y
i
+
log
ϕ
y
i
(
1
−
ϕ
)
1
−
y
i
]
CSDN话题挑战赛第2期
参赛话题:学习笔记