决策树与信息熵
logistic
SVM
Boost方法——组合权重不同的同一种分类器,得到强分类器
Boost与前向分布算法的联系
二分类学习,boost 错误分类的sample weight和误差率低的分类器权重,可用加法模型、损失函数为指数函数、的前向学习算法解释
回归学习提升树,
利用前向分布算法
f
m
(
x
)
=
f
m
−
1
(
x
)
+
T
(
x
;
Θ
(
m
)
)
,
Θ
(
m
)
=
a
r
g
m
i
n
Θ
(
m
)
(
L
(
y
,
f
m
−
1
(
x
i
)
+
Θ
(
x
i
,
Θ
(
m
)
)
f_m(x)=f_{m-1}(x)+T(x;\Theta(m)),\Theta(m)=arg \underset{\Theta(m)}{min}(L(y,f_{m-1}(x_i)+\Theta(x_i,\Theta(m))
fm(x)=fm−1(x)+T(x;Θ(m)),Θ(m)=argΘ(m)min(L(y,fm−1(xi)+Θ(xi,Θ(m))
if loss function=均方误差损失,
Θ
m
=
(
R
1
,
s
1
)
,
.
.
.
,
(
R
j
,
s
j
)
=
y
−
f
m
−
1
(
x
)
;
\Theta_m={(R_1,s_1),...,(R_j,s_j)}=y-f_{m-1}(x);
Θm=(R1,s1),...,(Rj,sj)=y−fm−1(x);commonly ,由lagrange中值公式,残差用
∂
L
/
∂
f
m
−
1
(
x
)
a
p
p
r
o
a
c
h
\partial L/\partial f_{m-1}(x)approach
∂L/∂fm−1(x)approach
recessive markov——根据隐变量表示出output的最大似然估计
P
(
i
,
o
∣
θ
)
P(i,o|\theta)
P(i,o∣θ),计算其在
P
(
i
,
o
∣
θ
‾
)
P(i,o|\overline\theta)
P(i,o∣θ)下期望,\
拉格朗日乘子法求极大值得\overline\theta,来估计o对应的i,
维比特算法用动态规划求得state 1,2,…,T(近似alg不能保证整体most probably)
conditional random field——T为高维向量 ( X , Y w ) (X,Y_w) (X,Yw)的随机过程(x,t)
根据状态特征 s l ( y i , x , w ) s_l(y_i,x,w) sl(yi,x,w)和transfer feature t k ( y i − 1 , y i , x , w ) t_k(y_{i-1},y_i,x,w) tk(yi−1,yi,x,w)定义条件随机场P(y|x),可以用前向/back学习算法计算, P ( y i ∣ x ) a n d P ( y i , y i + 1 ∣ x ) P(y_i|x)\ and\ P(y_i,y_{i+1}|x) P(yi∣x) and P(yi,yi+1∣x),针对 P w ( y ∣ x ) P_w(y|x) Pw(y∣x)的极大似然估计,梯度下降迭代得w,维比特算法得 y ∗ = a r g m a x y P w ( y ∣ x ) y^*=arg max_{y} P_w(y|x) y∗=argmaxyPw(y∣x)

…

==?==添加一个等概率因子就可以避免