
我们预测的 hθ(x)的值应该在 [0,1] 之间,
观察下图激活函数 g(z)的图像,发现它的值域正好为(0,1),单点递增,与y轴交于(0,0.5)

激活函数的y值分布在[0,1]内,对于分类问题,我们可以使用假设函数hθ(x)的值来表示满足特征的概率。

决策边界:将不同类型的数据用决策边界分开
决策边界不是数据集的属性,而是假设本身的及其参数的一个属性
只要有确定的参数值(θ向量)我们就可以直接得到决策边界,并不需要通过绘制训练集来确定决策边界
假设函数的预测思路:

讨论下面的这个假设函数

目标:如何获得逻辑回归中的参数θ向量(如何拟合参数θ)
由于预测函数hθ(x)为复杂的非线性函数,所以代价函数J(θ)不一定是凸函数convex。如果使用梯度下降法,将会出现许多局部最优点,那么可能不会收敛到全局最优解处

所以需要修改代价函数为凸函数,使代价函数所代表的意思不变,然后仍然使用梯度下降算法来解决问题
逻辑回归中使用对数函数来作为代价函数,能够保证是凸函数,我们分别绘制出 y=1 与 y =0 情况下的 cost 函数图像:


由于y的取值只有0、1,可以将上面两个函数合成一个,得到**代价函数J(θ)**为:



高级优化算法与梯度下降算法相比,能大大提高逻辑回归运行的速度,也能使得算法更加适合解决大型的机械学习问题
我们可以使用下面这几种更高级的算法来求 代价函数以及其导数项
gradient descent
conjugate gradient
BFGS
L-BFGS
这些高级优化算法中内置了一个智能内循环(称为线搜索算法),它可以自动尝试不同的学习率并自动选择一个好的学习率,甚至可以为每次迭代选择不同的学习率,
高级优化算法的优点:(相比与梯度算法)
高级优化算法的优点:(相比与梯度算法)

多元分类问题:也叫做“一对多” 的分类问题,
一对多分类的原理:(也可称为“一对余”方法)
讨论下面的例子:对下面的图形进行分类

如上图所示,我们可以把它看成三个独立的委员分类问题,
针对每一个独立的二元分类问题可以创建不同的新的“伪”训练集,如右图所示(将其他的两类都设为负类)
对每个特征单独训练,分别拟合出一个逻辑回归分类器,得到判断边界,
拟合出三个分类器,h1(x)、h2(x)、h3(x),得到拟合分类器 h_θ^(i)(x) ;来尝试估计出:给定 x 和 θ 时,y = i 的概率
在三个分类器上运行输入 x ,然后选择 h 值最大的类别,也就是要选择分类器,选择出三个中可信度最高、效果最好的那个分类器,无论 i的值为多少,都能能到一个最高的概率值,则预测 y 就是那个值

如果觉得文章不错的话,可以给我点赞支持鼓励一下哦
关注我,我们一起学习、一起进步!