章节7:Logistic 回归
分类(Classification)
- 二元(本节讨论)
0 表示负类(Negative Class)
1 表示正类(Positive Class) - 多分类问题(后续详细讨论)
如果将线性回归应用于分类问题,如设置阈值对结果进行分类,
当增加新的样本后, 拟合曲线发现变化可能导致原来的阈值不再适用
通常, 即使所有训练样本的标签都是 , 算法的输出值也会远大于1或远小于0
逻辑回归(Logistic regression)
sigmoid/logistic function, 保证输出值
:
假设陈述
假设函数 表示对于参数矩阵
, 当输入的特征向量为
时, 输出结果
的概率
决策界限(Decision boundary)
既然假设函数 表示概率, 那么我们可以通过这个输出对于最终的分类结果这样界定
, 则
, 则
又因为 , 且
的函数图像我们已知,那么
线性的决策边界
对于下图的例子,现在我们先假定已经选好参数, 根据上述的推导关系, 我们可以很快知道
代表的范围和坐标系中满足条件
的区域是一样的
这条直线就是图中两个簇的决策界限(Decision boundary)
决策界限是假设函数的一个属性, 决定于其参数而非数据集,
后续将讨论如何通过数据集拟合参数
, 而一旦参数确定下来, 也就有了完全确定的决策界限,
实际上我们并不需要通过绘制数据集来确定决策界限非线性的决策边界
通过添加高阶多项式, 我们可以得到更加复杂的决策边界
代价函数(Cost function)
复杂的非线性函数sigmoid代价函数 成为一个非凸函数(Non-convex function), 这样就不能使用梯度下降算法
函数可以理解为惩罚函数
下面这张图很直观地体现了它的作用(此时正确答案 ,
的情况同理)
观察 的过程, 可以发现, 随着 预测值
的值偏离正确答案
, 惩罚函数 Cost 的值也从
, 以此来迫使预测值向正确值修正
简化代价函数和梯度下降
首先来化简一下代价函数的写法, 避免分类讨论的麻烦
接下里, 为了拟合参数 , 需要求解
, 方法依然是梯度下降
其中
虽然参数更新的规则一样, 和线性回归中的不同的是
在线性回归中,
在逻辑回归中,
高级优化算法
- Conjugate gradient
- 共轭梯度法BFGS, L-BFGS
都采用了线搜索算法,自动尝试不同的学习率
不需要手动选择学习率 , 且通常快于梯度下降
多元分类: 一对多(one-vs-all/rest)
如下图例子, 我们将一个三元分类问题转化为 3 个独立的二元分类问题
对于每一个类 , 训练一个分类器来预测数据集中各个样本
的概率
在 3 个分类器中依次输入样本 的值, 选择
对应的第
类作为答案, 即概率最高的那一类