章节7:Logistic 回归

分类(Classification)

  • 二元(本节讨论)


    0 表示负类(Negative Class)
    1 表示正类(Positive Class)

  • 多分类问题(后续详细讨论)

如果将线性回归应用于分类问题,如设置阈值对结果进行分类,
当增加新的样本后, 拟合曲线发现变化可能导致原来的阈值不再适用
通常, 即使所有训练样本的标签都是 , 算法的输出值也会远大于1远小于0
图片说明

逻辑回归(Logistic regression)

sigmoid/logistic function, 保证输出值 :

图片说明

假设陈述

假设函数 表示对于参数矩阵 , 当输入的特征向量为 时, 输出结果 的概率

图片说明

图片说明

决策界限(Decision boundary)

既然假设函数 表示概率, 那么我们可以通过这个输出对于最终的分类结果这样界定

, 则
, 则

又因为 , 且 的函数图像我们已知,那么


  • 线性的决策边界
    对于下图的例子,现在我们先假定已经选好参数 , 根据上述的推导关系, 我们可以很快知道
    代表 的范围和坐标系中满足条件 的区域是一样的

    这条直线就是图中两个簇的决策界限(Decision boundary)
    决策界限假设函数的一个属性, 决定于其参数 而非数据集,

    后续将讨论如何通过数据集拟合参数 , 而一旦参数确定下来, 也就有了完全确定的决策界限,
    实际上我们并不需要通过绘制数据集来确定决策界限

    图片说明

  • 非线性的决策边界
    通过添加高阶多项式, 我们可以得到更加复杂的决策边界

    图片说明

代价函数(Cost function)

复杂的非线性函数sigmoid代价函数 成为一个非凸函数(Non-convex function), 这样就不能使用梯度下降算法

图片说明

函数可以理解为惩罚函数
下面这张图很直观地体现了它的作用(此时正确答案 , 的情况同理)
观察 的过程, 可以发现, 随着 预测值 的值偏离正确答案 , 惩罚函数 Cost 的值也从 , 以此来迫使预测值向正确值修正

图片说明

简化代价函数和梯度下降

首先来化简一下代价函数的写法, 避免分类讨论的麻烦



接下里, 为了拟合参数 , 需要求解 , 方法依然是梯度下降

图片说明

其中
虽然参数更新的规则一样, 和线性回归中的不同的是
在线性回归中,
在逻辑回归中,

高级优化算法

  • Conjugate gradient
  • 共轭梯度法BFGS, L-BFGS

都采用了线搜索算法,自动尝试不同的学习率
不需要手动选择学习率 , 且通常快于梯度下降

多元分类: 一对多(one-vs-all/rest)

如下图例子, 我们将一个三元分类问题转化为 3 个独立的二元分类问题
对于每一个类 , 训练一个分类器来预测数据集中各个样本 的概率
在 3 个分类器中依次输入样本 的值, 选择 对应的第 类作为答案, 即概率最高的那一类

图片说明

全部评论

相关推荐

asdasdasdasdas:19岁,不容易啊可能升个本会好点,现在学历歧视太严重了
点赞 评论 收藏
分享
05-29 22:11
门头沟学院 Java
Elastic90:抛开学历造假不谈,这公司的招聘需求也挺怪的,Java开发还要求你有图文识别、移动端开发和c++的经验,有点逆天了。
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务