章节2:单变量线性回归

单变量线性回归

目标:求解 minisize{}

  • 代价函数

    又称为平方代价函数或平方误差函数。解决回归问题最常用的手段。

简化问题


通过选取一些离散的 的值我们可以大致画出 之间的关系曲线

图片说明

学习算法的优化目标就是找到令 最小的情况, 即图中 的点。对于这组数据集 J(1) 就是我们的目标代价函数。

对于原问题的代价函数,用以下 3D 图和等高线图展示

图片说明

图片说明

梯度下降

算法梗概

  1. 从某个初值出发
  2. 朝梯度下降最快的方向更新参数的值,重复此步骤知道达到局部最优解

以下图片展示了梯度下降公式和参数更新的方法

图片说明

  • 说明

    要同时更新所有参数,如左侧流程所示。

    α 表示学习率,即由于控制朝局部最优解更新参数时的步长。α 太小则学习(朝局部最优解优化)的效率过低 ,α 太大则学习时的效率会提高但很有可能在某次更新时错过局部最优解,甚至无法收敛

图片说明

当然,在我们朝局部最优解优化时,梯度下降算法能够自动采取更小的变化幅度来逼近目标。

图片说明

线性回归的梯度下降

Batch 算法:每一步梯度下降都用全部的数据集

以下为各参数的偏导数

图片说明

全部评论

相关推荐

不愿透露姓名的神秘牛友
昨天 11:30
点赞 评论 收藏
分享
程序员小白条:你是沟通了900个,不是投了900份简历,你能投900份,意味着对面都要回复你900次,你早就找到实习了,没亮点就是这样的,别局限地区,时间投的也要早,现在都要7月了
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
07-08 12:10
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务