【有书共读】机器学习与优化第四章

传统的线性回归模型(一组输入输出对的线性逼近)通过最小化线性模型预测值与
训练样本输出值之间的平方误差和来找到可能的最好的实验数据线性拟合。最小化可以是
“”一招制胜”,通过推广线性代数中的矩阵求道,也可以通过迭代的方式逐步修改模型参数
并降低误差。广义道法可能是拟合实验数据的最常用的技术。
在分类中,线性模型旨在用线条、平面与超平面来分离实例。要确定分离平面,人们
可以要求把输入值映射到两个不同的输出值(如+1和-1)并使用回归。考虑到泛化性,
找到健壮的分离超平面的更先进的技术是下面章节中将会描述的支持向量机。
计算机中不存在实数,它们只能用有限大小的二进制数字通近,而这可能会导致误差
和不稳定(样本点的小扰动导致结果变化较大)。
一些机器学习方法与生物大脑从经验和功能中的学习方式存在松收的联系。 学习骑自
行车与符号逻辑和方程无关,而是关于如何进行逐步调整以...迅速从初始的事故中恢复过来。
这一章主要是讲线性模型
    有线性代数的知识就好理解了。
    处理非线性函数关系的技巧是加入一个常数项来解决,得到一个非线性属性,在其上仍用线性模型。
    用于分类的线性模型有梯度下降法,广义逆矩阵法,最小二乘法
线性函数为何成功? 应为自然不允许跳跃,例如微分知识。
如果没有办法来改变训练样本点的选择,而样本点又没有如愿的分布时,用以保证数值稳定性的数学工具就是岭回归。它需要在最小化二乘误差函数中加入一个正则化项。

#机器学习#
全部评论

相关推荐

头像
05-27 20:32
已编辑
深度学习
工行数据中心 偏运维养老 到手可能18w
点赞 评论 收藏
转发
点赞 收藏 评论
分享
牛客网
牛客企业服务