机器学习基础——线性回归数学原理

线性回归

对于给定数据集,其中。线性回归的目的是找到一个函数

使得线性模型的预测值与真实值尽可能接近。通常选用均方误差来判断其接近程度,即

当均方误差最小时,即可求得最优线性回归模型。此时

表示的解。我们只需要求得均方误差在最小值时的值,因此均方误差的常数项可忽略。

一元线性回归

当数据集中的维度为1时,即,此时为标量,则对于给定数据集,线性回归给出的模型为

此时也是标量。易证均为开口向上且恒大于0的二次函数,因此我们可以使用二次函数对称轴公式或求导来确定该函数的最小值。这里选择求导的方法。将分别对求导:

令上式等于0,得到

alt 特别的,对于(是常数)这类直线,斜率无法被表示,因此回归方程不存在。

多元线性回归

最小二乘法

对概述中的式子,我们令

求导得

是满秩矩阵时,令上式等于0可得

将其代入一元线性回归,仍有效。

alt

过拟合与正则化

在多元线性回归中,当特征维度较大而样本量相对不足时,最小二乘法容易出现过拟合(Overfitting)现象。过拟合是指模型在训练集上表现很好(均方误差很小),但在未知数据上泛化能力差。

造成过拟合的常见原因包括:

  1. 特征过多或特征之间高度相关:导致接近奇异矩阵(不满秩),最小二乘解不稳定。
  2. 模型复杂度过高:参数过多使得模型倾向于拟合训练数据中的噪声。

为了缓解过拟合,常用手段是正则化(Regularization):在损失函数中增加一个关于模型参数的惩罚项,限制参数的大小,从而降低模型复杂度。一般化的正则化目标函数为:

其中为正则化系数(超参数),为惩罚项。越大,对参数的约束越强;时退化为普通最小二乘法。

根据惩罚项的不同选取,可以得到不同的正则化方法。常见的有以下几种:

  • L1正则化,对应LASSO回归。
  • L2正则化,对应岭回归。
  • 弹性网络(Elastic Net):同时结合L1和L2正则化:

正则化的几何解释

正则化的效果可以通过约束形式(而非拉格朗日形式)直观理解。以二维权重为例:

  • 蓝色椭圆代表最小二乘损失的等高线,椭圆中心为无正则化时的最优解。
  • 彩色区域代表正则化约束(限制的范围),正则化回归的解就是等高线与约束区域的切点

L1与L2正则化几何解释

越大,约束区域越小,正则化回归的解离OLS最优解越远:

正则化系数\lambda的影响

如上图所示:

  • L2正则化(圆形约束):切点通常不在坐标轴上,即,权重被压缩但不会为零。
  • L1正则化(菱形约束):由于菱形存在"尖角"(顶点在坐标轴上),等高线更容易在顶点处与菱形相切,使得某个权重恰好为零(图中),从而产生稀疏解。

LASSO回归

LASSO(Least Absolute Shrinkage and Selection Operator)回归在最小二乘损失的基础上增加L1正则化项,其目标函数为:

其中为正则化系数,为权重向量的L1范数(包含偏置或不包含均可,通常不对偏置做正则化)。

L1正则化的几何解释

L1正则化的等值线为菱形(如二维时为旋转的正方形)。当等值线与最小二乘损失的等高线(椭圆)相切时,切点更容易落在坐标轴上,这意味着某些特征的权重恰好为0。因此LASSO回归具有特征选择(Feature Selection)的能力——它能自动将不重要的特征权重压缩为零,从而得到稀疏模型。

L1正则化的特点

  1. 稀疏性:倾向于产生稀疏解,自动进行特征选择。
  2. 无可解析解:由于L1范数的绝对值函数在零点不可导,LASSO没有像最小二乘法那样的闭式解,通常需要使用坐标下降法(Coordinate Descent)或近端梯度下降法(Proximal Gradient Descent)等迭代算法求解。
  3. 适用场景:当特征维度很高、怀疑大部分特征与目标无关时,LASSO回归尤为适用。

坐标下降法求解

坐标下降法的基本思想是:每次固定除一个变量外的所有变量,对这一个变量进行一维优化,交替进行直至收敛。对于LASSO回归中的第个权重,更新公式为(省略偏置项的推导):

其中软阈值函数(Soft Thresholding):

岭回归

岭回归(Ridge Regression)在最小二乘损失的基础上增加L2正则化项,其目标函数为:

其中为正则化系数,为权重向量的L2范数的平方。

闭式解

与LASSO不同,岭回归的目标函数是二次的、可微的,因此存在闭式解。将目标函数对求导并令其等于0:

整理得:

因此岭回归的闭式解为:

其中的单位矩阵。在普通最小二乘法中,闭式解为,要求可逆。然而,当特征之间存在共线性(某些列线性相关),或特征维度大于样本数时,将不满秩,即存在为零的特征值,导致矩阵不可逆(奇异)。岭回归通过在的对角线上添加,对所有特征值进行了"抬升":设的特征值为(均),则的特征值为。由于

因此即使某些(矩阵奇异),加扰动后所有特征值都严格大于零变为正定矩阵,逆矩阵始终存在。此外,当接近奇异(某些)时,极大,解的数值极不稳定;添加后,被限制在以内,显著提升了数值稳定性。这也是岭回归被称为"收缩方法"的原因——较大的特征值对应的权重受影响较小,而较小的特征值对应的权重被显著收缩。

L2正则化的几何解释

L2正则化的等值线为圆形(球面),当与最小二乘损失的等高线相切时,切点不会落在坐标轴上,因此权重不会恰好为零。L2正则化的作用是将所有权重均匀地向零收缩,但不会产生稀疏解。

L2正则化的特点

  1. 权重收缩:所有权重被均匀压缩,但不会变为零,因此不具备特征选择能力。
  2. 数值稳定性:通过保证可逆,解决了共线性问题(多重共线性下的某些特征值接近0,导致解不稳定)。
  3. 有闭式解:计算高效,无需迭代。
  4. 适用场景:当特征之间存在较强的多重共线性,或希望保留所有特征而只控制模型复杂度时,岭回归是更好的选择。

弹性网络

弹性网络(Elastic Net)是LASSO回归和岭回归的结合,它同时在目标函数中加入L1和L2正则化项,其目标函数为:

其中:

  • 为整体正则化强度,控制正则化项的总体大小。
  • 为L1与L2的混合比例:
    • 时,退化为LASSO回归。
    • 时,退化为岭回归。
    • 时,同时包含L1和L2正则化的效果。

与LASSO和岭回归的关系

弹性网络旨在克服LASSO回归的两个局限性:

  1. LASSO的样本选择局限:当特征数大于样本数时(),LASSO最多只能选择个特征。弹性网络不受此限制,能够选择超过个特征。
  2. LASSO的共线性处理:当存在一组高度相关的特征时,LASSO倾向于从中随机选择一个而忽略其余。弹性网络则会倾向于同时保留整组相关特征(类似于岭回归的分组效应),同时仍保持一定的稀疏性。

求解方法

弹性网络同样没有闭式解,常用的求解方法为坐标下降法。对于第个权重,更新公式为:

其中仍为软阈值函数,与LASSO的区别在于分母增加了项(来自L2正则化的贡献),使得权重更新更加稳定。

弹性网络的特点

  1. 兼具稀疏性与稳定性:L1正则化提供特征选择能力(稀疏性),L2正则化提供权重的稳定性(处理共线性)。
  2. 分组效应:对于高度相关的特征组,弹性网络倾向于同时保留或同时剔除,而非像LASSO那样随机选取一个。
  3. 超参数调优:需要同时调整两个超参数,通常通过交叉验证(如网格搜索)来选择最优组合。
  4. 适用场景:当特征维度高、特征之间存在分组相关性(多共线性),且同时希望进行特征选择时,弹性网络是理想的选择。

三种正则化方法的比较

下面以20维特征、4个真实非零特征的模拟数据为例,对比三种方法的权重分布(红色虚线标记真实非零特征位置):

三种正则化方法的高维稀疏对比

从图中可以直观看出:

  • OLS:所有特征都分配了非零权重,存在过拟合风险。
  • 岭回归:所有权重被压缩,但均不为零,不具备特征选择能力。
  • LASSO:大部分权重被压缩为零,仅保留少数非零权重,实现了特征选择。
#ai算法工程师#
全部评论

相关推荐

评论
1
1
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务