首页 > 试题广场 >

关于线性回归的描述,以下正确的有:

[不定项选择题]
关于线性回归的描述,以下正确的有:
  • 基本假设包括随机干扰项是均值为0,方差为1的标准正态分布
  • 基本假设包括随机干扰项是均值为0的同方差正态分布
  • 在违背基本假设时,普通最小二乘法估计量不再是最佳线性无偏估计量
  • 在违背基本假设时,模型不再可以估计
  • 可以用DW检验残差是否存在序列相关性
  • 多重共线性会使得参数估计值方差减小
悟头像
一元线性回归的基本假设有
1、随机误差项是一个期望值或平均值为0的随机变量;
2、对于解释变量的所有观测值,随机误差项有相同的方差;
3、随机误差项彼此不相关;
4、解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;
5、解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;
6、随机误差项服从正态分布

违背基本假设的计量经济学模型还是可以估计的,只是不能使用普通最小二乘法进行估计。
当存在异方差时,普通最小二乘法估计存在以下问题: 参数估计值虽然是无偏的,但不是最小方差线性无偏估计。

杜宾-瓦特森(DW)检验,计量经济,统计分析中常用的一种检验序列一阶 自相关 最常用的方法。

所谓多重共线性(Multicollinearity)是指线性回归模型中的解释变量之间由于存在精确相关关系或高度相关关系而使模型估计失真或难以估计准确。影响
(1)完全共线性下参数估计量不存在
(2)近似共线性下OLS估计量非有效
多重共线性使参数估计值的方差增大,1/(1-r2)为方差膨胀因子(Variance Inflation Factor, VIF)
(3)参数估计量经济含义不合理
(4)变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外
(5)模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。

发表于 2015-08-20 16:54:04 回复(8)
多重共线性会使方差增大
发表于 2018-09-05 19:39:23 回复(0)
/*对于线性回归模型,当响应变量服从正态分布,误差项满足高斯--马尔科夫条件(零均值、等方差、不相关)时,
回归参数的最小二乘估计是一致最小方差无偏估计。
当然,该条件只是理想化的假定,为的是数学上有相应的较为成熟的结论。其实大多数实际问题都不完全满足这些理想化的假定。
线性回归模型理论的发展正是在不断克服理想化条件不被满足时得到许多新方法。如加权LSE、岭估计、压缩估计、BOX_COX变换等一系列手段。
做实际工作时一定是要超越书本上的理想化条件的。 (这是在小木虫上看到的网友@chenlp211的解释。与大家分享*/

发表于 2016-03-04 22:12:55 回复(1)
多重共线性会使得参数估计值方差增大
发表于 2017-08-22 09:42:54 回复(0)
网友“悟”:
一元线性回归的基本假设有
1、 随机误差项是一个期望值或平均值为0的随机变量;  
2、对于解释变量的所有观测值, 随机误差项有相同的方差;  
3、随机误差项彼此不相关;
4、解释变量是确定性变量,不是随机变量,与随机误差项彼此之间相互独立;
5、解释变量之间不存在精确的(完全的)线性关系,即解释变量的样本观测值矩阵是满秩矩阵;
6、 随机误差项服从正态分布

违背基本假设的计量经济学模型还是可以估计的,只是不能使用普通最小二乘法进行估计。  
当存在异方差时,普通最小二乘法估计存在以下问题: 参数估计值虽然是无偏的,但不是最小方差线性无偏估计。

杜宾-瓦特森(DW)检验,计量经济,统计分析中常用的一种检验序列一阶   自相关  最常用的方法。  

所谓多重共线性(Multicollinearity)是指线性回归模型中的解释变量之间由于存在精确 相关关系 或高度相关关系而使模型估计失真或难以估计准确。影响
(1)完全共线性下参数估计量不存在
(2)近似共线性下OLS估计量非有效
多重共线性使参数估计值的方差增大,1/(1-r2)为方差膨胀因子(Variance Inflation Factor, VIF)
(3)参数估计量经济含义不合理
(4)变量的显著性检验失去意义,可能将重要的解释变量排除在模型之外
(5)模型的预测功能失效。变大的方差容易使区间预测的“区间”变大,使预测失去意义。
发表于 2016-08-21 22:33:58 回复(1)