首页 > 试题广场 >

GBDT、XGBoost、Random Forest、Lig

[问答题]
GBDT、XGBoost、Random Forest、LightGBM分别是什么?它们的原理和区别是什么?
BAGGING 是并行多个模型独立训练,结果投票获得,BOOSTING 串行 多个模型依次训练,后续模型修正前序模型的错误。
发表于 2025-10-14 19:52:46 回复(0)
随机森林是并行训练多个模型,最后通过投票得到最终的结果预测,降低方差,防止过拟合。GBDT、XGBoost、LightGBM都是串行训练,在得到上一轮结果的基础上进行训练,后续的模型修正前序模型的错误。
发表于 2026-04-23 16:45:32 回复(0)
bagging (并行): 并行多个模型独立训练,结果投票或平均。降低方差,防止过拟合。XGBoost. Boosting(串行): 模型按顺序依次训练,后续模型修正前序模型的错误。降低偏差,提升精度。GBDT、XGBoost、LightGBM 。
发表于 2026-04-02 15:23:04 回复(0)
RF 属于bagging ,通过投票或者回归平均降低方差以减少过拟合; XGBoost,lightGBM属于boosting,通过修复上一轮样本带来的错误,降低残差减少欠拟合
发表于 2026-03-14 02:39:52 回复(0)