首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
GBDT、XGBoost、Random Forest、Lig
[问答题]
GBDT、XGBoost、Random Forest、LightGBM分别是什么?它们的原理和区别是什么?
添加笔记
求解答(0)
邀请回答
收藏(31)
分享
纠错
4个回答
添加回答
1
爱吃香菜的杰克是我的神
BAGGING 是并行多个模型独立训练,结果投票获得,BOOSTING 串行 多个模型依次训练,后续模型修正前序模型的错误。
发表于 2025-10-14 19:52:46
回复(0)
0
六元不圆
随机森林是并行训练多个模型,最后通过投票得到最终的结果预测,降低方差,防止过拟合。GBDT、XGBoost、LightGBM都是串行训练,在得到上一轮结果的基础上进行训练,后续的模型修正前序模型的错误。
发表于 2026-04-23 16:45:32
回复(0)
0
Jerryyyytse
bagging (并行): 并行多个模型独立训练,结果投票或平均。降低方差,防止过拟合。XGBoost. Boosting(串行): 模型按顺序依次训练,后续模型修正前序模型的错误。降低偏差,提升精度。GBDT、XGBoost、LightGBM 。
发表于 2026-04-02 15:23:04
回复(0)
0
Raymond_030927
RF 属于bagging ,通过投票或者回归平均降低方差以减少过拟合; XGBoost,lightGBM属于boosting,通过修复上一轮样本带来的错误,降低残差减少欠拟合
发表于 2026-03-14 02:39:52
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
来自:
2025年-华为-AI...
难度:
4条回答
31收藏
561浏览
热门推荐
相关试题
说下卷积层、池化层、全连接层各自作...
评论
(2)
来自
2025年-华为-AI软...
你做过哪些数据预处理,具体对效果和...
评论
(1)
来自
2025年-华为-AI软...
常见的数据归一化/标准化方式你怎么...
评论
(2)
来自
2025年-华为-AI软...
过拟合常见的解决方法有哪些?各自的...
评论
(11)
来自
2025年-华为-AI软...
卷积、空洞卷积、深度可分离卷积、反...
评论
(0)
来自
2025年-华为-AI软...
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题