首页
题库
面试
求职
学习
竞赛
More+
所有博客
搜索面经/职位/试题/公司
搜索
我要招人
去企业版
登录 / 注册
首页
>
试题广场
>
GBDT、XGBoost、Random Forest、Lig
[问答题]
GBDT、XGBoost、Random Forest、LightGBM分别是什么?它们的原理和区别是什么?
添加笔记
求解答(0)
邀请回答
收藏(31)
分享
纠错
4个回答
添加回答
1
爱吃香菜的杰克是我的神
BAGGING 是并行多个模型独立训练,结果投票获得,BOOSTING 串行 多个模型依次训练,后续模型修正前序模型的错误。
发表于 2025-10-14 19:52:46
回复(0)
0
六元不圆
随机森林是并行训练多个模型,最后通过投票得到最终的结果预测,降低方差,防止过拟合。GBDT、XGBoost、LightGBM都是串行训练,在得到上一轮结果的基础上进行训练,后续的模型修正前序模型的错误。
发表于 2026-04-23 16:45:32
回复(0)
0
Jerryyyytse
bagging (并行): 并行多个模型独立训练,结果投票或平均。降低方差,防止过拟合。XGBoost. Boosting(串行): 模型按顺序依次训练,后续模型修正前序模型的错误。降低偏差,提升精度。GBDT、XGBoost、LightGBM 。
发表于 2026-04-02 15:23:04
回复(0)
0
Raymond_030927
RF 属于bagging ,通过投票或者回归平均降低方差以减少过拟合; XGBoost,lightGBM属于boosting,通过修复上一轮样本带来的错误,降低残差减少欠拟合
发表于 2026-03-14 02:39:52
回复(0)
这道题你会答吗?花几分钟告诉大家答案吧!
提交观点
问题信息
来自:
2025年-华为-AI...
难度:
4条回答
31收藏
560浏览
热门推荐
相关试题
常见的聚类算法有哪些?如何评价聚类效果?
评论
(3)
来自
2025年-华为-AI软...
概括一下主流大模型的共性与差异(训...
评论
(0)
来自
2025年-华为-AI软...
卷积、空洞卷积、深度可分离卷积、反...
评论
(0)
来自
2025年-华为-AI软...
你怎么把 Transformer ...
评论
(3)
来自
2025年-华为-AI算...
扫描二维码,关注牛客网
意见反馈
下载牛客APP,随时随地刷题