- 决策树若完全按训练集递归生长,往往能把训练样本分得很“细”,但一到未见过的数据就容易出错,即出现过拟合。为缓解这一问题,常用“剪枝”把某些子树整体替换成单个叶子,使模型更简单。
-
现在有一棵用于二分类的二叉决策树(标签1表示正类,0表示负类)。对非叶节点,按“第
个特征 ≤
走左子树,否则走右子树”的规则继续判断;到达叶子时直接输出该节点自带的
。
-
允许在整棵树上任选若干处进行剪枝(把某个内部节点整体替换为叶节点,其输出为该节点给定的
)。请在给定验证集上寻找使 F1 值最大的剪枝方案,输出最优 F1(四舍五入保留6位小数)。
