第四章单元测试
- 在属性划分中,信息增益越大,结点的纯度()
- 决策树算法的泛化性能提升,则验证集精度()
- 多变量决策树中的非叶子节点是对()属性的线性组合进行测试。
- 决策树的结点包含()
- 决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。
- 决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。
- 决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树
- 决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。
- 决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。
- 基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率
- 预剪枝策略降低了过拟合风险。
基尼值可以度量样本集合的纯度。
- 现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性
- 剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。
A:变为零 B:提升越大 C:不变 D:降低越快
答案:提升越大
A:降为零 B:降低 C:不变 D:提高
A:零个 B:若干个 C:所有 D:一个
A:内部结点 B:结点 C:叶结点 D:根结点
A:错 B:对
A:对 B:错
A:错 B:对
A:对 B:错
A:错 B:对
A:对 B:错
A:错 B:对
A:对 B:错
A:错 B:对
A:对 B:错
温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!