第四章单元测试
  1. 在属性划分中,信息增益越大,结点的纯度()

  2. A:变为零 B:提升越大 C:不变 D:降低越快
    答案:提升越大
  3. 决策树算法的泛化性能提升,则验证集精度()

  4. A:降为零 B:降低 C:不变 D:提高
  5. 多变量决策树中的非叶子节点是对()属性的线性组合进行测试。

  6. A:零个 B:若干个 C:所有 D:一个
  7. 决策树的结点包含()

  8. A:内部结点 B:结点 C:叶结点 D:根结点
  9. 决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。

  10. A:错 B:对
  11. 决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。

  12. A:对 B:错
  13. 决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树

  14. A:错 B:对
  15. 决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。

  16. A:对 B:错
  17. 决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。

  18. A:错 B:对
  19. 基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率

  20. A:对 B:错
  21. 预剪枝策略降低了过拟合风险。

  22. A:错 B:对
  23. 基尼值可以度量样本集合的纯度。


  24. A:对 B:错
  25. 现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性

  26. A:错 B:对
  27. 剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。

  28. A:对 B:错

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(2) dxwkbang
返回
顶部