第七章单元测试
  1. Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。( )

  2. A:对 B:错
    答案:对
  3. Adaboost方法不仅可以用于设计弱分类器,还可以用于设计弱预测器。( )

  4. A:对 B:错
  5. 相较于与BP神经网络的弱分类器,基于Adaboost强分类器的分类模型可以具有更高的分类准确率。( )

  6. A:对 B:错
  7. Adaboost算法在样本训练集使用过程中,对其中的关键分类特征集进行多次挑选,逐步训练分量弱分类器,用适当的阈值选择最佳弱分类器,最后将每次迭代训练选出的最佳弱分类器构建为强分类器。( )

  8. A:错 B:对
  9. Aadboost 算法系统具有较高的检测速率,但是容易出现过拟合现象。( )

  10. A:错 B:对
  11. 以下哪些内容是Adabosst权值更新方法。( )

  12. A:计算弱分类器的权值;
    B:集合多个弱分类器成一个最终的强分类器。
    C:找到误差最小的弱分类器;
    D:更新下一轮样本的权值分布;
    E:初始化权值分布;
  13. AdaBoost中基础分类器的权重设置策略存在的问题有( )。

  14. A:不能保证是最优解 B:不能根据测试样本进行自适应调整
    C:需要用户进行手工设置 D:计算复杂
  15. 集成学习(ensemble learning)通过构建并结合多个学习器(learner)来完成学习任务,目前集成学习主要分为两大类,以下哪些算法中个体学习器是串行序列化生成的。( )。

  16. A:boosting B:bagging C:Random Forest D:Adaboost
  17. AdaBoost算法的优点有:( )。

  18. A:adaboost是一种有很高精度的分类器。
    B:当使用简单分类器时,计算出的结果是可以理解的。而且弱分类器构造极其简单。
    C:可以使用各种方法构建子分类器,Adaboost算法提供的是框架。
    D:简单,不用做特征筛选。
  19. 由于AdaBoost是boosting的改进方法,而且性能比较稳定,故在实际中一般都直接使用AdaBoost而不会使用原始的boosting。( )

  20. A:错 B:对

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(3) dxwkbang
返回
顶部