第三章单元测试
  1. 有关决策树的说法哪个是错误的?

  2. A:对新样本起到分类预测的作用 B:决策树的深度越大越好 C:决策树的算法和神经网络的原理不一样 D:可以转化为决策规则
    答案:决策树的深度越大越好
  3. 有关决策树与特征工程的关系,以下说法错误的是?

  4. A:决策树可以得到对分类重要的属性,因此可以作为分类特征获取的一种方法。 B:如果要了解影响签署合同快慢的主要因素,可以使用决策树算法。 C:决策树获得的特征可以作为其他算法(例如回归算法的自变量)输入的依据。 D:决策树获得的特征是区分不同类别的最优特征。
  5. 下面有关支持向量机错误的说法是?

  6. A:支持向量机是把高维的数据投影到低维的空间进行分类。 B:支持向量机一般处理两分类的问题。 C:对于小样本集,支持向量机的分类准确度可能优于其他对样本数量要求比较高的分类算法。 D:支持向量机既可以处理线性可分的问题,也可以处理非线性可分的问题。
  7. 以下哪些不是贝叶斯网络的应用场景?

  8. A:机器故障诊断 B:招聘人才选拔规则 C:中文分词 D:根据客户消费行为对其进行分组
  9. 下面有关线性判别分析错误的说法是哪个?

  10. A:通过对原始的数据进行线性变换,使得不同类的样本尽量分开。 B:线性判别分析中线性变换可以使同类样本的方差变大。 C:提高不同类样本的可分性。 D:线性变换可以使不同类别样本的距离加大。
  11. 下面有关随机森林的说法哪个是错误的?

  12. A:类似装袋法的样本抽样方法,保证每棵树的学习样本集的多样性。 B:随机森林训练后只需选择性能最好的树最为预测模型。 C:每颗树都是从属性集随机抽取一定数目的属性作为候选的特征。 D:随机森林是一种集成算法,可以使用CART等基学习器提高分类的性能。
  13. 如果发现决策树模型的检验结果达不到要求,可以执行下面哪些方法进行改进?

  14. A:修改用户的需求。 B:补充或调整样本的选择,并加强样本的预处理。 C:对算法的选择以及参数的调整进行优化。 D:采用多种算法组合。
  15. 以下哪个算法不是基于规则的分类器 ?

  16. A:C5.0 B:贝叶斯分类器 C:ID3 D:C4.5
  17. 如果从员工的日常表现数据预测其升职的可能性可以使用下面哪种机器学习方法?

  18. A:线性回归分析 B:决策树类算法 C:聚类分析 D:关联分析
  19. 以下哪个指标不能用于决策树的性能评价指标?

  20. A:召回率 B:ROC曲线下的面积AUC C:准确率 D:决策树规则的数目
  21. 以下关于人工神经网络(ANN)的描述正确的说法是?

  22. A:只能用于分类 B:神经网络对训练数据中的噪声不敏感,因此数据质量可以差一些也没关系 C:不能确定输入属性的重要性 D:训练ANN是一个很耗时的过程
  23. 神经网络由许多神经元(Neuron)组成,下列关于神经元的陈述中哪一个是正确的?


  24. A:

    一个神经元可以有多个输入和多个输出

    B:

    一个神经元可以有多个输入和一个输出

    C:

    其他选项都正确

    D:

    一个神经元可以有一个输入和多个输出

  25. 有关前馈神经网络的认识正确的是?

  26. A:神经网络训练过程是拟合训练数据模式的过程 B:神经网络训练后很容易得到分类的规则 C:神经网络模型的分类能力比决策树好 D:神经网络可用于分类和聚类
  27. 下面关于感知机的说法中正确的是?

  28. A:其他都不对 B:某一神经元可以连接下一层的多个神经元,表示该神经元有多个输出 C:在感知机中引入激活函数可以解决与异或问题(XOR) D:单个感知机是线性回归的训练过程
  29. 在一个神经网络里,确定每一个神经元的权重和偏差是模型拟合训练样本的目标,比较有效的办法是什么?


  30. A:

    根据人工经验随机赋值。

    B:

    其他选项都不正确

    C:

    赋予一个初始值,然后迭代更新权重,直至代价函数取得极小。

    D:

    搜索所有权重和偏差的组合,直到得到最佳值。

  31. 有关神经网络训练时使用的学习率参数说法正确的是

  32. A:网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡。 B:学习率过大更容易导致训练陷入局部极小值。 C:学习率可以与其他网络参数一起训练,对降低代价函数是有利的。 D:学习率可以随着训练误差动态调整效果更好。
  33. 激活函数通过具有以下哪些性质?

  34. A:单调性 B:计算简单 C:可微性 D:非线性
  35. 在神经网络训练中,有关学习率调整说法错误的是?

  36. A:学习率可以根据损失函数(代价函数)减少的快慢动态调整。 B:固定学习率设置太大可能会使神经网络训练震荡不收敛。 C:学习率太小会使神经网络的训练迅速达到极小值。 D:学习率设置不当会引起神经网络过拟合。
  37. 减少神经网络过拟合可以通过增加网络的神经元个数或层数解决。

  38. A:错 B:对
  39. BP神经网络在训练过程中,损失函数可能比较大,但随着训练的进行,损失函数基本不变化了,这种现象说明神经网络陷入全局最优解

  40. A:对 B:错

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(4) dxwkbang
返回
顶部