提示:内容已经过期谨慎付费,点击上方查看最新答案

机器学习

  1. 下列哪一种方法的系数没有闭式(closed-form)解?( )


  2. A:Ridge 回归和 Lasso B:选项中没有正确答案 C:Lasso D:Ridge 回归
    答案:Lasso
  3. 下面是交叉验证的几种方法:
    1. Bootstrap
    2. 留一法交叉验证
    3. 5 折交叉验证
    4. 重复使用两次 5 折交叉验证
    请对上面四种方法的执行时间进行排序,样本数量为 1000。( )


  4. A:2 > 3 > 4 > 1 B:1 > 2 > 3 > 4 C:4 > 1 > 2 >3 D:2 > 4 > 3 > 1
    答案:2>4>3>1
  5. 选项中哪些方法不可以直接来对文本分类?( )


  6. A:决策树 B:kNN C:支持向量机 D:K-Means
    答案:K-means
  7. 选项中关于 bootstrap 说法正确的是?( )


  8. A:从总的 N 个样本中,无放回地抽取 n 个样本(n < N) B:从总的 M 个特征中,有放回地抽取 m 个特征(m < M) C:从总的 N 个样本中,有放回地抽取 n 个样本(n < N) D:从总的 M 个特征中,无放回地抽取 m 个特征(m < M)
    答案:以上全部正确
  9. 为了观察测试 Y 与 X 之间的线性关系,X 是连续变量,使用下列哪种图形比较适合?( )


  10. A:柱形图 B:散点图 C:直方图
    答案:散点图
  11. 智能化中医望诊时,对一幅舌脉图像(伸出舌头的人脸图像),希望把舌头部分从人脸的其他部分划分出来,可以采用以下方法:在该图像中分别在舌头区域与其他区域各画出一个窗口,把在这两个窗口中的象素数据作为训练集,用Fisher准则方法求得分类器参数,再用该分类器对整幅图进行分类。那么这种方法属于:( )


  12. A:非监督学习 B:监督学习 C:半监督学习
    AI参考:正确选项是【B:监督学习】。该方法是在一幅舌脉图像中分别在舌头区域与其他区域各画出一个窗口,把在这两个窗口中的象素数据作为训练集,用Fisher准则方法求得分类器参数,再用该分类器对整幅图进行分类。这种方法需要使用分类器对数据进行分类,属于监督学习。监督学习是指通过使用已知类别标签的数据集来训练模型,并使用该模型对未知数据进行分类或预测。非监督学习是不需要使用标签的数据集进行训练,而是用于聚类等无监督学习任务。半监督学习则是结合了监督学习和非监督学习,利用部分有标签数据和大量无标签数据进行训练。因此,该方法属于监督学习。'
  13. SVM中核技巧(Kernal trick)的作用包括以下哪项?( )

  14. A:防止欠拟合 B:防止过拟合 C:特征降维 D:特征升维

  15. 智能化中医望诊时,对一幅舌脉图像(伸出舌头的人脸图像),希望把舌头部分从人脸的其他部分划分出来,可以采用以下方法:将整幅图的每个象素的属性记录在一张数据表中,然后用某种方法将这些数据按它们的自然分布状况划分成两类。因此每个象素就分别得到相应的类别号,从而实现了舌头图像的分割。那么这种方法属于:( )

  16. A:半监督学习 B:监督学习 C:非监督学习
    AI参考:答案:C:非监督学习题干中描述的方法是将整幅图的每个象素的属性记录在一张数据表中,然后用某种方法将这些数据按它们的自然分布状况划分成两类,实现了舌头图像的分割。这种方法没有使用标签或标记的数据进行训练,也没有使用任何与目标相关的已知标签的信息,因此属于非监督学习。所以,答案为C。'
  17. bootstrap数据是什么意思?( )


  18. A:有放回地从总共N个样本中抽样n个样本 B:有放回地从总共M个特征中抽样m个特征 C:无放回地从总共N个样本中抽样n个样本 D:无放回地从总共M个特征中抽样m个特征

  19. 如果两个变量相关,那么它们一定是线性关系吗?( )


  20. A:是 B:不一定
    AI参考:答案是B:不一定。虽然两个变量之间存在相关性,但是它们不一定是线性关系。在某些情况下,它们可能是非线性的关系,如正弦波、指数函数等。因此,不能简单地根据相关性来判断两个变量之间的线性关系。'
  21. 关于 L1、L2 正则化下列说法正确的是?( )


  22. A:L2 正则化能防止过拟合,提升模型的泛化能力,但 L1 做不到这点 B:L1 正则化得到的解更加稀疏 C:L2 正则化技术又称为 Lasso Regularization D:L2 正则化得到的解更加稀疏
    AI参考:正确选项是:B:L1 正则化得到的解更加稀疏。解释:A. L2 正则化也能防止过拟合,提升模型的泛化能力,这一点是对的,但并不是它的主要优势。其主要优势在于能更好的平衡模型复杂度和预测准确度,使模型更加稳定。B. L1 正则化得到的解更加稀疏,这是对的,因为L1正则化会将权重向0逼近,导致解更加稀疏。C. L2 正则化技术又称为Ridge Regression,这是对的,但不是Lasso Regularization。D. L2 正则化也能防止过拟合,提升模型的泛化能力,得到的解并不一定更加稀疏。所以,综上所述,B选项是正确的。'
  23. 关于欠拟合(under-fitting),下面哪个说法是正确的?( )

  24. A:训练误差较小,测试误差较大 B:训练误差较大,测试误差较大 C:训练误差较大,测试误差较小

  25. 模型的bias很高, 我们如何降低它? ( )


  26. A:增加数据点 B:在特征空间中减少特征 C:在特征空间中增加特征
    AI参考:正确选项是【在特征空间中增加特征】。在特征空间中增加特征可以增加模型的复杂度,从而降低模型的bias。增加数据点虽然可以降低模型的bias,但同时也可能会增加variance,因此不是最佳选择。在特征空间中减少特征可能会使模型过于简单,无法捕捉到数据的复杂模式,同样会导致bias升高。因此,增加特征是最合适的方法。'
  27. 加入使用逻辑回归对样本进行分类,得到训练样本的准确率和测试样本的准确率。现在,在数据中增加一个新的特征,其它特征保持不变。然后重新训练测试。选项中说法正确的是?( )


  28. A:训练样本准确率一定增加或保持不变 B:测试样本准确率一定会降低 C:训练样本准确率一定会降低 D:测试样本准确率一定增加或保持不变

  29. 下面哪句话是正确的?( )


  30. A:机器学习模型的精准度越高,则模型的性能越好 B:增加模型的复杂度,总能减小测试样本误差 C:增加模型的复杂度,总能减小训练样本误差
    AI参考:正确选项是:A:机器学习模型的精准度越高,则模型的性能越好。原因分析:A选项:“机器学习模型的精准度越高,则模型的性能越好”这个选项表述是正确的。机器学习模型的精准度代表模型预测结果的准确性,而模型的性能还涉及到模型的稳定性和运行效率等因素。通常来说,精准度是衡量模型性能的重要指标之一。因此,如果模型的精准度越高,那么模型的性能也会越好。B选项:“增加模型的复杂度,总能减小测试样本误差”这个选项表述不准确。增加模型的复杂度并不能直接减小测试样本误差,而是需要根据模型的特点和数据的特点来选择合适的模型结构和参数设置,以达到减小测试样本误差的目的。C选项:“增加模型的复杂度,总能减小训练样本误差”这个选项表述也是不准确的。模型复杂度的增加并不一定能够减小训练样本误差,有时候反而会增加训练样本误差。因为模型的复杂度增加可能导致过拟合现象的出现,而过拟合现象通常会导致训练样本误差的增加。综上所述,A选项是正确的。'
  31. k-NN 最近邻方法在什么情况下效果较好?( )


  32. A:样本呈团状分布 B:样本呈链状分布 C:样本较少但典型性好 D:样本较多但典型性不好
    AI参考:正确选项是 C:样本较少但典型性好。K-NN 最近邻方法是一种基于距离的分类方法,其效果通常受到样本的典型性和分布情况的影响。当样本较少但典型性好时,即样本集中存在少数几个具有代表性的样本,这些样本能够代表整个样本集的分布和规律,K-NN 方法的效果会比较好。这是因为K-NN 方法主要依靠距离来分类,距离较近的样本被判断为同类样本的可能性较大,而当样本较少时,同类样本之间的距离会更接近,更容易被正确分类。相反,如果样本较多但典型性不好,即样本集中的样本分布比较杂乱,缺乏明显的规律和特征,那么K-NN 方法的效果可能会受到影响,容易出现误判和分类不准确的情况。因此,在样本较少但典型性好的情况下,K-NN 方法的效果会比较好。'
  33. 在数据预处理阶段,我们常常对数值特征进行归一化或标准化(standardization, normalization)处理。这种处理方式理论上不会对下列哪个模型产生很大影响?( )

  34. A:决策树 B:k-NN C:k-Means

  35. 机器学习训练时,Mini-Batch 的大小优选为2个的幂,如 256 或 512。它背后的原因是什么?( )


  36. A:Mini-Batch 为偶数的时候,梯度下降算法训练的更快 B:Mini-Batch 设为 2 的 幂,是为了符合 CPU、GPU 的内存要求,利于并行化处理 C:选项中的说法都不对 D:不使用偶数时,损失函数是不稳定的

  37. 已知坐标系中两点A(2,−2)和B(−1,2),这两点的曼哈顿距离(L1距离)是( )

  38. A:25 B:1 C:7 D:0

  39. Dropout技术在下列哪种神经层中将无法发挥显著优势?( )


  40. A:选项中没有正确答案 B:卷积层 C:仿射层(全连接层) D:RNN层

  41. 变量选择是用来选择最好的判别器子集, 如果要考虑模型效率,我们应该做哪些变量选择的考虑?( )


  42. A:模型是否具有解释性 B:特征是否携带有效信息 C:交叉验证 D:多个变量是否有相同的功能

  43. 我们知道二元分类的输出是概率值。一般设定输出概率大于或等于 0.5,则预测为正类;若输出概率小于 0.5,则预测为负类。那么,如果将阈值 0.5 提高,例如 0.6,大于或等于 0.6 的才预测为正类。则准确率(Precision)和召回率(Recall)会发生什么变化? ( )


  44. A:准确率(Precision)增加或者不变 B:准确率(Precision)减小 C:召回率(Recall)增大 D:召回率(Recall)减小或者不变

  45. 对于划分属性选择,选项中说法正确的是( )


  46. A:选项中说法都不对 B:增益率准则对可取值数目较少的属性有所偏好 C:C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。 D:信息增益准则对可取值数目较多的属性有所偏好

  47. 选项中哪种方法可以用来减小过拟合?( )


  48. A:减小模型的复杂度 B:L2 正则化 C:L1 正则化 D:更多的训练数据

  49. 建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现 3 对变量(Var1 和 Var2、Var2 和 Var3、Var3 和 Var1)之间的相关性分别为 -0.98、0.45 和 1.23。我们能从中推断出什么呢?( )


  50. A:Var1 和 Var2 具有很高的相关性 B:选项中没有正确答案 C:Var3 和 Var1 相关系数为 1.23 是不可能的 D:Var1 和 Var2 存在多重共线性,模型可以去掉其中一个特征

  51. 集成学习中个体学习器多样性增强的主要途径有:( )


  52. A:数据样本扰动 B:输入属性扰动 C:算法参数扰动 D:输出表示扰动
    AI参考:集成学习中个体学习器多样性增强的主要途径有:ABCD四个选项。具体来说,这些途径包括:A: 数据样本扰动 - 通过改变数据集中的样本来增加学习器的多样性。B: 输入属性扰动 - 在特征空间中随机选择输入属性或子空间,创建具有不同输入属性的模型。C: 算法参数扰动 - 在模型训练过程中,使用随机初始化的参数或改变训练算法的参数来创建具有不同特征的模型。D: 输出表示扰动 - 通过改变模型的输出表示方式(例如,使用不同的激活函数或损失函数)来创建具有不同输出表示的模型。综上所述,ABCD四个选项都是集成学习中个体学习器多样性增强的主要途径。'
  53. 以下哪种方法属于判别式模型(discriminative model)?( )

  54. A:隐马尔可夫模型(HMM) B:朴素贝叶斯判别式模型 C:线性判别分析LDA D:支持向量机

  55. 有一些基学习器对数据样本的扰动不敏感,称为稳定基学习器。下列学习器属于稳定基学习器的是:( )


  56. A:线性学习器 B:朴素贝叶斯 C:支持向量机 D:神经网络 E:k近邻学习器
    AI参考:答案是C和E。线性学习器、支持向量机和k近邻学习器对数据的扰动不太敏感,所以属于稳定基学习器。神经网络是一种不稳定的学习器,它的决策边界是基于数据点的映射关系建立的,容易受到训练数据的变化而变化。朴素贝叶斯则是一种基于概率模型的分类器,虽然对特征选择不敏感,但并不是稳定基学习器。所以正确选项是C:支持向量机 和 E:k近邻学习器。'
  57. 我们想要训练一个 ML 模型,样本数量有 100 万个,特征维度是 5000,面对如此大数据,如何有效地训练模型?( )


  58. A:对训练集随机采样,在随机采样的数据上建立模型 B:使用 PCA 算法减少特征维度 C:选项中没有正确答案 D:尝试使用在线机器学习算法

  59. 在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为10万条数据,负样本只有1万条数据,以下合适的处理方法是 ( )

  60. A:将负样本每个权重设置为10,正样本权重为1,参与训练过程 B:将负样本重复10次,生成10万样本量,打乱顺序参与分类 C:从10万正样本中随机抽取1万参与分类 D:直接进行分类,可以最大限度利用数据

  61. 在决策树学习过程中,一般而言,随着划分过程的不断进行,分支节点的”纯度“将越来越高。( )


  62. A:对 B:错
    AI参考:答案是B:错。在决策树学习过程中,随着划分过程的不断进行,分支节点的纯度可能会下降,而不是越来越高。这是因为随着划分过程的进行,一些样本可能会被错误地分配到不同的分支中,导致纯度下降。因此,在决策树学习中,需要不断进行调整和优化,以获得更好的分类效果。"
  63. 给定 n 个数据点,如果其中一半用于训练,另一半用于测试,则训练误差和测试误差之间的差别会随着 n的增加而减小。( )


  64. A:对 B:错

  65. 剪枝(pruning)是决策树学习算法对付"欠拟合"的主要手段,其基本策略有"预剪枝" (pre-pruning)和"后剪枝"(post-pruning)。( )


  66. A:错 B:对
    AI参考:答案:B:对。 剪枝是决策树学习算法对付“欠拟合”的主要手段,其基本策略有“预剪枝”和“后剪枝”。预剪枝是指在决策树生长过程中提前终止树的生长,而后剪枝是在决策树生长完成后,根据一定的准则对树进行剪枝。因此,答案为B。"
  67. 在属性个数比较多或者属性之间相关性较大时,朴素贝叶斯分类器的分类效率比不上决策树模型。( )


  68. A:对 B:错
    AI参考:答案是B:错。在属性个数比较多或者属性之间相关性较大时,朴素贝叶斯分类器的分类效率并不一定比不上决策树模型,因为朴素贝叶斯分类器是基于特征的独立性假设,如果特征之间存在相关性,可能会影响分类器的性能。但是,如果特征之间相关性较小,朴素贝叶斯分类器的分类效率通常会比决策树模型更高。因此,需要根据具体情况来选择合适的分类器。"
  69. 一个循环神经网络可以被展开成为一个完全连接的、具有无限长度的普通神经网络。( )


  70. A:对 B:错

  71. 在训练完 SVM 之后,只保留支持向量,而舍去所有非支持向量,仍然不会影响模型分类能力。( )


  72. A:对 B:错

  73. 如果自变量 X 和因变量 Y 之间存在高度的非线性和复杂关系,那么树模型很可能劣于经典回归方法。( )


  74. A:对 B:错

  75. 决策树的分界面是线性的。( )

  76. A:对 B:错
    AI参考:B 错。决策树的分界面不是线性的,而是一个非线性的、复杂的决策过程。决策树通常用于处理非线性的、复杂的问题,如分类和回归等。因此,决策树的分界面不是线性的。"
  77. 逻辑回归LR是参数模型,支持向量机SVM也是参数模型。( )


  78. A:对 B:错

  79. 监督式学习中存在过拟合,而对于非监督式学习来说,没有过拟合。( )


  80. A:错 B:对

  81. K-means算法中初始点的选择对最终结果没有影响,不同的初始值结果都一样。( )


  82. A:对 B:错

  83. 随机森林中基学习器的多样性不仅来自样本扰动,还来自属性扰动和输出表示扰动。( )


  84. A:错 B:对

  85. ID3决策树学习算法是以信息增益为准则来选择划分属性的。( )

  86. A:对 B:错

  87. 在决策树的划分属性选择中,信息增益准则对可取值数目较少的属性有所偏好,而增益率准则对可取值数目较多的属性有所偏好。( )


  88. A:错 B:对
    AI参考:正确答案是B:对。 决策树的划分属性选择中,信息增益准则和增益率准则都是用于衡量划分后样本集的信息差异,其中信息增益准则更关注属性的信息增益,即划分后样本集的信息熵的减少量,对于可取值数目较少的属性,其信息增益通常较大,因此偏好选择这类属性;而增益率准则则更关注划分后样本集的纯度,即划分后样本集中正例和反例的分布情况,对于可取值数目较多的属性,其划分后的样本集可能更纯,因此偏好选择这类属性。所以本题说法正确,即答案为B。"
  89. SVM对缺失数据敏感,而且当观测样本很多时,SVM方法的效率也不是很高。( )


  90. A:对 B:错
    AI参考:答案是B:错。 SVM方法对缺失数据不敏感,并且当观测样本很多时,SVM方法的效率比较高。SVM是一种有监督学习算法,它可以通过在数据集上构建一个分类器来对样本进行分类。对于缺失数据,SVM可以通过对其他观测样本进行插值或替换等方法进行处理,不会对算法性能产生太大影响。同时,随着观测样本数量的增加,SVM方法的效率也会相应提高,因为它可以利用更多的数据信息来提高分类精度和速度。因此,该题判断错误。"

温馨提示支付 ¥1.60 元后可查看付费内容,请先翻页预览!
点赞(1) dxwkbang
返回
顶部