提示:内容已经过期谨慎付费,点击上方查看最新答案

机器学习:模型与算法

  1. 图片是训练数据集(样本非常少)的快照(属性x、y分别用“+” 和 “o”表示),设定kNN的k=1,那么留一法交叉验证的误差是( ) 


  2. A:0 到 100% B:其余选项均不正确 C:0% D:100%
    答案:100%
  3. 下列哪一项在神经网络中引入了非线性?______( ) 


  4. A:其余选项都不正确 B:卷积函数 C:修正线性单元(ReLU) D:随机梯度下降
    答案:激活函数
  5. BP(反向传播 Back Propagation)算法主要是利用了_________( ) 

  6. A:隐函数求导方法; B:倒数求导法; C:链式求导法则; D:分段函数求导法;
    答案:链式求导法则;
  7. 门限循环单元(Gated Recurrent Unit,GRU)是一种比LSTM更加简化的版本。在LSTM中,输入门和遗忘门是互补关系,因为同时用两个门比较冗余。GRU将输入门与和遗忘门合并成一个门:_______( ) 

  8. A:记忆门; B:更新门; C:重置门; D:输出门;
    答案:和LSTM相同的是, GRU也有三个门,即忘记门、更新门和输出门AI参考:在GRU中,输入门和遗忘门被合并成一个门,被称为“更新门”。因此,答案是B:“更新门”。'
  9. 点击率的预测是一个数据比例不平衡问题(比如训练集中样本呈阴性的比例为99%,阳性的比例是1%),如果我们用这种数据建立模型并使得训练集的准确率高达99%。我们可以得出结论是:( ) 


  10. A:其余选项都不正确 B:无法评价模型 C:模型不好,我们应建一个更好的模型 D:模型的准确率非常高,我们不需要进一步探索
    答案:无法评价模型
  11. 虽然简单循环网络从理论上可以建立长时间间隔的状态之间的依赖关系(Long-Term Dependencies),但是由于梯度爆炸或消失问题,实际上只能学习到短周期的依赖关系。这就是所谓的__________问题。( ) 

  12. A:中程依赖; B:不依赖; C:短程依赖; D:长期依赖;
    AI参考:答案:C:短程依赖。问题中明确提到“只能学习到短周期的依赖关系”,因此答案为C,即短程依赖。虽然简单循环网络理论上可以建立长时间间隔的状态之间的依赖关系,但由于梯度爆炸或消失问题,实际上只能学习到短周期的依赖关系。'
  13. 前馈神经网络的输入和输出的维数都是__________。( ) 

  14. A:固定的; B:人为按规则选取的; C:随机的; D:会随训练而变化的;
    AI参考:正确答案是:A:固定的。前馈神经网络的输入和输出的维数都是固定的。故选A。'
  15. 逻辑回归与多元回归分析有哪些不同?( ) 


  16. A:逻辑回归回归系数的评估 B:逻辑回归有较高的拟合效果 C:其余选项全选 D:逻辑回归预测某事件发生的概率

  17. 卷积层虽然可以显著减少连接的个数,但是每一个特征映射的神经元个数并没有显著减少。这样,如果后面接一个分类器,分类器的输入维数依然很高,很容易出现过拟合。为了解决这个问题,在卷积神经网络一般会在卷积层之后再加上一个__________操作。( ) 

  18. A:损失函数加正则化项; B:批规范化 batch normalizatin; C:池化(Pooling); D:增加测试样本数量;
    AI参考:正确选项是A:损失函数加正则化项。在卷积神经网络中,卷积层可以显著减少连接的个数,但每个特征映射的神经元个数并没有显著减少,这可能导致分类器的输入维数依然很高,容易发生过拟合。为了解决这个问题,通常在卷积层之后加上一个损失函数,并添加正则化项进行优化,以避免过拟合现象。正则化项是一种用于防止模型过拟合的技术,它可以避免模型在训练数据上过度拟合,同时保留对未知数据的泛化能力。常见的正则化技术包括L1和L2正则化等。因此,选项A是正确的答案。选项B、C、D虽然在某些情况下可能有一定的效果,但不是解决卷积神经网络过拟合问题的主要方法。'
  19. 卷积神经网络(Convolutional Neural Networks,CNN)是一种前馈神经网络。卷积神经网络是受生物学上_________的机制而提出的。( ) 

  20. A:非线性激活; B:感受野; C:条件反射; D:线性激活;

  21. SoftMax 回归是Logistic 回归的多类推广,在SoftMax 回归中,机器学习模型预测目标为每一个类别的_____概率。( ) 

  22. A:联合; B:后验; C:条件; D:先验;
    AI参考:在SoftMax回归中,机器学习模型预测目标为每一个类别的联合概率。因此,正确选项为A:联合。SoftMax回归是一种用于多类别分类的神经网络模型,它通过将每个类别的概率进行加权求和的方式来预测每个类别的概率。在这种模型中,每个类别的概率是所有类别概率的联合分布,即所有类别的概率之间的关系。因此,答案为A。'
  23. 对于一个语音识别任务(识别用户说的话),下面哪种神经网络可以更好地解决这个问题?( ) 

  24. A:卷积神经网络; B:循环神经网络; C:多层感知机; D:感知机;
    AI参考:正确答案是B:循环神经网络(Recurrent Neural Network,简称RNN)。对于语音识别任务,需要处理连续的语音信号,因此需要使用能够处理序列数据的神经网络,循环神经网络(RNN)是最适合的选择。RNN可以捕捉到输入序列中的长期依赖关系,能够处理时间序列数据,对于语音识别任务来说非常适合。卷积神经网络(CNN)通常用于处理图像等静态数据,多层感知机(MLP)和感知机(SVM)虽然也具有一定的学习能力,但不如RNN适合处理连续语音信号。因此,选择循环神经网络是解决语音识别任务的最佳选择。'
  25. 如果使用sigmoid作为神经网络激活函数,由于在BP算法中,误差从输出层反向传播时,在每一层都要乘以该层激活函数的导数,所以可能会遇到前面层比后面层梯度变化更小且慢得多的情况,这种情况被称为__________。( ) 

  26. A:梯度爆炸; B:梯度消失; C:梯度下降; D:梯度上升;
    AI参考:正确选项是B:梯度消失。在神经网络中,使用sigmoid作为激活函数时,由于在反向传播过程中,每一层的激活函数都需要乘以该层神经元的输出误差的导数,如果神经元数量过多或者网络层数过深,可能会导致误差梯度在某些层发生消失或大幅度减小的情况,这种现象被称为梯度消失。这种现象会导致训练过程中某些层的神经元无法得到足够的更新,从而影响网络的学习效果。因此,在设计神经网络时,需要合理选择激活函数和优化网络结构,以避免梯度消失问题。'
  27. 经验风险最小化原则很容易导致模型在训练集上错误率很低,但是在未知数据上错误率很高。这就是所谓的_____。( ) 

  28. A:过拟合; B:正则化; C:欠拟合; D:样本不足;

  29. 评估模型之后,得出模型存在偏差,下列哪种方法可能解决这一问题:( ) 

  30. A:向模型中增加更多的特征 B:B 和 C C:增加更多的数据 D:减少模型中特征的数量

  31. 在训练神经网络时,损失函数(loss)在最初的几个epochs时没有下降,可能的原因是?_______( ) 


  32. A:其余选项都有可能 B:陷入局部最大值 C:学习率太低 D:正则参数太高

  33. 梯度下降算法的正确步骤应该是什么?对于下述的1-5按正确顺序排序 _______(        )

    1.计算预测值和真实值之间的误差

    2.重复迭代,直至得到网络权重的最佳值

    3.把输入传入网络,得到输出值

    4.用随机值初始化权重和偏差

    5.对每一个产生误差的神经元,调整相应的(权重)值以减小误差



  34. A:3, 2, 1, 5, 4 B:1, 2, 3, 4, 5  C:4, 3, 1, 5, 2 D:5, 4, 3, 2, 1 
    AI参考:正确选项为C:4,3,1,5,2。梯度下降算法的正确步骤应该是:首先用随机值初始化权重和偏差(4),然后将输入传入网络,得到输出值(3),接着计算预测值和真实值之间的误差(1),并重复迭代,直至得到网络权重的最佳值(2)。对于每一个产生误差的神经元,需要调整相应的权重值以减小误差(5)。因此,正确的排序是4、3、1、5、2。'
  35. 为了对于LSTM进行简化,提出了一种新的循环神经网络单元,该单元称作:__________单元。( ) 

  36. A:控制; B:门循环; C:长短时记忆; D:简单循环;
    AI参考:正确选项:C:长短时记忆在循环神经网络(RNN)的基础上,为了对LSTM进行简化,提出了一种新的循环神经网络单元,该单元被称作长短时记忆(LSTM)单元。长短时记忆的核心思想是在RNN的基础上增加了记忆单元,使得网络可以更好地处理时间序列数据,尤其是对于长期依赖关系的数据。控制、门循环和简单循环并不是针对LSTM提出的简化单元。'
  37. 下列是常见的交叉验证法:
    a.自助法(bootstrapping)
    b.留一法(Leave-One-Out)
    c.5折交叉验证
    d.2次5折交叉验证
    样本量为1000时,根据所需的执行时间排列上述四种方法:( ) 

  38. A:b>c>d>a B:b>d>c>a C:d>a>b>c D:a>b>c>d

  39. 顾名思义,Word2Vec就是把单词转换成向量。它本质上是一种_______的方法。( ) 

  40. A:单词聚类; B:单词分类; C:单词生成; D:单词回归;
    AI参考:正确选项是C:单词生成。Word2Vec是一种将单词转换为向量的算法,它本质上是一种单词生成的方法。通过将单词表示为向量,Word2Vec可以捕捉单词之间的语义关系,从而在自然语言处理任务中发挥作用。因此,选项C“单词生成”是正确的答案。选项A“单词聚类”和B“单词分类”通常用于文本数据的聚类和分类任务,而选项D“单词回归”与Word2Vec的算法不相关。'
  41. 有监督学习根据输出类型又可以分为回归和分类两类。( )

  42. A:错 B:对
    AI参考:正确答案是B:对。有监督学习根据输出类型又可以分为回归和分类两类。这句话表明了分类和回归是监督学习中的两种输出类型,因此选项B是正确的。而选项A则是错误的,因为题目中并没有提到任何有关无监督学习的内容。'
  43. 过拟合问题往往是由于训练数据少和噪声造成的。( ) 

  44. A:错 B:对
    AI参考:正确答案是B:对。过拟合问题通常是由于模型复杂度过高、训练数据量少或存在噪声等原因导致的。因此,过拟合问题往往是由于训练数据少和噪声造成的,这个判断题是正确的。'
  45. 牛顿法是用来对函数求根的。( )

  46. A:错 B:对

  47. 假设在庞大的数据集上使用Logistic回归模型。可能遇到一个问题,logistics回归需要很长时间才能训练。增加学习率,增加迭代次数可以提高训练速度。( )

  48. A:错 B:对

  49. 泛化错误是和过拟合相对应的一个概念。( )

  50. A:错 B:对
    AI参考:答案是B:对。泛化错误是与过拟合相对应的概念,因此判断题的说法是正确的。泛化错误是指在训练数据集之外的测试数据上,模型表现不佳的情况。而过拟合则是模型在训练数据上表现良好,但在测试数据上表现不佳的情况。因此,泛化错误和过拟合是两个相对的概念,它们在机器学习中都是常见的错误。'
  51. 对于未标记的训练样本进行学习,以发现这些样本中的结构知识,该学习方法称为:监督学习。( )

  52. A:错 B:对

  53. 解决非凸优化问题并不是深度学习的难点。( )

  54. A:错 B:对

  55. 动量法、AdaGrad、AdaDelta是常见的设置学习率的方法。( )

  56. A:错 B:对
    AI参考:正确答案是B:对。动量法、AdaGrad、AdaDelta是常见的设置学习率的方法。动量法是一种优化算法中的技术,用于加速算法的收敛速度;AdaGrad和AdaDelta是用于调整模型参数的学习率方法,用于优化模型性能。因此,这个判断题的答案是B,即“正确”。'
  57. GRU网络中包含输入门;遗忘门;输出门。( )

  58. A:对 B:错

  59. SVM的全称是support vector machine。( ) 

  60. A:错 B:对
    AI参考:答案:B。SVM的全称是支持向量机,因此该题表述是正确的。'
  61. 在梯度下降训练的过程中,在训练样本上收敛的参数,并不一定在测试集上最优。。( )

  62. A:对 B:错
    AI参考:B:错。在梯度下降训练的过程中,训练样本上的收敛参数通常会在测试集上表现出较好的性能。这是因为梯度下降算法在训练样本上优化参数时,会逐渐接近数据的实际最优解,而在测试集上,算法使用的参数已经过训练样本的“磨练”,因此通常会有更好的表现。所以,在梯度下降训练的过程中,在训练样本上收敛的参数,在测试集上也可能最优。'
  63. Hinge Loss 0-1 损失函数是逻辑回归的损失函数。( ) 

  64. A:对 B:错
    AI参考:答案是B:错。Hinge Loss是支持向量机(SVM)等算法的损失函数,而非逻辑回归的损失函数。逻辑回归的损失函数通常是0-1指数损失函数或者对数损失函数。'
  65. 聚类是一个典型的无监督学习问题。( )

  66. A:对 B:错

  67. 训练一个支持向量机,除去不支持的向量后仍能分类。( )

  68. A:错 B:对

  69. 如果自变量和因变量之间高度非线性且关系复杂,那么运用树回归优于经典回归模型。( )

  70. A:错 B:对

  71. 深度学习是由在计算机上模拟人类神经回路的神经元网络技术发展而来。。( )

  72. A:错 B:对

  73. 在梯度下降训练的过程中,我们开发集来测试每一次迭代的参数在验证集上是否最优。( )

  74. A:错 B:对
    AI参考:答案是B:对。在梯度下降训练的过程中,我们通常会使用开发集来评估每一次迭代的参数在训练集上的性能,同时也会使用验证集来测试每一次迭代的参数在验证集上是否最优。这是因为验证集通常是由独立于训练过程的数据组成的,可以更客观地评估模型的性能。因此,这个说法是正确的。'
  75. 在模型训练过程中,进行梯度下降法进行参数更新时,使用学习率这个参数来控制参数变化的快慢。( ) 

  76. A:错 B:对

  77. 过拟合是有监督学习的挑战,而不是无监督学习。( ) 

  78. A:错 B:对

  79. 逻辑回归用来做回归任务的。( )

  80. A:对 B:错
    AI参考:答案是B:错。逻辑回归主要用于分类任务,而不是回归任务。逻辑回归是一种概率模型,它试图通过拟合一组参数来预测一个类别标签,而不是预测一个数值性结果。在回归任务中,更常见的模型包括线性回归、多项式回归等。'
  81. 一个回归模型存在多重共线问题。在不损失过多信息的情况下,你该怎么做:( )

  82. A:移除相关变量可能会导致信息的丢失,为了保留这些变量,我们可以使用岭回归(ridge)或lasso等回归方法对模型进行惩罚 B:移除共线的两个变量 C:移除共线的两个变量其中一个 D:我们可以计算方差膨胀因子(variance inflation factor)来检查存在的多重共线性并采取相应的措施

  83. 以下哪种方法可以减少数据集中的特征?( ) 

  84. A:根据相关表提出相关性高的特征 B:使用“前向”搜索 C:我们把模型中的所有特征都训练一次,得到测试中模型的精确性。每次取一个特征,对测试数据集的特征值进行清洗,并且对测试数据进行预测,然后评估模型。若模型的精确性提高,则移除次特征。 D:使用“后向”搜索
    AI参考:正确选项是:B,C分析:* 方法A涉及到人为对特征的判断和剔除,属于分析类的工作,而不是减少特征集的方法。* 方法D是“后向”搜索的方法,可以一步步确定哪些特征是有效的,但在大数据集上使用可能会有较大的计算量。* 方法B提到的“前向”搜索在机器学习或深度学习中常常用于搜索优化算法的参数,而与减少特征集无关。* 方法C是逐步回归分析的一种应用,通过每次只引入一个特征,观察其对模型性能的影响,从而确定哪些特征是有用的,哪些特征是冗余的。这种方法可以有效地减少数据集中的特征,提高模型的性能。因此,方法C是正确选项。'
  85. 在一个包含5000个特征及超过一百万个观测值的数据集上建立一个机器学习的模型,下面哪种方法能更高效地训练模型?( ) 

  86. A:使用在线学习算法 B:使用支持向量机SVM来建立模型  C:从数据集中随机抽取样本来建立模型 D:使用主成分分析法(PCA)对数据降维
    AI参考:正确选项是:A、D原因如下:A选项的在线学习算法通常在大数据集上表现良好,因为它不需要一次性加载所有数据到内存中,而是逐步学习,逐步优化,这在大规模数据集上非常高效。D选项的主成分分析法(PCA)是一种常用的数据降维方法,它可以有效地减少特征的数量,从而减少模型训练的计算复杂度,提高训练效率。特别是对于包含大量特征的大数据集,PCA降维是一种非常有效的策略。因此,综合来看,A和D选项都是适合在包含5000个特征及超过一百万个观测值的数据集上建立一个机器学习模型的高效方法。B选项的支持向量机虽然也是一种常用的机器学习算法,但在大规模数据集上的表现可能不如在线学习算法和PCA降维。C选项的随机抽取样本建立模型并不是一种高效的方法,因为它会浪费大量的计算资源在不相关的样本上。'
  87. 下列哪种算法可以用神经网络构建?( ) 

  88. A:K-NN最近邻算法 B:线性回归 C:逻辑回归 D:K-mean聚类算法

  89. 下列属于常见的池化方式的有:( ) 

  90. A:平均池化; B:最大池化; C:概率池化; D:随机池化;

  91. 下列属于SVM核函数的有:( ) 

  92. A:logistic核函数; B:线性核函数 C:高斯核函数; D:多项式核函数;
    AI参考:正确选项为:C:高斯核函数;D:多项式核函数。SVM核函数包括多项式核函数、径向基函数(高斯核函数)、sigmoid核函数等。其中,多项式核函数和径向基函数是常用的SVM核函数。因此,选项C和D是正确的。而选项A和B不是SVM核函数。'
  93. L-BFGS的描述中,正确的是( ) 

  94. A:空间消耗相对于BFGS小 B:具备牛顿法收敛速度快的特点 C:不需要存储Hesse矩阵 D:适合大规模的数值计算

  95. 下面对于logistic回归与SVM的分析正确的有:( ) 

  96. A:从目标函数来看,logistic回归采用的是 logistical loss,SVM 采用的是 hinge loss; B:logistic回归和SVM都可以处理分类问题,且一般都用于处理线性二分类问题。但是logistic回归改进后可以处理多分类问题,而SVM不能处理多分类问题; C:SVM 的处理方法是只考虑 support vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重; D:两个方法都可以增加不同的正则化项,如 l1、l2 等等;
    AI参考:下面对于logistic回归与SVM的分析正确的有:(ABCD)A: 从目标函数来看,logistic回归采用的是 logistic loss,SVM 采用的是 hinge loss。这是两者最主要的区别之一。B: logistic回归和SVM都可以处理分类问题,且一般都用于处理线性二分类问题。这是对的。logistic回归一般只能处理二分类问题,但是可以通过改进来处理多分类问题,而SVM确实不能直接处理多分类问题,但可以通过组合等方法进行多类分类。C: SVM 的处理方法是只考虑 support vectors,也就是和分类最相关的少数点,去学习分类器。这是对的。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。这也是两者在处理方式上的一个主要区别。D: 两个方法都可以增加不同的正则化项,如 l1、l2 等等。这也是正确的,因为正则化项可以防止过拟合,提高模型的泛化能力。所以,所有选项都是正确的。'
  97. 下面不属于过拟合解决方法的有:________。( ) 

  98. A:损失函数加正则化项; B:增加测试样本数量; C:加dropout层; D:批规范化 batch normalizatin;
    AI参考:不属于过拟合解决方法的有:D:批规范化 batch normalizatin。过拟合解决方法包括:1. 损失函数加正则化项,如L1或L2正则化,防止模型过深。2. 减少训练样本的数量,或者增加测试样本的数量,以保持模型的泛化能力。3. 使用dropout层,通过在训练过程中随机丢弃部分神经元,避免过拟合。而批规范化(Batch Normalization)是一种常用的深度学习中的归一化方法,它主要用于解决深度学习中数据在批量大小变化对模型训练的影响,而不是直接解决过拟合问题。因此,批规范化不属于过拟合的解决方法。'
  99. 小明参加某公司的大数据竞赛,他的成绩在大赛排行榜上原本居于前二十,后来他保持特征不变,对原来的模型做了1天的调参,将自己的模型在自己本地测试集上的准确率提升了5%,然后他信心满满地将新模型的预测结果更新到了大赛官网上,结果懊恼地发现自己的新模型在大赛官方的测试集上准确率反而下降了。对此,他的朋友们展开了讨论,下列哪些说法是正确的( ) 

  100. A:小月:早就和你说过了,乖乖使用默认的参数就好了,调参是不可能有收益的 B:小芳:从机器学习理论的角度,这样的情况不应该发生,快去找大赛组委会反应 C:小平:你可以考虑一下,使用交叉验证来验证一下是否发生了过拟合 D:小刚:你这个有可能是由于过拟合导致的

  101. 下列表述中,在k-fold交叉验证中关于选择K说法正确的是:( ) 

  102. A:在交叉验证中通过均值法来选择K值 B:相对于期望误差来说,选择较大的K会导致低偏差(因为训练folds会变得与整个数据集相似) C:在交叉验证中通过最小化方差法来选择K值 D:较大的K并不总是好的,选择较大的K可能需要较长的时间来评估你的结果

  103. 下列关于“集成学习”说法错误的是?( ) 

  104. A:个体学习器间相关性较高 B:个体学习器间相关性较低 C:使用“加权平均”而不是“投票法”产生结果 D:个体学习器由相同的学习算法生成
    AI参考:关于“集成学习”说法错误的是:个体学习器间相关性较低。集成学习是指将多个个体学习器组合在一起,通过某种方式(如加权平均)产生结果,以提高整体性能。集成学习中的个体学习器通常由不同的学习算法生成,具有不同的特征和表现形式,因此个体学习器间的相关性较低。同时,集成学习使用“加权平均”而不是“投票法”来产生结果,即根据个体学习器的性能和置信度给予不同的权重,以获得最终的预测结果。因此,选项A和C、D是正确的,而选项B是错误的。'
  105. 下列关于梯度树提升说法正确的是?( )

  106. A:降低拟合个体学习器样本的分数可以降低方差 B:当分裂所需最小样本数增加时,模型拟合过度 C:降低拟合个体学习器样本的分数可以减少偏差 D:当分裂所需最小样本数增加时,模型拟合不足
    AI参考:正确选项为:B:当分裂所需最小样本数增加时,模型拟合过度。梯度树提升算法是一种决策树算法的改进版,通过分裂成本和样本的权重进行评估,当分裂所需最小样本数增加时,意味着分裂成本上升,为了降低分裂成本,需要保留更多的样本,此时模型可能会过度拟合数据,导致过拟合问题。其他选项的分析:A选项:降低拟合个体学习器样本的分数可以降低方差,这是拟合程度较低的表现,会导致模型的泛化能力下降,容易过拟合。C选项:降低拟合个体学习器样本的分数可以减少偏差,这是正确的,因为偏差通常是由于模型复杂度过高或者数据特征不够导致的。因此,只有B选项符合梯度树提升算法的特点和要求。'
  107. 在梯度下降训练的过程中,由于过拟合的原因,在训练样本上收敛的参数,并不一定在测试集上最优。因此,我们使用一个验证集(Validation Dataset)(也叫开发集(Development Dataset))来测试每一次迭代的参数在验证集上是否最优。如果没有验证集,哪几项不适合在训练集上进行:( ) 

  108. A:依次验证; B:随机验证; C:顺序验证; D:交叉验证;

  109. 下述领域中可以用机器学习来参与解决的为_______。( ) 

  110. A:机器翻译; B:语音识别; C:图像分类; D:视频动作定位;
    AI参考:正确选项为:ABCD。机器学习可以参与解决多个领域的问题,包括但不限于:* 机器翻译:利用机器学习算法对文本进行翻译,例如神经网络翻译模型。* 语音识别:通过训练语音识别模型,可以让机器自动识别和理解人类语音。* 图像分类:使用机器学习算法对图像进行分类,例如对图片进行人脸识别。* 视频动作定位:通过对视频中的动作进行分析和学习,可以让机器自动识别和理解视频中的动作和行为。因此,所有选项都符合机器学习的应用领域。'
  111. 下面哪一项 用决策树法训练大量数据集不会节约时间?( ) 

  112. A:增加树的深度 B:减少树的深度 C:增加学习率 D:减少树的个数
    AI参考:选项 B: 减少树的深度,用决策树法训练大量数据集不会节约时间。因为决策树法的核心在于数据学习和模型优化,通过增加树的深度和减少树的个数可以提高模型的复杂度和预测准确性,但如果过浅或者过于复杂,都可能造成数据学习和模型训练的时间延长。所以减少树的深度会导致学习过程延长,不节约时间。选项 A, C, D 都有可能加速学习过程,节约时间。因此,答案为 B:减少树的深度。'
  113. 下列机器学习的应用中,属于自然语言处理领域的有:( ) 

  114. A:机器翻译; B:目标识别; C:智能问答; D:机器阅读;

  115. 在一个线性回归模型中增加新的变量,下列说法不正确的是?( ) 

  116. A:R^2和调整的R^2都增大 B:R^2不变,调整的R^2增大 C:R^2和调整的R^2都减小 D:R^2减小,调整的R^2增大

  117. 在建立线性回归模型时,3对变量(Var1和Var2,Var2和Var3,Var3和Var1)之间的相关性分别为-0.98,0.45和1.23。我们可以从中推断出什么?( ) 

  118. A:由于Var1和Var2之间相关性较高,因此存在多重共线性,应该移除这两个变量 B:Var1和Var2之间相关性较高 C:Var1和Var2之间相关性较低 D:Var3和Var1之间的相关系数为1.23是不可能的
    AI参考:正确选项是:B:Var1和Var2之间相关性较高解释:在建立线性回归模型时,当多个自变量之间的相关性过高时,可能会出现多重共线性的问题。从题目中给出的数据可以看出,Var1和Var2之间的相关性达到了-0.98,这表明这两个变量之间存在高度相关性,这可能意味着它们之间存在多重共线性问题。因此,选项A和C是正确的,但是无法确定哪个更适合题目的实际情况。对于选项D,Var3和Var1之间的相关系数为1.23并不不可能,因为题目中给出的数据只是相关性系数,而没有限制它们之间的具体数值关系。因此,这个选项不能作为正确答案。综上所述,答案为B。'
  119. 关于L1正则和L2正则 下面的说法正确的是( ) 

  120. A:L2正则化有个名称叫“Lasso regularization” B:L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点 C:L2正则化标识各个参数的平方的和的开方值。 D:L1范数会使权值稀疏

温馨提示支付 ¥2.05 元后可查看付费内容,请先翻页预览!
点赞(1) dxwkbang
返回
顶部