1. 高斯混合模型假设样本的生成过程由高斯混合分布给出。

  2. 答案:对
  3. 只需要一个包含足够多神经元的隐层,多层前馈网络就能以任意精度逼近任意复杂度的连续函数

  4. 答案:对
  5. 非线性降维的方法,是基于核技巧对线性降维方法进行核化。

  6. 答案:对
  7. CNN由于其结构复杂,不能用BP算法进行训练

  8. 答案:错
  9. AGENS方法是一种采用自底向上聚合策略的层次聚类方法。

  10. 答案:对
  11. 度量学习是指通过学习确定一种距离度量方式。

  12. 答案:对
  13. 局部线性嵌入是一种常用的度量学习方法

  14. 答案:错
  15. 由于BP神经网络强大的表示能力,它经常遭遇欠拟合

  16. 答案:错
  17. 距离度量一般满足的性质为:非负性、同一性、对称性和直递性。

  18. 答案:对
  19. 频率主义学派认为参数是未观察到的随机变量,其本身也可有分布,因此,可假定参数服从一个先验分布,然后,基于观察到的数据来计算参数的后验分布。

  20. 答案:错
  21. Jaccard系数是一种性能度量的内部指标。

  22. 答案:错
  23. 下面哪几种()机器学习的分类,完全不需要人工标注数据?
  24. 常用的核函数有()
  25. 决策树模型中,决策过程中提出的每个判定问题都是对某个属性的“测试”,每个“测试”考虑的范围,不必限定在上次决策结果的范围之内。
  26. 支持向量机通常采用二次规划算法来求解
  27. 估计类条件概率P(x|C)的常用策略先假定其具有某种确定的概率分布形式,再基于训练样本对概率分布参数估计。
  28. 决策树学习中,因决策分支过多,把训练集自身的一些特点,当做所有数据都具有的一般性质。因此,可主动去掉一些分支,降低过拟合的风险。
  29. 决策树学习算法采用选择部分属性和剪枝的技术,得到最终的决策树。
  30. PCA是一种有监督的线性降维方法。
  31. 缓解维数灾难的一个重要途径是降维。
  32. 对数几率回归模型不仅预测出“类别”,且可得到“类别”的近似概率预测。
  33. 在神经网络的训练过程中,(  )方法被用来在参数空间中寻找一种使误差最小的最优参数。
  34. 对于正交属性中的样本点,用一个超平面对所有样本进行恰当表达,则该超平面需要满足最大可分性和最小重构性。
  35. 一个拥有d个输入神经元、L个输出神经元、q个隐层神经元的多层前馈网络中有()个参数需要调整
  36. AGENS方法是种常用的层次聚类方法
  37. 信息熵是度量样本集合纯度的唯一指标。
  38. DBI指数是一种常用的外部指标。
  39. 密度聚类方法一般从样本的分布出发,考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。
  40. 线性模型中,属性的系数大,表明该属性较为重要
  41. 局部线性嵌入和等度量映射都属于流形学习的范畴。
  42. 剪枝是决策树学习算法对付“欠拟合”的主要手段
  43. 支持向量机模型的复杂程度与支持向量的数目有关
  44. 为了避免其他属性携带的信息被训练集中未出现的属性值“抹去”,在估计概率值时通常要进行“平滑”,常用“拉普拉斯修正”
  45. 神经网络的训练过程可以看作一个参数寻优过程,即在参数空间中,寻找一组最优参数使得神经网络在训练集上的误差最小
  46. PCA方法中使所有样本的投影尽可能分开,则需最大化投影点的方差。
  47. AdaBoost算法过程包括()。
  48. 具有最大间隔的划分超平面的优点是()
  49. 朴素贝叶斯分类器的训练过程就是基于训练集D来估计(),并为每个属性估计()。
  50. 线性判别分析地基本思想是给定训练样例集,设法将样例投影到()上。
  51. 距离等度量映射是在降维时试图保持相邻样本之间的线性关系。
  52. 贝叶斯学派认为参数虽然未知,但却是客观存在的固定值,因此,可通过优化似然函数等准则来确定参数值。
  53. 最近重构性是指样本点到这个超平面的距离都足够近;最大可分性是指样本点在这个超平面上的投影尽可能分开。
  54. 降维后的维度是由用户确定的,主要是通过重构的角度设置一个阈值,然后确定维度d
  55. Agens方法是一种原型聚类,其聚类方法主要是实现对聚类原型的表示。
  56. 由于无论是高维空间还是低维空间,每个空间在样本属性上都定义了一个距离度量,因此,寻找合适的空间即使在寻找合适的距离度量。
  57. 对于不能线性可分的情况,考虑采用核的方法把不线性可分的高维空间映射到线性可分的低维空间。
  58. 主成分分析是可以实现线性降维,同时达到对数据的降噪。
  59. K近邻学习方法属于懒惰学习,是其的著名代表。
  60. BP算法基于梯度下降策略,以目标的负梯度方向对参数进行调整
  61. 高斯混合聚类假设样本满足高斯混合分布。
  62. 对降维效果的评估,通常是比较降维前后学习器的性能,若性能提高则认为降维起到作用。
  63. 常用的替代损失函数有()
  64. 支持向量回归的本质是一个回归问题
  65. 缓解BP神经网络过拟合常采用的策略有()
  66. 随机森林算法的个体学习器间存在强依赖关系,是一种串行生成的序列化方法。
  67. 给定训练数据集,交叠的采样子集的方法是()。
  68. 流形学习方法是模式识别中的基本方法,分为线性流形学习算法和非线性流形学习算法。下列属于线性流形学习算法的是()
  69. 假设基分类器的错误率相互独立,则由Hoeffding不等式可得,在一定条件下,随着集成分类器数目的增加,集成的错误率将()。
  70. 一般来说,欲获得低维子空间,最简单的是对原始高维空间进行线性变换。
  71. Bagging算法的个体学习器间不存在强依赖关系,是一种可同时生成的并行化方法。
  72. 信息熵度量采用的划分选择为基尼指数。
  73. 决策树模型中,决策过程的最终结论对应了我们所希望的判定结果。
  74. 贝叶斯网学习的首要任务就是通过对训练样本“计数”,估计出每个结点的条件概率表。
  75. 处理混合属性之间的距离通常将米科夫斯基距离和VDM方法结合。
  76. 在空间上线性可分的两类点,分别向SVM分类的超平面上做投影,这些点在超平面上的投影仍然是线性可分的
  77. 密度聚类方法假设聚类结构能够通过样本分布的概率密度确定。
  78. 阈值移动可以解决类别不平衡问题。
  79. 等度量映射是一种常用的度量学习方法。
  80. 现实学习任务中,常会遇到连续属性,其可取值数目不再有限,可以使用离散化技术将连续属性转化为离散属性
  81. 降维是指通过某种数学变换将原始高维属性空间转变为一个低维“子空间”,可以用来缓解维数灾难。
  82. 误差逆传播算法是迄今最成功的神经网络学习算法。
  83. 引入软间隔是为了允许支持向量机在一些样本上出错。
  84. 训练数据较少时更容易发生欠拟合
  85. 演绎是从一般到特殊的"特化"过程,即从基础原理推演出具体状况
  86. 尽管多层网络比单层感知机结构复杂,但是它们的训练难度是相同的
  87. 广义线性模型的目标函数,即为最大化样本标记属于其真实标记的概率。
  88. 流形学习在实际中降维性能一般不好。
  89. 直接使用频率来估计类条件概率P(x|c)是可行的。
  90. 单一属性的线性回归目标函数为f(x)=ωx+b 使得 min(f(x)–y)2
  91. 训练完成后,大部分训练样本不需要保留,最终模型只与支持向量有关
  92. 常用的广义线性回归有单位跃阶函数、对数线性回归、对数几率回归
  93. 高斯混合聚类采用概率模型来表达聚类原型
  94. 支持向量是指分布在样本簇边缘的样本点。
  95. 方差度量了学习算法期望预测与真实结果的偏离程度
  96. 获得假设(模型)空间时,从特殊到一般的过程属于
  97. 分类学习任务中,若不同类别的训练样本数目差别很大时,对学习过程没有明显影响
  98. 以下哪些方法可以用于单个学习器性能的比较()。
  99. 加权平均法的权重,一般是从训练数据中学习而得,规模比较大的集成,要学习的权重比较多,较容易导致欠拟合。
  100. 下列属于支持向量机核函数的是()
  101. 神经网络中的激活函数可以采用线性函数
  102. 要获得好的集成,个体学习器应“好而不同”,即个体学习器要有一定的(),即学习器不能太坏,并且要有(),即学习器间具有差异。
  103. 处理无序属性之间的距离通常采用VDM算法。
  104. 机器学习可以应用在下列哪些领域()
  105. 决策树算法的泛化性能提升,则验证集精度()
  106. AdaBoost适用于()任务。
  107. 无监督学习任务中研究最多、应用最广的是任务是()
  108. 线性回归模型中,联系函数g(∙)为对数几率函数ln(y/(1-y))时,该线性模型成为()
  109. 结合策略中,具有初级学习器和结合学习器的是()。
  110. 局部线性嵌入在降维时试图保持邻域内样本之间的线性关系。
  111. 随机森林的优点不包括()。
  112. 以下关于回归的说法中,不正确的是()。
  113. 多层感知机表示异或逻辑时最少需要( )个隐含层(仅考虑二元输入)
  114. 线性回归模型中,对数ln(y)函数是在求取 输入空间到输出空间的()映射
  115. k近邻分类器没有被广泛使用的原因是其泛化错误率不超过贝叶斯最有分类器错误率的两倍。
  116. PCA方法满足的重要性质是()
  117. PCA方法满足的重要性质是:最大重构性和最近可分性。
  118. 流形学习中的流形是指在局部与欧式空间同胚的空间,即()
  119. 距离等度量映射是在降维时试图保持()
  120. 主成分分析是最常用的一种降维方法。
  121. 在高维情形下出现的数据样本稀疏、距离计算困难等问题是所有机器学期方法共同面临的严重障碍,被称为维数灾难,
  122. K近邻学习是急切学习的著名代表。
  123. 缓解维数灾难的操作是()
  124. 在训练阶段就对样本进行学习处理的方法是急切学习。
  125. 常用的聚类距离计算采用()。
  126. 无监督学习是指训练样本的标记信息是(),目标是通过对()标记训练样本的学习来揭示数据内在的性质及规律,为进一步的数据分析提供基础
  127. 聚类性能度量大致有两类指标:外部指标和内部指标。
  128. 常见的原型聚类方法:K 均值聚类、学习向量量化和密度聚类。
  129. 无监督学习任务中研究最多、应用最广的是“分类”。
  130. 聚类的基本目标是()
  131. 常用的聚类距离计算采用“余弦相似度距离”
  132. 懒惰学习是指在训练阶段(),训练时间开销为零,待收到测试样本后再进行处理。
  133. 层次聚类试图在不同层次对数据及进行划分,从而形成树形的聚类结构。
  134. Boosting,个体学习器存在强依赖关系,逐个生成基学习器,每次调整训练数据的样本分布
  135. 分歧代表了个体学习器在样本x上的不一致性。
  136. 对基决策树的每个结点,首先,从该结点的属性集合中,随机选择一个包含k个属性的子集。然后,从这个子集中,选择一个最优属性,用于划分。该方法是()。
  137. 随机改变一些训练样本的标记;将多分类任务,拆解为一系列二分类任务,来训练基学习器,这属于()。
  138. 若同时有多个标记获最高票,则从中随机选取一个,该结合策略是()。
  139. Bagging是并行式集成学习的最著名的代表,给定训练数据集,采用( )方法采样数据。
  140. 要获得好的集成,个体学习器应满足()。
  141. 假设集成通过()结合T个分类器,若有超过半数的基分类器正确则分类就正确。
  142. Boosting 算法关注降低偏差,可对泛化性能()的学习器,构造出很()的集成。
  143. 在样本X上的条件风险是指将一个真实标记为Cj的样本x分类为ci所产生的期望损失。
  144. 通过已知变量观测值来推测待推测查询变量的过程称为“推断”
  145. 极大似然估计是试图在θc所有可能的取值中,找到一个能使数据出现的“可能性”的最大的值。
  146. 对分类任务来说,在所有相关概率都已知的理想情况下,()考虑如何基于这些概率和误判损失来选择最优的类别标记。
  147. 贝叶斯网的近似推断常使用吉布斯采样(Gibbs sampling)来完成,吉布斯采样可以看做,每一步仅依赖于前一步的状态,这是一个“马尔可夫链”。
  148. 为了适当考虑一部分属性间的相互依赖信息,从而不需要进行完全联合概率计算,又不至于彻底忽略了比较强的熟悉依赖关系,这种分类器是()。
  149. 一个贝叶斯网由结构和参数两部分组成,结构是一个(),每个节点对应个属性,若两属性有直接依赖关系,则它们由一条边连接起来,参数定量描述这种依赖关系。
  150. 拉普拉斯修正没能避免因训练集样本不充分而导致概率估值为0的问题。
  151. 朴素贝叶斯分类器假设所有属性相互独立,其训练过程就成了基于训练集D来估计类先验概率P(c),并估计()。
  152. 为了更好地解决线性不可分问题,我们常常需要扩大可选函数的范围。
  153. 支持向量机的学习策略是()
  154. 训练样本集越大,SVM的分类结果越好
  155. 支持向量机的经验风险描述了模型的某些性质
  156. 核函数的引入是将原始空间中不可分的训练样本映射到高维的特征空间后变得可分。
  157. 线性可分支持向量机是一种()模型
  158. 支持向量机的求解通常采用()来求解
  159. 当训练样本线性不可分时可采用()来缓解和解决
  160. 只拥有一层功能神经元(能进行激活函数处理)的感知机学习能力依然很强,能解决异或这样的非线性可分问题。
  161. 基于梯度的搜索是使用最广泛的参数寻优方法,若误差函数在当前点的梯度为零,则已达到全局最小。
  162. 若两类模式是线性可分的,即存在一个线性超平面能将它们分开,则感知机的学习过程一定会收敛。
  163. BP神经网络由于其强大的表示能力,经常遭遇()问题,即训练误差持续下降,但测试误差却可能上升。
  164. 在现实任务中,人们常采用以下策略来试图跳出局部极小,进而接近全局最小
  165. 多隐层感知机比单隐层感知机的表达能力强
  166. BP算法基于()策略对参数进行调整
  167. 剪枝策略是对付“过拟合”的主要手段,即可通过主动去掉一些分支来降低过拟合的风险。
  168. 基尼值可以度量样本集合的纯度。
  169. 预剪枝策略降低了过拟合风险。
  170. 决策树的结点包含()
  171. 在属性划分中,信息增益越大,结点的纯度()
  172. 基尼指数,反映了从D中随机抽取两个样本,其类别标记一致的概率
  173. 决策树学习算法中,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于不同类别。
  174. 决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。
  175. 决策树模型中,随着划分过程不断进行,我们希望结点的“纯度”越来越小。
  176. 多变量决策树中的非叶子节点是对()属性的线性组合进行测试。
  177. 决策树学习算法中,属性a的信息增益越大,则使用该属性进行划分所获得的“纯度提升”越大。
  178. 决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树
  179. 线性回归目的是学得多项式模型以尽可能准确地预测实值输出标记。
  180. 在分类学习任务中,若正例远少于反例时,可以通过增加一些正例解决类别不平衡问题。
  181. 线性判别分析模型中,同类样本的投影点尽可能近,即同类样本的协方差尽可能小
  182. 线性判别分析在对新样例进行分类时,将其投影到曲线上,再根据投影点的位置来确定新样本的类别。
  183. 线性判别分析(LDA)设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近
  184. 线性判别分析可通过该投影减小样本点的维数,且投影过程中使用了类别信息。因此,线性判别分析也常被视为一种经典的()
  185. 基于均方误差最小化来进行模型求解的方法,称为“最小二乘法”。
  186. 线性模型学得的参数ω直观地表达了各属性在预测中的重要性,因此,该模型具有较好的可解释性。
  187. 在线性模型的基础上,引入层级结构或高维映射,构成非线性模型。因此,非线性模型可以转换为线性模型。
  188. 解决类别不平衡的方法包括()
  189. 线性回归目的是学得一个()以尽可能准确地预测实值输出标记
  190. 过拟合不可以彻底避免。
  191. 以下哪些是可能导致模型过拟合的原因()
  192. 回归任务最常用的性能度量是“查准率和查全率”
  193. 模型的泛化性能由()决定。
  194. 选择模型的依据包括()。
  195. 模型的评估方法不包括()。
  196. 下列关于查全率和查准率的说法哪种正确()。
  197. 解决过拟合的方案包括()。
  198. 模型评估方法中留出法的缺点是()。
  199. 关于性能比较和模型选择,下列说法正确的是()。
  200. 测试性能随着测试集的变化而变化
  201. 机器学习的目标就是获得与训练集一致的假设。
  202. 实际应用中,“一个模型肯定比另一个模型具有更强的泛化能力”的这种情况是不存在的。
  203. 分类预测的是离散值
  204. 分类和回归是无监督学习
  205. 奥卡姆剃刀原则:即“若有多个假设与观察一致,选最简单的一个”。
  206. 根据训练数据是否拥有标记信息,学习任务可以分为()。
  207. 模型的泛化能力是指
  208. 机器学习算法在学习过程中可能获得多个不同的模型,在解决“什么样的模型更好”这一问题时遵循“若有多个假设与观察一致,则选最简单的那个”,即( )原则。
  209. 在学习过程中,X表示数据集,Y是所有标记的集合,也称为( )。
  210. 下列关于学习算法的说法正确的是
  211. 机器学习是整个人工智能的核心,机器学习算法的特征之一就是( )。
  212. 对西瓜的成熟度进行预测得到结果为0.51,这属于()学习任务。
温馨提示支付 ¥5.00 元后可查看付费内容,请先翻页预览!
点赞(3) dxwkbang
返回
顶部