1. 以下说法错误的是( )

  2. 答案:特征提取等同于特征选择
  3. 以下说法正确的是( )

  4. 答案:内部指标主要是利用距离函数计算类内相似度和类间相似度,并将两者进行组合###内部指标不使用参考模型进行比较###外部指标将聚类结果与某个参考模型作为参照进行比较
  5. 空间关系特征常对图像或目标的旋转、反转、尺度变化等比较敏感。( )

  6. 答案:对
  7. 计算机模式识别主要是对语音波形、地震波、心电图、图像、文字、符号、生物传感器等对象的具体模式进行自动辨识和分类。( )

  8. 答案:对
  9. 类别已知的样本为已知样本,类别未知的样本为未知样本。( )

  10. 答案:错
  11. 贝叶斯决策将样本的类别视为随机事件,将样本的特征向量视为随机变量。( )

  12. 答案:对
  13. XOR问题是线性可分问题( )

  14. 答案:错
  15. 当两类样本线性可分时,可以有无数个划分超平面将两类分开( )

  16. 答案:对
  17. 特征提取并没有改变原有的特征空间。( )

  18. 答案:错
  19. 关于模糊C均值聚类算法,描述错误的是( )

  20. 答案:对数据集中的异常点不敏感###聚类数量不需要预先设定
  21. 网络训练时,网络参数初始化是对以下哪几种数据的初始化( )

  22. 答案:卷积核权值###偏置
  23. 最小距离分类器有什么特点?( )。
  24. 以下关于单层感知机模型,说法正确的是( )
  25. 下列属于最小风险Bayes决策的特点的是( )。
  26. 贝叶斯决策依据是( )。
  27. ID3算法采用( )作为节点划分标准。
  28. “软间隔”允许部分样本不满足如下哪个条件( )
  29. DBSCAN聚类算法中,边界点的判定条件为( )
  30. 感知机学习算法可用于多层感知机模型的参数学习。( )
  31. 分类器集成应该做到“好而不同”( )
  32. 剪枝表示将一个节点拆分成多个子集的过程。( )
  33. 有监督模式识别可以减少数据标记的工作量,同时又能带来比较好的准确率。( )
  34. 信息增益会偏向取值较多的特征( )
  35. 二类别朴素贝叶斯分类器在多元正态分布假设下,分类器的决策面方程为二次型判别函数。( )
  36. 模式识别有抽象和具体两层含义,其中计算机模式识别是抽象的含义。( )
  37. 类别数为2的最小最大贝叶斯决策在计算期望损失时,可表示为其中一类先验概率的线性函数( )
  38. 卷积网络中,全连接层是从特征到分类的映射,起到了特征提取的作用( )
  39. C4.5算法在生成决策树过程中采用信息增益比来选择特征。( )
  40. 以下属于神经网络方法的是( )
  41. 以下关于DBSCAN算法,说法正确的是 ( )
  42. 以下哪种是流形学习方法( )。
  43. 决策树的构建主要包括( )
  44. 以下属于生物特征识别的是( )
  45. 以下关于垂直平分分类器的描述中,正确的是( )
  46. 如何将多个弱分类器的结果集成起来( )
  47. 二叉树算法有哪些特点?( )
  48. 分类器集成的主要方法包括( )
  49. 分支定界算法的特点包括( )。
  50. 以下缺点不属于Sigmoid函数的是( )
  51. 下面哪个操作对应了线性可分性样本集的规范化?( )
  52. 聚类分析属于 ( )
  53. 分级聚类中,利用最大距离法进行聚类时( )。
  54. 多元正态分布假设下的朴素贝叶斯决策中,协方差矩阵仅有对角线上元素非零。( )
  55. 半朴素贝叶斯分类器的SPODE方法假设存在超父属性,可将该属性视为超参数进行调整。( )
  56. 决策树方法利用一定的训练样本,从数据中“学习”出决策规则,自动构造决策树,并利用决策树实现分类。( )
  57. 条件熵H(Y|X)表示在已知随机变量X的条件下随机变量Y的不确定性。( )
  58. 半朴素贝叶斯分类器要求每个属性在类别之外至少依赖于一个其他属性。( )
  59. 如果向量能够确认类别,则本身的观察所提供信息量最大,熵也最大。( )
  60. 卷积网络中,每个神经元可以参与到许多不同语义概念的表示中去( )
  61. 单层感知机无法解决异或问题,而多层感知机能解决异或问题。( )
  62. AUC值是P-R曲线下的面积。( )
  63. 若一个分类器的P-R曲线完全包住了另一个分类器,可以认为前者的性能优于后者( )
  64. K近邻分类器的分类方法是选择k个近邻中样本个数最少的类。( )。
  65. 最近邻分类器的渐进错误率最坏不会超过两倍贝叶斯错误率。( )。
  66. 分段线性最小距离分类器存在无法判定的阴影区域。( )
  67. 贝叶斯网络可对任意属性关系进行建模。( )
  68. 惩罚参数C>0,C值大时对误分类的惩罚减小,相反则增大。( )
  69. 次优搜索相对于最优搜索具有更高的计算复杂度。( )
  70. Boosting方法是按照一定的顺序来训练不同的基模型,每个模型都针对前序模型的错误进行专门训练,从而增加不同基模型之间的差异性。( )
  71. 特征选择的目的(准则)是使用某特征对数据集划分之后,各数据子集的纯度要比划分前的数据集的纯度高,也就是不确定性要比划分前数据集的不确定性低。( )
  72. 最小风险贝叶斯决策通过计算期望风险进行分类时,无需计算后验概率。( )
  73. 当训练样本不足时,可以采用迁移学习的方式。通过迁移学习将已学到的模型参数通过某种方式分享给新模型,从而加快并优化模型的学习效率。( )
  74. 影响K均值聚类结果的因素包括 ( )
  75. 下面哪些是最小平方误差准则分类器的特点?( )
  76. 信息增益存在的问题包括( )
  77. 以下哪种是启发式搜索方式( )。
  78. 小卷积核的优点包括( )。
  79. 以下关于池化层说法正确的是( )
  80. AlexNet主要特点包括( )。
  81. 以下关于BP网络,说法错误的是( )
  82. 下面关于自组织竞争神经网络,说法错误的是( )
  83. 随机森林的缺点包括( )
  84. 先剪枝可以使用( )
  85. 神经网络模型中,提高模型复杂度的方法( )
  86. ID3算法的核心是( )
  87. 核方法包括以下两个步骤( )
  88. 线性可分支持向量机,KKT条件包括( )。
  89. 下面有关ISODATA算法,描述正确的是( )
  90. 朴素贝叶斯算法的前提是数据集中( )。
  91. P-R曲线的平衡点是指( )
  92. 以下关于神经网络中激活函数,说法正确的是 ( )
  93. 假设C为类别数,D为特征维数,则C>2,D=3表示( )
  94. 输入数据为24x24x6,池化核尺寸为2x2,步长为2,则输出特征图的大小为( )
  95. 下面不能通过g(x)=0得到决策面方程的是( )。
  96. 以下哪种是颜色特征的性质( )。
  97. 最小错误率贝叶斯决策似然比等价规则中,似然比函数通过与( )比较做出决策。
  98. K均值聚类算法中,采用的相似性测度是 ( )
  99. 输入数据是27x27x4,卷积核是3x3,步长为1,且采用0填充,卷积核个数是8,则该卷积层上的参数总量为( )
  100. 自组织神经网络与BP网络不同之处是( )
  101. 以下关于神经网络中的神经元,说法正确的是( )
  102. DBSCAN聚类算法属于 ( )
  103. C4.5算法采用( )作为节点划分标准。
  104. 与ResNet相比,DenseNet是一种短路连接机制。( )
  105. 当训练样本不足时可以采用数据填充方式进行改善( )
  106. 卷积神经网络中所提取的语义概念与神经元之间的映射关系为( )
  107. GoogLeNet网络引入了( )
  108. 数据填充的常用方法包括( )
  109. 3x3卷积核需要几次叠加可以达到与9x9卷积核相同的感受野( )。
  110. 输入数据是27x27x4,卷积核是3x3,步长为1,且采用0填充,卷积核个数是8,则该输出特征图尺寸为( )
  111. 网络正则化是( )。
  112. 关于BP网络的局限性说法正确的是( )
  113. 关于BP网络说法正确的是 ( )
  114. 单层前馈网络中,如果有i个输入,j个输出,则连接权值W可以表示成一个ixj的矩阵。 ( )
  115. 经典的全连接神经网络中,隐含层可以增加网络深度和复杂度。( )
  116. 自组织映射网络(SOM网络)从某种程度上可看作一种降维算法。( )
  117. K均值聚类属于基于层次的聚类方法。( )
  118. 聚类准则函数中的误差平方和准则适用于不同类型的样本数目相差很大的情况。( )
  119. 关于聚类算法,以下描述正确的是( )
  120. 关于DBSCAN算法,下面说法错误的是( )
  121. K均值聚类、K-means++聚类、ISODATA聚类算法,它们的共同点是 ( )
  122. 分级聚类算法需要进行多次迭代运算。( )
  123. 模式识别系统的关键过程是( )
  124. 颜色特征常对图像或目标的旋转、反转、尺度变化等比较敏感。( )
  125. 总类内离散度矩阵适合用于处理无类别标签样本集。( )
  126. 评价准则的基本要求为( )
  127. 流行学习是一种寻找低维嵌入结构来发现映射关系的特征提取方式。( )
  128. 下面哪个是特征选择的方式( )
  129. 以下哪些是LDA特征提取方式的特点( )
  130. 高维空间中的直线距离在低维嵌入流形上可达。( )
  131. 选用PCA进行特征提取时,超平面所需满足的性质有( )
  132. 特征提取是通过映射(或变换)的方法将高维特征映射到低维空间,在低维空间表示样本。( )
  133. 决策树的构建算法包括( )
  134. 对于月面场景区域,提取的特征包括( )
  135. 对于非线性问题,需要通过升维操作在高维空间求内积来获得线性分类超平面。而核函数可以使样本在原始低维空间中通过核函数运算达到高维空间中求内积的相同结果,从而避免高维空间求内积,简化计算。( )
  136. 决策树的一个节点被拆分成多个节点,这个被拆分的节点就叫做父节点;其拆分后的节点叫做子节点。( )
  137. 下面的说法错误的是( )
  138. 如何让确定决策树生长的深度( )
  139. 仅仅使用多个准确率仅比随机猜测略高的分类器进行集成即可获得准确率很高,并且能在多项式时间内完成的分类器。( )
  140. 引入松弛变量的分类面称为广义分类面。( )
  141. 对于“软间隔”支持向量机,KKT条件包括( )
  142. 支持向量机被广泛地应用于统计分类以及回归分析,在解决小样本、非线性及高维模式识别中表现出许多特有的优势。( )
  143. 决策树利用树结构进行决策,每一个非叶子节点是一个结论,每一个叶子节点是判断条件。( )
  144. 半朴素贝叶斯分类器最常用的策略是独依赖估计。( )
  145. 贝叶斯网络是一个( )。
  146. 朴素贝叶斯分类算法是基于何种朴素假定( )。
  147. 以下关于朴素贝叶斯的说法中,哪—项是错误的( )。
  148. 在统计模式分类问题中,当先验概率未知时,可以使用最小最大贝叶斯决策。( )
  149. Fisher投影的求解可等价为一个“极小化广义Rayleigh商 ”的最优化问题( )
  150. 最小平方误差分类器中,通过对余量b进行设置,可使解等价于Fishier解( )
  151. 假设正负两类样本的均值向量分别为m1和m2,则垂直平分分类器的权向量可以表示为( )。
  152. 对于样本x和判别函数g(x)的描述正确的是( )
  153. 假设类别数为c,若采用“一对多”算法构建多类分类器,则需要训练的二分类模型个数、和识别阶段需要调用的二分类模型个数分别为?( )
  154. 下面哪些属于感知机的后续研究( )
  155. 以下属于计算机辅助诊断范畴的是( )
  156. 人工智能是模式识别的一个重要分支。( )
  157. 新生儿目视识别客观事物的过程( )。
  158. 有监督模式识别的一般步骤包括( )
  159. 模式识别领域主要研究的两个方向是( )
  160. 在所有样本构成的空间上定义的子集,同一类的样本可以属于不同的模式( )
  161. 嫦娥三号的成功是第一次有人类制造的探测器在月球背面实现软着陆( )
  162. 用来体现类别之间相互区别的某个或某些数学测度叫作特征,测度的值称为特征值。( )
温馨提示支付 ¥5.00 元后可查看付费内容,请先翻页预览!
点赞(7) dxwkbang
返回
顶部