1.下列关于模式识别的说法中,错误的是
A:对外界事物完成分类的过程也就完成了识别的过程 B:模式可以看作对象的组成成分或影响因素间存在的规律性关系 C:模式识别研究的问题就是如何通过机器实现样本的特征提取 D:人类的日常活动中包含很多模式识别的活动
答案:模式识别研究的问题就是如何通过机器实现样本的特征提取
2.下列表达中不能影响贝叶斯估计结果的是
A:数据的线性变换 B:样本的数量 C:损失函数的形式 D:待估计参数的后验概率
答案:数据的线性变换
3.下列关于感知器算法的说法中错误的是
A:在感知器算法中的学习率是可以改变的 B:感知器算法也适用于线性不可分的样本 C:在感知器算法中,如果样本不是线性可分的,则算法最后不会收敛。 D:在感知器算法中可以通过调整学习率p来减少迭代次数。
答案:感知器算法也适用于线性不可分的样本
4.贝叶斯决策是通过计算样本后验概率的大小来进行决策的,下面表达式中wi代表类别,x代表样本,能够表示后验概率的是
A:P(x|wi) B:P(wi|x) C: P(x) D:P(wi)
答案:P(wi|x)
5.下面关于fisher线性判别的说法中错误的是
A:经过fisher准则投影后得到的最佳投影方向是投影后两类样本分类面的法线方向。 B:好的投影方向应该使不同类别的样本均值之差尽量大,类内的样本尽量聚集 C:投影后得到的样本均值是标量。 D:经过fisher准则投影后得到的两类样本分类面的位置是唯一的。
答案:经过fisher准则投影后得到的两类样本分类面的位置是唯一的。
6.下面不能用来度量概率距离的参数是
A:散度 B:Bhattacharyya距离 C:欧式距离 D:Chernoff界限
答案:欧式距离
7.关于非监督学习的评价方法中错误的是
A:紧致性指标的范围是从0到无穷大,该值越大,说明聚类结果越好。 B:连接度的指标越小说明聚类结果越好。 C:在非监督学习中,可以采用数学上评价聚类性能的指标来帮助人们客观地理解和解释所得的聚类结果。 D:紧致性指标越小,说明聚类结果越好。
答案:紧致性指标的范围是从0到无穷大,该值越大,说明聚类结果越好。
8.下面关于贝叶斯估计的说法中错误的是
A:贝叶斯估计的方法类似于贝叶斯决策,也需要定义损失函数。 B:贝叶斯估计也需要一个训练样本集,利用训练样本集来找出估计参数,限制条件是使得损失函数最小。 C:最大似然估计与贝叶斯估计的思想是相同的,只不过采用的方法不同。 D:贝叶斯估计需要事先确定待估计参数的先验分布
答案:最大似然估计与贝叶斯估计的思想是相同的,只不过采用的方法不同。
9.下列关于最小风险的贝叶斯决策的说法中正确的有
A:最小风险的贝叶斯决策当中,决策的数量和样本类别的数量一定是相等的 B:最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失 C:最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例 D:条件风险反映了对于一个样本x采用某种决策时所带来的损失
答案:最小风险的贝叶斯决策考虑到了不同的错误率所造成的不同损失###最小错误率的贝叶斯决策是最小风险的贝叶斯决策的特例###条件风险反映了对于一个样本x采用某种决策时所带来的损失
10.下面关于基于类内类间距离的可分性判据的说法中正确的是
A:基于类内类间距离的可分性判据的值越大,说明可分离性越好。 B:基于类内类间距离的可分性判据的值越小,说明可分离性越好。 C:当各类的协方差矩阵相差很大时,采用基于类内类间距离的可分性判据的效果会好一些。 D:当各类的协方差矩阵相差很小时,采用基于类内类间距离的可分性判据的效果会好一些。
答案:基于类内类间距离的可分性判据的值越大,说明可分离性越好
11.神经网络的模型受到哪些因素的影响。
A:传递函数 B:样本的数量 C:连接权值的学习 D:网络结构

12.下面关于最大似然估计的说法中正确的是
A:在最大似然函数估计中,要估计的参数是一个确定的量。 B:最大似然估计是在已知概率密度函数的形式,但是参数未知的情况下,利用训练样本来估计未知参数。 C:在最大似然估计中要求各个样本必须是独立抽取的。 D:在最大似然函数估计中,要估计的参数是一个随机量。 13.下列关于正态分布的描述中正确的是
A:正态分布参数的维数取决于样本的维数 B:正态分布概率密度函数的两个主要参数是均值和方差 C:在多元正态分布中,区域的大小由方差来决定。 D:在多元正态分布中,区域的中心由均值来决定。 14.在总的样本集不是很大的情况下,可以采用交叉验证法来较好的估计分类器性能。
A:对 B:错 15.使用CV2法得到的分类器估计结果会更准确一些。
A:错误 B:正确 16.决策树学习是监督学习
A:正确 B:错误 17.当两类的概率密度函数的重合度越大,说明两类的可分性越好。
A:正确 B:错误 18.在模式识别中,多层神经网络的输入层、隐藏层、输出层的神经元的个数与样本的特征有关。
A:对 B:错 19.在最小风险的贝叶斯决策当中不需要计算样本的后验概率。
A:正确 B:错误 20.在类别数量未知的情况下,可以采用二分树的方式进行分类器设计。
A:错误 B:正确 21.K-L变换也是一种特征提取的方法。
A:正确 B:错误 22.多类问题的贝叶斯分类器中判别函数的数量与类别数量是有直接关系的。
A:错 B:对 23.特征提取的过程是通过训练样本求取特征变换矩阵的过程。
A:正确 B:错误 24.在感知器算法中感知器准则函数取得最大值时所对应的权向量a就是所要寻找的合适的权向量。
A:正确 B:错误 25.在BP算法中数据流的正向传播时,数据的传播方向是输入层→隐层→输出层。
A:错误 B:正确 26.C均值算法是基于相似性度量的
A:正确 B:错误 27.当原始特征的均值为0时,主成分分析方法和K-L变换方法是等价的。
A:对 B:错 28.选择性抽样是根据样本的先验概率来确定检验集数量的抽样方法。
A:对 B:错 29.利用神经网络来实现多类问题的分类时,可以采用一个具有的多个输出节点的神经网络来实现。
A:对 B:错 30.自举法的基本思想是,从原始样本集中进行多次自举抽样,目的就是为了模仿从总体中得到多个同样大小的样本集,从每个自举样本集得到一个估计,用多个估计的平均作为最后的估计结果。
A:正确 B:错误 31.分级聚类方法需要进行迭代运算
A:错误 B:正确 32.穷举法是一种基本的特征选择最优算法。
A:对 B:错 33.在解空间中,越靠近边缘的解越可靠。
A:错误 B:正确 34.越靠近解区中间的解向量,对样本错分的可能性越小。
A:错误 B:正确 35.线性分类器虽然简单,但是分类效果不一定不好
A:对 B:错 36.感知器准则函数是用权向量a与所有的错分样本的乘积来表示对错分样本的惩罚。
A:错 B:对 37.依据可分性准则定义的判据应该与错误率有单调关系。
A:正确 B:错误 38.特征的提取和选择对分类器的性能也有很大的影响。
A:对 B:错 39.在利用神经网络进行分类直线,需要将数据进行归一化处理的目的,是为了将数据的各维数的特征的作用均衡化。
A:正确 B:错误 40.聚类分析算法属于有监督学习
A:错 B:对 41.当每一类均符合高斯分布时,可以通过调整二次判别函数中的阈值来减少错误率。
A:对 B:错

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(2) dxwkbang
返回
顶部