1.以下属于关联规则分析的是( )。
A:股票趋势建模 B:购物篮分析 C:自动判断鸢尾花类别 D:CPU性能预测
答案:购物篮分析
2.下面关于回归分析的描述错误的是( )
A:回归分析按照涉及的变量的多少,分为一元回归和多元回归分析 B:按照因变量的多少,可分为线性回归分析和非线性回归分析 C:是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法 D:在大数据分析中,回归分析是一种预测性的建模技术
答案:按照因变量的多少,可分为线性回归分析和非线性回归分析
3.我们想在大数据集上训练决策树, 为了使用较少时间, 我们可以( )。
A:增加树的深度 B:增加学习率 C:减少树的深度 D:减少树的数量
答案:减少树的深度
4.下述哪一个是机器学习的合理定义。 ( )
A:机器学习是允许机器人智能行动的领域 B:机器学习能使计算机能够在没有明确编程的情况下学习 C:机器学习是计算机编程的科学 D:机器学习从标记的数据中学习
答案:机器学习能使计算机能够在没有明确编程的情况下学习
5.以下哪个距离度量不在KNN算法中体现( )
A:切比雪夫距离 B:余弦相似度 C:曼哈顿距离 D:欧氏距离
答案:余弦相似度
6.一个正例(2,3),一个负例(0,-1),下面哪个是 SVM 超平面( )
A:2x+y-4=0 B:无法计算 C:2y+x-5=0 D:x+2y-3=0
答案:x+2y-3=0
7.在logistic回归中将输出y视为样本x属于正例的概率。给定训练数据集,通常采用( )来估计参数w和b,最大化样本属于其真实类标记的概率的对数,即最大化对数似然。
A:交叉验证法 B:极大似然法 C:最小二乘法 D:留出法
答案:极大似然法
8.下列选项中,关于KNN算法说法不正确是 ( )
A:算法相对简单,但是可解释性不强 B:默认使用欧氏距离 C:能找出与待预测样本相近的K个样本 D:效率很高
答案:效率很高
9.线性回归方程中,回归系数b为负数,表明自变量与因变量为( )
A:显著相关 B:不相关 C:负相关 D:正相关
答案:负相关
10.KNN 最近邻方法在( )情况下效果较好?
A:样本较多但典型性不好 B:样本呈链状分布 C:样本呈团状分布 D:样本较少但典型性好
答案:样本较少但典型性好
11.一个计算机程序从经验E中学习任务T,并用P来衡量表现。并且,T的表现P随着经验E的增加而提高。假设我们给一个学习算法输入了很多历史天气的数据,让它学会预测天气。P的合理选择是( )。
A:其它都不对 B:计算大量历史气象数据的过程 C:天气预报任务 D:正确预测未来日期天气的概率

12.假设你训练SVM后,得到一个线性决策边界,你认为该模型欠拟合。在下次迭代训练模型时,应该考虑( )
A:减少特征 B:减少训练数据 C:计算更多变量 D:增加训练数据 13.以下关于逻辑回归与线性回归问题的描述错误的是( )。
A:逻辑回归用于处理分类问题,线性回归用于处理回归问题 B:线性回归计算方法一般是最小二乘法,逻辑回归的参数计算方法是似然估计法 C:线性回归要求输入输出值呈线性关系,逻辑回归不要求 D:逻辑回归一般要求变量服从正态分布,线性回归一般不要求 14.逻辑回归模型可以解决线性不可分问题吗?( )。
A:不可以 B:可以 C:其它说法都不对 D:视数据具体情况而定 15.数据预处理对机器学习是很重要的,下面说法正确的是( )。
A:数据预处理的效果直接决定了机器学习的结果质量 B:数据噪声对神经网络的训练没什么影响 C:对于有问题的数据都直接删除即可 D:预处理不需要花费大量的时间 16.关于朴素贝叶斯,下列说法错误的是( )
A:朴素的意义在于它的一个假设:所有特征之间是相互独立的 B:它实际上是将多条件下的条件概率转换成了单一条件下的条件概率,简化了计算 C:朴素贝叶斯不需要使用联合概率 D:它是一个分类算法 17.下列关于线性回归分析中残差说法正确的是 ( )
A:残差均值总是为零 B:残差均值总是大于零 C:其它说法都不对 D:残差均值总是小于零 18.传统机器学习的应用领域有( )。
A:销售预测 B:信用风险检测 C:商品推荐 D:语音合成 19.关于剪枝,以下算法正确的是( )。
A:剪枝是防止过拟合的手段 B:决策树剪枝的基本策略有预剪枝和后剪枝 C:ID3算法没有剪枝操作 D:C4.5算法没有剪枝操作 20.下面属于降维常用的技术的有 ( )
A:特征提取 B:奇异值分解 C:主成分分析 D:离散化 21.以下关于PCA说法正确的是( )
A:PCA各个主成分维度解释性强 B:PCA运算结果受到属性方差的影响 C:PCA运算时需要进行特征值分解 D:PCA各个主成分之间正交 22.‎训练完SVM模型后, 不是支持向量的那些样本我们可以丢掉, 也可以继续分类。 ( )
A:对 B:错 23.PCA会选取信息量最少的方向进行投影。 ( )
A:正确 B:错误 24.支持向量机是那些最接近决策平面的数据点。 ( )
A:错 B:对 25.在各类机器学习算法中,过拟合和欠拟合都是可以彻底避免的。 ( )
A:错误 B:正确 26.线性回归是一种有监督机器学习算法,它使用真实的标签进行训练。 ( )
A:错误 B:正确 27.K近邻是一种比较成熟也是比较简单的机器学习算法,主要用于分类问题。( )
A:错误 B:正确 28.决策树学习是一种逼近离散值目标函数的方法,学习到的函数被表示为一棵决策树。 ( )
A:错误 B:正确 29.K均值算法,是一种原型聚类算法。 ( )
A:对 B:错 30.KNN分类的时候,对新的样本,根据其k个最近邻的训练样本的类别,通过多数表决等方式进行预测。( )
A:错误 B:正确 31.一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个属性测试;根结点包含样本全集。 ( )
A:错误 B:正确 32.K均值聚类时,初始质心不好会导致收敛速度差。 ( )
A:错 B:对 33.根据肿瘤的体积、患者的年龄来判断良性或恶性,这是一个回归问题。 ( )
A:正确 B:错误 34.K-Means聚类分析使用目标字段,预测某一结果。 ( )
A:对 B:错 35.朴素贝叶斯模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,在属性相关性较小时,朴素贝叶斯性能良好。而在属性个数比较多或者属性之间相关性较大时,分类效果不好。 ( )
A:错误 B:正确 36.K-Means的计算性能瓶颈发生在距离的计算上。 ( )
A:对 B:错 37.支持向量机求解不可以采用梯度下降方法求解最优值。 ( )
A:错误 B:正确 38.朴素贝叶斯法对缺失数据较敏感。 ( )
A:正确 B:错误 39.逻辑回归算法是一种广义的线性回归分析方法,它仅在线性回归算法的基础上,利用Sigmoid函数对事件发生的概率进行预测。 ( )。
A:错误 B:正确 40.梯度下降,就是沿着函数的梯度(导数)方向更新自变量,使得函数的取值越来越小,直至达到全局最小或者局部最小。 ( )
A:正确 B:错误 41. SVM中核函数将高维空间中的数据映射到低维空间。 ( )
A:正确 B:错误 42.

K-means是一种迭代算法,在其内部循环中重复执行以下两个步骤是( )。


A:簇中心分配步骤,其中每个簇质心被分配(通过设置)到最近的训练示例 B:移动簇中心,将其设置为等于最近的训练示例 C:移动簇中心,更新簇中心。 D:分配簇,计算距离。 43.对于以下哪些任务,K-means聚类可能是一种合适的算法?( )。
A:根据超市中大量产品的销售数据,找出哪些产品可以组成组合(比如经常一起购买),因此应该放在同一个货架上。 B:给定一个关于用户信息的数据库,自动将用户分组到不同的市场细分中。 C:根据历史天气记录,预测明天的降雨量。 D:给定超市中大量产品的销售数据,估计这些产品的未来销售额。 44.

假设您正在使用随机梯度下降训练逻辑回归分类器。你发现在过去的500个例子中,成本(即,500个例子平均后)绘制为迭代次数的函数,随时间缓慢增加。以下哪项更改可能有帮助( )。


A:从训练集中取更少的例子。 B:试着在图中用较少的例子(比如250个例子而不是500个)来平均成本。 C:这在随机梯度下降的情况下是不可能的,因为它保证收敛到最优参数。 D:尝试将学习率减半(减少),看看这是否会导致成本持续下降;如果没有,继续减半直到成本会持续下降。 45.下列关于K-means聚类算法的说法错误的是( )。
A:对大数据集有较高的效率并且具有可伸缩性 B:是一种无监督学习方法 C:初始聚类中心的选择对聚类结果影响不大 D:K值无法自动获取,初始聚类中心随机选择 46.以下说法哪些是正确的? ( )
A:在使用KNN算法时,k通常取偶数 B:在使用KNN算法时,k取值越大,模型越容易过拟合 C:KNN和k-means都是无监督学习算法 D:KNN是有监督学习算法 47.以下说法错误的是( )
A:线性回归(Linear Regression)是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法 B:这种函数是一个或多个称为回归系数的模型参数的线性组合 C:线性回归利用称为线性回归方程的最小平方函数对一个或多个自变量和因变量之间关系进行建模 D:只有一个自变量的情况称为多元回归,大于一个自变量情况的叫做简单回归

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(8) dxwkbang
返回
顶部