重庆电子工程职业学院
- 信息熵是度量样本集合纯度最常用的一种指标。信息熵的值越大,说明样本集合的纯度越高。( )
- 决策树学习的目的是为了产生一颗泛化能力强,即处理未见示例能力强的决策树。( )
- 感知机能解决异或等非线性可分问题。( )
- 预剪枝策略降低了过拟合风险。( )
- 一般来说,回归不用在分类问题上,但也有特殊情况,比如逻辑回归可以用来解决分类问题。( )
- 硬间隔是指SVM允许分类时出现一定范围的误差。( )
- 已知你朋友的信息,比如经常发email的联系人,或是你微博的好友、微信的朋友圈,我们可运用聚类方法自动地给朋友进行分组,做到让每组里人们彼此都熟识。( )
- 误差逆传播算法是迄今最成功的神经网络学习算法。( )
- 梯度下降,就是沿着函数的梯度(导数)方向更新自变量,使得函数的取值越来越小,直至达到全局最小或者局部最小。( )
- 决策树学习算法中,预留一部分数据用作“验证集”,进行性能评估,决定是否剪枝。( )
- 大部分的机器学习工程中,数据搜集、数据清洗、特征工程这三个步骤占绝大部分时间,而数据建模占总时间比较少。( )
- 回归和分类都是监督学习问题。( )
- 回归问题和分类问题都有可能发生过拟合。( )
- 按照学习方式,机器学习可以分为哪几类( )
- 机器学习可以应用在下列哪些应用领域( )
- 关于信息熵下列说法正确的是( )
- 下列说法正确的有( )
- Kmeans算法中,k个初始中心点的选择方法可以是( )
- 目前决策树最常见的算法有以下几种( )
- 下列算法哪些是无监督学习算法( )
- 决策树的结点包含( )
- 下列哪些条件可以作为kmeans算法终止条件( )
- 集成学习有以下哪几种代表算法。( )
- 下列说法正确的有( )
- 按照学习任务,机器学习可以分为哪几类( )
- 机器学习涉及的理论有( )
- Kmeans算法的应用场景有( )
- 最小二乘法,求损失函数最小时,多元函数求偏导数的方法是:将其他自变量看成什么,对该自变量求偏导方法与一元函数求导数方法一致( )
- 移动运营商对客户的流失进行预测,可以使用下面哪种机器学习方法比较合适( )
- 对西瓜的成熟度进行预测得到结果为0.6,这属于什么学习任务?( )
- 线性回归最小二乘法算法目标是为了求解下面哪两个参数的值?( )
- 谷歌新闻每天收集非常多的新闻,并运用什么方法再将这些新闻分组,组成若干类有关联的新闻。于是,搜索时同一组新闻事件往往隶属同一主题,所以显示到一起。( )
- 最小二乘法(又称最小平方法)是一种数学优化技术。它通过什么的平方和寻找数据的最佳函数匹配( )
- 使用下面哪个函数可以将线性回归转为逻辑回归( )
- 贝叶斯网络起源于贝叶斯统计学,是以( )为基础的有向图模型,它为处理不确定知识提供了有效的方法。
- 下列关于朴素贝叶斯分类器错误的是?( )
- 支持向量机的简称( )
- 下面代码运行结果是Import numpy as npa=np.arange(12).reshape(3,4)print(a.mean) ( )
- 误差方向传播算法属于什么学习规则( )
- 最小二乘法是求得之间差值的平方和最小( )
- 下列哪个不是Boosting的特点( )
- 机器学习进行的第一步是什么?( )
- 下列关于主成分分析的表述错误的是( )
- 下列描述无监督学习错误的是( )
- 支持向量机中的margin指( )
- 集成学习的主要思想是( )
- 下列关于标准神经元模型的说法错误的是( )
- 移动运营商对客户进行细分,以设计套餐和营销活动,可以使用下面哪种机器学习方法( )
- 以下哪个函数可以实现画布的创建( )
- 下列不属于机器学习的学习框架是哪个?( )
A:对 B:错
答案:错
A:错 B:对
答案:对
A:错 B:对
答案:错
A:对 B:错
答案:对
A:错 B:对
答案:对
A:错 B:对
答案:错
A:对 B:错
答案:对
A:错 B:对
答案:对
A:错 B:对
答案:对
A:对 B:错
A:对 B:错
A:对 B:错
A:错 B:对
A:半监督学习 B:监督学习 C:非监督学习 D:强化学习
A:天气预报 B:自动驾驶汽车 C:搜索引擎 D:商业营销
A:熵越小,数据的不确定性越小 B:熵越大,数据的不确定性越小 C:熵越大,数据的不确定性越大 D:熵越小,数据的不确定性越大
A:常见的非监督算法有聚类、降维和关联 B:非监督学习中训练机器的数据是没有标签的 C:降维指减少一个数据集的变量数量,同时保证传达信息的准确性 D:聚类是将相似的东西聚在一起,并关心这些东西是什么
A:随机选择训练样本中K个样本点作为K个类别的中心 B:将全部数据随机的分成k类,计算每类的重心 C:靠经验值选择 D:用密度法选择初始分类中心
A:CART B:ID3 C:最小二乘法 D:C4.5
A:Q-learning B:支持向量机 C:空间聚类 D:主成分分析
A:根结点 B:内部结点 C:叶结点 D:结点
A:k个类别的中心点坐标不再变化 B:每个类别的样本数目一致 C:达到了最大迭代次数 D:k个类别的样本分配情况不再变化
A:K-means B:随机森林 C:SVM D:AdaBoost
A:半监督学习中的纯半监督学习是预测待测数据 B:半监督学习中的直推学习是预测待测数据 C:半监督学习中的主动学习有专家进行人工标注 D:半监督学习利用少量标签样本和大量无标签样本
A:分类 B:降维 C:聚类 D:回归
A:概率论 B:凸分析 C:逼近论 D:统计学
A:人脸识别 B:无标签的数据聚类 C:图像压缩 D:语音识别
A:变量 B:常数 C:自变量 D:因变量
A:多层前馈网络 B:聚类算法 C:一元线性回归分析 D:关联方法
A:回归 B:分类 C:聚类 D:降维
A:真实值和预测值 B:最大值和最小值 C:样本X值和样本Y值 D:斜率K和截距b
A:关联规则 B:回归 C:聚类 D:分类
A:最大化误差 B:最小化误差 C:最大化求和 D:最大化乘积
A:高斯核函数 B:Sigmoid C:P(A) D:H(x)
A:线性代数 B:逻辑学 C:概率论 D:信息论
A:对缺失数据不敏感,算法也比较简单,常用于文本分类 B:对输入数据的表达形式不敏感 C:朴素贝叶斯模型发源于古典数学理论,有稳定的分类效率 D:对小规模的数据表现很好,能处理多分类任务,适合增量式训练
A:AI B:CNN C:SVM D:ML
A:[4,5,6,7] B:5.5 C:16.5 D:[1.5,5.5,9.5]
A:混合 B:有导师 C:无导师 D:死记忆
A:真实值和误差值 B:最小值和最大值 C:真实值和预测值 D:预测值和最小值
A:串行算法不断减小分类器训练偏差 B:组合算法可以减小分类输出方差 C:基分类器彼此关联 D:串行训练的算法
A:交叉验证 B:特征提取 C:数据收集 D:模型训练
A:通过主成分分析,可以将多个变量缩减为少数几个新的变量,而信息并没有损失,或者说信息损失很少 B:主成分分析方法是一种数据降维的方法 C:通过主成分分析,可以用较少的新的指标来代替原来较多的指标反映的信息,并且新的指标之间是相互独立的 D:主成分分析是数据增维的方法
A:具有很好的解释性 B:核心是聚类 C:不需要降维 D:无标签
A:间隔 B:盈利率 C:保证金 D:损失误差
A:通过聚类算法使数据集分为多个簇 B:将多源数据进行融合学习 C:将多个数据集合集成在一起进行训练 D:将多个机器学习模型组合起来解决问题
A:神经元具有Sigmoid或类似的可导激活函数 B:具有一个或多个输出端,且输出端信号一致 C:具有多个输入端,每个输入端具有相同的权重 D:神经元能够根据误差信号通过梯度下降法调整权重,实现学习
A:多层前馈网络 B:贝叶斯分类器 C:关联方法 D:聚类算法
A:add_subplot() B:subplots() C:figure() D:subplot2grid()
A:RNN B:Caffe C:TensorFlow D:Keras
温馨提示支付 ¥5.00 元后可查看付费内容,请先翻页预览!