第八章单元测试
下面关于 Random Forest 和 Gradient Boosting Trees 说法正确的是?( )
数据科学家经常使用多个算法进行预测,并将多个机器学习算法的输出(称为“集成学习”)结合起来,以获得比所有个体模型都更好的更健壮的输出。则下列说法正确的是?( )
以下方法属于集成学习方法的是( )
如果用“三个臭皮匠顶个诸葛亮”来比喻集成学习的话,那么对三个臭皮匠的要求可能是:( )
集成学习中个体学习器的多样性不宜高,否则容易顾此失彼,降低系统的总体性能。( )
A:两者都使用随机特征子集来创建中间树
B:无论任何数据,Gradient Boosting Trees 总是优于 Random Forest
C:在 Gradient Boosting Trees 中可以生成并行树,因为它们是相互独立的
D:Random Forest 的中间树不是相互独立的,而 Gradient Boosting Trees 的中间树是相互独立的
答案:两者都使用随机特征子集来创建中间树
A:基本模型之间相关性低
B:基本模型都来自于同一算法
C:基本模型之间相关性高
D:集成方法中,使用加权平均代替投票方法
A:boosting
B:stacking
C:bagging
D:bootstrapping
A:三个臭皮匠的优点各不相同
B:选项中说法都不对
C:三个臭皮匠不能太差,每个人考试都能及格
D:三个臭皮匠的缺点各不相同
A:错 B:对
温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!