第四章单元测试
在决策树分割结点的时候,下列关于信息增益说法正确的是( )
如果自变量 X 和因变量 Y 之间存在高度的非线性和复杂关系,那么树模型很可能优于经典回归方法。( )
在决策树学习过程中,用属性α 对样本集D 进行划分所获得的"信息增益"越大,则意味着使用属性α 来进行划分所获得的"纯度提升"越大。( )
对于划分属性选择,以下说法正确的是( )
数据集D 的纯度可用它的基尼值来度量,基尼值越小,则数据集D 的纯度越高。( )
A:如果选择一个属性具有许多特征值, 那么这个信息增益是有偏差的
B:纯度高的结点需要更多的信息来描述它
C:信息增益可以用”1比特-熵”获得
答案:如果选择一个属性具有许多特征值, 那么这个信息增益是有偏差的
###信息增益可以用”1比特-熵”获得
A:对 B:错
A:对 B:错
A:增益率准则对可取值数目较少的属性有所偏好
B:C4.5算法并不是直接选择增益率最大的候选划分属性,而是先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。
C:选项中说法都不对
D:信息增益准则对可取值数目较多的属性有所偏好
A:错 B:对
温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!