第四章
在决策树分割结点的时候,下列关于信息增益说法正确的是( )
答案:信息增益可以用”1比特-熵”获得;如果选择一个属性具有许多特征值, 那么这个信息增益是有偏差的
如果自变量 X 和因变量 Y 之间存在高度的非线性和复杂关系,那么树模型很可能优于经典回归方法。( )在决策树学习过程中,用属性α 对样本集D 进行划分所获得的"信息增益"越大,则意味着使用属性α 来进行划分所获得的"纯度提升"越大。( )对于划分属性选择,以下说法正确的是( )数据集D 的纯度可用它的基尼值来度量,基尼值越小,则数据集D 的纯度越高。( )

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(0) dxwkbang
返回
顶部