第十一章单元测试
关于L1正则和L2正则 下面的说法正确的是( )
关于特征选择,下列对 Ridge 回归和 Lasso 回归说法正确的是?( )
下列哪一种方法的系数没有闭式(closed-form)解?( )
我们希望减少数据集中的特征数量。你可以采取以下哪一个步骤来减少特征?( )
建立线性模型时,我们看变量之间的相关性。在寻找相关矩阵中的相关系数时,如果发现 3 对变量(Var1 和 Var2、Var2 和 Var3、Var3 和 Var1)之间的相关性分别为 -0.98、0.45 和 1.23。我们能从中推断出什么呢?( )
A:L2范数可以防止过拟合,提升模型的泛化能力。但L1正则做不到这一点
B:L1范数会使权值稀疏
C:L2正则化有个名称叫“Lasso regularization”
D:L2正则化表示各个参数的平方和的开方值
答案:L1范数会使权值稀疏
###L2正则化表示各个参数的平方和的开方值
A:Lasso 回归适用于特征选择
B:选项中说法都不对
C:Ridge 回归适用于特征选择
D:两个都适用于特征选择
A:Ridge 回归
B:Ridge 回归和 Lasso
C:Lasso
D:选项中都不是
A:使用反向消除法(Backward Elimination)
B:逐步选择消除法(Stepwise)
C:使用正向选择法(Forward Selection)
D:计算不同特征之间的相关系数,删去相关系数高的特征之一
A:Var3 和 Var1 相关系数为 1.23 是不可能的
B:Var1 和 Var2 具有很高的相关性
C:Var1 和 Var2 存在多重共线性,模型可以去掉其中一个特征
D:选项中说法都不对
温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!