提示:内容已经过期谨慎付费,点击上方查看最新答案

应用回归分析

  1. 在多元线性回归分析中,有关样本的决定系数说法正确的是

  2. A:越接近于-1越好 B:越接近于0越好 C:取值区间为-1到1 D:取值区间为0到1
    答案:取值区间为0到1
  3. 检验等级相关系数时用的相关系数是

  4. A:Spearman等级相关系数 B:线性相关系数 C:Pearson简单相关系数 D:非线性相关系数
    答案:Spearman等级相关系数
  5. 当模型参数初值不够准确,回归迭代不收敛时可采用的方法有

  6. A:增加样本容量 B:修改模型 C:修改参数初值 D:修改参数估计方法
    答案:修改参数初值
  7. 如果多元回归模型的F检验结果中,F=462.58,F的p值为0.000000,则表明

  8. A:所有解释变量对被解释变量的影响都显著 B:模型的解释变量和被解释变量之间都有显著的线性关系 C:所有解释变量对被解释变量的影响都不显著 D:模型所描述的变量之间的线性关系总体上显著
    答案:模型所描述的变量之间的线性关系总体上显著
  9. 存在异方差时,下列说法不正确的是

  10. A:参数估计量非有效 B:参数显著性检验有效 C:参数估计是无偏的 D:回归方程应用效果不理想
    答案:参数显著性检验有效
  11. 在线性回归模型中,若解释变量 X1和X2的观测值成比例,即有X1=K*X2,其中k为非零常数,则表明模型中存在

  12. A:设定误差 B:方差非齐性 C:序列相关 D:多重共线性

  13. 下列方法中,可克服多重共线性的是

  14. A:逐步回归法 B:迭代法 C:差分法 D:加权最小二乘法
    AI参考:正确答案是C:差分法。差分法是利用多元线性回归模型中各解释变量之间的相关性,通过构造差分模型来消除多重共线性,从而得到更精确的回归系数。其他选项如逐步回归法、迭代法和加权最小二乘法也可以在一定程度上克服多重共线性,但不如差分法有效。因此,选项C是正确答案。'
  15. 残差图分布呈现以下哪种情况时表示同方差

  16. A:有规律的散布 B:随机散布 C:随解释变量增大而增大 D:随解释变量增大而减小

  17. 在对多元线性回归模型进行总体显著性检验时,如果检验结果总体线性关系显著,则有

  18. A:F检验结果不显著 B:t检验结果不显著 C:F检验显著 D:t检验显著

  19. 一元线性回归模型的最小二乘回归结果显示,残差平方和为40.32,样本容量为n=25,则回归模型的标准差是

  20. A:1.613 B:1.753 C:1.27 D:1.324

  21. 一般多重共线性下参数估计量

  22. A:不存在 B:非有效 C:有无穷多解 D:唯一

  23. 极大似然估计法是按从模型中得到的N组样本观测值的()最大的准则确定样本回归方程。

  24. A:方差 B:离差平方和 C:概率 D:均值

  25. 对多元线性回归模型的系数进行显著性检验时,所用t检验的自由度为

  26. A:n-p-2 B:n-p-1 C:n-p+1 D:n-p+2

  27. 逐步回归法既可以检验也可以消除()

  28. A:异方差 B:多重共线性 C:检验显著 D:自相关
    AI参考:正确选项是【B:多重共线性】。逐步回归法既可以检验也可以消除多重共线性。多重共线性是在回归分析中,自变量之间存在高度相关的情况。逐步回归法是一种通过逐步引入和删除自变量来优化模型的方法,它可以同时检验和消除多重共线性。因此,选项B是正确答案。其他选项A、C和D与逐步回归法的功能不符。'
  29. 使用加权最小二乘法消除异方差时,观测值的权数取观测值误差项方差的

  30. A:平方 B:倒数 C:三次方 D:倍数

  31. 关于全模型正确而误用选模型造成的影响,下列说法不正确的是

  32. A:选模型的参数估计有较小的方差 B:选模型的参数估计是有偏的 C:选模型的预测是有偏的 D:选模型预测的均方误差比全模型预测的方差大

  33. 回归分析中估计回归参数的方法主要有

  34. A:方差分析法 B:极大似然估计法 C:相关系数法 D:最小二乘估计法

  35. 能消除异方差的方法有

  36. A:对模型做变换 B:逐步回归法 C:广义最小二乘法 D:加权最小二乘法
    AI参考:能消除异方差的方法有:C:广义最小二乘法 和 D:加权最小二乘法。选项A和B与消除异方差无关,可以排除。因此,答案为C和D。'
  37. 相关指数R2什么时候不能用于非线性回归模型的判断

  38. A:回归拟合效果不好 B:模型选择正确 C:模型选择不正确 D:回归拟合效果好
    AI参考:正确选项为:C:模型选择不正确。因为相关指数R用于判断线性回归模型的拟合效果,如果模型选择不正确,即模型类型与数据特征不匹配,那么相关指数R可能无法反映模型的拟合效果,此时就不能用于非线性回归模型的判断。而其他选项如回归拟合效果不好、回归拟合效果好与模型选择正确与否无关,因此不是判断非线性回归模型时的考虑因素。'
  39. 关于DW检验的局限性说法错误的是

  40. A:有无法确定的区域 B:要求样本容量大于等于15 C:不是一种常用的方法 D:判断自相关性的结果比较粗糙

  41. 古典线性回归模型的基本假定是

  42. A:无自相关假定 B:零均值假定 C:正态性假定 D:解释变量与随机误差项不相关假定 E:同方差假定

  43. 相关指数R2什么时候可以用于非线性回归模型的判断

  44. A:模型选择不正确 B:回归拟合效果不好 C:回归拟合效果好 D:模型选择正确
    AI参考:正确选项为C:回归拟合效果好。在非线性回归模型的判断中,相关指数R的值是一个重要的指标,它反映了模型拟合的优劣程度。当相关指数R的值较高时,说明回归拟合效果较好,此时可以考虑使用该模型进行预测或解释。因此,选项C“回归拟合效果好”是符合题意的正确选项。而选项A、B、D虽然都与模型有关,但与相关指数R的判断无关,因此不是正确选项。'
  45. 存在异方差时,下列说法正确的是

  46. A:参数显著性检验有效 B:参数估计量非有效 C:回归方程应用效果不理想 D:参数估计是无偏的
    AI参考:正确选项为C:回归方程应用效果不理想。当存在异方差时,回归方程的拟合优度可能会受到影响,即模型的预测效果可能会变差,因此回归方程的应用效果不理想。其他选项如参数显著性检验、参数估计量和无偏性可能会受到影响,但并不是直接受异方差影响的。'
  47. 回归模型的随机误差项形式由( )决定

  48. A:参数的估计方法 B:模型的检验结果 C:数据的经济意义 D:主观判断

  49. 关于自变量选择的准则,下列说法正确的有

  50. A:复决定系数最大 B:自由度调整复决定系数最大 C:AIC最大 D:BIC最小 E:Cp统计量达到最小
    AI参考:关于自变量选择的准则,正确的有:\rA:复决定系数最大 \rC:AIC最大 \rD:BIC最小 复决定系数最大:复决定系数是衡量模型拟合优度的一个指标,越大说明模型拟合越好。\rAIC(Akaike Information Criterion)最大:AIC是一种常用的选择最佳模型的准则,当存在多个候选模型时,AIC会根据模型复杂度和拟合优度来选择最优模型。BIC(Bayesian Information Criterion)最小:BIC也是一种选择最佳模型的准则,但它的主要区别在于它考虑了模型自由度,当模型复杂度适中时,BIC会选择拟合度较好的模型。这两个准则在实际应用中常常结合使用。因此,选项C和D都是正确的。选项B虽然也涉及到自由度调整复决定系数,但没有明确指出与自变量选择的关系,因此不是正确选项。选项E提到的Cp统计量通常用于评估时间序列数据的匹配问题,与自变量选择关系不大。'
  51. 下面那种方法可以消除异方差

  52. A:BOX-COX变换法 B:差分法 C:迭代法 D:加权最小二乘法

  53. 存在异方差时,普通最小二乘估计存在的问题有

  54. A:参数估计量非有效 B:回归方程应用效果不理想 C:参数显著性检验失效 D:参数估计是有偏的

  55. 非线性回归中SST=SSR+SSE不成立

  56. A:错 B:对

  57. 在实际问题的选择中,只从预测角度考虑,则应选择自由度调整复决定系数最大的模型。

  58. A:错 B:对
    AI参考:正确答案是B:对。在实际问题的选择中,只从预测角度考虑,应该选择自由度调整复决定系数最大的模型。这句话表明了模型选择的标准是预测效果,而调整决定系数是衡量模型预测效果的一个重要指标,因此应该选择调整决定系数最大的模型。因此,答案是B,即“对”。'
  59. 异方差的存在不会改变普通最小二乘估计的无偏性

  60. A:错 B:对
    AI参考:正确答案是B:对。异方差的存在不会改变普通最小二乘估计的无偏性。这是因为普通最小二乘估计是在给定误差项服从正态分布的假设下进行的,而异方差并不会影响这个假设的成立,因此不会影响普通最小二乘估计的无偏性。'
  61. 在多元线性回归模型中,如果每一个自变量对因变量的影响都显著,则说明所有自变量对因变量的影响总体上显著。

  62. A:对 B:错

  63. BLUE的含义是最佳线性无偏估计量。

  64. A:对 B:错

  65. 当模型中包含了一些不必要的自变量,模型的预测精度就会下降,这时候应该考虑用选模型。

  66. A:对 B:错
    AI参考:答案是B:错。当模型中包含了一些不必要的自变量,模型的预测精度不会下降,相反,可能会提高模型的解释性和泛化能力。在机器学习中,冗余变量可能会干扰模型的预测,因此通常会使用特征选择方法来移除冗余变量,以提高模型的性能。因此,如果模型包含不必要的自变量,通常应该考虑对其进行特征选择,而不是使用模型选择方法。'
  67. 在多元线性回归模型中,对回归方程进行显著性检验时,构造的检验统计量为F=[SSR/p]/[SSE/(n-p-1)]。

  68. A:对 B:错

  69. 逐步回归法的步骤是,先用被解释变量对每一个所考虑的解释变量做简单回归,然后以对被解释变量贡献最小的解释变量所对应的回归方程为基础,按对被解释变量贡献大小的顺序逐个引入其余的解释变量。这一说法:

  70. A:错 B:对

  71. 反映由模型中解释变量所解释的那部分离差大小的是回归平方和。

  72. A:错 B:对

  73. 对于一元线性回归模型,总体显著性F检验和回归系数的t检验是等价的。

  74. A:对 B:错

  75. 回归分析中解释变量为非随机变量,被解释变量为随机变量。

  76. A:错 B:对

  77. 某一特定的X水平上,总体Y分布的离散程度越大,则预测区间越宽,精度越低。

  78. A:对 B:错

  79. 加权最小二乘法能完全消除误差项的序列相关性。

  80. A:对 B:错

温馨提示支付 ¥1.45 元后可查看付费内容,请先翻页预览!
点赞(1) dxwkbang
返回
顶部