第六章测试
1. 下面对误差反向传播 (error back propagation, BP)描述不正确的是( )
A:BP算法将误差从后向前传递,获得各层单元所产生误差,进而依据这个误差来让各层单元修正各单元参数 B:在BP算法中,每个神经元单元可包含不可偏导的映射函数 C:对前馈神经网络而言,BP算法可调整相邻层神经元之间的连接权重大小 D:BP算法是一种将输出层误差反向传播给隐藏层进行参数更新的方法
答案:B
2. 以下关于梯度下降和随机梯度下降的说明,哪些描述是正确的( )
A:在梯度下降和随机梯度下降中,为了最小化损失函数,通常使用循环迭代的方式不断更新模型参数; B:在每次迭代中,梯度下降使用所有数据或者部分训练数据,用于更新模型参数. C:梯度下降是遗传算法的一种参数优化算法 D:在每次迭代中,随机梯度下降需要计算训练集所有样本的误差和,用于更新模型参数; 3. 关于sigmoid激活函数,下列描述正确的是( )
A:当输入值过大或者过小时,梯度趋近于0,容易造成梯度消失问题。 B:它无法配合交叉熵损失函数使用; C:它是凸函数,凸函数无法解决非凸问题; D:它可以有负值; 4. 下面对前馈神经网络这种深度学习方法描述不正确的是( )
A:是一种监督学习的方法 B:是一种端到端学习的方法 C:实现了非线性映射 D:隐藏层数目大小对学习性能影响不大 5. 激活函数的引入和增强模型的非线性拟合能力。( )
A:对 B:错

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(1) dxwkbang
返回
顶部