第五章测试
1.

梯度下降算法的正确步骤是什么?

a.计算预测值和真实值之间的误差

b.重复迭代,直至得到网络权重的最佳值

c.把输入传入网络,得到输出值

d.用随机值初始化权重和偏差

e.对每一个产生误差的神经元,调整相应的(权重)值以减小误差


A:edcba      B:abcde     C:cbaed           D:dcaeb
答案:D
2.

已知:大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。- 每一个神经元都有输入、处理函数和输出。- 神经元组合起来形成了网络,可以拟合任何函数。- 为了得到最佳的神经网络,我们用梯度下降方法不断更新模型给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?


A:有维度更高的数据 B:当这是一个图形识别的问题时 C:加入更多层,使神经网络的深度增加 3.

训练CNN时,可以对输入进行旋转、平移、缩放等预处理提高模型泛化能力。


A:错 B:对 4.

下面哪项操作能实现跟神经网络中Dropout的类似效果?


A:Mapping B:Bagging         C:Stacking     D:Boosting     5.

下列哪一项在神经网络中引入了非线性?


A:随机梯度下降 B:卷积函数 C:修正线性单元(ReLU) 6.

多对一RNN架构可以应用于以下哪些任务?


A:情感分类(输入一段文字并输出0/1表示正面或负面情绪) B:图像分类(输入图像输出标签) C:语音识别(输入一个音频输出一段字幕) D:语音中的性别识别(输入音频剪辑并输出表明说话者性别的标签) 7.

您正在训练RNN,发现您的权重和激活都具有NaN的值(“非数字”)。 以下哪项最可能是此问题的原因?


A:在sigmoid激活函数当中z太大 B:梯度爆炸问题 C:在ReLU激活函数当中z太大 D:梯度消失问题 8.

为了使RNN更容易训练,需要选取更好的激活函数,如Relu激活函数。ReLU函数的左侧导数为0,右侧导数恒为1,这就避免了梯度爆炸问题的发生。


A:错 B:对 9.

RNN会发生梯度消失的问题,产生这样的问题的原因是RNN在算是会有激活函数导数的累乘,如果取tanh或sigmoid函数作为激活函数的话,那么必然是一堆小数在做乘法,结果就是越乘越小。随着时间序列的不断深入,小数的累乘就会导致梯度越来越小直到接近于0,这就是“梯度消失“现象。


A:对 B:错 10.

假设你正在训练LSTM。 你有10000个单词的词汇,并且正在使用具有100维激活的LSTM。 每步当中的维数是多少?


A:1 B:1000 C:300 D:100

温馨提示支付 ¥3.00 元后可查看付费内容,请先翻页预览!
点赞(44) dxwkbang
返回
顶部