4、在神经网络的训练初期,损失函数值很大且下降速度过于缓慢,大概率是因为()
A.学习率过小
B.学习率过大
C.模型已经训练好了
D.以上均不对
A.学习率过小
B.学习率过大
C.模型已经训练好了
D.以上均不对
第1题
A.损失函数值越大,模型越不精准
B.当使用均方差损失函数时,网络层数越深,训练收敛速度变慢
C.损失函数值越大,模型越精准
D.当使用交叉熵损失函数时,误差越大,训练收敛速度变慢
第4题
A.1
B.2
C.3
D.4
第5题
A.梯度反方向是函数值下降最快方向
B.梯度下降算法用来优化神经网络学习模型的参数
C.梯度下降算法是一种使得损失函数最小化的方法
D.梯度方向是函数值下降最快方向
第6题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第7题
A.BP神经网络的训练过程中,先进行后向传播再进行前向传播
B.通过损失函数对后向传播结果进行判定
C.通过前向传播过程对权重参数进行修正
D.训练过程中权值参数的运算量很大,一般采用梯度下降法
第8题
A.神经网络中各个隐藏层能提取出和人类看到的一样的特征
B.向量[0.1, 0.1, 0.2, 0.3, 0.6]的维数是10
C.误差的反向传播,即根据从输出层到第一个隐藏层的结果,逐层修改神经元的连接权值参数,使得损失函数值最小
D.损失函数是用来评估神经网络的计算模型对样本的预测值和真实值之间的误差大小
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!