批规范化(BatchNormalization)的好处有()。
A.在将所有的输入传递到下一层之前对其进行归一化(更改)
B.它将权重的归一化平均值和标准差
C.它是一种非常有效的反向传播(BP)方法
D.这些均不是
A.在将所有的输入传递到下一层之前对其进行归一化(更改)
B.它将权重的归一化平均值和标准差
C.它是一种非常有效的反向传播(BP)方法
D.这些均不是
第5题
A.AdaGrad和L-BFGS使用的都是一阶差分
B.AdaGrad和L-BFGS使用的都是二阶差分
C.Adagrad使用的是一阶差分,L-BFGS使用的是二阶差分
D.Adagrad使用的是二阶差分,L-BFGS使用的是一阶差分
第8题
A在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
B这两个模型都使用随机特征子集,来生成许多单个的树.
C我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
第9题
A增加神经网络层数,可能会增加测试数据集的分类错误率
B减少神经网络层数,总是能减小测试数据集的分类错误率
C增加神经网络层数,总是能减小训练数据集的分类错误率
第11题
A.有放回地从总共M个特征中抽样m个特征
B.无放回地从总共M个特征中抽样m个特征
C.有放回地从总共N个样本中抽样n个样本
D.无放回地从总共N个样本中抽样n个样本
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!