对应GradientBoostingtree算法,以下说法正确的是:()
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
A.当增加最小样本分裂个数,我们可以抵制过拟合
B.当增加最小样本分裂个数,会导致过拟合
C.当我们减少训练单个学习器的样本个数,我们可以降低variance
D.当我们减少训练单个学习器的样本个数,我们可以降低bias
第1题
A.模型分类的召回率会降低或不变
B.模型分类的召回率会升高
C.模型分类准确率会升高或不变
D.模型分类准确率会降低
第3题
A.学习率(learningrate)太低
B.正则参数太高
C.陷入局部最小值
D.以上都有可能
第4题
A.把除了最后一层外所有的层都冻住,重新训练最后一层
B.对新数据重新训练整个模型
C.只对最后几层进行调参(finetune)
D.对每一层模型进行评估,选择其中的少数来用
第5题
A.其他选项都不对
B.没啥问题,神经网络会正常开始训练
C.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西
D.神经网络不会开始训练,因为没有梯度改变
第6题
A.在将所有的输入传递到下一层之前对其进行归一化(更改)
B.它将权重的归一化平均值和标准差
C.它是一种非常有效的反向传播(BP)方法
D.这些均不是
第7题
A.AdaGrad和L-BFGS使用的都是一阶差分
B.AdaGrad和L-BFGS使用的都是二阶差分
C.Adagrad使用的是一阶差分,L-BFGS使用的是二阶差分
D.Adagrad使用的是二阶差分,L-BFGS使用的是一阶差分
第10题
A在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.
B这两个模型都使用随机特征子集,来生成许多单个的树.
C我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!