题目内容 (请给出正确答案)
[主观题]

考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸运的是你有一个类似问题已经预先训练好的神经网络。可以用下面哪种方法来利用这个预先训练好的网络?()

A.把除了最后一层外所有的层都冻住,重新训练最后一层

B.对新数据重新训练整个模型

C.只对最后几层进行调参(finetune)

D.对每一层模型进行评估,选择其中的少数来用

查看答案
如搜索结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能会需要:
您的账号:
发送账号密码至手机
发送
更多“考虑某个具体问题时,你可能只有少量数据来解决这个问题。不过幸…”相关的问题

第1题

对于一个分类任务,如果开始时神经网络的权重不是随机赋值的,二是都设成0,下面哪个叙述是正确的?( )

A.其他选项都不对

B.没啥问题,神经网络会正常开始训练

C.神经网络可以训练,但是所有的神经元最后都会变成识别同样的东西

D.神经网络不会开始训练,因为没有梯度改变

点击查看答案

第2题

批规范化(BatchNormalization)的好处都有啥?( )

A.在将所有的输入传递到下一层之前对其进行归一化(更改)

B.它将权重的归一化平均值和标准差

C.它是一种非常有效的反向传播(BP)方法

D.这些均不是

点击查看答案

第3题

下列哪些项所描述的相关技术是对的?( )

A.AdaGrad和L-BFGS使用的都是一阶差分

B.AdaGrad和L-BFGS使用的都是二阶差分

C.Adagrad使用的是一阶差分,L-BFGS使用的是二阶差分

D.Adagrad使用的是二阶差分,L-BFGS使用的是一阶差分

点击查看答案

第4题

下面哪项操作能实现跟神经网络中Dropout的类似效果?( )

A.Boosting

B.Bagging

C.Stacking

D.Mapping

点击查看答案

第5题

对于线性回归,我们应该有以下哪些假设?:( )

A.找到利群点很重要,因为线性回归对利群点很敏感

B.线性回归要求所有变量必须符合正态分布

C.线性回归假设数据没有多重线性相关性

点击查看答案

第6题

对于随机森林和GradientBoostingTrees,下面说法正确的是:( )

A在随机森林的单个树中,树和树之间是有依赖的,而GradientBoostingTrees中的单个树之间是没有依赖的.

B这两个模型都使用随机特征子集,来生成许多单个的树.

C我们可以并行地生成GradientBoostingTrees单个树,因为它们之间是没有依赖的,GradientBoostingTrees训练模型的表现总是比随机森林好

点击查看答案

第7题

对于神经网络的说法,下面正确的是:( )

A增加神经网络层数,可能会增加测试数据集的分类错误率

B减少神经网络层数,总是能减小测试数据集的分类错误率

C增加神经网络层数,总是能减小训练数据集的分类错误率

点击查看答案

第8题

如果SVM模型欠拟合,以下方法哪些可以改进模型:( )

A.增大惩罚参数C的值

B.减小惩罚参数C的值

C.减小核系数(gamma参数)

点击查看答案

第9题

bootstrap数据是什么意思?( )

A.有放回地从总共M个特征中抽样m个特征

B.无放回地从总共M个特征中抽样m个特征

C.有放回地从总共N个样本中抽样n个样本

D.无放回地从总共N个样本中抽样n个样本

点击查看答案

第10题

以下有关特征数据归一化的说法错误的是:( )

A.特征数据归一化加速梯度下降优化的速度

B.特征数据归一化有可能提高模型的精度

C.线性归一化适用于特征数值分化比较大的情况

D.概率模型不需要做归一化处理

点击查看答案
热门考试 全部 >
相关试卷 全部 >
账号:
你好,尊敬的上学吧用户
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
谢谢您的反馈

您认为本题答案有误,我们将认真、仔细核查,
如果您知道正确答案,欢迎您来纠错

警告:系统检测到您的账号存在安全风险

为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!

微信搜一搜
上学吧
点击打开微信
警告:系统检测到您的账号存在安全风险
抱歉,您的账号因涉嫌违反上学吧购买须知被冻结。您可在“上学吧”微信公众号中的“官网服务”-“账号解封申请”申请解封,或联系客服
微信搜一搜
上学吧
点击打开微信