以下哪些方法能改进卷积神经网络的训练质量?
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
第2题
A、卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B、共享权重大大减少了参数的个数,降低了网络的复杂度
C、通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D、卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
第3题
A、卷积层使用卷积+ReLU+batch normalization的结构
B、mini-batch的batch值越大越好
C、增加池化层的个数可以提高网络训练参数,但降低了网络性能
D、激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力
第4题
A、增加可调整参数的隐层数目
B、使用图像进行旋转、裁剪、拉伸、裁剪等进行样本增强
C、采用小卷积核,提高通道的个数
D、增强特征获取能力对样本按照一定的方式排序
第7题
A、典型的卷积神经网络是由卷积层、池化层和全连接层等组成
B、卷积神经网络训练时学习的是每层神经元的值
C、AlexNet是一个8层的卷积神经网络
D、目标检测网络Yolo网络结构中包含卷积层
第8题
A、采用不同大小的卷积:在开始的卷积层采用大卷积核获得粗大的特征,然后再后续的卷积层采用小卷积核获得细致的特征
B、同一隐层组合不同大小的卷积核函数
C、采用shortcut等方式,随着网络层次的加深,减少特征的损失
D、多增加池化操作
第9题
A、ReLU非线性激活函数的收敛速度比Sigmoid快一些
B、在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C、激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D、输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第10题
A、卷积核的高和宽不一定是相等的,且一般大小取奇数
B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!