提高卷积神经网络分类准确性,以下哪些方法可能是有效的?
A.增加可调整参数的隐层数目
B.使用图像进行旋转、裁剪、拉伸、裁剪等进行样本增强
C.采用小卷积核,提高通道的个数
D.增强特征获取能力对样本按照一定的方式排序
A.增加可调整参数的隐层数目
B.使用图像进行旋转、裁剪、拉伸、裁剪等进行样本增强
C.采用小卷积核,提高通道的个数
D.增强特征获取能力对样本按照一定的方式排序
第1题
A、卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B、共享权重大大减少了参数的个数,降低了网络的复杂度
C、通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D、卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
第2题
A、采用不同大小的卷积:在开始的卷积层采用大卷积核获得粗大的特征,然后再后续的卷积层采用小卷积核获得细致的特征
B、同一隐层组合不同大小的卷积核函数
C、采用shortcut等方式,随着网络层次的加深,减少特征的损失
D、多增加池化操作
第3题
A、卷积层使用卷积+ReLU+batch normalization的结构
B、mini-batch的batch值越大越好
C、增加池化层的个数可以提高网络训练参数,但降低了网络性能
D、激活函数尽量选择Sigmoid等函数,提高网络的非线性拟合能力
第4题
A、权重归一化
B、dropout
C、batch nomalization
D、增加更多的隐层数,提高网络的深度,深度增大性能也会不断提升
第5题
A、卷积核的高和宽不一定是相等的,且一般大小取奇数
B、在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0
C、在卷积神经网络中,卷积和池化的作用主要是分类,全连接层的作用主要是特征获取
D、卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能
第6题
A、LeNet-5是卷积神经网络
B、池化层可以非常有效地缩小参数矩阵的尺寸,从而减少后面的卷积层或者全连接层中的参数数量。
C、与全连接的神经网络相比,CNN应用于图像处理时可能会导致一个严重的参数数量的膨胀的问题。
D、卷积层的特点是参数共享
第9题
A、人工神经网络主要由输入层、隐藏层和输出层组成。深度学习一般要求有多个隐藏层
B、卷积神经网络具有天然的网络权重值共享和网络局部稀疏性连接的特性,这种连接恰好也符合生物神经元的稀疏性响应特性
C、卷积神经网络有两个基本概念:权值共享和池化。权值共享使权值参数的个数减小;池化可以使特征图减小,简化计算
D、损失函数层的作用是用来估算模型的预测值与实际值的差距的函数,它是一个非负的实数值函数,它的值越小,反应该网络的数据拟合性能越好,也就是其结果越逼近原始输入数据
第10题
A、ReLU非线性激活函数的收敛速度比Sigmoid快一些
B、在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C、激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D、输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!