以下有关卷积神经网络的说法,哪些是错误的?
A.卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B.共享权重大大减少了参数的个数,降低了网络的复杂度
C.通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D.卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
A.卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化
B.共享权重大大减少了参数的个数,降低了网络的复杂度
C.通过增加卷积核的大小和通道的个数,可以提升卷积神经网络特征获取的能力
D.卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快
第1题
A、在一个卷积层中,一般只有一个卷积核
B、典型CNN的输入层中通常以2维矩阵形式作为输入信号
C、多个卷积核处理后,采用池化操作,将得到的数据块降维,以避免信息冗余
D、输出之前,最后一个卷积层的所有卷积核处理后的信息会被“拉平”为一维向量,再经过全连接层后进入输出层
第2题
A、典型的卷积神经网络是由卷积层、池化层和全连接层等组成
B、卷积神经网络训练时学习的是每层神经元的值
C、AlexNet是一个8层的卷积神经网络
D、目标检测网络Yolo网络结构中包含卷积层
第3题
A、人工神经网络主要由输入层、隐藏层和输出层组成。深度学习一般要求有多个隐藏层
B、卷积神经网络具有天然的网络权重值共享和网络局部稀疏性连接的特性,这种连接恰好也符合生物神经元的稀疏性响应特性
C、卷积神经网络有两个基本概念:权值共享和池化。权值共享使权值参数的个数减小;池化可以使特征图减小,简化计算
D、损失函数层的作用是用来估算模型的预测值与实际值的差距的函数,它是一个非负的实数值函数,它的值越小,反应该网络的数据拟合性能越好,也就是其结果越逼近原始输入数据
第4题
A、ReLU非线性激活函数的收敛速度比Sigmoid快一些
B、在限制神经元总数的情况下,增加网络的宽度要比增加网络的深度能带来更强的网络表示能力
C、激活函数为Tanh的深层神经网络可以看成一个复合的非线性多元函数
D、输入一个300*300的彩色图,经过10个5*5的卷积核,隐层的参数量为750(包括偏置)
第5题
A、是目前网络深度最深、应用最成功的深度学习模型
B、卷积神经网络模拟了人类视觉信息处理的过程
C、图像的卷积,很类似视觉皮层对图像进行某种特定功能的处理
D、模拟大脑的视觉处理过程就是卷积神经网络的思路
第6题
A、卷积神经网络只能用于图像分类,不能用于文本分类,没有相关文献
B、使用卷积神经网络进行句子分类,一般将句子中每个词表示为固定长度的向量,这样句子就可以表示为矩阵,从而使得在结构上与图像类似,并在后续进行卷积等处理
C、图像处理应用中,卷积核处理的局部区域为图像的一小块区域,而在文本分类时卷积核处理的局部区域通常为相邻的上下几行(几个词)。因此卷积核的宽度和输入矩阵的宽度相等
D、使用卷积神经网络进行句子分类或者文档分类,卷积提取的特征与采用n-gram模式提取的特征类似
第7题
A、多层前向神经网络一般需要同一层神经元间相互连接
B、深度学习一般使用具有多个隐藏层的神经网络
C、训练神经网络的主要目的是学习神经元间的连接权值
D、卷积神经网络(CNN)可以逐层抽取数据特征实现自动特征学习
第10题
A、为了获得不同尺度的特征,GoogLeNet采用了1X1,3X3,7X7等不同尺度的卷积核。
B、ResNet卷积神经网络使用了批量标准化(BN)增加了网络的训练稳定性,并像VGG算法利用了skip链接减少信息的损失。
C、类似VGG、GoogLeNet等网络,AlexNet采用了卷积块的结构。
D、所有的卷积层都使用3X3小卷积核的网络是VGG
为了保护您的账号安全,请在“上学吧”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!