卷积神经网络基础-主要是一些概念性的内容,一做题目,几乎全部错误了,悲剧呀。 把题目和解析放下面。
1.
假如你用全连接层处理一张256×256256 \times 256256×256的彩色(RGB)图像,输出包含1000个神经元,在使用偏置的情况下,参数数量是:
65536001
65537000
196608001
196609000
答案解释
图像展平后长度为3×256×2563 \times 256 \times 2563×256×256,权重参数和偏置参数的数量是3×256×256×1000+1000=1966090003 \times 256 \times 256 \times 1000 + 1000 = 1966090003×256×256×1000+1000=196609000。
2.
假如你用全连接层处理一张256×256256 \times 256256×256的彩色(RGB)图像,卷积核的高宽是3×33 \times 33×3,输出包含10个通道,在使用偏置的情况下,这个卷积层共有多少个参数:
90
100
280
300
答案解释
输入通道数是3,输出通道数是10,所以参数数量是10×3×3×3+10=28010 \times 3 \times 3 \times 3 + 10 = 28010×3×3×3+10=280。
3.
conv2d = nn.Conv2d(in_channels=3, out_channels=4, kernel_size=3, padding=2)
,输入一张形状为3×100×1003 \times 100 \times 1003×100×100的图像,输出的形状为:
3×102×1023 \times 102 \times 1023×102×102
3×100×1003 \times 100 \times 1003×100×100
4×102×1024 \times 102 \times 1024×102×102
4×100×1004 \times 100 \times 1004×100×100
答案解释
4.
关于卷积层,以下哪种说法是错误的:
1×11 \times 11×1卷积可以看作是通道维上的全连接
某个二维卷积层用于处理形状为3×100×1003 \times 100 \times 1003×100×100的输入,则该卷积层无法处理形状为3×256×2563 \times 256 \times 2563×256×256的输入
卷积层通过填充、步幅、输入通道数、输出通道数等调节输出的形状
两个连续的3×33\times33×3卷积核的感受野与一个5×55\times55×5卷积核的感受野相同
答案解释
选项1:参考视频23分50秒左右对1×11 \times 11×1卷积的介绍
选项2:对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算
选项3:正确
选项4:正确
5.
关于池化层,以下哪种说法是错误的:
池化层不参与反向传播
池化层没有模型参数
池化层通常会减小特征图的高和宽
池化层的输入和输出具有相同的通道数
答案解释
选项1:错误,池化层有参与模型的正向计算,同样也会参与反向传播
选项2:正确,池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算
选项3:正确
选项4:正确
1.
关于LeNet,以下说法中错误的是:
LeNet主要分为两个部分:卷积层块和全连接层块
LeNet的绝大多数参数集中在卷积层块部分
LeNet在连接卷积层块和全连接层块时,需要做一次展平操作
LeNet的卷积层块交替使用卷积层和池化层。
答案解释
选项1:正确,参考LeNet模型的结构
选项2:错误,LeNet模型中,90%以上的参数集中在全连接层块
选项3:正确,参考LeNet模型的结构
选项4:正确,参考LeNet模型的结构
2.
关于卷积神经网络,以下说法中错误的是:
因为全连接层的参数数量比卷积层多,所以全连接层可以更好地提取空间信息
使用形状为2×22 \times 22×2,步幅为2的池化层,会将高和宽都减半
卷积神经网络通过使用滑动窗口在输入的不同位置处重复计算,减小参数数量
在通过卷积层或池化层后,输出的高和宽可能减小,为了尽可能保留输入的特征,我们可以在减小高宽的同时增加通道数
答案解释
选项1:错误,参考视频1分钟左右对全连接层局限性的介绍
选项2:正确,参考LeNet中的池化层
选项3:正确,参考视频1分30左右对卷积层优势的介绍
选项4:正确,参考视频3分钟左右的介绍
卷积神经网络进阶:
1.
关于AlexNet描述错误的是
用Dropout来控制全连接层的模型复杂度
包含有5层卷积和2层全连接隐藏层,以及1个全连接输出层
将LeNet中的ReLU激活函数改成了sigmoid激活函数。
首次证明了学习到的特征可以超越⼿⼯设计的特征
答案解释
选项1:正确,参考AlexNet的特征。
选项2:正确,参考AlexNet的特征。
选项3:错误,应该是将LeNet中的sigmoid激活函数改成了ReLU激活函数。
选项4:正确,在2012 ImageNet竞赛夺魁。
2.
下列哪个网络串联多个由卷积层和“全连接”层构成的小⽹络来构建⼀个深层⽹络
AlexNet
VGG
NiN
GoogLeNet
答案解释
选项2:正确,详见NiN的模型结构。
3.
下列模型不是由基础块重复堆叠而成的是
AlexNet
VGG
NiN
GoogLeNet
答案解释
选项1:错误,参考AlexNet。
选项2:正确,由VGG block组成。
选项3:正确,由NiN block组成。
选项4:正确,由Inception组成。
4.
通道数为3,宽高均为224的输入,经过一层输出通道数为96,卷积核大小为11,步长为4,无padding的卷积层后,得到的feature map的宽高为
96
54
53
224
答案解释
⌊(224−11)/4⌋+1=54\lfloor(224-11)/4\rfloor+1=54⌊(224−11)/4⌋+1=54
5.
关于VGG描述正确的是
使⽤全局平均池化层对每个通道中所有元素求平均并直接⽤于分类。
通过不同窗口形状的卷积层和最⼤池化层来并⾏抽取信息。
与AlexNet相比,难以灵活地改变模型结构。
通过重复使⽤简单的基础块来构建深度模型。
答案解释
选项1:错误,描述的是NiN。
选项2:错误,描述的是GoogLeNet。
选项3:错误,VGG相对AlexNet网络表达能力更强。
选项4:正确,参考VGG结构。
迷一样,概念太多了,一天之内根本没有办法全部记下来。 先做了解,能实现Alexnet,现在已经有更好的网络了,后面可以再深入了解,就把练习题放到这里,供交流。