TASK05-卷积神经网络基础-AlexNet-Lexnet

Prudence ·
更新时间:2024-11-10
· 940 次阅读

卷积神经网络基础-主要是一些概念性的内容,一做题目,几乎全部错误了,悲剧呀。 把题目和解析放下面。

1.

假如你用全连接层处理一张256×256256 \times 256256×256的彩色(RGB)图像,输出包含1000个神经元,在使用偏置的情况下,参数数量是:

65536001

65537000

196608001

196609000

答案解释

图像展平后长度为3×256×2563 \times 256 \times 2563×256×256,权重参数和偏置参数的数量是3×256×256×1000+1000=1966090003 \times 256 \times 256 \times 1000 + 1000 = 1966090003×256×256×1000+1000=196609000。

2.

假如你用全连接层处理一张256×256256 \times 256256×256的彩色(RGB)图像,卷积核的高宽是3×33 \times 33×3,输出包含10个通道,在使用偏置的情况下,这个卷积层共有多少个参数:

90

100

280

300

答案解释

输入通道数是3,输出通道数是10,所以参数数量是10×3×3×3+10=28010 \times 3 \times 3 \times 3 + 10 = 28010×3×3×3+10=280。

3.

conv2d = nn.Conv2d(in_channels=3, out_channels=4, kernel_size=3, padding=2),输入一张形状为3×100×1003 \times 100 \times 1003×100×100的图像,输出的形状为:

3×102×1023 \times 102 \times 1023×102×102

3×100×1003 \times 100 \times 1003×100×100

4×102×1024 \times 102 \times 1024×102×102

4×100×1004 \times 100 \times 1004×100×100

答案解释

4.

关于卷积层,以下哪种说法是错误的:

1×11 \times 11×1卷积可以看作是通道维上的全连接

某个二维卷积层用于处理形状为3×100×1003 \times 100 \times 1003×100×100的输入,则该卷积层无法处理形状为3×256×2563 \times 256 \times 2563×256×256的输入

卷积层通过填充、步幅、输入通道数、输出通道数等调节输出的形状

两个连续的3×33\times33×3卷积核的感受野与一个5×55\times55×5卷积核的感受野相同

答案解释

选项1:参考视频23分50秒左右对1×11 \times 11×1卷积的介绍

选项2:对于高宽维度,只要输入的高宽(填充后的)大于或等于卷积核的高宽即可进行计算

选项3:正确

选项4:正确

5.

关于池化层,以下哪种说法是错误的:

池化层不参与反向传播

池化层没有模型参数

池化层通常会减小特征图的高和宽

池化层的输入和输出具有相同的通道数

答案解释

选项1:错误,池化层有参与模型的正向计算,同样也会参与反向传播

选项2:正确,池化层直接对窗口内的元素求最大值或平均值,并没有模型参数参与计算

选项3:正确

选项4:正确

1.

关于LeNet,以下说法中错误的是:

LeNet主要分为两个部分:卷积层块和全连接层块

LeNet的绝大多数参数集中在卷积层块部分

LeNet在连接卷积层块和全连接层块时,需要做一次展平操作

LeNet的卷积层块交替使用卷积层和池化层。

答案解释

选项1:正确,参考LeNet模型的结构

选项2:错误,LeNet模型中,90%以上的参数集中在全连接层块

选项3:正确,参考LeNet模型的结构

选项4:正确,参考LeNet模型的结构

2.

关于卷积神经网络,以下说法中错误的是:

因为全连接层的参数数量比卷积层多,所以全连接层可以更好地提取空间信息

使用形状为2×22 \times 22×2,步幅为2的池化层,会将高和宽都减半

卷积神经网络通过使用滑动窗口在输入的不同位置处重复计算,减小参数数量

在通过卷积层或池化层后,输出的高和宽可能减小,为了尽可能保留输入的特征,我们可以在减小高宽的同时增加通道数

答案解释

选项1:错误,参考视频1分钟左右对全连接层局限性的介绍

选项2:正确,参考LeNet中的池化层

选项3:正确,参考视频1分30左右对卷积层优势的介绍

选项4:正确,参考视频3分钟左右的介绍

卷积神经网络进阶:

1.

关于AlexNet描述错误的是

用Dropout来控制全连接层的模型复杂度

包含有5层卷积和2层全连接隐藏层,以及1个全连接输出层

将LeNet中的ReLU激活函数改成了sigmoid激活函数。

首次证明了学习到的特征可以超越⼿⼯设计的特征

答案解释

选项1:正确,参考AlexNet的特征。

选项2:正确,参考AlexNet的特征。

选项3:错误,应该是将LeNet中的sigmoid激活函数改成了ReLU激活函数。

选项4:正确,在2012 ImageNet竞赛夺魁。

2.

下列哪个网络串联多个由卷积层和“全连接”层构成的小⽹络来构建⼀个深层⽹络

AlexNet

VGG

NiN

GoogLeNet

答案解释

选项2:正确,详见NiN的模型结构。

3.

下列模型不是由基础块重复堆叠而成的是

AlexNet

VGG

NiN

GoogLeNet

答案解释

选项1:错误,参考AlexNet。

选项2:正确,由VGG block组成。

选项3:正确,由NiN block组成。

选项4:正确,由Inception组成。

4.

通道数为3,宽高均为224的输入,经过一层输出通道数为96,卷积核大小为11,步长为4,无padding的卷积层后,得到的feature map的宽高为

96

54

53

224

答案解释

⌊(224−11)/4⌋+1=54\lfloor(224-11)/4\rfloor+1=54⌊(224−11)/4⌋+1=54

5.

关于VGG描述正确的是

使⽤全局平均池化层对每个通道中所有元素求平均并直接⽤于分类。

通过不同窗口形状的卷积层和最⼤池化层来并⾏抽取信息。

与AlexNet相比,难以灵活地改变模型结构。

通过重复使⽤简单的基础块来构建深度模型。

答案解释

选项1:错误,描述的是NiN。

选项2:错误,描述的是GoogLeNet。

选项3:错误,VGG相对AlexNet网络表达能力更强。

选项4:正确,参考VGG结构。

迷一样,概念太多了,一天之内根本没有办法全部记下来。 先做了解,能实现Alexnet,现在已经有更好的网络了,后面可以再深入了解,就把练习题放到这里,供交流。


作者:我有一碗酒可以慰风尘



网络基础 卷积神经网络 alexnet 神经网络 卷积

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章