打字猴:1.700538461e+09
1700538461
1700538462
1700538463
1700538464 (9.39)
1700538465
1700538466
1700538467
1700538468
1700538469 (9.40)
1700538470
1700538471
1700538472
1700538473
1700538474 (9.41)
1700538475
1700538476 批量归一化在卷积神经网络中应用时,需要注意卷积神经网络的参数共享机制。每一个卷积核的参数在不同位置的神经元当中是共享的,因此也应该被一起归一化。具体实现中,假设网络训练中每一批包含b个样本,由一个卷积核生成的特征图的宽高分别为w和h,则每个特征图所对应的全部神经元个数为b×w×h;利用这些神经元对应的所有输入数据,我们根据一组待学习的参数γ和β对每个输入数据进行批量归一化操作。如果有f个卷积核,就对应f个特征图和f组不同的γ和β参数。
1700538477
1700538478
1700538479
1700538480
1700538481 百面机器学习:算法工程师带你去面试 [:1700532224]
1700538482 百面机器学习:算法工程师带你去面试 05 深度卷积神经网络
1700538483
1700538484
1700538485
1700538486 场景描述
1700538487
1700538488 卷积神经网络(Convolutional Neural Networks,CNN)也是一种前馈神经网络,其特点是每层的神经元节点只响应前一层局部区域范围内的神经元(全连接网络中每个神经元节点响应前一层的全部节点)。一个深度卷积神经网络模型通常由若干卷积层叠加若干全连接层组成,中间也包含各种非线性操作以及池化操作。卷积神经网络同样可以使用反向传播算法进行训练,相较于其他网络模型,卷积操作的参数共享特性使得需要优化的参数数目大大缩减,提高了模型的训练效率以及可扩展性。由于卷积运算主要用于处理类网格结构的数据,因此对于时间序列以及图像数据的分析与识别具有显著优势。
1700538489
1700538490 图9.14是卷积神经网络的一个经典结构示意图。这是LeCun Yann在1998年提出的卷积神经网络结构,输入在经历几次卷积和池化层的重复操作之后,接入几个全连通层并输出预测结果,已成功应用于手写体识别任务。
1700538491
1700538492
1700538493
1700538494
1700538495 图9.14 LeNet卷积神经网络
1700538496
1700538497 知识点
1700538498
1700538499 图像处理,深度学习,自然语言处理
1700538500
1700538501 问题1 卷积操作的本质特性包括稀疏交互和参数共享,具体解释这两种特性及其作用。
1700538502
1700538503 难度:★★☆☆☆
1700538504
1700538505 分析与解答
1700538506
1700538507 ■ 稀疏交互(Sparse Interaction)
1700538508
1700538509 在传统神经网络中,网络层之间输入与输出的连接关系可以由一个权值参数矩阵来表示,其中每个单独的参数值都表示了前后层某两个神经元节点之间的交互。对于全连接网络,任意一对输入与输出神经元之间都产生交互,形成稠密的连接结构,如图9.15所示,神经元si与输入的所有神经元xj均有连接。
1700538510
[ 上一页 ]  [ :1.700538461e+09 ]  [ 下一页 ]