打字猴:1.700538381e+09
1700538381
1700538382
1700538383
1700538384 (9.31)
1700538385
1700538386
1700538387
1700538388
1700538389 图9.12 Dropout模块示意图
1700538390
1700538391
1700538392
1700538393
1700538394 图9.13 标准网络和Dropout网络的对比
1700538395
1700538396 应用Dropout之后,前向传播公式变为
1700538397
1700538398
1700538399
1700538400
1700538401 (9.32)
1700538402
1700538403
1700538404
1700538405
1700538406 (9.33)
1700538407
1700538408
1700538409
1700538410
1700538411 (9.34)
1700538412
1700538413
1700538414
1700538415
1700538416 (9.35)
1700538417
1700538418 上面的Bernoulli函数的作用是以概率系数p随机生成一个取值为0或1的向量,代表每个神经元是否需要被丢弃。如果取值为 0,则该神经元将不会计算梯度或参与后面的误差传播。
1700538419
1700538420 测试阶段是前向传播的过程。在前向传播的计算时,每个神经元的参数要预先乘以概率系数p,以恢复在训练中该神经元只有p的概率被用于整个神经网络的前向传播计算。
1700538421
1700538422 更多详细内容及实验性能对比请查看参考文献[19]。
1700538423
1700538424 问题3 批量归一化的基本动机与原理是什么?在卷积神经网络中如何使用?
1700538425
1700538426 难度:★★★☆☆
1700538427
1700538428 分析与解答
1700538429
1700538430 神经网络训练过程的本质是学习数据分布,如果训练数据与测试数据的分布不同将大大降低网络的泛化能力,因此我们需要在训练开始前对所有输入数据进行归一化处理。
[ 上一页 ]  [ :1.700538381e+09 ]  [ 下一页 ]