1700537981
1700537982
1700537983
1700537984
图9.5 实现四元异或运算的一种网络结构样例
1700537985
1700537986
在上面所举的例子中,n元异或所需的3(n−1)个结点可以对应2(n−1)个网络层(包括隐含层和输出层),实际上,层数可以进一步减小。考虑到四元的输入W、X、Y、Z;如果我们在同一层中计算W⊕X和Y⊕Z,再将二者的输出进行异或,就可以将层数从6降到4。根据二分思想,每层节点两两分组进行异或运算,需要的最少网络层数为2log2N(向上取整)。
1700537987
1700537988
1700537989
1700537990
1700537991
图9.6 实现六元异或运算的一种网络结构样例
1700537992
1700537993
1700537994
1700537995
1700537997
百面机器学习:算法工程师带你去面试 深度神经网络中的激活函数
1700537998
1700537999
1700538000
1700538001
场景描述
1700538002
1700538003
线性模型是机器学习领域中最基本也是最重要的工具,以逻辑回归和线性回归为例,无论通过闭解形式还是使用凸优化,它们都能高效且可靠地拟合数据。然而真实情况中,我们往往会遇到线性不可分问题(如XOR异或函数),需要非线性变换对数据的分布进行重新映射。对于深度神经网络,我们在每一层线性变换后叠加一个非线性激活函数,以避免多层网络等效于单层线性函数,从而获得更强大的学习与拟合能力。
1700538004
1700538005
知识点
1700538006
1700538007
微积分,深度学习,激活函数
1700538008
1700538009
问题1 写出常用激活函数及其导数。
1700538010
1700538011
难度:★☆☆☆☆
1700538012
1700538013
分析与解答
1700538014
1700538015
Sigmoid激活函数的形式为
1700538016
1700538017
1700538018
,
1700538019
1700538020
(9.3)
1700538021
1700538022
对应的导函数为
1700538023
1700538024
1700538025
.
1700538026
1700538027
(9.4)
1700538028
1700538029
Tanh激活函数的形式为
1700538030
[
上一页 ]
[ :1.700537981e+09 ]
[
下一页 ]