打字猴:1.700537986e+09
1700537986 在上面所举的例子中,n元异或所需的3(n−1)个结点可以对应2(n−1)个网络层(包括隐含层和输出层),实际上,层数可以进一步减小。考虑到四元的输入W、X、Y、Z;如果我们在同一层中计算W⊕X和Y⊕Z,再将二者的输出进行异或,就可以将层数从6降到4。根据二分思想,每层节点两两分组进行异或运算,需要的最少网络层数为2log2N(向上取整)。
1700537987
1700537988
1700537989
1700537990
1700537991 图9.6 实现六元异或运算的一种网络结构样例
1700537992
1700537993
1700537994
1700537995
1700537996 百面机器学习:算法工程师带你去面试 [:1700532221]
1700537997 百面机器学习:算法工程师带你去面试 深度神经网络中的激活函数
1700537998
1700537999
1700538000
1700538001 场景描述
1700538002
1700538003 线性模型是机器学习领域中最基本也是最重要的工具,以逻辑回归和线性回归为例,无论通过闭解形式还是使用凸优化,它们都能高效且可靠地拟合数据。然而真实情况中,我们往往会遇到线性不可分问题(如XOR异或函数),需要非线性变换对数据的分布进行重新映射。对于深度神经网络,我们在每一层线性变换后叠加一个非线性激活函数,以避免多层网络等效于单层线性函数,从而获得更强大的学习与拟合能力。
1700538004
1700538005 知识点
1700538006
1700538007 微积分,深度学习,激活函数
1700538008
1700538009 问题1 写出常用激活函数及其导数。
1700538010
1700538011 难度:★☆☆☆☆
1700538012
1700538013 分析与解答
1700538014
1700538015 Sigmoid激活函数的形式为
1700538016
1700538017
1700538018
1700538019
1700538020 (9.3)
1700538021
1700538022 对应的导函数为
1700538023
1700538024
1700538025
1700538026
1700538027 (9.4)
1700538028
1700538029 Tanh激活函数的形式为
1700538030
1700538031
1700538032
1700538033
1700538034 (9.5)
1700538035
[ 上一页 ]  [ :1.700537986e+09 ]  [ 下一页 ]