打字猴:1.700537981e+09
1700537981
1700537982
1700537983
1700537984 图9.5 实现四元异或运算的一种网络结构样例
1700537985
1700537986 在上面所举的例子中,n元异或所需的3(n−1)个结点可以对应2(n−1)个网络层(包括隐含层和输出层),实际上,层数可以进一步减小。考虑到四元的输入W、X、Y、Z;如果我们在同一层中计算W⊕X和Y⊕Z,再将二者的输出进行异或,就可以将层数从6降到4。根据二分思想,每层节点两两分组进行异或运算,需要的最少网络层数为2log2N(向上取整)。
1700537987
1700537988
1700537989
1700537990
1700537991 图9.6 实现六元异或运算的一种网络结构样例
1700537992
1700537993
1700537994
1700537995
1700537996 百面机器学习:算法工程师带你去面试 [:1700532221]
1700537997 百面机器学习:算法工程师带你去面试 深度神经网络中的激活函数
1700537998
1700537999
1700538000
1700538001 场景描述
1700538002
1700538003 线性模型是机器学习领域中最基本也是最重要的工具,以逻辑回归和线性回归为例,无论通过闭解形式还是使用凸优化,它们都能高效且可靠地拟合数据。然而真实情况中,我们往往会遇到线性不可分问题(如XOR异或函数),需要非线性变换对数据的分布进行重新映射。对于深度神经网络,我们在每一层线性变换后叠加一个非线性激活函数,以避免多层网络等效于单层线性函数,从而获得更强大的学习与拟合能力。
1700538004
1700538005 知识点
1700538006
1700538007 微积分,深度学习,激活函数
1700538008
1700538009 问题1 写出常用激活函数及其导数。
1700538010
1700538011 难度:★☆☆☆☆
1700538012
1700538013 分析与解答
1700538014
1700538015 Sigmoid激活函数的形式为
1700538016
1700538017
1700538018
1700538019
1700538020 (9.3)
1700538021
1700538022 对应的导函数为
1700538023
1700538024
1700538025
1700538026
1700538027 (9.4)
1700538028
1700538029 Tanh激活函数的形式为
1700538030
[ 上一页 ]  [ :1.700537981e+09 ]  [ 下一页 ]