打字猴:1.700500881e+09
1700500881 数据挖掘与数据化运营实战:思路、方法、技巧与应用 [:1700497613]
1700500882 10.1.1 神经网络的原理和核心要素
1700500883
1700500884 人工神经网络的结构大致分为两大类:前向型网络和反馈型网络。
1700500885
1700500886 具体来说,所谓前向型网络,是指传播方向是从输入端传向输出端,并且没有任何的反馈;所谓反馈型网络是指在传播方向上除了从输入端传向输出端之外,还有回环或反馈存在。两种类型的网络原理图如图10-1所示。
1700500887
1700500888
1700500889
1700500890
1700500891 图10-1 人工神经网络的典型结构图
1700500892
1700500893 在上述的典型结构里,神经网络通过输入多个非线性模型,以及不同模型之间的加权互联,最终得到一个输出模型。具体来说,多元输入层是指一些自变量,这些自变量通过加权结合到中间的层次上,称为隐蔽层。隐蔽层中主要包含的是非线性函数,也叫转换函数或者挤压函数。隐蔽层就是所谓的黑箱(Black Box)部分,几乎没有人能在所有的情况下读懂隐蔽层中那些非线性函数是如何对自变量进行组合的,这是计算机思考代替人类思考的一个典型案例。
1700500894
1700500895 利用神经网络技术建模的过程中,有以下5个因素对模型的结果有重大影响[1]:
1700500896
1700500897 ❑层数。对于一定的输入层和输出层,需要有多少个隐蔽层,这点无论是在理论上,还是在实践中都非常有意义。虽然没有不变的规律,但是有经验的数据分析师通常要尝试不同的设置,力求找到满意的模型结构。
1700500898
1700500899 ❑每层中输入变量的数量。太多的自变量很可能会造成模型的过度拟合,使得模型搭建时看上去很稳定,可是一旦用到新数据中,模型的预测与实际结果却相差很大,这时模型就失去了预测的价值和意义。所以,在使用神经网络建模之前,输入变量的挑选、精简非常重要。
1700500900
1700500901 ❑联系的种类。神经网络模型中,输入变量可以有不同方向的结合,可以向前,可以向后,还可以平行。采用不同的结合方式,可能就会对模型的结果产生不同的影响。
1700500902
1700500903 ❑联系的程度。在每一层中,其元素可以与他层中的元素完全联系,也可以部分联系。部分联系可以减少模型过度拟合的风险,但是也可能减弱模型的预测能力。
1700500904
1700500905 ❑转换函数。转换函数也称为挤压函数,因为它能把从正无穷大到负无穷大的所有输入变量挤压为很小范围内的一个输出结果。这种非线性的函数关系有助于模型的稳定和可靠性。选择转换函数的标准很简单,即在最短时间内提供最好的结果函数。常见的转换函数包括阀值逻辑函数、双曲正切函数、S曲线函数等。
1700500906
1700500907 大部分神经网络模型的学习过程,都是通过不断地改变权重来使误差达到总误差的最小绝对值的。比如,以常见的前向型网络模型为例,其设计原理如下:
1700500908
1700500909 ❑隐蔽层的层数。从理论上讲,两层就足够了;在实践中,经常是一层隐蔽层就足够了。
1700500910
1700500911 ❑每层内的输入变量。输出层的变量由具体分析背景来决定;隐蔽层的数量为输入数与输出数的乘积开平方;输入层的数量应该尽量精简,遵循少而精的原则,这在后面要详细阐述。
1700500912
1700500913 ❑联系的程度。一般都选择所有层次间全部联系。
1700500914
1700500915 ❑转换函数。选用逻辑斯蒂函数为主要转换函数,因为逻辑斯蒂函数可以提供在最短时间内的最佳拟合。
1700500916
1700500917 ❑模型开发样本要足够充分,避免过拟合现象发生。
1700500918
1700500919 [1]罗茂初.数据库营销[M].北京:经济管理出版社,2007:239.
1700500920
1700500921
1700500922
1700500923
1700500924 数据挖掘与数据化运营实战:思路、方法、技巧与应用 [:1700497614]
1700500925 数据挖掘与数据化运营实战:思路、方法、技巧与应用 10.1.2 神经网络的应用优势
1700500926
1700500927 在数据挖掘实践应用中,人工神经网络的应用主要有以下优点:
1700500928
1700500929 ❑有良好的自组织学习功能。神经网络可以根据外界数据的变化来不断修正自身的行为,对未经训练的数据模式的分类能力也比较强。
1700500930
[ 上一页 ]  [ :1.700500881e+09 ]  [ 下一页 ]