打字猴:1.700535558e+09
1700535558 假设输入空间是D维,输入模式为,输入单元i和神经元j之间在计算层的连接权重为,其中N是神经元的总数。自组织映射神经网络的自组织学习过程可以归纳为以下几个子过程。
1700535559
1700535560 (1)初始化。所有连接权重都用小的随机值进行初始化。
1700535561
1700535562
1700535563 (2)竞争。神经元计算每一个输入模式各自的判别函数值,并宣布具有最小判别函数值的特定神经元为胜利者,其中每个神经元j的判别函数为。
1700535564
1700535565
1700535566
1700535567 (3)合作。获胜神经元I(x)决定了兴奋神经元拓扑邻域的空间位置。确定激活结点I(x)之后,我们也希望更新和它临近的节点。更新程度计算如下:,其中Sij表示竞争层神经元i和j之间的距离,随时间衰减;简单地说,临近的节点距离越远,更新的程度要打更大折扣。
1700535568
1700535569
1700535570
1700535571 (4)适应。适当调整相关兴奋神经元的连接权重,使得获胜的神经元对相似输入模式的后续应用的响应增强:, 其中依赖于时间的学习率定义为:。
1700535572
1700535573 (5)迭代。继续回到步骤(2),直到特征映射趋于稳定。
1700535574
1700535575 在迭代结束之后,每个样本所激活的神经元就是它对应的类别。
1700535576
1700535577 自组织映射神经网络具有保序映射的特点,可以将任意维输入模式在输出层映射为一维或者二维图形,并保持拓扑结构不变。这种拓扑映射使得“输出层神经元的空间位置对应于输入空间的特定域或特征”。由其学习过程可以看出,每个学习权重更新的效果等同于将获胜的神经元及其邻近的权向量wi向输入向量x移动,同时对该过程的迭代进行会使得网络的拓扑有序。
1700535578
1700535579 在自组织映射神经网络中,获胜的神经元将使得相关的各权重向更加有利于它竞争的方向调整,即以获胜神经元为中心,对近邻的神经元表现出兴奋性侧反馈,而对远邻的神经元表现出抑制性侧反馈,近邻者互相激励,远邻者相互抑制。近邻和远邻均有一定的范围,对更远邻的神经元则表现弱激励的作用。这种交互作用的方式以曲线可视化则类似于“墨西哥帽”,如图5.9所示。
1700535580
1700535581
1700535582
1700535583
1700535584 图5.9 神经元的激励交互方式
1700535585
1700535586 自组织映射神经网络与K均值算法的区别如下。
1700535587
1700535588 (1)K均值算法需要事先定下类的个数,也就是K的值。而自组织映射神经网络则不用,隐藏层中的某些节点可以没有任何输入数据属于它,因此聚类结果的实际簇数可能会小于神经元的个数。而K均值算法受K值设定的影响要更大一些。
1700535589
1700535590 (2)K均值算法为每个输入数据找到一个最相似的类后,只更新这个类的参数;自组织映射神经网络则会更新临近的节点。所以,K均值算法受noise data的影响比较大,而自组织映射神经网络的准确性可能会比K均值算法低(因为也更新了临近节点)。
1700535591
1700535592 (3)相比较而言,自组织映射神经网络的可视化比较好,而且具有优雅的拓扑关系图。
1700535593
1700535594 问题2 怎样设计自组织映射神经网络并设定网络训练参数?
1700535595
1700535596 难度:★★★☆☆
1700535597
1700535598 分析与解答
1700535599
1700535600 ■ 设定输出层神经元的数量
1700535601
1700535602 输出层神经元的数量和训练集样本的类别数相关。若不清楚类别数,则尽可能地设定较多的节点数,以便较好地映射样本的拓扑结构,如果分类过细再酌情减少输出节点。这样可能会带来少量从未更新过权值的 “死节点”,但一般可通过重新初始化权值来解决。
1700535603
1700535604 ■ 设计输出层节点的排列
1700535605
1700535606 输出层的节点排列成哪种形式取决于实际应用的需要,排列形式应尽量直观地反映出实际问题的物理意义。例如,对于一般的分类问题,一个输出节点能代表一个模式类,用一维线阵既结构简单又意义明确;对于颜色空间或者旅行路径类的问题,二维平面则比较直观。
1700535607
[ 上一页 ]  [ :1.700535558e+09 ]  [ 下一页 ]