打字猴:1.70262908e+09
1702629080
1702629081 将椅子的重量作为解释变量,对椅子作为结果变量进行分析的时候,1千克的椅子和2千克的椅子之差与10千克的椅子和11千克的椅子之差是“重量每增加1千克,属于椅子的概率同比下降”的直线关系。相反,如果1千克增加到2千克的情况和10千克增加到11千克的情况对结果变量的影响不同的话,那么就会出现“曲线关系”。
1702629082
1702629083 当然在逻辑回归之中,追加相互作用可以对曲线的关系进行假设分析。但是,在数据挖掘专家们看来,统计学家们“必须要经过不断的错误尝试才行”。
1702629084
1702629085 如果使用神经元网络和支持向量机的方法,就可以对包括曲线关系和交互作用在内的情况,都进行最具识别力的分类。
1702629086
1702629087 比如图6–4,神经元网络会在输入数据中产生出“中间层”的值。中间层的数量和中间层包含的变量的数量可以任意设定,不过一般都是通过输入数据中的有用项目,按照实际情况自动计算出中间层的数量。其中的椭圆和箭头表示的是神经细胞与神经元之间的联系。
1702629088
1702629089
1702629090
1702629091
1702629092 图6–4 神经元网络分析
1702629093
1702629094 而逻辑回归(没有交互作用)则是单纯地通过输入的数据来对结果进行直接预测(图6–5),所以数据挖掘专家们才会认为回归分析是过于陈旧的“老古董”。
1702629095
1702629096
1702629097
1702629098
1702629099 图6–5 逻辑回归分析
1702629100
1702629101 如果使用支持向量机的话,甚至可以用曲线的方法进行分类。
1702629102
1702629103 图6–6是假设只能通过“高度”与“重量”这两个数据对椅子和桌子进行区分的情况,椅子由于靠背的有无而被分为两种“高度”。因此,桌子比没有靠背的椅子高,却比有靠背的椅子低。
1702629104
1702629105 在这种情况下使用逻辑回归进行分类的话,根据虚线所示的两边进行究竟是椅子还是桌子的判断,结果发现两边各出现一个分类错误的例子。这时可以使用支持向量机的方法进行如图6–7那样的更加准确的曲线分类。
1702629106
1702629107
1702629108
1702629109
1702629110 图6–6 逻辑回归的分类
1702629111
1702629112 不管是神经元网络还是支持向量机,只要是针对曲线或者有多个变量存在的复杂关联性数据时,都比回归模型更加准确和高效。
1702629113
1702629114 在“预测”中发挥重大作用的数据挖掘
1702629115
1702629116 不过,能够享受上述优点的只有以分类和预测为目的的情况。
1702629117
1702629118
1702629119
1702629120
1702629121 图6–7 支持向量机的分类
1702629122
1702629123 单纯的逻辑回归本来就能够掌握简单的解释变量和结果变量之间的关联性。图6–5的逻辑回归用比值比来表示的话,如图6–8所示。
1702629124
1702629125 某个家具是椅子的概率在宽度和高度发生变化时产生改变的概率并不大,但是,接地数每增加一个比值比就会增加2倍,重量每增加1千克比值比则减少1/2。只要掌握了这些条件,谁都能够判断出“重量轻且接地数多的家具”是椅子的概率比较高吧。而宽度和高度之所以无法作为参考条件,大概是因为有很宽的椅子存在以及椅子分为有靠背和无靠背的缘故。
1702629126
1702629127
1702629128
1702629129
[ 上一页 ]  [ :1.70262908e+09 ]  [ 下一页 ]