1700501151
1700501152
1700501153
需要强调的是,对于通过上述最大似然法得到的参数估值,还需要进行相应的显著性检验,对于回归系数βi的估计值的显著性检验通常使用的是Wald检验,其公式为。
1700501154
1700501155
1700501156
1700501157
1700501158
其中,D()为回归系数βi的估计值的标准差。如果βi的估计值的Wald检验显著,通常来讲,变量对应的P-Value如果小于0.05,这时可以认为该自变量对因变量的影响是显著的,否则影响不显著。
1700501159
1700501160
1700501161
1700501162
1700501164
数据挖掘与数据化运营实战:思路、方法、技巧与应用 10.3.2 回归中的变量筛选方法
1700501165
1700501166
无论是线性回归,还是逻辑回归,在回归拟合的过程中,都要进行变量的筛选,并且有各种不同的筛选方法,其中最常见、最著名的3种方法分别是向前引入法(Forward Selection)、向后剔除法(Backward Elimination)、逐步回归法(Stepwise Selection)。
1700501167
1700501168
❑向前引入法(Forward Selection)。即采用回归模型逐个引入自变量。刚开始,模型中没有自变量,然后引入第一个自变量进入回归方程,并进行F检验和T检验,计算残差平方和。如果通过了检验,则保留该变量。接着引入第二个自变量进入回归模型中,重新构建一个新的估计方程,并进行F检验和T检验,同时计算残差平方和。从理论上说,增加一个新的自变量之后,回归平方和应该增加,残差平方和应该减少。引进一个新自变量前后的残差平方和之差额就是新引进的该自变量的偏回归平方和,如果改值明显偏大,说明新引进的该自变量对目标变量有显著影响,反之则没有显著影响。向前引入法最大的缺点是最先引入回归方程的变量在随后不会被剔除出去,这会对后面引入的变量的评估过程和结果造成干扰。
1700501169
1700501170
❑向后剔除法(Backward Elimination)。向后剔除法正好与向前引入法相反,即首先把所有的自变量一次性放进回归模型中进行F检验和T检验,然后逐个删除不显著的变量,删除的原则是根据其偏回归平方和的大小来决定的。如果偏回归平方和很大则保留,否则删除之。向后剔除法最大的缺点是可能会引入一些不重要的变量,并且变量一旦被剔除之后,就没有机会重新进入回归模型中了。
1700501171
1700501172
❑逐步回归法(Stepwise Selection)。该方法综合了上述两种方法的特点。自变量仍然是逐个进入回归模型中,在引入变量时需要利用偏回归平方和进行检验,只有显著时才可以加入。当新的变量加入模型之后,又要重新对原来的老变量进行偏回归平方和的检验,一旦某变量变得不显著时就要立即删除该变量。如此循环往复,直到留下来的老变量均不可删除,并且新的变量也无法加入为止。
1700501173
1700501174
1700501175
1700501176
1700501178
数据挖掘与数据化运营实战:思路、方法、技巧与应用 10.3.3 逻辑回归的应用优势
1700501179
1700501180
相比于数据挖掘建模常用的其他算法如决策树、神经网络、邻近记忆推理等,逻辑回归技术是最成熟、应用最广泛的,也是数据分析师和数据化运营业务人员最为熟悉的。在各种新的数据挖掘算法层出不穷的今天,逻辑回归技术仍然具有强大的活力和最广泛的业务应用基础。
1700501181
1700501182
1700501183
1700501184
1700501186
数据挖掘与数据化运营实战:思路、方法、技巧与应用 10.3.4 逻辑回归应用中的注意事项
1700501187
1700501188
逻辑回归实践应用中的注意事项如下:
1700501189
1700501190
❑建模数据量不能太少,目标变量中每个类别所对应的样本数量要足够充分,才能支持建模。
1700501191
1700501192
❑要注意排除自变量中的共线性问题。关于共线性问题,可参考本书8.7节。
1700501193
1700501194
❑异常值(Outliers)会给模型带来很大干扰,应该删除。
1700501195
1700501196
❑逻辑回归模型本身不能处理缺失值(Missing Value),所以应用逻辑回归算法的时候,要注意针对缺失值进行适当的处理,或者赋值,或者替换,或者删除,可参考本书8.4.1节。
1700501197
1700501198
1700501199
1700501200
[
上一页 ]
[ :1.700501151e+09 ]
[
下一页 ]