1700501220
1700501221
在目标变量Y的变化中包括两个部分:系统性变化和随机变化。系统性变化是由自变量引起的;而自变量不能解释的那部分变化就是所谓的残差,该部分可以认为是随机变化。
1700501222
1700501223
在多元线性回归方程中,目标变量Y与一组自变量之间的线性函数关系,可以用如下公式表示:
1700501224
1700501225
Y=β0+β1x1+β2x2+…+βpxp+ε
1700501226
1700501227
其中,Y是目标变量,X1,X2,…,Xp是自变量,β0是常数(截距),β0,β2,…,βp,是每个自变量的系数(权重),ε是随机误差。
1700501228
1700501229
常用来估算多元线性回归方程中自变量系数的方法就是最小平方法,即找出一组参数(与β1,β2,…,βp相对应),使得目标变量Y的实际观察值与回归方程的预测值之间总的方差最小。
1700501230
1700501231
对于多元线性回归方程的检验,一般从模型的解释程度、回归方程的总体显著性和回归系数的显著性等方面进行检验。
1700501232
1700501233
❑模型的解释程度,又称回归方程的拟合度检验。R的平方(R-Square),也叫做R2或Coefficient of Multiple Determination表示拟合度的优劣,其取值范围为[0,1]。关于R2的详细介绍,请参考本书8.6.4节。需要强调的是,R2的数值与自变量的个数有关,自变量的个数越多,R2越大,这在一定程度上削弱了R2的评价能力,因此在实践中通常要考虑剔除自变量数目影响后的R2,即修正的R2(Adjustable R2)。
1700501234
1700501235
❑回归方程的总体显著性检验。主要是检验目标变量与自变量之间的线性关系是否显著,也就是自变量的系数是否不全为0,其原假设为:H0
:β1=β2=…=βp=0;而其备选假设为:H1
:βp不全为0。该检验利用F检验完成。
1700501236
1700501237
❑回归方程系数的显著性检验。回归方程系数的显著性检验要求对所有的回归系数分别进行检验。如果某个系数对应的P值小于理论显著性水平α值,则可认为在显著性水平α条件下,该回归系数是显著的。
1700501238
1700501239
1700501240
1700501241
1700501243
数据挖掘与数据化运营实战:思路、方法、技巧与应用 10.4.2 线性回归的应用优势
1700501244
1700501245
线性回归模型作为应用最为广泛的算法,其主要的优势如下:
1700501246
1700501247
❑通俗易懂。多元线性回归模型非常容易被解读,其自变量的系数直接跟权重挂钩,因此很容易解释每个自变量对于目标变量的预测价值大小(贡献大小),解读出的这些信息可以为数据化运营提供有效的思考方向。
1700501248
1700501249
❑速度快,效率高。相比于其他的建模算法而言,多元线性回归的计算速度是最快的。
1700501250
1700501251
❑可以作为查找异常值的有效工具。那些与多元线性回归方程的预测值相差太大的观察值通常值得进一步考察,确定其是否是异常值。
1700501252
1700501253
1700501254
1700501255
1700501257
数据挖掘与数据化运营实战:思路、方法、技巧与应用 10.4.3 线性回归应用中的注意事项
1700501258
1700501259
线性回归应用中的注意事项如下:
1700501260
1700501261
❑算法对于噪声和异常值比较敏感。因此,在实践应用中,回归之前应该努力消除噪声和异常值,确保模型的稳定和准确度。
1700501262
1700501263
❑该算法只适合处理线性关系,如果自变量与目标变量之间有比较强烈的非线性关系,直接利用多元线性回归是不合适的。不过,在这种情况下,可以尝试对自变量进行一定的转换,比如取对数、开平方、取平方根等,尝试用多种不同的运算进行转换。
1700501264
1700501265
❑多元线性回归的应用还有一些前提假设:自变量是确定的变量,而不是随机变量,并且自变量之间是没有线性相关性的;随机误差项具有均值为0和等方差性;随机误差呈正态分布等。
1700501266
1700501267
1700501268
1700501269
[
上一页 ]
[ :1.70050122e+09 ]
[
下一页 ]