1700532530
1700532531
对数值类型的特征做归一化可以将所有的特征都统一到一个大致相同的数值区间内。最常用的方法主要有以下两种。
1700532532
1700532533
(1)线性函数归一化(Min-Max Scaling)。它对原始数据进行线性变换,使结果映射到[0, 1]的范围,实现对原始数据的等比缩放。归一化公式如下
1700532534
1700532535
1700532536
,
1700532537
1700532538
(1.1)
1700532539
1700532540
其中X为原始数据,Xmax、Xmin分别为数据最大值和最小值。
1700532541
1700532542
(2)零均值归一化(Z-Score Normalization)。它会将原始数据映射到均值为0、标准差为1的分布上。具体来说,假设原始特征的均值为μ、标准差为σ,那么归一化公式定义为
1700532543
1700532544
1700532545
.
1700532546
1700532547
(1.2)
1700532548
1700532549
为什么需要对数值型特征做归一化呢?我们不妨借助随机梯度下降的实例来说明归一化的重要性。假设有两种数值型特征,x1的取值范围为 [0, 10],x2的取值范围为[0, 3],于是可以构造一个目标函数符合图1.1(a)中的等值图。
1700532550
1700532551
在学习速率相同的情况下,x1的更新速度会大于x2,需要较多的迭代才能找到最优解。如果将x1和x2归一化到相同的数值区间后,优化目标的等值图会变成图1.1(b)中的圆形,x1和x2的更新速度变得更为一致,容易更快地通过梯度下降找到最优解。
1700532552
1700532553
1700532554
1700532555
1700532556
图1.1 数据归一化对梯度下降收敛速度产生的影响
1700532557
1700532558
当然,数据归一化并不是万能的。在实际应用中,通过梯度下降法求解的模型通常是需要归一化的,包括线性回归、逻辑回归、支持向量机、神经网络等模型。但对于决策树模型则并不适用,以C4.5为例,决策树在进行节点分裂时主要依据数据集D关于特征x的信息增益比(详见第3章第3节),而信息增益比跟特征是否经过归一化是无关的,因为归一化并不会改变样本在特征x上的信息增益。
1700532559
1700532560
1700532561
1700532562
1700532564
百面机器学习:算法工程师带你去面试 02 类别型特征
1700532565
1700532566
1700532567
1700532568
场景描述
1700532569
1700532570
类别型特征(Categorical Feature)主要是指性别(男、女)、血型(A、B、AB、O)等只在有限选项内取值的特征。类别型特征原始输入通常是字符串形式,除了决策树等少数模型能直接处理字符串形式的输入,对于逻辑回归、支持向量机等模型来说,类别型特征必须经过处理转换成数值型特征才能正确工作。
1700532571
1700532572
知识点
1700532573
1700532574
序号编码(Ordinal Encoding)、独热编码(One-hot Encoding)、二进制编码(Binary Encoding)
1700532575
1700532576
问题 在对数据进行预处理时,应该怎样处理类别型特征?
1700532577
1700532578
难度:★★☆☆☆
1700532579
[
上一页 ]
[ :1.70053253e+09 ]
[
下一页 ]