打字猴:1.700536327e+09
1700536327
1700536328
1700536329
1700536330
1700536331 (7.1)
1700536332
1700536333 其中1P是指示函数(Indicator Function),当且仅当P 为真时取值为1,否则取值为0。该损失函数能够直观地刻画分类的错误率,但是由于其非凸、非光滑的特点,使得算法很难直接对该函数进行优化。0-1损失的一个代理损失函数是Hinge损失函数:
1700536334
1700536335
1700536336
1700536337
1700536338 (7.2)
1700536339
1700536340 Hinge损失函数是0-1损失函数相对紧的凸上界,且当fy≥1时,该函数不对其做任何惩罚。Hinge损失在fy=1处不可导,因此不能用梯度下降法进行优化,而是用次梯度下降法(Subgradient Descent Method)。0-1损失的另一个代理损失函数是Logistic损失函数:
1700536341
1700536342
1700536343
1700536344
1700536345 (7.3)
1700536346
1700536347
1700536348 Logistic损失函数也是0-1损失函数的凸上界,且该函数处处光滑,因此可以用梯度下降法进行优化。但是,该损失函数对所有的样本点都有所惩罚,因此对异常值相对更敏感一些。当预测值时,另一个常用的代理损失函数是交叉熵(Cross Entropy)损失函数:
1700536349
1700536350
1700536351
1700536352
1700536353 (7.4)
1700536354
1700536355 交叉熵损失函数也是0-1损失函数的光滑凸上界。这四种损失函数的曲线如图7.1所示。
1700536356
1700536357
1700536358
1700536359
1700536360 图7.1 二分类问题的损失函数
1700536361
1700536362
1700536363
1700536364 对于回归问题,,我们希望 ,最常用的损失函数是平方损失函数
1700536365
1700536366
1700536367
1700536368
1700536369 (7.5)
1700536370
1700536371 平方损失函数是光滑函数,能够用梯度下降法进行优化。然而,当预测值距离真实值越远时,平方损失函数的惩罚力度越大,因此它对异常点比较敏感。为了解决该问题,可以采用绝对损失函数
1700536372
1700536373
1700536374
1700536375
1700536376 (7.6)
[ 上一页 ]  [ :1.700536327e+09 ]  [ 下一页 ]