1700508240
1700508241
1700508242
1700508243
就是一个想定的核函数形态。
1700508244
1700508245
1700508246
1700508247
将K(x, z)定义为函数与的内积。其最直观的例子就是在二维空间里假设有一个椭圆能够把空间划分为两部分(这是线性不可分的),椭圆的方程为
1700508248
1700508249
1700508250
1700508251
1700508252
定义
1700508253
1700508254
1700508255
1700508256
1700508257
则原来的椭圆方程就可以退化为
1700508258
1700508259
1700508260
1700508261
1700508262
这就是一个(z1, z2)坐标系中的直线方程了。
1700508263
1700508264
1700508265
1700508266
1700508267
1700508268
在核函数的技巧中,可以通过不构造的方式构造符合要求的核函数K(x, z)。这里有一个充要条件,就是让K(x, z)为正定核。设是定义在χ×χ上的对称函数,如果对任意对应的Gram矩阵是半正定矩阵,则称K(x, z)是正定核。
1700508269
1700508270
常用的核函数有多项式核函数
1700508271
1700508272
1700508273
1700508274
1700508275
高斯核函数(径向核函数)
1700508276
1700508277
1700508278
1700508279
1700508280
等。这些核函数都能够帮助x升维,进而达到线性可分的分类效果。由于只需要构建K(x, z),不需要构建(Φ)x,所以在训练中不给出样本的空间坐标,只给出它们之间的距离,同样能够成功学习出分类规则。这是SVM非常强大的地方。
1700508281
1700508283
11.8.3 强化学习
1700508284
1700508285
与非监督学习和监督学习的工作方式不同,强化学习是一种极为重视反馈的学习过程(如图11-36所示)。非监督学习中的聚类,在我们设置了超参数(Hyperparameter)以后,就可以不对学习过程进行干预了(所以称为“非监督学习”)。对于监督学习,我们在一开始就为所有训练样本设置了标签,让算法根据标签进行分类条件的归纳。强化学习是一种基于与环境互动的学习方式。
1700508286
1700508287
1700508288
1700508289
[
上一页 ]
[ :1.70050824e+09 ]
[
下一页 ]