1700536527
1700536528
1700536529
1700536530
1700536531
(7.16)
1700536532
1700536533
稍加推导就能得到最优解为(试着自己推导)
1700536534
1700536535
1700536536
1700536537
1700536538
(7.17)
1700536539
1700536540
直接法要满足的这两个条件限制了它的应用范围。因此,在很多实际问题中,会采用迭代法。迭代法就是迭代地修正对最优解的估计。假设当前对最优解的估计值为θt,希望求解优化问题
1700536541
1700536542
1700536543
,
1700536544
1700536545
(7.18)
1700536546
1700536547
1700536548
来得到更好的估计值。迭代法又可以分为一阶法和二阶法两类。
1700536549
1700536550
1700536551
一阶法对函数 做一阶泰勒展开,得到近似式
1700536552
1700536553
1700536554
1700536555
1700536556
(7.19)
1700536557
1700536558
由于该近似式仅在δ较小时才比较准确,因此在求解δt时一般加上L2正则项
1700536559
1700536560
1700536561
1700536562
1700536563
1700536564
.
1700536565
1700536566
(7.20)
1700536567
1700536568
由此,一阶法的迭代公式表示为
1700536569
1700536570
1700536571
,
1700536572
1700536573
(7.21)
1700536574
1700536575
其中α称为学习率。一阶法也称梯度下降法,梯度就是目标函数的一阶信息。
1700536576
[
上一页 ]
[ :1.700536527e+09 ]
[
下一页 ]