李宏毅机器学习2021——Optimization(最优化)

发布时间:2023-07-24 10:30

一、The problem in optimization

gradient趋于0,到达critical point(临界点)

(一)两种情况

  1. 卡在local minima(局部最小),并不是很常见
  2. 卡在saddle point(鞍点,微分为0)

(二)鉴别两种情况

by Taylor Series

二、How to get optimization?

(一)单个参数(单维)

针对一个w在update过程中卡住的问题,可以尝试的改进思路:01-样本量:每次update不取全部的样本,而是取一定量的batch,然后进行不断的shuffle;02-步长:自适应学习率;03-每一步的方向:momentum。

1. batch

batch是hyperparameter,需要尝试调参

large-sized batch small-sized batch
time during one epoch short long
训练和预测的效果 较差 较好
  • epoch:使用训练集的完整数据进行一次训练
  • 由于GPU支持并行计算,所以大的batch反而整体的训练速度会更快
  • 由于大的batch容易遇到stuck停下,而small batch有很多的noise,难以陷入小峡谷停下。所以小的batch训练和预测效果更好

ItVuer - 免责声明 - 关于我们 - 联系我们

本网站信息来源于互联网,如有侵权请联系:561261067@qq.com

桂ICP备16001015号