手机版 欢迎访问某某自媒体运营网(www.baidu.com)网站

当前位置: 主页 > 分析

优化器-optimizer 汇总

时间:2024-03-11 14:32|来源:网络|作者:佚名|点击:
11. 优化算法 - 动手学深度学习 2.0.0-beta1 documentation

在神经网络的训练中,有两个重要的概念,

  • 一个是损失函数,
  • 一个是优化函数,

简单来说损失函数是评价指标,优化函数是网络的优化策略

为了更高效的优化网络结构(损失函数最小),我们需要最恰当的优化函数来优化网络,常用的优化函数有: SGD、BGD、MBGD、Momentum、NAG、Adagrad、Adadelta,RMSprop、Adam,其中:

  • 1. SGD、BGD、MBGD 三个算法都是使用梯度下降算法对网络权重进行更新,只是每次更新使用的样本数量不同。( SGD属于离线学习,BGD、MBGD属于在线学习)
  • 2. Momentum和NAG算法是根据局部历史梯度对当前梯度进行平滑
  • 3. Adagrad,Adadelta,RMSprop算法都是自适应学习率的优化算法,对于不同参数使用不同的自适应学习率;Adagrad使用梯度平方和Adadelta,RMSprop使用梯度一阶指数平滑(一阶指数平均,局部加权历史梯度)解决了Adagrad后期梯度非常小的问题;RMSprop是Adadelta的一种特殊形式
  • 4. Adam算法吸收了Momentum和RMSprop算法的优点,同时改进了梯度计算方式和学习率,本质上是带有动量项的RMSprop


11.3. 梯度下降 - 动手学深度学习 2.0.0-beta1 documentation11.4. 随机梯度下降 - 动手学深度学习 2.0.0-beta1 documentation

SGD随机梯度下降参数更新原则:

单条数据就可对参数进行一次更新。每个epoch参数更新M(样本数)次,

这里的随机是指每次选取哪个样本是随机的,每个epoch样本更新的顺序是随机的

  • 优点:参数更新速度快。
  • 缺点:由于每次参数更新时采用的数据量很小,造成梯度更新时震荡幅度大,容易受到异常值的影响,在最优解附近会有加大波动,但大多数情况都是向着梯度减小的方向。

注:离线学习就是使用随机梯度下降算法对模型进行更新,对于每一个样本都计算一次梯度并更新模型


随机梯度下降算法,每次训练少量数据,抽样偏差导致的参数收敛过程中震荡。

在随机梯度下降算法(SGD)中,优化器基于小批量估计梯度下降最快的方向,并朝该方向迈出一步。由于步长固定,因此 SGD 可能很快停滞在平稳区(plateaus)或者局部最小值上。SGD 每次更新时对每个样本进行梯度更新,对于很大的数据集来说,可能会有相似的样本,这样 BGD 在计算梯度时会出现冗余,而 SGD 一次只进行一次更新,就没有冗余,而且比较快,并且可以新增样本。

for i in range(nb_epochs):
np.random.shuffle(data)
for example in data:
params_grad=evaluate_gradient(loss_function, example, params)
params=params - learning_rate * params_grad


看代码,可以看到区别,就是整体数据集是个循环,其中对每个样本进行一次参数更新。


缺点:但是 SGD 因为更新比较频繁,会造成 cost function 有严重的震荡。

BGD 可以收敛到局部极小值,当然 SGD 的震荡可能会跳到更好的局部极小值处。

当我们稍微减小 learning rate,SGD 和 BGD 的收敛性是一样的。


BGD批量梯度下降参数更新原则:每次将所有样本的梯度求和,然后根据梯度和对参数进行更新,

每个epoch参数更新1次。

  • 优点:由于每次参数更新时采用的数据量很大,梯度更新时很平滑。
  • 缺点:由于每次参数更新时采用的数据量很大,造成参数更新速度慢,内存消耗大,因为梯度更新平滑随机性差,容易陷入局部最优解


zh.d2l.ai/chapter_optim

梯度更新规则:11.5. 小批量随机梯度下降 - 动手学深度学习 2.0.0-beta1 documentation梯度更新规则:

MBGD 每一次利用一小批样本,即 n 个样本进行计算,本质上就是在每个batch内部使用BGD策略,在batch外部使用SGD策略。

  • 优点:相比于SGD,可以降低参数更新时的方差,收敛更稳定,由于每次参数更新时采用的数据量相对较大,梯度更新时相对平滑;相比于BGD,由于每次参数更新时采用的数据量相对较小,参数更新速度相对较快。
  • 缺点:没有考虑数据集的稀疏度和模型的训练时间对参数更新的影响。

注:MBGD优化器对每个batch内所有样本的梯度求均值,然后使用梯度的均值更新模型,因此使用MBGD优化器进行更新属于离线学习,同理BGD也属于离线学习

另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。

和 SGD 的区别是每一次循环不是作用于每个样本,而是具有 n 个样本的批次


for i in range(nb_epochs):
np.random.shuffle(data)
for batch in get_batches(data, batch_size=50):
params_grad=evaluate_gradient(loss_function, batch, params)
params=params - learning_rate * params_grad


超参数设定值:

n 一般取值在 50~256


缺点:不过 Mini-batch gradient descent 不能保证很好的收敛性,

  1. learning rate 如果选择的太小,收敛速度会很慢,如果太大,loss function 就会在极小值处不停地震荡甚至偏离。

有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点。

  1. 此外,这种方法是对所有参数更新时应用同样的 learning rate,如果我们的数据是稀疏的,我们更希望对出现频率低的特征进行大一点的更新。
  2. 另外,对于非凸函数,还要避免陷于局部极小值处,或者鞍点处,因为鞍点周围的error 是一样的,所有维度的梯度都接近于0,SGD 很容易被困在这里。


鞍点就是:一个光滑函数的鞍点邻域的曲线,曲面,或超曲面,都位于这点的切线的不同边。

例如这个二维图形,像个马鞍:在x-轴方向往上曲,在y-轴方向往下曲,鞍点就是(0,0)







zh.d2l.ai/chapter_optim

引入物理“动量”的概念,累积速度,减少震荡,使参数更新的方向更稳定。

每次梯度更新都会带有前几次梯度方向的惯性,使梯度的变化更加平滑,这一点上类似一阶马尔科夫假设;Momentum梯度下降算法能够在一定程度上减小权重优化过程中的震荡问题

引入动量的具体方式是:通过计算梯度的指数加权平均数来积累之前的动量,进而替代真正的梯度,Momentum的优化函数的权重更新公式如下:

通过上述公式可以在,动量参数v本质上就是到目前为止所有历史梯度值的加权平均,距离越远,权重越小。

其中β<1。超参数设定值: 一般 γ取值 0.9 左右。

当带有动量时,SGD 会在连续下降的方向上加速(这就是该方法被称为「重球法」的原因)。

这种加速有助于模型逃脱平稳区,使其不易陷入局部极小值。

每个批次的数据含有抽样误差,导致梯度更新的方向波动较大。

如果我们引入物理动量的概念,给梯度下降的过程加入一定的“惯性”累积,就可以减少更新路径上的震荡,即每次更新的梯度由“历史多次梯度的累积方向”和“当次梯度”加权相加得到。

历史多次梯度的累积方向往往是从全局视角更正确的方向,这与“惯性”的物理概念很像,也是为何其起名为“Momentum”的原因。

通过下面这张图片来理解动量法如何在优化过程中减少震荡


缺点:
这种情况相当于小球从山上滚下来时是在盲目地沿着坡滚,如果它能具备一些先知,例如快要上坡时,就知道需要减速了的话,适应性会更好。

通过下面这张图片来理解动量法如何在优化过程中减少震荡

上图中每次权重更新的方向可以分解成W1方向上的w1分量和w2方向上的w2分量,

红线是传统的梯度下降算法权重更新的路径,在w1方向上会有较大的震荡

如果使用动量梯度下降算法,算法每次会累计之前的梯度的值。

以A点为例,在A点的动量是A点之前所有点的梯度的加权平均和,这样会很大程度抵消A点在w1上的分量,使A点在w2方向上获得较大的分量,从而使A点沿蓝色路径(理想路径)进行权重更新。

  • 优点:加入的这一项,可以使得梯度方向不变的维度上速度变快,梯度方向有所改变的维度上的更新速度变慢,这样就可以加快收敛并减小震荡。
  • 缺点:这种情况相当于小球从山上滚下来时是在盲目地沿着坡滚,如果它能具备一些先知,例如快要到坡底时,就知道需要减速了的话,适应性会更好


郑华滨:比Momentum更快:揭开Nesterov Accelerated Gradient的真面目

Nesterov Accelerated Gradient (牛顿动量梯度下降) 算法是Momentum算法的改进,原始公式如下:

通过变换我们可以得到上边公式的等价形式:

NAG算法会根据此次梯度(i-1)和上一次梯度(i-2)的差值对Momentum算法得到的梯度进行修正,

如果两次梯度的差值为正,证明梯度再增加,我们有理由相信下一个梯度会继续变大;

相反两次梯度的差值为负,我们有理由相信下一个梯度会继续变小。

如果说Momentum算法是用一阶指数平滑,那么NGA算法则是使用了二阶指数平滑;

Momentum算法类似用已得到的前一个梯度数据对当前梯度进行修正(类似一阶马尔科夫假设),

NGA算法类似用已得到的前两个梯度对当前梯度进行修正(类似二阶马尔科夫假设),

无疑后者得到的梯度更加准确,因此提高了算法的优化速度。

  • 应用:NAG 可以使 RNN 在很多任务上有更好的表现。
  • 缺点:不能根据参数的重要性而对不同的参数进行不同程度的更新。



11.7. AdaGrad算法 - 动手学深度学习 2.0.0-beta1 documentation

根据不同参数距离最优解的远近,动态调整学习率。

学习率逐渐下降,依据各参数变化大小调整学习率。

Adagrad算法能够在训练中自动的对学习率进行调整,对于出现频率较低参数采用较大的α更新(出现次数多表明参数波动较大,);相反,对于出现频率较高的参数采用较小的学习率更新,具体来说,每个参数的学习率反比于其历史梯度平方值总和的平方根。因此,Adagrad非常适合处理稀疏数据。

使用变量st来累加过去的梯度方差,如下所示:

与之前一样,

η是学习率,

?是一个为维持数值稳定性而添加的常数,用来确保我们不会除以0。

最后,我们初始化s0=0。

特点:

  • 前期 g_t 较小的时候, 分母较大,能够放大梯度
  • 后期 g_t 较大的时候, 分母较小,能够约束梯度
  • 适合处理稀疏梯度

缺点:

  • 由公式可以看出,仍依赖于人工设置一个全局学习率
  • η 设置过大的话,会使分母过于敏感,对梯度的调节太大
  • 中后期,分母上梯度平方的累加将会越来越大,使 Δθ_ t ->0,使得训练提前结束

AdaGrad 是首批成功利用自适应学习率的方法之一。AdaGrad 基于平方梯度之和的倒数的平方根来缩放每个参数的学习率。该过程将稀疏梯度方向放大,以允许在这些方向上进行较大调整。结果是在具有稀疏特征的场景中,AdaGrad 能够更快地收敛。

通过调整学习率的实验可以发现:当某个参数的现值距离最优解较远时(表现为梯度的绝对值较大),我们期望参数更新的步长大一些,以便更快收敛到最优解。当某个参数的现值距离最优解较近时(表现为梯度的绝对值较小),我们期望参数的更新步长小一些,以便更精细的逼近最优解。类似于打高尔夫球,专业运动员第一杆开球时,通常会大力打一个远球,让球尽量落在洞口附近。当第二杆面对离洞口较近的球时,他会更轻柔而细致的推杆,避免将球打飞。与此类似,参数更新的步长应该随着优化过程逐渐减少,减少的程度与当前梯度的大小有关。根据这个思想编写的优化算法称为“AdaGrad”,Ada是Adaptive的缩写,表示“适应环境而变化”的意思。RMSProp是在AdaGrad基础上的改进,学习率随着梯度变化而适应,解决AdaGrad学习率急剧下降的问题。

Adagrad 的优点是减少了学习率的手动调节

超参数设定值:
一般 就取 0.01。

缺点:
它的缺点是分母会不断积累,这样学习率就会收缩并最终会变得非常小。


zh.d2l.ai/chapter_optim

RMSprop解决的问题:解决Adagrad分母会不断积累,这样学习率就会收缩并最终会变得非常小的问题

算法描述

RMSprop算法并没有被正式的发表,而是Geoff Hinton在他的课程中提及。

RMSprop是一种十分高效的算法,可以看作是对AdaGrad算法的改进,对历史的梯度信息使用decaying average的方式进行累计,在学习速率的处理上不再像AdaGrad那么激进。

RMSprop参数更新原则:RMSprop在Adagrad算法的基础上对 n_t 进行了一阶指数平滑处理

RMSprop算法的公式如下:

我们可以使用均方根(RMS)公式简化上述过程:

RMSprop 是一个未发布的优化器,但在最近几年中已被过度使用。

其理念类似于 AdaGrad,但是梯度的重新缩放不太积极:用平方梯度的移动均值替代平方梯度的总和。

RMSprop 通常与动量一起使用,可以理解为 Rprop 对小批量设置的适应。

Adam 和 RMSprop(或 AdaGrad)之间一个主要区别是对瞬时估计 m 和 v 的零偏差进行了矫正。Adam 以少量超参数微调就能获得良好的性能著称。

RMSprop也可以和传统的momentum方法结合,但是Hinton表示这样做的帮助不是很大(相对于其对传统SGD的帮助而言),具体的原因需要更多的研究。

当然如果和Nesterov momentum结合能够有更好的效果

特点:

  • RMSprop依然依赖于全局学习率
  • RMSprop算是Adagrad的发展和Adadelta的变体,效果趋于二者之间
  • 适合处理非平稳目标 - 对于RNN效果很好

PyTorch实现

RMSprop - PyTorch 1.13 documentation


class torch.optim.RMSprop(params, lr=0.01, alpha=0.99, eps=1e-08, weight_decay=0, momentum=0, centered=False)

weight_decay:

权重衰减率,正则化系数

momentum:

动量系数p,继承上一步的方向权重,常用的值是[0.9,0.99,0.999]

centered:

在PyTorch实现中,有一个centered的标志,即是否使用centered版本的RMSprop。

centered版本的的RMSprop按照


RMSprop优化器虽然可以对不同的权重参数自适应的改变学习率,但仍要指定超参数 \\eta

11.9. Adadelta - 动手学深度学习 2.0.0-beta1 documentation

AdaDelta优化器对RMSProp算法进一步优化:

AdaDelta算法额外维护一个状态变量 Δx_t ,并使用 RMS[Δx]_t 代替 RMSprop 中的学习率参数 \\eta ,使AdaDelta优化器不需要指定超参数 \\eta

简而言之,Adadelta使用两个状态变量,

st用于存储梯度二阶导数的泄露平均值,

Δxt用于存储模型本身中参数变化二阶导数的泄露平均值。

AdaDelta 的计算公式如下:

gt、Δx的初始值都为0,这就导致算法开始时得到的E[g^2]_tE[Δx^2]_{t-1}都很小,因此,在实际工作中,我们往往会:

  • \\frac{RMS[g]_t}{1-\\rho_1^t} 代替 RMS[g]_t
  • \\frac{RMS[Δx]_t}{1-\\rho_2^t} 代替 RMS[Δx]_t

\\rho_1^t\\rho_2^t 中的 t 表示 t 次方,因为 \\rho_1\\rho_2 小于1,

因此 t 越大,两个式子中的分母越接近于1

当t很小时,分母较小,因此可以放大 RMS[g]_tRMS[Δx]_t ,从而解决上述问题

特点:

  • 训练初中期,加速效果不错,很快
  • 训练后期,反复在局部最小值附近抖动


由于动量和自适应学习率两个优化思路是正交的,因此可以将两个思路结合起来,这就是当前广泛应用的Adma算法。

arxiv.org/pdf/1412.6980

Adma吸收了Adagrad(自适应学习率的梯度下降算法)和动量梯度下降算法的优点,既能适应稀疏梯度(即自然语言和计算机视觉问题),又能缓解梯度震荡的问题

11.10. Adam算法 - 动手学深度学习 2.0.0-beta1 documentation

Adam算法的关键组成部分之一是:它使用指数加权移动平均值来估算梯度的动量和二次矩,

即它使用状态变量

这里β1和β2是非负加权参数。 常将它们设置为β1=0.9和β2=0.999。

也就是说,方差估计的移动远远慢于动量估计的移动。

注意,如果我们初始化v0=s0=0,就会获得一个相当大的初始偏差。

我们可以通过使用

来解决这个问题。

下一步的方向由梯度的移动平均值决定,步长大小由全局步长大小设置上限。

有了正确的估计,我们现在可以写出更新方程。

首先,我们以类似于 RMSprop,Adam 对梯度的每个维度进行重新缩放。

与RMSProp不同,我们的更新使用动量v^t而不是梯度本身。

此外,由于使用

而不是

进行缩放,两者会略有差异。

前者在实践中效果略好一些,因此与RMSProp算法有所区分。

通常,我们选择?=10?6,这是为了在数值稳定性和逼真度之间取得良好的平衡。

梯度更新规则:

超参数设定值: 建议 β1 = 0.9,β2 = 0.999,? = 10e?8

实践表明,Adam 比其他适应性学习方法效果要好。

pytorch实现

pytorch.org/docs/stable
CLAS
Storch.optim.Adam(params,lr=0.001,betas=(0.9,0.999),eps=1e-08,weight_decay=0,amsgrad=False,*,foreach=None,maximize=False,capturable=False,differentiable=False,fused=False)

Parameters:

  • params (iterable) – iterable of parameters to optimize or dicts defining parameter groups
  • lr (float, optional) – learning rate (default: 1e-3)
  • betas (Tuple[float, float], optional) – coefficients used for computing running averages of gradient and its square (default: (0.9, 0.999))
  • eps (float, optional) – term added to the denominator to improve numerical stability (default: 1e-8)
  • weight_decay (float, optional) – weight decay (L2 penalty) (default: 0)
  • amsgrad (bool, optional) – whether to use the AMSGrad variant of this algorithm from the paper On the Convergence of Adam and Beyond (default: False)
  • foreach (bool, optional) – whether foreach implementation of optimizer is used (default: None)
  • maximize (bool, optional) – maximize the params based on the objective, instead of minimizing (default: False)
  • capturable (bool, optional) – whether this instance is safe to capture in a CUDA graph. Passing True can impair ungraphed performance, so if you don’t intend to graph capture this instance, leave it False (default: False)
  • fused (bool, optional) – whether fused implementation of optimizer is used. Currently, torch.float64, torch.float32, torch.float16, and torch.bfloat16 are supported. (default: False)


11.10. Adam算法 - 动手学深度学习 2.0.0-beta1 documentation

Adam算法也存在一些问题:

即使在凸环境下,当st的二次矩估计值爆炸时,它可能无法收敛。

proceedings.neurips.cc/

为st提出了的改进更新和参数初始化。

论文中建议我们重写Adam算法更新如下:

每当gt2具有值很大的变量或更新很稀疏时,st可能会太快地“忘记”过去的值。

一个有效的解决方法是将g^2?S(t?1)替换为gt^2⊙sgn?(gt^2?S(t?1))。

这就是Yogi更新,现在更新的规模不再取决于偏差的量。


Loshchilov 和 Hutter 在自适应梯度方法中确定了 L2 正则化和权重下降的不等式,并假设这种不等式限制了 Adam 的性能。然后,他们提出将权重衰减与学习率解耦。

实验结果表明 AdamW 比 Adam(利用动量缩小与 SGD 的差距)有更好的泛化性能,并且对于 AdamW 而言,最优超参数的范围更广。




LARS 是 SGD 的有动量扩展,可以适应每层的学习率。

LARS 最近在研究界引起了关注。

这是由于可用数据的稳定增长,机器学习的分布式训练也变得越来越流行。

这使得批处理大小开始增长,但又会导致训练变得不稳定。

有研究者(Yang et al)认为这些不稳定性源于某些层的梯度标准和权重标准之间的不平衡。

因此他们提出了一种优化器,该优化器基于「信任」参数η<1 和该层梯度的反范数来重新调整每层的学习率。


梯度下降:SGD vs Momentum vs NAG vs Adagrad vs Adadelta vs RMSprop vs Adam



增加model随机性:

  • shuffling
  • dropout
  • gradient noise:


something helps:

  • warm-up
  • curriculum learning:先在容易的数据集上训练,再在困难的数据上训练
  • fine-tuning
  • normalization
  • regulariza

from 李宏毅2021机器学习课程:




  • 算法归纳:
SGD大类Adam大类
SGDAdagrad
SGDMRMSProp
Learning rate schedulingAdam
NAGAMSGrad(LR有额外的参数)
SGDWMAdaBound(LR有额外的参数)
Learning rate scheduling
RAdam
Nadam
AdamW
SWATSSWATS
LookaheadLookahead


  • 特征总结:
SGDMAdam
slowfast
better convergencepossibly non-convergence
stableunstable
smaller generalization gaplarger generalization gap


  • 使用场景:
SGDMAdam
CVNLP
-img classification-QA
-segmentation-machine translation
-object detection-summary
Speech synthesis
GAN
Reinforcement learning

from 李宏毅2021机器学习课程:






如何选择优化器 optimizer

如上所述,为机器学习问题选择合适的优化器可能非常困难。更具体地说,没有万能的解决方案,只能根据特定问题选择合适的优化器。但在选择优化其之前应该问自己以下 3 个问题:


  • 类似的数据集和任务的 SOTA 结果是什么?
  • 使用了哪些优化器?
  • 为什么使用这些优化器?


如果您使用的是新型机器学习方法,那么可能存在一篇或多篇涵盖类似问题或处理了类似数据的优秀论文。通常,论文作者会进行广泛的交叉验证,并且给出最成功的配置。读者可以尝试理解他们选择那些优化器的原因。


例如:假设你想训练生成对抗网络(GAN),以对一组图像执行超分辨率。经过一番研究后,你偶然发现了一篇论文[12],研究人员使用 Adam 优化器解决了完全相同的问题。威尔逊等人[2]认为训练 GAN 并不应该重点关注优化问题,并且 Adam 可能非常适合这种情况。所以在这种情况下,Adam 是不错的优化器选择。


此外,你的数据集中是否存在可以发挥某些优化器优势的特性?如果是这样,则需要考虑优化器的选择问题。


下表 1 概述了几种优化器的优缺点。读者可以尝试找到与数据集特征、训练设置和项目目标相匹配的优化器。某些优化器在具有稀疏特征的数据上表现出色,而有一些将模型应用于先前未见过的数据时可能会表现更好。一些优化器在大批处理量下可以很好地工作,而另一些优化器会在泛化不佳的情况下收敛到极小的最小值。


举例而言:如果你需要将用户给出的反馈分类成正面和负面反馈,考虑使用词袋模型(bag-of-words)作为机器学习模型的输入特征。由于这些特征可能非常稀疏,所以决定采用自适应梯度方法。但是具体选择哪一种优化器呢?参考上表 1,你会发现 AdaGrad 具有自适应梯度方法中最少的可调参数。在项目时间有限的情况下,可能就会选择 AdaGrad 作为优化器。


最后需要考虑的问题:该项目有哪些资源?项目可用资源也会影响优化器的选择。计算限制或内存限制以及项目时间范围都会影响优化器的选择范围。


如上表 1 所示,可以看到每个优化器有不同的内存要求和可调参数数量。此信息可以帮助你估计项目设置是否可以支持优化器的所需资源。


举例而言:你正在业余时间进行一个项目,想在家用计算机的图像数据集上训练一个自监督的模型(如 SimCLR)。对于 SimCLR 之类的模型,性能会随着批处理大小的增加而提高。因此你想尽可能多地节省内存,以便进行大批量的训练。选择没有动量的简单随机梯度下降作为优化器,因为与其他优化器相比,它需要最少的额外内存来存储状态。

如果数据是稀疏的,就用自适用方法,即 Adagrad, Adadelta, RMSprop, Adam。

RMSprop, Adadelta, Adam 在很多情况下的效果是相似的。

Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentum,

随着梯度变的稀疏,Adam 比 RMSprop 效果会好。

整体来讲,Adam 是最好的选择。

很多论文里都会用 SGD,没有 momentum 等。SGD 虽然能达到极小值,但是比其它算法用的时间长,而且可能会被困在鞍点。

如果需要更快的收敛,或者是训练更深更复杂的神经网络,需要用一种自适应的算法。

使用什么优化器_优化器怎么选?一文教你选择适合不同ML项目的优化器_慕容隽的博客-CSDN博客如何选择优化器 optimizer_aliceyangxi1987的博客-CSDN博客


An overview of gradient descent optimization algorithms


  1. energy百分百:深度解析Momentum、NAG、Adagrad、Adadelta、RMSprop、Adam等优化器
  2. 11. 优化算法 - 动手学深度学习 2.0.0-beta1 documentation
  3. torch.optim - PyTorch 1.13 documentation

Copyright © 2002-2022 首页-雷神娱乐电商新闻发布站 版权所有

平台注册入口