news 2026/4/23 12:47:41

pytorch深度学习笔记16

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
pytorch深度学习笔记16

目录

摘要

1.AdaGrad

2.RMSProp

3.Adam


摘要

本篇文章继续学习尚硅谷深度学习教程,学习内容是AdaGrad,​​​​​​​RMSPropAdam

1.AdaGrad

AdaGrad(Adaptive Gradient,自适应梯度)会为每个参数适当地调整学习率,并且随着学习的进行,学习率会逐渐减小。

  • h:历史梯度的平方和

这里就表示了梯度的平方和,即,这里的表示对应矩阵元素的乘法。

使用AdaGrad时,学习越深入,更新的幅度就越小。如果无止境地学习,更新量就会变为0,完全不再更新。

AdaGrad的代码实现如下:

class AdaGrad: def __init__(self, lr=0.01): self.lr = lr self.h = None def update(self, params, grads): if self.h is None: self.h = {} for key, val in params.items(): self.h[key] = np.zeros_like(val) for key in params.keys(): self.h[key] += grads[key] * grads[key] params[key] -= self.lr * grads[key] / (np.sqrt(self.h[key]) + 1e-7)

2.​​​​​​​RMSProp

RMSProp(Root Mean Square Propagation,均方根传播)是在AdaGrad基础上的改进,它并非将过去所有梯度一视同仁的相加,而是逐渐遗忘过去的梯度,采用指数移动加权平均,呈指数地减小过去梯度的尺度。

  • h:历史梯度平方和的指数移动加权平均
  • :权重

3.Adam

Adam(Adaptive Moment Estimation,自适应矩估计)融合了Momentum和AdaGrad的方法。

  • :学习率
  • :一次动量系数和二次动量系数
  • :迭代次数,从1开始

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 17:32:36

支持向量机 (SVM) 通俗解读

想象一下,你是一个老师,要把一群调皮的学生分成两队:一队爱踢足球的,一队爱打篮球的。你不想让他们混在一起打架,所以你需要在操场上画一条线,把两队分开。但不是随便画一条,你要画得尽可能宽敞…

作者头像 李华
网站建设 2026/4/23 7:52:25

智能体反思模式:让AI从“会做“到“做好“的关键技术

智能体反思模式是让AI对自身输出进行评估并自我纠错的机制,通过"执行-评估-优化"闭环迭代提升输出质量。文章详解了其流程、价值(减少人工修正、避免重复犯错、适配复杂场景)和实现方式(特别是"生产者-批评者"…

作者头像 李华
网站建设 2026/4/23 0:38:04

paperxie 科研绘图:从流程图到专业图表,学术绘图不用再求设计师

paperxie-免费查重复率aigc检测/开题报告/毕业论文/智能排版/文献综述/aippt https://www.paperxie.cn/drawinghttps://www.paperxie.cn/drawing 学术写作里,“图” 的重要性往往不输 “文”—— 一份清晰的流程图能让研究步骤一目了然,一张精准的专业…

作者头像 李华
网站建设 2026/4/23 7:54:11

【优化设计】基于PSO设计MAV滚转角的PID控制器附matlab代码

✅作者简介:热爱科研的Matlab仿真开发者,擅长数据处理、建模仿真、程序设计、完整代码获取、论文复现及科研仿真。🍎 往期回顾关注个人主页:Matlab科研工作室👇 关注我领取海量matlab电子书和数学建模资料 &#x1f34…

作者头像 李华