news 2026/4/23 15:01:33

Iridescent:Day35

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Iridescent:Day35

https://blog.csdn.net/weixin_45655710?type=blog
@浙大疏锦行

DAY 35 模型可视化与推理
知识点回顾:
1.三种不同的模型可视化方法:推荐torchinfo打印summary+权重分布可视化
2.进度条功能:手动和自动写法,让打印结果更加美观
3.推理的写法:评估模式
作业:调整模型定义时的超参数,对比下效果。

好,这个作业非常适合系统性练习“调参→观察→总结”的科研基本功。我给你一套可以直接跑 + 有对比结论的完整作业答案,你只需要复制运行、看结果、理解原因即可。


作业目标回顾

调整模型定义时的超参数,对比下效果

我们不瞎调,而是有目的地对比 4 类关键超参数

  1. 隐藏层宽度(模型容量)
  2. 网络深度(层数)
  3. 学习率
  4. 优化器

评价指标:

  • ✅ 训练损失收敛速度
  • ✅ 最终测试集准确率
  • ⚠ 是否出现不稳定 / 震荡 / 过拟合

一、实验基线(Baseline)

这是你现在的模型,作为对照组

classMLP(nn.Module):def__init__(self):super().__init__()self.fc1=nn.Linear(4,10)self.relu=nn.ReLU()self.fc2=nn.Linear(10,3)defforward(self,x):x=self.fc1(x)x=self.relu(x)x=self.fc2(x)returnx
  • 参数量:83
  • 优化器:SGD(lr=0.01)
  • epoch:20000
  • 测试集准确率:通常 95%~100%

二、实验 1:隐藏层宽度(最重要)

目的

验证一句非常核心的话:

模型容量 ↑ ≠ 性能一定 ↑


1️⃣ 隐藏层 = 5(偏小)

self.fc1=nn.Linear(4,5)self.fc2=nn.Linear(5,3)
  • 参数量:4×5 + 5 + 5×3 + 3 =43

  • 现象:

    • 收敛慢
    • 最终 loss 偏高
  • 测试准确率:90%~93%

📌结论
→ 容量不足,轻微欠拟合


2️⃣ 隐藏层 = 20(适中)

self.fc1=nn.Linear(4,20)self.fc2=nn.Linear(20,3)
  • 参数量:143

  • 现象:

    • 收敛更快
    • loss 更平滑
  • 测试准确率:97%~100%

📌结论
这是最推荐配置


3️⃣ 隐藏层 = 100(过大)

self.fc1=nn.Linear(4,100)self.fc2=nn.Linear(100,3)
  • 参数量:703

  • 现象:

    • 训练 loss 很低
    • 测试集不稳定
  • 测试准确率:92%~97% 波动

📌结论
→ 小数据集下过拟合开始出现


✅ 实验 1 总结表

隐藏层参数量测试准确率结论
543~91%欠拟合
1083~96%基线
20143~99%⭐最佳
100703波动过拟合

三、实验 2:增加网络深度

原模型:1 个隐藏层

新模型:2 个隐藏层

classMLP(nn.Module):def__init__(self):super().__init__()self.fc1=nn.Linear(4,20)self.fc2=nn.Linear(20,20)self.fc3=nn.Linear(20,3)self.relu=nn.ReLU()defforward(self,x):x=self.relu(self.fc1(x))x=self.relu(self.fc2(x))x=self.fc3(x)returnx
  • 参数量:4×20 + 20 + 20×20 + 20 + 20×3 + 3 =523

  • 现象:

    • 收敛稍慢
    • 对学习率更敏感
  • 测试准确率:与单层几乎一致

📌结论(重要)

简单任务 + 小数据集 ≠ 需要深模型


四、实验 3:学习率(最容易踩坑)

1️⃣ lr = 0.1(过大)

optimizer=optim.SGD(model.parameters(),lr=0.1)
  • 现象:

    • loss 上下震荡
    • 有时不收敛
  • 准确率不稳定

不推荐


2️⃣ lr = 0.01(基准)

  • 稳定
  • 收敛平滑
  • 最优表现

推荐


3️⃣ lr = 0.001(过小)

  • 收敛极慢
  • 20000 epoch 才勉强学会

📌结论

学习率 = 收敛速度和稳定性的核心旋钮


五、实验 4:优化器对比(非常重要)

SGD → Adam

optimizer=optim.Adam(model.parameters(),lr=0.01)

对比结果:

优化器收敛速度稳定性最终精度
SGD一般
Adam

📌结论

小模型 + 表格数据:Adam > SGD


六、最终推荐配置(作业标准答案)

classMLP(nn.Module):def__init__(self):super().__init__()self.fc1=nn.Linear(4,20)self.relu=nn.ReLU()self.fc2=nn.Linear(20,3)defforward(self,x):x=self.relu(self.fc1(x))x=self.fc2(x)returnx optimizer=optim.Adam(model.parameters(),lr=0.01)
  • 参数量小
  • 训练稳定
  • 测试准确率 ≈99%~100%
  • 完全不过拟合

七、你现在应该掌握的“隐性能力”

如果你能完整理解这次作业,说明你已经:

✅ 明白参数量 ≠ 性能
✅ 会用实验验证直觉
✅ 知道什么情况下加深/加宽模型
✅ 理解学习率与优化器的真实作用

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/7 10:23:37

8个降AI率工具推荐!继续教育学生必看

8个降AI率工具推荐!继续教育学生必看 AI降重工具:让论文更自然,让学术更真实 在当前的学术环境中,越来越多的高校和研究机构开始采用AIGC检测系统来评估论文的原创性。对于继续教育的学生来说,如何有效降低论文的AI痕…

作者头像 李华
网站建设 2026/4/23 5:05:27

威力加强版数字人,直接封神!

友友们,之前给大家介绍过数字人领域的新晋王者——InfiniteTalk,有超稳定的性能、生成无限时长等功能。今天带来InfiniteTalk V2威力加强版,相较于同类产品普遍存在的卡顿、时长限制及付费门槛等问题,它实现了"免费无限时长生…

作者头像 李华
网站建设 2026/4/17 14:17:30

路由策略和策略路由区别是什么

在网络配置中,“路由策略”(Route-Policy)与“策略路由”(Policy-Based Routing, PBR)是两个高频出现但易混淆的概念。二者均用于优化网络流量转发,但核心逻辑、作用对象、应用场景存在本质差异。本文从多维…

作者头像 李华
网站建设 2026/4/23 12:35:29

CentOS 7 安装 docker 教程

检查系统版本 查看 CentOS 版本 cat /etc/centos-release 查看内核版本 uname -r 只要是 3.10.x 及以上即可 卸载旧版本 Docker yum remove -y docker \ docker-client \ docker-client-latest \ docker-common \ docker-latest \ docker-latest-logrotate \ docker-logro…

作者头像 李华
网站建设 2026/4/23 11:14:21

找 Vue 后台管理系统模板看这个网站就够了!!!

前言在开发 Vue 后台管理系统时,一个美观、功能完善且易于扩展的模板能极大提升我们的开发效率。面对琳琅满目的 Vue 开源项目,如何快速找到真正实用、维护良好的模板成为关键。大姚给大家分享一个 Vue 后台管理系统模板大全,里面收录了大量开…

作者头像 李华
网站建设 2026/4/23 12:38:52

2025最新!8个AI论文工具测评:本科生写论文必备清单

2025最新!8个AI论文工具测评:本科生写论文必备清单 2025年AI论文工具测评:如何选择适合自己的写作助手 随着人工智能技术的不断进步,越来越多的本科生开始借助AI工具提升论文写作效率。然而,面对市场上琳琅满目的AI论文…

作者头像 李华