news 2026/4/23 14:27:23

DAY 41

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
DAY 41

# DAY 41 Grad-CAM 与 Hook 函数

知识点回顾

1. 回调函数

2. lambda 函数

3. hook 函数的模块钩子和张量钩子

4. Grad-CAM 的示例

预训练模型知识点回顾:

1. 预训练的概念

2. 常见的分类预训练模型

3. 图像预训练模型的发展史

4. 预训练的策略

5. 预训练代码实战: resnet18


作业:

- 尝试在 cifar10 对比如下其他的预训练模型,观察差异,尽可能和他人选择的不同

- 尝试通过 ctrl 进入 resnet 的内部,观察残差究竟是什么

# Alexnet模型与训练 import torch import torch.nn as nn import torchvision.models as models import torchvision.transforms as transforms import torchvision.datasets as datasets from torch.utils.data import DataLoader # 定义数据预处理 transform = transforms.Compose([ transforms.RandomHorizontalFlip(), transforms.RandomCrop(32, padding=4), transforms.ToTensor(), transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]) ]) # 加载 CIFAR-10 数据集 train_dataset = datasets.CIFAR10(root='./data', train=True, download=True, transform=transform) test_dataset = datasets.CIFAR10(root='./data', train=False, download=True, transform=transform) train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True) test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False) # 加载预训练的 AlexNet 模型 model = models.alexnet(pretrained=True) num_ftrs = model.classifier[6].in_features model.classifier[6] = nn.Linear(num_ftrs, 10) # 修改分类器以适应 CIFAR-10 数据集 # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = torch.optim.Adam(model.parameters(), lr=0.001) # 训练模型 for epoch in range(10): model.train() for inputs, labels in train_loader: optimizer.zero_grad() outputs = model(inputs) loss = criterion(outputs, labels) loss.backward() optimizer.step() print(f'Epoch {epoch+1}, Loss: {loss.item()}') # 测试模型 model.eval() correct = 0 total = 0 with torch.no_grad(): for inputs, labels in test_loader: outputs = model(inputs) _, predicted = torch.max(outputs.data, 1) total += labels.size(0) correct += (predicted == labels).sum().item() print(f'Accuracy: {100 * correct / total:.2f}%')
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/22 22:49:21

Open-AutoGLM与WinAutomation性能对决:5大关键指标全面解析

第一章:Open-AutoGLM与WinAutomation性能对比概述在自动化工具选型过程中,Open-AutoGLM 与 WinAutomation 是两类典型代表:前者基于开源大语言模型驱动,强调自然语言理解与跨平台脚本生成能力;后者作为商业级 Windows …

作者头像 李华
网站建设 2026/4/22 21:19:10

从零开始学昇腾Ascend C算子开发-第三篇:算子开发基础

3.1 算子开发流程 3.1.1 算子需求分析 注:运行前看好自己的版本: 明确算子功能 开发算子之前,先得搞清楚这个算子要干什么。比如要做一个Add算子,那就是两个输入相加得到输出。听起来简单,但实际要考虑的东西还挺…

作者头像 李华
网站建设 2026/4/18 17:15:58

Open-AutoGLM能否替代律师?:3分钟看懂智能合同审核的精准度与边界

第一章:Open-AutoGLM能否替代律师?:3分钟看懂智能合同审核的精准度与边界人工智能在法律科技领域的应用正迅速推进,Open-AutoGLM作为基于大规模语言模型的智能合同审核工具,展现出惊人的文本理解与条款识别能力。它能在…

作者头像 李华
网站建设 2026/4/17 12:59:40

学术迷航中的智能灯塔:书匠策AI如何重塑本科硕士论文写作范式

在学术探索的浩瀚星空中,每一位即将完成本科或硕士学业的学生,都像是手持罗盘的航海家,面临着论文写作这片未知海域的挑战。选题迷茫、文献梳理耗时、逻辑构建混乱、语言表述不专业……这些问题如同暗礁,随时可能让学术航船偏离方…

作者头像 李华
网站建设 2026/4/23 13:18:25

Open-AutoGLM自动保存机制揭秘:掌握这4点,告别手动归档

第一章:Open-AutoGLM自动保存机制揭秘Open-AutoGLM 作为新一代自动化语言模型运行框架,其核心特性之一便是具备高可靠性的自动保存机制。该机制确保在长时间推理或训练任务中,系统能够周期性地将模型状态、上下文缓存及中间结果持久化到本地或…

作者头像 李华