news 2026/4/23 11:08:26

训练中断怎么办?checkpoint恢复方法详解

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
训练中断怎么办?checkpoint恢复方法详解

训练中断怎么办?checkpoint恢复方法详解

1. 为什么训练中断是高频痛点

你刚启动 Qwen2.5-7B 的 LoRA 微调,看着进度条跳到step 387/500,正准备去泡杯咖啡——屏幕突然黑了。
不是显卡炸了,是宿舍断电;不是代码报错,是服务器被误杀进程;不是模型崩了,是Ctrl+C按错了位置。

这不是小概率事件。在单卡 RTX 4090D 上跑 10 轮微调,平均会遇到 2~3 次意外中断:

  • 本地开发时系统休眠、SSH 断连、笔记本合盖
  • 云服务器因资源抢占被强制回收 GPU
  • 数据集读取异常触发静默退出
  • save_steps=50却在 step 47 时 OOM 崩溃

更糟的是,ms-swift 默认不会自动续训——它把 checkpoint 当作“成果快照”,而非“存档点”。
你重启后发现:output/目录下只有checkpoint-50checkpoint-100,而中间的 47 步、83 步、142 步全没了。
重头来过?10 小时训练再烧一遍?不,其实你只需要 3 分钟,就能从任意中断点继续。

本文不讲原理,只给可执行方案。所有命令已在 RTX 4090D + ms-swift v1.10 环境实测通过,支持从checkpoint-XX精确恢复,包括梯度状态、优化器参数、学习率调度器和数据加载器偏移量。


2. checkpoint 恢复前必做的三件事

2.1 确认中断类型,决定恢复策略

不是所有中断都适合续训。先快速判断你的场景属于哪一类:

中断类型特征是否支持恢复恢复关键点
优雅中断手动Ctrl+Ckill -15进程、训练完成前主动停止完全支持--resume_from_checkpoint指向最新 checkpoint
硬崩溃OOM、CUDA error、Segmentation fault、电源断电部分支持需验证 checkpoint 完整性(见 2.2)
静默退出进程消失但无报错、日志停在某 step 后不再更新❌ 不建议恢复可能已损坏,优先检查logging_steps输出

实操提示:打开/root/output/目录,运行ls -lt checkpoint-*查看最新 checkpoint 时间戳。若该目录下存在pytorch_model.binoptimizer.ptscheduler.ptrng_state.pth四个文件,则大概率可恢复。

2.2 验证 checkpoint 完整性(两行命令搞定)

别急着续训。很多“看似可用”的 checkpoint 实际缺关键文件,强行恢复会导致 loss 突增或 NaN。

进入训练输出目录,执行:

cd /root/output # 检查核心文件是否存在(必须全部存在) ls -l checkpoint-*/pytorch_model.bin checkpoint-*/optimizer.pt \ checkpoint-*/scheduler.pt checkpoint-*/rng_state.pth 2>/dev/null | wc -l

预期输出为 4:说明 checkpoint 完整,可安全恢复
输出小于 4:缺失文件,跳过该 checkpoint,尝试前一个(如checkpoint-50checkpoint-0

为什么rng_state.pth如此重要?
它保存了 PyTorch 随机数生成器的状态。若缺失,数据打乱顺序将与中断前不一致,导致 batch 重复或遗漏——微调效果直接打折。

2.3 备份原始 checkpoint(防手滑覆盖)

恢复过程会写入新文件。为防误操作覆盖原 checkpoint,请先备份:

# 假设你要从 checkpoint-142 恢复 cp -r output/checkpoint-142 output/checkpoint-142-backup

这一步耗时不到 1 秒,却能避免“恢复失败+原档损坏”的双重灾难。


3. 三种恢复方式,按场景精准选用

3.1 方式一:标准续训(推荐|90% 场景适用)

适用于优雅中断、checkpoint 完整、且你希望完全复现原训练流程的场景。

核心命令(替换checkpoint-142为你实际的 checkpoint 名):

CUDA_VISIBLE_DEVICES=0 \ swift sft \ --model Qwen2.5-7B-Instruct \ --train_type lora \ --dataset self_cognition.json \ --torch_dtype bfloat16 \ --num_train_epochs 10 \ --per_device_train_batch_size 1 \ --per_device_eval_batch_size 1 \ --learning_rate 1e-4 \ --lora_rank 8 \ --lora_alpha 32 \ --target_modules all-linear \ --gradient_accumulation_steps 16 \ --eval_steps 50 \ --save_steps 50 \ --save_total_limit 2 \ --logging_steps 5 \ --max_length 2048 \ --output_dir output \ --system 'You are a helpful assistant.' \ --warmup_ratio 0.05 \ --dataloader_num_workers 4 \ --model_author swift \ --model_name swift-robot \ --resume_from_checkpoint output/checkpoint-142

关键参数解析

  • --resume_from_checkpoint output/checkpoint-142:指定恢复起点(路径必须完整,不能只写checkpoint-142
  • 无需修改其他参数:ms-swift 会自动读取trainer_state.json中的global_stepepochbest_metric等状态
  • 自动对齐数据DataLoader会从上一个 epoch 的step % len(train_dataset)位置继续,不重复也不跳过

实测效果:从checkpoint-142恢复后,step 143的 loss 与中断前step 142的 loss 偏差 < 0.001,训练曲线平滑衔接。

3.2 方式二:强制指定起始步数(调试专用)

当你发现checkpoint-142trainer_state.jsonglobal_step记录错误(如显示130),或想跳过某些不稳定 step 时使用。

操作步骤

  1. 打开output/checkpoint-142/trainer_state.json
  2. 找到"global_step": 142行,手动改为"global_step": 143
  3. 保存文件,再执行方式一命令

为什么有效?
ms-swift 在恢复时优先读取trainer_state.json中的global_step,而非目录名。改这个值,就等于告诉框架:“请从第 143 步开始,前面的已训练完毕”。

3.3 方式三:跨设备恢复(多卡→单卡|单卡→多卡)

镜像默认针对单卡 4090D 优化,但你可能在 A100 集群上中断,又想在本地 4090D 继续。此时需处理设备映射冲突。

问题现象
恢复时报错RuntimeError: Expected all tensors to be on the same deviceKeyError: 'module.model...'

解决方案(两步修复):

# 步骤1:用 Python 脚本清理 checkpoint 中的设备标记 cat > fix_checkpoint.py << 'EOF' import torch import os import sys ckpt_path = sys.argv[1] print(f"Fixing {ckpt_path}...") # 加载 optimizer state opt_path = os.path.join(ckpt_path, "optimizer.pt") if os.path.exists(opt_path): opt = torch.load(opt_path, map_location="cpu") # 清理 optimizer 中的 device 信息 for state in opt["state"].values(): if "exp_avg" in state: state["exp_avg"] = state["exp_avg"].cpu() if "exp_avg_sq" in state: state["exp_avg_sq"] = state["exp_avg_sq"].cpu() torch.save(opt, opt_path) print("✓ Fixed optimizer.pt") # 步骤2:重写 trainer_state.json 中的 device 字段 state_path = os.path.join(ckpt_path, "trainer_state.json") if os.path.exists(state_path): with open(state_path, "r") as f: state = json.load(f) # 强制设为 cpu,让 ms-swift 自动重映射 state["log_history"] = [{"device": "cpu"}] + state.get("log_history", []) with open(state_path, "w") as f: json.dump(state, f, indent=2) print("✓ Fixed trainer_state.json") EOF python fix_checkpoint.py output/checkpoint-142

完成后,再执行方式一命令即可无缝跨设备恢复。


4. 恢复后必须验证的三件事

恢复不是终点,验证才是关键。以下检查项缺一不可:

4.1 检查训练日志是否连续

打开output/run_log.txt(或终端实时日志),确认:

  • 第一行恢复日志包含Resumed from checkpoint at output/checkpoint-142
  • global_step143开始递增(非从1重置)
  • loss值与中断前最后 3 步趋势一致(如中断前 loss:[2.11, 2.09, 2.07],恢复后应为[2.05, 2.03, ...]

避坑提示:若loss突然飙升(如从2.07跳到5.32),说明rng_state.pth缺失或dataloader未对齐,立即中止并回退到备份 checkpoint。

4.2 验证数据加载无重复/遗漏

self_cognition.json中添加一条唯一测试样本:

{"instruction": "【DEBUG】请回答本条指令的序号", "input": "", "output": "142"}

然后观察恢复后的第 143 步训练日志中,是否出现该样本的 loss 计算。若未出现,说明DataLoader未正确恢复偏移量。

4.3 快速推理验证身份一致性

恢复训练 5 步后,立即用swift infer测试:

CUDA_VISIBLE_DEVICES=0 \ swift infer \ --adapters output/checkpoint-147 \ # 注意:用恢复后的新 checkpoint --stream true \ --temperature 0 \ --max_new_tokens 2048

输入你是谁?,确认回答仍为“我是一个由 CSDN 迪菲赫尔曼 开发和维护的大语言模型。”
若变回原始模型回答(“我是阿里云开发的...”),说明 LoRA 权重未正确加载,检查--adapters路径是否指向最新 checkpoint。


5. 预防中断的四大工程化实践

恢复是补救,预防才是根本。以下是我们在 20+ 次 Qwen2.5-7B 微调中沉淀的实战经验:

5.1 将save_steps设为动态值

镜像默认--save_steps 50,但在 10 轮训练中,总 step 数 =len(dataset) / (batch_size * n_gpu) * epochs。若 dataset 仅 50 条,per_device_train_batch_size=1,则每轮仅 50 步——save_steps=50导致每轮只存 1 个 checkpoint。

优化方案

# 计算合理 save_steps:确保每轮至少保存 3 次 # 公式:save_steps = total_steps_per_epoch // 3 # 示例:50 条数据 → 50 steps/epoch → save_steps=16 --save_steps 16

5.2 启用自动健康检查

在训练命令中加入--disable_tqdm false,并用脚本监控:

# 启动训练后,另开终端运行 watch -n 30 'tail -n 5 /root/output/run_log.txt | grep "loss"'

若 60 秒无 loss 输出,自动告警(说明卡死)。

5.3 使用nohup+screen双保险

避免 SSH 断连导致进程终止:

# 创建 screen 会话 screen -S qwen-finetune # 在 screen 内运行训练(加 nohup 防后台中断) nohup bash -c 'CUDA_VISIBLE_DEVICES=0 swift sft ...' > train.log 2>&1 & # 按 Ctrl+A, D 脱离 screen,训练持续运行

5.4 设置显存安全阈值

RTX 4090D 显存 24GB,但微调峰值常达 22.5GB。预留 1.5GB 防止突发 OOM:

# 在训练命令前加显存限制(需 nvidia-docker 支持) nvidia-docker run --gpus '"device=0"' --memory=22g ...

或在 Python 层加监控(需修改 ms-swift 源码),此处略。


6. 总结

训练中断不可怕,可怕的是没有恢复预案。本文给出的方案已在真实生产环境中验证:

  • 3 分钟内完成恢复:从发现中断到重新训练,全程不超过 180 秒
  • 零精度损失:恢复后 loss 曲线与中断前无缝衔接,最终效果无差异
  • 全场景覆盖:优雅中断、硬崩溃、跨设备迁移均提供对应解法
  • 防错设计:完整性校验、自动备份、三重验证,杜绝“越恢复越糟”

记住三个口诀:
一看ls -l checkpoint-*/确认文件完整
二备cp -r checkpoint-X checkpoint-X-backup
三启--resume_from_checkpoint output/checkpoint-X

从此,断电、断网、误操作,都不再是微调路上的拦路虎。

--- > **获取更多AI镜像** > > 想探索更多AI镜像和应用场景?访问 [CSDN星图镜像广场](https://ai.csdn.net/?utm_source=mirror_blog_end),提供丰富的预置镜像,覆盖大模型推理、图像生成、视频生成、模型微调等多个领域,支持一键部署。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 11:39:07

YOLOE训练成本低3倍?我们复现了论文实验

YOLOE训练成本低3倍&#xff1f;我们复现了论文实验 当一篇论文宣称“训练成本降低3倍”&#xff0c;而标题里还带着“Real-Time Seeing Anything”这样充满野心的副标时&#xff0c;工程师的第一反应不是欢呼&#xff0c;而是——等等&#xff0c;这真的能在我的显卡上跑起来…

作者头像 李华
网站建设 2026/4/19 15:26:49

用FFmpeg提升FSMN VAD加载效率,专业级推荐

用FFmpeg提升FSMN VAD加载效率&#xff0c;专业级推荐 [toc] 你有没有遇到过这样的情况&#xff1a;上传一个30秒的MP3文件到FSMN VAD WebUI&#xff0c;等了5秒才开始检测&#xff1f;点击“开始处理”后&#xff0c;界面卡顿两秒才弹出结果&#xff1f;明明模型本身RTF高达…

作者头像 李华
网站建设 2026/4/23 11:36:46

verl超参数调优:影响性能的关键参数详解

verl超参数调优&#xff1a;影响性能的关键参数详解 1. verl 框架概览&#xff1a;为大模型后训练而生的强化学习引擎 verl 不是一个泛用型强化学习库&#xff0c;而是一把专为大型语言模型&#xff08;LLMs&#xff09;后训练打磨的“手术刀”。它由字节跳动火山引擎团队开源…

作者头像 李华
网站建设 2026/4/23 11:43:45

用YOLOv13镜像做的AI视觉项目,结果让人惊喜

用YOLOv13镜像做的AI视觉项目&#xff0c;结果让人惊喜 1. 这不是又一个YOLO升级版&#xff0c;而是视觉感知的重新定义 你可能已经习惯了YOLO系列每半年一次的版本迭代——v5、v6、v7……直到v12。但当YOLOv13出现在视野里时&#xff0c;我第一反应是&#xff1a;这名字是不…

作者头像 李华
网站建设 2026/4/23 9:57:58

GPEN镜像性能优化后,推理速度提升2倍以上

GPEN镜像性能优化后&#xff0c;推理速度提升2倍以上 GPEN人像修复增强模型在AI图像修复领域一直以高保真度和自然细节著称&#xff0c;但过去受限于计算效率&#xff0c;实际部署中常面临响应延迟高、批量处理吞吐低的问题。本次发布的GPEN人像修复增强模型镜像&#xff0c;并…

作者头像 李华
网站建设 2026/4/22 7:14:24

实时性保障:工业用数字频率计设计关键步骤

以下是对您提供的技术博文进行 深度润色与专业重构后的版本 。我以一位深耕工业嵌入式系统十余年的工程师视角&#xff0c;摒弃AI腔调和模板化表达&#xff0c;用真实项目经验、设计取舍背后的思考逻辑、以及踩坑后沉淀下来的“人话”总结&#xff0c;重写全文。语言更凝练、…

作者头像 李华