news 2026/4/23 9:59:33

【信创】华为昇腾大模型部署

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【信创】华为昇腾大模型部署

一、系统与硬件环境说明

模块说明
CPU鲲鹏 920 / 930 系列(ARM64架构)
GPU/NPU华为昇腾 910B2 × 2(支持BF16、INT8量化)
内存≥ 256GB
存储≥ 2TB SSD
操作系统openEuler / 麒麟 / 统信UOS(国产信创OS)
驱动CANN ≥ 8.0;Ascend Toolkit ≥ 8.0
框架环境MindSpore ≥ 2.3;torch-npu ≥ 2.1(兼容PyTorch 2.1)
部署工具XInference ≥ 0.12,Ascend ATC 工具

二、模型来源与基本结构

模型名称来源参数量框架当前格式量化类型用途
Qwen3-32B-Base从阿里巴巴官方 / Hugging Face 下载32BPyTorch.bin/.safetensorsFP16 / BF16原始预训练模型
Qwen3-32B-Finetuned在昇腾910B2上进行微调(使用MindSpore框架)32BMindSpore.ckptINT8 / BF16行业定制微调模型

三、模型格式转换流程

模型部署前需统一格式,昇腾平台推荐使用MindIR 或 OM格式。

1️⃣ 从 PyTorch 格式转换到 MindIR 格式

方法 1:通过MindConverter

MindConverter 是昇腾官方提供的跨框架模型转换工具。

mindconverter --in_framework pytorch\--model_file /models/qwen32b/pytorch_model.bin\--input_shape'[1,1024]'\--output_file /models/qwen32b/qwen32b.mindir
方法 2:通过ONNX 中转

如果MindConverter转换失败,可通过ONNX作为中间层:

# PyTorch -> ONNXimporttorch dummy_input=torch.ones(1,1024,dtype=torch.int64)torch.onnx.export(model,dummy_input,"qwen32b.onnx",opset_version=17)
# ONNX -> MindIRatc --model=qwen32b.onnx\--framework=5\--output=qwen32b_mindir\--soc_version=Ascend910B2

2️⃣ MindIR → OM(部署优化格式)

OM(Offline Model)是昇腾芯片的离线执行优化格式,部署时加载性能更优。

atc --model=qwen32b.mindir\--framework=1\--output=qwen32b_om\--input_format=ND\--input_shape="input_ids:1,1024"\--soc_version=Ascend910B2\--precision_mode=allow_mix_precision

⚙️ 注意:

  • soc_version必须与昇腾芯片型号一致。
  • MindIR 格式支持训练和部署;OM 格式仅支持推理。

四、模型部署方式

我们希望部署两个模型(Base 与 Finetuned),并可在XInference中动态切换。

1️⃣ 环境目录结构

/models/ │ ├── qwen32b_base/ │ ├── qwen32b_om.om │ └── config.json │ └── qwen32b_finetune/ ├── qwen32b_finetune_om.om └── config.json

2️⃣ 启动 XInference 服务

# 启动 Base 模型xinf start --model Qwen3-32B-Base\--model-path /models/qwen32b_base\--device ascend\--precision bf16\--port8081# 启动 Finetuned 模型xinf start --model Qwen3-32B-Finetuned\--model-path /models/qwen32b_finetune\--device ascend\--precision int8\--port8082

✅ 支持使用 Docker 容器化部署(xinf ascend-runtime官方镜像)

3️⃣ 模型注册配置(xinf.json

{"models":[{"name":"Qwen3-32B-Base","path":"/models/qwen32b_base/qwen32b_om.om","device":"ascend","port":8081,"precision":"bf16"},{"name":"Qwen3-32B-Finetuned","path":"/models/qwen32b_finetune/qwen32b_finetune_om.om","device":"ascend","port":8082,"precision":"int8"}]}

五、XInference 模型切换与调用

1️⃣ 模型动态切换(REST API)

curl-X POST http://localhost:8000/api/models/select\-H"Content-Type: application/json"\-d'{"model_name": "Qwen3-32B-Finetuned"}'

切换回原始模型:

curl-X POST http://localhost:8000/api/models/select\-d'{"model_name": "Qwen3-32B-Base"}'

2️⃣ 推理调用示例(Python)

importrequestsdefquery_model(port,prompt):url=f"http://localhost:{port}/v1/completions"payload={"prompt":prompt,"max_tokens":256,"temperature":0.8}headers={"Content-Type":"application/json"}response=requests.post(url,headers=headers,json=payload)returnresponse.json()["choices"][0]["text"]print("Base模型回答:")print(query_model(8081,"介绍一下鲲鹏920的CPU架构优势"))print("\nFinetuned模型回答:")print(query_model(8082,"解释一下信创生态下AI算法的优势"))

六、模型推理性能与优化

优化手段说明效果
INT8量化微调模型在导出时使用量化感知训练(QAT)显存降低约 50%,速度提升约 1.6×
双卡并行推理使用两张910B2卡分别部署两个模型实现模型并行调用
Pipeline切分模型前向传播分段执行适合显存不足情况
XInference异步队列支持多请求并发分发提升吞吐量 2~3倍

七、常见问题与解决建议

问题可能原因解决方案
CANN不支持该算子转换时ONNX算子不兼容atc命令中加--customize_op或使用MindSpore原生模型
内存不足模型显存开销大开启INT8量化或分层加载
XInference无法加载模型路径或格式不匹配确认.om文件路径与配置文件一致
请求延迟高同步阻塞使用异步调用API或多进程部署

八、总结

项目推荐方案说明
模型训练框架MindSpore(昇腾原生)微调阶段效率高
模型部署格式MindIR / OM原生支持昇腾推理
多模型调用XInference 动态注册切换快速在Base与Finetune模型间切换
性能优化INT8量化 + 双卡并发 + 异步推理满足信创硬件约束
兼容性支持PyTorch、MindSpore、ONNX统一部署适配灵活
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/12 14:46:33

UART、USART、LPUART:原理差异与实战应用

目录 一、核心定义与核心差异(先理清 “是什么”) 二、原理详解(从基础到特化) 1. UART 核心原理(异步串行通信,三者的基础) (1)UART 帧结构(异步通信的核…

作者头像 李华
网站建设 2026/4/23 9:57:48

Java程序员如何高效阅读开源框架源码?

今天看到了一位博主分享自己阅读开源框架源码的心得,看了之后也引发了我的一些深度思考。我们为什么要看源码?我们该怎么样去看源码? 其中前者那位博主描述的我觉得很全了(如下图所示),就不做过多的赘述了&…

作者头像 李华
网站建设 2026/4/18 23:48:05

普通Java程序员如何成为性能调优大神?

性能优化可以说是很多一线大厂对其公司内高级开发的基本要求(其中以Java岗最为显著)。其原因有两个:一是提高系统的性能,二是为公司节省资源。两者都能做到,那你就不可谓不是普通程序员眼中的“调优大神了”。那么如何…

作者头像 李华
网站建设 2026/4/18 8:20:17

创作者电商平台与数字商品变现:零代码打造你的在线商业帝国

创作者电商平台与数字商品变现:零代码打造你的在线商业帝国 【免费下载链接】gumroad 项目地址: https://gitcode.com/GitHub_Trending/gumr/gumroad 在创作者经济蓬勃发展的今天,独立创作者销售工具成为连接才华与收益的关键桥梁。作为一款开源…

作者头像 李华
网站建设 2026/4/18 11:58:56

2.8B参数Kimi-VL-Thinking:点燃多模态推理新引擎

2.8B参数Kimi-VL-Thinking:点燃多模态推理新引擎 【免费下载链接】Kimi-VL-A3B-Thinking 项目地址: https://ai.gitcode.com/MoonshotAI/Kimi-VL-A3B-Thinking 导语:Moonshot AI推出的Kimi-VL-A3B-Thinking模型以仅2.8B激活参数实现了突破性的多…

作者头像 李华