简介
本文详细介绍了vLLM框架,它专为高性能推理、批处理、并发和服务器部署而设计。文章对比了vLLM与Ollama的优缺点,介绍了Hugging Face和ModelScope两大模型下载平台的使用方法,并提供了从零开始使用vLLM启动服务的完整教程。文章还针对不同应用场景给出了框架选择建议,帮助开发者根据自身需求选择适合的部署方案,实现大模型服务的高效运行。
- • 但对于希望大规模 / 高并发 / 推理效率 /服务器部署的人来说,单纯用 Ollama 可能不够。
- • vLLM 是一个强调高性能推理、批处理 / 并发 / GPU 利用率 / 适合生产 / 服务器部署的框架。
- • 本文目的:
- 帮助读者从头下载开源模型 + 用 vLLM 启动 + 调用。
- 对比 vLLM 与 Ollama 的优缺点 / 适合场景。
- 如果你想搭“研究环境 / 服务 /工具” —— 给出实际参考。
适合读者:对 LLM 有一定基础、愿意折腾服务器 / 本地部署、关注性能 / 并发 /效率 的学生 / 开发者 /科研者。
一、为什么要考虑 vLLM?
- • 简单说目前 LLM 部署如果只是“单用户 + 交互 + 少量请求”,用 Ollama 足够。
- • 但如果你有:批量推理 / 多任务 / 接口服务 / 并发请求 / 服务器部署—— 就更适合 vLLM。
- • vLLM 在并发吞吐上优势明显,根据 benchmark,在高并发时 tokens / second (TPS) 远高于 Ollama,而且 latency(响应时延)在大流量下更低。
- • 而且 vLLM 支持 GPU 加速、动态批处理 (batching)、更好的资源与显存管理、pipeline / tensor / multi-GPU 等多种并行策略。
总结一句:vLLM 是“走向工程 / 服务 /高负载 /规模化”的桥梁,而 Ollama 更偏向“个人 / 原型 / 轻量 /易上手”。
二、如何下载开源模型
1.两大主流模型下载/共享平台:Hugging Face vs ModelScope
Hugging Face
https://huggingface.co/spaces
- • Hugging Face 是一家总部在美国的 AI 公司,从 2016 年起开始走开源 + 社区路线,推出了著名的
transformers库、datasets库,以及一个面向全球的模型 + 数据集 + 应用生态平台。 - • 在 Hugging Face 的 “Model Hub” 上,你几乎可以找到你需要的任何预训练模型/大模型:语言模型、编码器、视觉模型、多模态模型……覆盖范围非常广。用户和研究者遍布全球。(Hugging Face)
- • 下载很方便:支持 CLI、官方
huggingface_hub库、transformers/diffusers等主流库。一行命令即可下载模型权重,也可以通过 Python API 把模型直接 load 到程序里。(Hugging Face) - • 如果你国际网络条件没问题、想用最新、最多样化、社区活跃的模型库,Hugging Face 是“首选”。
优点:全球最大模型库、模型/任务覆盖广、社区资源丰富、下载/集成工具成熟。
注意事项:如果你在大陆,下载大模型可能会比较慢,或者因为网络 / 防火墙问题而不稳定(有不少用户反馈国外模型下载速度或连接问题)(GitHub)
ModelScope(魔搭社区)
https://www.modelscope.cn/models
- • ModelScope 是一个由国内(阿里云 + 通义 / 魔搭团队)支持 /推动的开源 / 模型共享平台,目标是为中文环境/国内开发者提供方便、易用的模型 + 数据 + 推理 /部署/服务支持。
- • 它不仅有语言模型(LLM、中文大模型等),还有视觉、语音、多模态模型等,覆盖了 NLP / CV / 多模态 等任务,是一个比较全面的国内模型生态平台。
- • 下载模型一般也比较方便 —— 多数模型公开、网页可直接下载,或通过官方提供的
modelscope库/Git 仓库获取。(GitHub) - • 对于在大陆、关注中文任务、希望网络稳定、减少“翻墙 / 下载慢”的同学,ModelScope 是一个非常实用的选择。
优点:对中文 /国内网络友好;模型/任务覆盖多,包括中文大模型/多模态/视觉/语言;下载/访问通常较快、稳定。
注意事项:相比 Hugging Face,国际社区 /模型资源数量可能少一些;对于某些非常前沿 /国际化模型,可能先在 Hugging Face 出,再被国内同步到 ModelScope(或可能不一定同步)。
2.对比总结与适用建议
| 如果你是 | 建议用 | 理由 |
|---|---|---|
| 想用最新、最前沿、国际社区贡献最多的模型/数据 | Hugging Face | 模型库最大,覆盖最广,社区资源、例子丰富 |
| 想做中文 NLP/多模态/视觉/语音任务,且网络条件受限 | ModelScope | 更适合国内网络/中文模型资源丰富/下载稳定 |
| 希望快速下载大模型做本地部署 / 实验 /测试 | ModelScope | 下载更快、访问稳定,适合国内开发环境 |
| 想最大化兼容各种开源库 & 与国际同步 | 以 Hugging Face 为主 | 官方库支持最好,社区文档、教程多,容易复现别人代码 |
实际上,很多团队 /项目是「Ollama for 开发 & 原型,vLLM for 部署 & 服务」。这是很多人的常见组合。
3.实践建议
- • 如果你主要做中文任务/在国内环境:优先从 ModelScope 下载模型,稳定且方便。
- • 如果你要做国际通用任务(英文 LLM、multi-lang、多模态、国际数据集):优先 Hugging Face。
- • 建议下载模型时,可以先用 Hugging Face,如果发现下载慢/失败,再切换 ModelScope,看是否有镜像版本(不少模型会同时在两边发布)—— 有些模型例如某些大模型就同时在两边可获取。
- • 保留两个平台账号 /访问方式,对未来研究/项目有帮助 —— 万一一个平台模型更新 / 下架 / 网络不稳定,还有备用来源。
三、用 vLLM 启动 (从零到运行,用ModelScope下载模型为例)
1.下载模型(示例)
打开ModelScope官网,进入模型库,搜索DeepSeek,点击DeepSeek-R1-Distill-Qwen-1.5B。
终端下载模型
# 安装 modelscopepip install modelscope# 下载模型(下载时间会有些长)modelscope download --model deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \ --local_dir ./path/to/your/model/ # 指定路径出现Successfully即下载成功,如果指定路径,就会出现在你的路径里。
下载vLLM(推荐GPU)
- • 虽然 vLLM 支持 CPU 推理/服务,但如果在 CPU 上运行大模型,即使是中等规模(几亿/十几亿参数),也很容易耗费大量 RAM/CPU 计算资源,运行速度慢、响应延迟高。
- • 因此,如果环境允许(有 NVIDIA-CUDA GPU 或兼容设备),使用 GPU 启动 vLLM 能显著提升推理速度与吞吐量,兼顾性能和资源利用率。
# 安装 vLLM(假设 Python 环境可用)pip install vllm# 从 HuggingFace / 本地模型路径拉模型# 假设你已经下载了开源模型,例如上面下载的DeepSeek-R1。2.启动 vLLM 服务 — 两种典型方式
以下是两种常见启动方式,供你根据硬件/需求选。
方式一:推荐 GPU + 加速模式(优先推荐)
# 终端启动 vLLM 服务,指定模型路径vllm serve --model /path/to/your/model/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \ # 替换为你的模型下载路径 --host 127.0.0.1 \ # 替换为你的IP,一般默认为127.0.0.1 --port 8080 \ --served-model-name deepseek-r1-1.5b \ # 给模型起个名字 # 可选参数: --gpu-memory-utilization 0.9 # 使用 GPU 显存比例,默认 0.9,视显存和需求可下调 --dtype half # 模型 dtype成功启动的日志
(APIServer pid=5873) INFO: Started server process [5873](APIServer pid=5873) INFO: Waiting for application startup.(APIServer pid=5873) INFO: Application startup complete. ``` * • 这样 vLLM 会使用 GPU 加速推理 / 服务,效率和吞吐量远大于 CPU。 * • 如果你使用多块 GPU,并希望同时充分利用所有GPU,可以加类似参数(例如 data parallel / tensor parallel 等,多 GPU 启动模式) — 具体参照 vLLM 文档。vLLM Forums+2红帽文档+2 **方式二:CPU 模式(仅适合测试/轻量模型/资源受限情形)\*\*\*\*不推荐** * • **vLLM 目前(0.4.x / 多数 2024–2025 版本)对 CPU serve 支持并不完整** * • **DeepSeek-R1-Distill-Qwen-1.5B 在 CPU 上用 vLLM serve ≈ 不可行** * • 需要 vLLM 老版本 + 强制 CPU ```plaintext # 卸掉当前 vLLMpip uninstall -y vllm# 安装对 CPU 最“友好”的旧版本pip install vllm==0.3.3 --no-depspip install torch transformers pydantic==2.6.1# 强制环境变量(很关键)export VLLM_DEVICE=cpuexport CUDA_VISIBLE_DEVICES=""export VLLM_USE_TRITON=0export VLLM_ENABLE_CUDA=0export VLLM_ATTENTION_BACKEND=torch# 启动(必须加 --device cpu)vllm serve \ --model /path/to/your/model/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B \ --device cpu \ --dtype float32 \ --host 127.0.0.1 \ --port 8080⚠️ 注意事项
- • CPU 模式下推理速度明显慢很多,延迟高,不适合高频调用或大批量任务。
- • 如果模型较大(比如几亿 + 参数、context 长、生成多 tokens),很可能因为内存 / CPU 资源不足导致失败或非常慢。
3.本地启动并调用(Python / HTTP API)
import requestsurl = "http://127.0.0.1:8080/v1/chat/completions"resp = requests.post( url, json={ # ✅ 关键:model 名字要和 serve 时一致 "model": deepseek-r1-1.5b, "messages": [ {"role": "user", "content": "你好,今天是几月几号,适合做什么。"} ], "temperature": 0.7, "max_tokens": 50, }, timeout=60,)print(resp.json())输出结果
说明:
- • 这样你就有了一个本地 / 私有 / GPU 加速 / 支持并发的大模型服务。
- • 适合做批量推理、文档处理、代码生成、服务封装等。
四、推荐使用场景 & 如何选
| 框架 | Ollama | vLLM |
|---|---|---|
| 优点 | - 极易安装、开箱即用(命令几条就能上) - 适合个人电脑 / 本地 / 隐私 /离线环境 - 对 CPU 或小显存友好 非常适合研究、学习、快速原型 | - 高吞吐、高并发、低延迟,适合服务 / API / 批量推理 / 部署环境 - 支持多 GPU / 分布式 / 动态批处理 / 显存优化 - 当你需要处理大量请求 / 大模型 / 长上下文 / 高并发时表现更好 |
| 缺点 / 使用成本 | - 对于大型模型 / 多请求 /并发场景可能性能不够 - 不如 vLLM 那样适合「服务 + 批量 + 负载」场景 | - 安装 / 配置 /部署稍复杂,需要一定技术基础 - 对硬件要求更高(GPU / 显存 /多卡 /稳定服务器) - 更适合 Linux / GPU 环境,有一定门槛 |
| 适合场景 | 学习 / 研究 /本地测试 /原型 | 服务部署 / 批量推理 /企业 / 多用户 /项目交付 |
- •你只是想快速试验模型 / 本地调试 / 写论文 /写代码 /做小项目→ 用 Ollama,轻松简单。
- •你想部署一个服务 / API / 后端 / 多请求 / 批量处理 / 文档生成 / 代码生成 / 长文本处理→ 用 vLLM 更稳定、高效。
- •如果你有服务器 / 多 GPU /打算长期运行→ 推荐 vLLM。
- •如果你资源有限,只想在笔记本 / 单 GPU / 研究用途→ 推荐 Ollama。
也可以在同一个系统里混合使用:开发阶段用 Ollama,服务上线用 vLLM。
五、如何学习AI大模型?
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
第一阶段:从大模型系统设计入手,讲解大模型的主要方法;
第二阶段:在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段:大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段:大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段:大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段:以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段:以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓