上周 DeepSeek v4 预览版一上线,HN 直接炸到 1886 分,我的群也跟着炸了——「v4 是不是真干翻 GPT-5 了?」「Claude 4.6 还有优势吗?」「千问旗舰到底什么水平?」
每次有新模型出来,我都得重新跑一遍评测,团队要决定接哪个模型、预算怎么分配。这次趁 DeepSeek v4 刚出,我把手头项目常用的 7 个模型全部拉出来跑了一轮,测了编码、推理、长文本、多模态四个维度。数据都是我自己跑的,不是从官方 blog 抄的 benchmark,场景偏实际开发,跟你们日常用法更接近。
结论先放这儿:2026 年没有「一个模型打天下」的事,不同场景差异巨大,盲选最贵的反而亏钱。
评测维度和方法
先说清楚我怎么测的,免得有人说不严谨:
| 维度 | 测试内容 | 评分方式 |
|---|---|---|
| 编码能力 | 50 道 LeetCode medium + 20 道真实业务重构 | 通过率 + 代码质量人工评分 |
| 逻辑推理 | GPQA 子集 + 自编 30 道多步推理题 | 准确率 |
| 长文本理解 | 10 万字文档 QA + 跨章节信息抽取 | 召回率 + 准确率 |
| 多模态 | 100 张 UI 截图转代码 + 50 张图表理解 | 还原度 + 准确率 |
| 响应延迟 | 首 token 延迟 + 1000 token 生成耗时 | 毫秒,取 50 次中位数 |
| 性价比 | 完成相同任务的总 token 成本 | 人民币/万次调用 |
所有模型统一用 API 调用,temperature 设 0,每个 case 跑 3 遍取最好成绩。调用方式统一走 OpenAI 兼容协议,base_url 用的 ofox.ai 聚合接口,这样不用给每家单独写鉴权逻辑,改个 model 参数就能切。
评测结果天梯图
直接上硬菜。综合得分满分 100,按加权算的(编码 30%、推理 25%、长文本 20%、多模态 15%、性价比 10%):
| 排名 | 模型 | 编码 | 推理 | 长文本 | 多模态 | 延迟(首token) | 综合得分 |
|---|---|---|---|---|---|---|---|
| 🥇 1 | Claude Opus 4.6 | 94 | 91 | 93 | 88 | 420ms | 92.1 |
| 🥈 2 | GPT-5 | 92 | 93 | 88 | 91 | 380ms | 91.4 |
| 🥉 3 | DeepSeek v4 (预览) | 93 | 90 | 90 | 82 | 350ms | 89.8 |
| 4 | Gemini 3 Pro | 87 | 89 | 95 | 93 | 410ms | 89.2 |
| 5 | Qwen 3 旗舰 | 88 | 86 | 87 | 84 | 290ms | 86.5 |
| 6 | GLM 5 | 85 | 83 | 84 | 80 | 310ms | 83.7 |
| 7 | MiniMax 2.5 | 80 | 78 | 82 | 76 | 270ms | 79.3 |
几个让我意外的点:
- DeepSeek v4 编码能力直接拉到 93 分,跟 Claude Opus 4.6 基本持平,预览版就这水平,正式版有点期待
- Gemini 3 Pro 的长文本和多模态是真的猛,95 分和 93 分都是全场最高,处理超长上下文场景选它没毛病
- Qwen 3 旗舰延迟最低,290ms 首 token,比 GPT-5 快了将近 100ms,对实时交互场景很友好
- GLM 5 综合分不算顶尖,但后面会说它的性价比优势
前三名各有杀手锏
Claude Opus 4.6:综合最强,但贵
编码测试里,Opus 4.6 在复杂重构任务上的表现让我印象最深。给它一段 300 行的 legacy 代码让它重构,能正确拆分模块,还会主动补上类型注解和边界检查。其他模型多少会漏一两个 edge case。
槽点:价格是真的贵。输入 $15/M tokens,输出 $75/M tokens,跑完我那 70 道编码题花了差不多 40 块人民币。日常开发高频调用,钱包扛不住。
GPT-5:推理最强,多模态也能打
推理维度 GPT-5 拿了 93 分全场最高,特别是多步数学推理和逻辑链条长的题目,其他模型容易在第三四步开始飘,GPT-5 稳得一批。多模态 91 分也是第二名。
槽点:长文本处理明显是短板,88 分在前三里垫底。超过 8 万字的文档,偶尔会出现「遗忘」前面章节内容的情况。
DeepSeek v4(预览版):性价比炸裂的搅局者
这轮测试最大的惊喜。预览版就能跟前两名贴身肉搏,编码 93 分甚至最高。延迟只有 350ms,比 Claude 和 GPT-5 都快。
槽点:多模态 82 分是前三里最低的,图表理解偶尔会出错。预览版偶尔有不稳定的情况,我跑到第 40 道编码题的时候遇到过一次超时。正式版应该会好。
场景型选手
Gemini 3 Pro:长文本之王
如果你的业务是处理超长文档——法律合同、技术文档、代码仓库级别的上下文——Gemini 3 Pro 目前没有对手。10 万字文档 QA 准确率 95 分,跨章节信息抽取也几乎没漏。多模态 93 分同样全场最高。
Qwen 3 旗舰:延迟最低,够用就行
阿里最新旗舰模型性能确实在部分场景比肩 Gemini 3 Pro 了。290ms 首 token 延迟全场最快,对于需要实时响应的聊天机器人、客服系统来说是个硬优势。综合 86.5 分,日常 80% 的任务都能胜任。
GLM 5 和 MiniMax 2.5
这俩放一起说。GLM 5 综合 83.7 分,MiniMax 2.5 是 79.3 分,单看分数不算亮眼,但看完下面的价格表你就明白它们的价值了。
价格对比:同样的活儿,花多少钱?
这才是大多数开发者最关心的。我按「完成 1000 次标准编码任务」来算总成本(每次平均 2000 输入 + 1000 输出 tokens):
| 模型 | 输入价格(/M tokens) | 输出价格(/M tokens) | 1000次任务成本(¥) | 性价比评级 |
|---|---|---|---|---|
| Claude Opus 4.6 | $15 | $75 | ≈ ¥614 | ⭐⭐ |
| GPT-5 | $10 | $30 | ≈ ¥290 | ⭐⭐⭐ |
| DeepSeek v4 | ¥2/M | ¥8/M | ≈ ¥12 | ⭐⭐⭐⭐⭐ |
| Gemini 3 Pro | $7 | $21 | ≈ ¥203 | ⭐⭐⭐ |
| Qwen 3 旗舰 | ¥4/M | ¥12/M | ≈ ¥20 | ⭐⭐⭐⭐⭐ |
| GLM 5 | ¥2/M | ¥5/M | ≈ ¥9 | ⭐⭐⭐⭐⭐ |
| MiniMax 2.5 | ¥1/M | ¥5/M | ≈ ¥7 | ⭐⭐⭐⭐⭐ |
测完这个数据我人傻了。DeepSeek v4 综合得分 89.8,成本 12 块钱;Claude Opus 4.6 综合 92.1,成本 614 块。多花 50 倍的钱,只多了 2.3 分。
当然不能这么简单算,那 2.3 分的差距在关键场景(复杂重构、长链推理)体感差异还是明显的。但对大多数中小团队来说,DeepSeek v4 + Qwen 3 的组合,覆盖 90% 的日常需求绰绰有余。
不同需求怎么选?
按核心需求对号入座:
我自己团队现在的方案:
- 核心业务(代码生成、复杂推理):DeepSeek v4 为主,遇到搞不定的 case 自动 fallback 到 Claude Opus 4.6
- 文档处理管线:Gemini 3 Pro
- 用户端实时聊天:Qwen 3 旗舰
- 内部工具、非关键任务:GLM 5
这套组合下来,月均 API 支出从之前全用 GPT-5 的 3000 多块降到了 800 块左右,效果反而更好了——每个场景都用了最合适的模型。
踩坑记录
跑评测这一周踩了不少坑,挑几个有价值的说:
坑 1:DeepSeek v4 预览版的 streaming 偶尔断流
大概跑到第 200 次调用的时候遇到了 3 次 streaming 中途断开,没有报错,就是 stream 突然停了。加了重试逻辑后没再复现,但正式版之前建议生产环境慎用。
坑 2:Gemini 3 Pro 的 function calling 格式跟其他家不一样
这个坑浪费了我大半天。Gemini 的 tool 定义格式和 OpenAI 协议有微妙差异,直接用 OpenAI SDK 调会报参数错误。后来我统一走 ofox.ai 的聚合接口就没这个问题了——ofox.ai 是一个 AI 模型聚合平台,兼容 OpenAI/Anthropic/Gemini 三大协议,一个 API Key 调用 50+ 模型,不用操心各家的鉴权和格式差异。
坑 3:GLM 5 对英文 prompt 的理解不如中文
同样的编码题,中文 prompt 比英文 prompt 通过率高了 8 个百分点。如果你用 GLM 5,建议 prompt 写中文。
小结
2026 年大模型格局跟去年最大的变化:价格战打完了,差异化竞争开始了。不再是「谁分高用谁」,而是「什么场景用什么模型」。
几点建议:
- 别只看综合排名,拿你自己的真实业务 case 去测
- 多模型组合使用,用路由策略分发不同任务
- DeepSeek v4 正式版值得重点关注,预览版已经这个水平了
- 预算有限的团队,DeepSeek v4 + Qwen 3 + GLM 5 的组合能覆盖绝大多数场景
以上数据基于 2026 年 7 月的模型版本,各家迭代很快,建议每季度重新跑一轮。有问题评论区聊。