news 2026/5/6 3:12:15

大模型打分机制揭秘:为何需要多次更换位置进行评分?

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
大模型打分机制揭秘:为何需要多次更换位置进行评分?

这是一个在 LLM 评测里已经被系统性验证过的问题,通常称为position bias / order bias(位置偏差、顺序偏差)

背景

在 pairwise 或 listwise 的 LLM-as-a-judge 评测中,常见 prompt 形式是:

给定问题 Q 回答 A:…… 回答 B:…… 请判断哪个更好

大量实证发现:

  • 排在前面的回答更容易被判为更好
  • 即使两个回答质量接近,甚至后者更优,模型仍倾向选择前者

这不是偶然噪声,而是稳定、可复现的系统性偏差

二、为什么 GPT 会产生位置偏差(机制层面)

1. 自回归模型的条件生成机制

GPT 是自回归语言模型,其判断过程是:

而不是对 A、B 做真正“对称”的比较。

当 A 在前、B 在后时:

  • A 更早进入上下文
  • A 的内容会成为 B 的“条件上下文”
  • 模型在阅读 B 时,已经形成了隐含先验

这在概率建模上是非交换的(non-commutative)

2. 训练分布诱导的“先验偏好”

在 GPT 的指令微调与 RLHF 训练中:

  • 模型大量见过“示例 → 评价 / 解释”的模式
  • 排在前的答案往往被默认当作“参考解 / 主答案”
  • 后续文本更像是补充或修正

论文中明确指出:模型并未被训练为 position-invariant 的比较器

3. 注意力与 token 预算的非对称性

即使在 Transformer 架构中:

  • 长上下文后部更容易被压缩
  • 后出现的回答往往:
  • 被总结性理解
  • 被与前文对齐、对比,而不是独立评估

这在长回答、多轮评测中尤为明显。

三、相关论文

Zheng et al., “Judging LLM-as-a-Judge”

  • Zheng et al.,Judging LLM-as-a-Judge with MT-Bench and Chatbot Arena, NeurIPS 2023

地址:https://arxiv.org/abs/2306.05685

论文表2给出了一张图:

这张表是在做一件非常具体的事:检验当 LLM 作为 judge 时,它的判断是否会因为回答顺序不同而发生变化。做法是对同一对回答进行两次评测,只交换回答的先后顺序,然后统计结果。

表里的Consistency表示:在交换顺序之后,模型是否还能给出同样的胜负判断。这个值越低,说明模型越容易因为顺序变化而“改判”。例如 Claude-v1 在 default prompt 下的一致性只有 23.8%,这意味着大约四分之三的样本中,只要把两个回答对调位置,它的判断就会发生变化。GPT-4 的一致性最高,也只有 65% 左右,说明即便是 GPT-4,也有相当一部分比较结果并不稳定。

Biased toward first这一列揭示了不一致的方向性:当模型前后判断不一致时,它更倾向于哪一边。可以看到,Claude-v1 在 default 情况下有 75% 的样本偏向“排在第一个的回答”,这说明它存在非常强的首位偏置;GPT-3.5 的这一比例是 50%,接近于“谁在前就选谁”;GPT-4 虽然明显好很多,但仍然有 30% 的样本表现出对第一个回答的系统性偏好。与之相比,“Biased toward second”的比例普遍很低,说明这种偏差并不是随机噪声,而是有明确方向的。

表中同时给出了 default 和 rename 两种 prompt。rename 的作用是把 “Assistant A / Assistant B” 换成中性名字,目的是排除字母标签本身是否诱发偏差。从结果看,rename 确实能缓解一部分偏置,提高一致性,但并不能消除问题:即便在 rename 设置下,Claude-v1 和 GPT-3.5 仍然表现出明显的不稳定性,而 GPT-4 也依然不是顺序不变的比较器。

综合这张表,论文实际上是在用实证数据说明一件事:LLM 并不会把“比较 A 和 B”当作一个对称操作来做。回答出现的顺序本身就进入了判断过程,并且会系统性地影响结果。如果只用单一顺序做评测,胜率会被“谁在前”这个因素显著污染。因此,后续评测协议才需要通过交换顺序、随机顺序或多次对局来抵消这种位置偏差,而不是因为评测者“不信任模型”,而是因为模型的比较行为在统计上已经被证明是顺序敏感的。

相关消除bias的建议如下:LMSYS Chatbot Arena 采用:

  • 随机化回答顺序
  • 多次对局
  • 隐藏模型身份

目的之一就是消除顺序与先验偏好带来的偏差。 那为什么“交换位置”可以缓解偏差(而不是消除)呢?假设模型对位置存在系统性偏置:

交换顺序得到:

通过:

  • 双向评测
  • 再做平均 / 投票

可以在期望意义上抵消位置偏差项:

这是一种统计意义上的去偏(debiasing),而非让模型真正理解“公平比较”。

工程实践中的标准做法通常:

  • pairwise + swap
  • 或 n 次随机打乱顺序
  • 或结合 self-consistency 投票
  • 或与人类评测校准(calibration)

例如:

  • MT-Bench
  • Chatbot Arena
  • AlpacaEval 2.0
    [评测大语言模型能力的基准或平台,而且它们有一个共同点:都大量使用了“LLM 作为评判者(LLM-as-a-judge)”这一范式]

都明确考虑了位置偏差问题。

总结

GPT 在评测时存在稳定、可复现的位置偏差,其根源来自自回归建模、训练先验和注意力非对称性;通过交换回答顺序并聚合判断,可以在统计意义上抵消该偏差,因此这是 LLM-as-a-judge 的标准做法,而非工程技巧。

​最后

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。

我整理出这套 AI 大模型突围资料包:

  • ✅AI大模型学习路线图
  • ✅Agent行业报告
  • ✅100集大模型视频教程
  • ✅大模型书籍PDF
  • ✅DeepSeek教程
  • ✅AI产品经理入门资料

完整的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
​​

为什么说现在普通人就业/升职加薪的首选是AI大模型?

人工智能技术的爆发式增长,正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议,到全国两会关于AI产业发展的政策聚焦,再到招聘会上排起的长队,AI的热度已从技术领域渗透到就业市场的每一个角落。


智联招聘的最新数据给出了最直观的印证:2025年2月,AI领域求职人数同比增幅突破200%,远超其他行业平均水平;整个人工智能行业的求职增速达到33.4%,位居各行业榜首,其中人工智能工程师岗位的求职热度更是飙升69.6%。

AI产业的快速扩张,也让人才供需矛盾愈发突出。麦肯锡报告明确预测,到2030年中国AI专业人才需求将达600万人,人才缺口可能高达400万人,这一缺口不仅存在于核心技术领域,更蔓延至产业应用的各个环节。

​​

资料包有什么?

①从入门到精通的全套视频教程⑤⑥

包含提示词工程、RAG、Agent等技术点

② AI大模型学习路线图(还有视频解说)

全过程AI大模型学习路线

③学习电子书籍和技术文档

市面上的大模型书籍确实太多了,这些是我精选出来的

④各大厂大模型面试题目详解

⑤ 这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

所有的视频教程由智泊AI老师录制,且资料与智泊AI共享,相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。


智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌,通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌,构建起"前沿课程+智能实训+精准就业"的高效培养体系。

课堂上不光教理论,还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作,把课本知识变成真本事‌!

​​​​

如果说你是以下人群中的其中一类,都可以来智泊AI学习人工智能,找到高薪工作,一次小小的“投资”换来的是终身受益!

应届毕业生‌:无工作经验但想要系统学习AI大模型技术,期待通过实战项目掌握核心技术。

零基础转型‌:非技术背景但关注AI应用场景,计划通过低代码工具实现“AI+行业”跨界‌。

业务赋能 ‌突破瓶颈:传统开发者(Java/前端等)学习Transformer架构与LangChain框架,向AI全栈工程师转型‌。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓**

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 11:22:27

Python中的文件操作详解

在Python编程中,文件操作是一项非常基础且重要的技能。无论是读取配置文件、处理日志数据,还是保存用户信息,都离不开对文件的读写操作。Python提供了简洁而强大的内置函数和方法来处理各种文件类型。本文将详细介绍Python中常见的文件操作方…

作者头像 李华
网站建设 2026/4/27 20:04:33

年底多跑跑前端面试就会发现…

又到一年年底,看着身边不少朋友还在为“金三银四”跳槽季摩拳擦掌,我这心里真是五味杂陈。作为在前端圈摸爬滚打多年,后来又投身于前端进阶培训的“老人”,每年这个时候,总能收到大量同学的求助:“老师&…

作者头像 李华
网站建设 2026/5/3 2:28:24

C#易错点解析

一、基础语法类易错点1. 值类型与引用类型混淆(最高频)错误示例:csharp运行// 错误认知:修改方法内的参数会影响外部变量 void UpdateValue(int num) {num 100; // 值类型是值传递,仅修改副本 }int a 10; UpdateValu…

作者头像 李华
网站建设 2026/4/27 22:28:18

重要内容表述

凡早也是要办,晚也是要办,一定要早办;凡主动也是办,被动也是办,力争主动办;凡也可以去办,也可以不办,尽可能地办;凡冷淡也是办,热情也是办,要热情…

作者头像 李华