news 2026/4/22 16:10:31

训练时,位置编码、Q、K 是怎么被优化成具有空间信息的?

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
训练时,位置编码、Q、K 是怎么被优化成具有空间信息的?

下面我会给你一个完全贴近真实代码、从反向传播梯度角度、把训练如何“优化出空间结构”讲得最清楚的版本

这是很多人搞不明白的位置:
ViT 的可学习位置编码、Q/K 的方向、Multi-Head 空间关系,到底是怎么在训练中“自动学到”的?

我们一步一步来:


❤️ 核心问题:

“我在训练时,位置编码、Q、K 是怎么被优化成具有空间信息的?”

答案是:

梯度强迫它们形成空间结构。不是人工添加,是损失函数逼出来的。

下面我们从数学上看它怎么发生。


📌 Step 1:前向传播 (Forward)

输入一个 batch 的图像
→ 切 patch
→ patch + pos_encoding
→ 得到 patch token

然后:

Q = XW_Q K = XW_K V = XW_V

Attention:

[
A_{ij} = \frac{Q_i \cdot K_j}{\sqrt{d}}
]

然后经过 Softmax、加权求和、LayerNorm、MLP 等等。

最后输出分类结果:

[
y_{pred} = f(\text{Attention(…)}
]


📌 Step 2:计算损失 (Loss)

主要是分类任务:

[
Loss = -\log(p(\text{真实类别}))
]


📌 Step 3:反向传播(真正的魔法发生)

损失对 Q,K 的梯度如下:

🎯 反向传播会产生以下目标:

✔(1)相邻 patch 的 Q_i、K_j 必须方向相似

因为它们通常属于同一个物体局部区域。

这会导致梯度:

dLoss/dQ_i 指向 让 Q_i 靠近 K_j dLoss/dK_j 指向 让 K_j 靠近 Q_i

数学形式:

[
\frac{\partial Loss}{\partial Q_i} \propto \sum_j (A_{ij} - T_{ij}) K_j
]

其中 T 是“理想注意力矩阵”(来自 label 和任务结构)。

对于图像分类任务来说,
通常:

  • 相邻 patch → 对同一个语义最重要 → T_ij 高
  • 远处 patch → T_ij 低

因此:

相邻 patch 被迫让 Q_i 和 K_j 更对齐(θ 变小)。


✔(2)远处 patch 必须方向不同

否则注意力会把远离区域错误地混进计算。

梯度会使:

[
\frac{\partial Loss}{\partial Q_i} \text{ 让 } Q_i \text{ 远离 } K_{\text{远}}
]

→ 使角度变大(方向差远)。


✔(3)位置编码 pos_i 被迫区分不同 patch

因为:

X_i = patch_i + pos_i

所以:

[
\frac{\partial Loss}{\partial pos_i} = \frac{\partial Loss}{\partial X_i}
]

而此梯度来源于 Q,K 的优化。

因此:

  • 相邻 pos_i 和 pos_j 会被梯度推向相似方向
  • 远处 pos_i 和 pos_j 会被推向不同方向

这就是为什么 pos embedding 训练后呈现“空间坐标结构”。

有论文直接把 pos embedding 打印成二维图,看起来像一个(x,y)平面。


📌 Step 4:Multi-Head 如何被优化成不同空间关系?

因为每个 head 有独立的 Q/K 权重:

Q_h = X W_Q^(h) K_h = X W_K^(h)

损失对每个头的梯度不同。

导致:

⭐ Head 1:更容易捕获局部关系

梯度发现:邻近 patch 的注意力强 →
于是 W_Q1、W_K1 被调整为强调局部方向一致性。


⭐ Head 2:被梯度推向捕获“水平”结构

例如猫的身体在水平方向延展 →
这个 head 学会类似卷积的“水平核”。


⭐ Head 3:捕获全局轮廓

因为分类任务中,整体轮廓更重要,
梯度逼它学习 long-range attention。


⭐ Head 4:捕获纹理

训练中,对纹理敏感更有利,
梯度就把这个头调成高频检测器。


这些都是梯度流造成的自然“角色分化”,不需要人设定!

这称为:

🧠 Emergent specialization(多头注意力自然分工)


🎯 Step 5:如果你改变 head 数量,会怎样?

⭐ 头更多:

  • 每个头维度更小(d/head)
  • 梯度更容易让不同头 specialize
  • 几何关系的分解更细腻
  • 模型性能变好(到一定程度)

⭐ 头更少:

  • 每个头负担更大
  • 多种几何关系混合在一个空间 → 更难训练
  • 性能下降

🎉 最终大总结(你必须记住这 5 句)

🥇 1. 注意力分数最大化必须让 Q·K 最大 → θ 小 → 方向一致

(数学必然)

🥈 2. 相邻 patch 在任务中最相关 → 梯度强迫 Q/K 方向接近

🥉 3. 远处 patch 影响小 → 梯度强迫 Q/K 方向远离

🟩 4. pos embedding 的方向结构完全来自梯度驱动

🟦 5. Multi-Head 因为参数独立 → 梯度自然让它们学习不同几何关系


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 9:16:16

3大分布式策略深度评测:如何为你的大模型选择最佳并行方案

3大分布式策略深度评测:如何为你的大模型选择最佳并行方案 【免费下载链接】torchtitan A native PyTorch Library for large model training 项目地址: https://gitcode.com/GitHub_Trending/to/torchtitan 当模型参数突破百亿级别,单张GPU已无法…

作者头像 李华
网站建设 2026/4/16 8:58:23

Qwen3-Coder 30B A3B:Python开发者的终极AI编程助手

Qwen3-Coder 30B A3B:Python开发者的终极AI编程助手 【免费下载链接】Qwen3-Coder-30B-A3B-Instruct 项目地址: https://ai.gitcode.com/hf_mirrors/Qwen/Qwen3-Coder-30B-A3B-Instruct 在人工智能技术深度赋能软件开发的今天,一款专注于Python编…

作者头像 李华
网站建设 2026/4/18 13:33:24

Pytorch学习系列08 | YOLOv5-C3模块实现

🍨 本文为🔗365天深度学习训练营中的学习记录博客🍖 原作者:K同学啊 一、前置知识 1、YOLOv5算法中的C3模块介绍 先引用一个生活化的案例图快速理解一下 C3 模块的全称是 CSP Bottleneck with 3 convolutions。它是 YOLOv5 在 …

作者头像 李华
网站建设 2026/4/18 17:13:20

对接发票接口需要注意的事项(让你少走弯路,少踩坑)

一、先理清楚:业务流程梳理是对接的 “地基”对接电子发票接口前,先明确自身业务场景与流程,避免 “盲目对接” 导致后期返工。核心要梳理 3 点:1. 明确开票场景与需求「开票触发方式」:是订单完成后自动开票&#xff…

作者头像 李华
网站建设 2026/4/15 5:32:24

走台丝印哪家专业

走台丝印哪家专业?深度解析专业丝印服务的选择标准 在五金、皮具、礼品、电子产品等众多制造业领域,走台丝印(亦称平台丝印或手工丝印)作为一种应用广泛、适应性强的印刷工艺,其印刷品质的优劣直接影响产品的外观与价…

作者头像 李华
网站建设 2026/4/10 11:18:12

终极指南:如何使用xhydra图形界面进行网络安全测试

终极指南:如何使用xhydra图形界面进行网络安全测试 【免费下载链接】thc-hydra hydra 项目地址: https://gitcode.com/gh_mirrors/th/thc-hydra xhydra作为thc-hydra的官方图形界面工具,让网络安全测试变得前所未有的简单。这款基于Gtk3开发的应用…

作者头像 李华