news 2026/4/23 16:47:27

【LLM理论学习】稀疏特征 vs 稠密 embedding

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【LLM理论学习】稀疏特征 vs 稠密 embedding

从 BoW 到 LLM Embedding 的一次“表示革命”

​ 在自然语言处理(NLP)领域,特征表示方式的演进,几乎决定了模型能力的上限。

​ 从最早的Bag of Words(BoW),到Word2Vec / GloVe,再到今天大规模语言模型(LLM)的高维稠密 embedding,我们并不是简单地“换了一种向量”,而是完成了一次从显式统计到隐式分布建模的范式迁移

一、BoW 与现代 Embedding 的数学差异

​ 从数学视角来看,BoW 与现代 embedding 在空间结构、信息密度、表达能力上存在本质差异。

  • BoW 特征的核心属性

    ​ BoW 本质上是对文本进行离散统计建模

    • 高维(词表大小级别)
    • 极度稀疏
    • 基于词频的显式统计特征
    • 每一维都有清晰语义含义
  • 现代 Embedding 的核心属性

    以 Word2Vec / LLM embedding 为代表:

    • 低维或中等维度
    • 稠密连续向量
    • 隐式学习语言分布
    • 向量维度不再可直观解释

1.1 特征空间对比

表示方式维度范围稀疏性是否可解释
BoW10⁴ – 10⁶极稀疏✅ 强解释性
Word2Vec100 – 300稠密❌ 弱
LLM Embedding768 – 8192稠密❌ 极弱
  • BoW 是可解释机器学习(Interpretable ML)的典型代表
  • Embedding 更关注表达能力,而非人类可读性

1.2 显式统计 vs 隐式分布建模

​ 从数学形式上看,两者的差异非常直观。

(1) BoW:显式统计特征

BoW: x∈R∣V∣ \text{BoW: } \mathbf{x} \in \mathbb{R}^{|V|}BoW:xRV

​ 其中,∣V∣|V|V表示词表的大小。

  • 因为BoW 的核心假设是:文本可以被表示为“词表上各词项出现情况的统计结果”。

  • 为此,我们首先固定一个词表:
    V={w1,w2,…,w∣V∣} V = \{w_1, w_2, \dots, w_{|V|}\}V={w1,w2,,wV}
    其中,每一维对应词表中的一个词。

  • 随后,对任意一段文本ddd,构造一个向量:
    xd=(x1,x2,⋯ ,x∣V∣) \mathbf{x}_d=(x_1,x_2,\cdots,x_{∣V∣})xd=(x1,x2,,xV)
    这里,xix_ixi表示词wiw_iwi在文本ddd中的出现次数(或其加权形式,如 TF / TF-IDF)

  • 关键在于:

    • 每一个词项wiw_iwi被映射到一个固定且唯一的坐标轴
    • 文本中是否出现该词,只影响对应维度的取值
    • 不同词项之间没有共享维度,也没有连续结构

    因此,文本表示本质上是:在词表张成的坐标系中,对文本做一次计数或加权投影

  • “这个词是否出现、出现了多少次”是直接可见的我们能够看到的,就是模型用到的

(2) Embedding:隐式语言分布建模

Embedding: x∈Rd,d≪∣V∣ \text{Embedding: } \mathbf{x} \in \mathbb{R}^{d}, \quad d \ll |V|Embedding:xRd,dV

​ Embedding 的出发点与 BoW 完全不同:它并不试图显式记录“每个词出现了多少次”,而是希望用有限维度刻画词或文本在语言分布中的位置

  • 为什么可以是低维Rd\mathbb{R}^dRd

    Embedding 基于一个核心假设(distributional hypothesis):词的语义由其上下文分布决定。

    在训练过程中,模型并不关心单个词项本身,而是通过预测上下文、最小化语言建模目标,自动学习一组能够最好地刻画共现结构的连续向量坐标系

    结果是:

    • 向量维度不再与词表一一对应
    • 每一维代表一个不可直接命名的潜在语义因子
    • 这些维度是通过优化目标共同塑造出来的

    因此,文本或词被映射为:x∈Rd\mathbf{x} \in \mathbb{R}^dxRd

    其中,ddd足以表达语言分布结构的最小有效维度,而非词表大小。

  • **语义从“统计量”变成了“几何关系” **

​ 在 embedding 空间中,距离刻画语义相似度,方向编码语义偏移(如性别、时态、语域),子空间承载更高阶语义结构。

​ 语义不再以“某个词是否出现”的形式存在,而是隐含在向量之间的相对几何关系中

语义是被编码进空间结构里的,而不是被显式标注在维度上的。

  • 与 BoW 的本质对照
    • BoW:一词一轴,语义是显式的、离散的
    • Embedding:多词共轴,语义是隐式的、连续的

    这正是 embedding 能在低维空间中承载复杂语义的根本原因。

二、工程实践建议:什么时候仍然应该用 BoW?

​ 尽管 Embedding 在效果上几乎“碾压”传统方法,但在真实工程环境中,BoW 仍然远未过时

2.1 强烈推荐 BoW 的场景

  • 小数据集(<100k)

  • 低延迟在线系统

  • 可解释性要求高

    • 金融风控
    • 医疗辅助决策
  • CPU-only/资源受限环境

  • baseline/对照 实验

    在这些场景中,BoW + 线性模型往往是最稳、最快、最容易落地的方案

2.2 不适合 BoW 的场景

  • 长文本语义理解

  • 多轮对话建模

  • 推理型任务

  • 复杂语义匹配/语义检索

    一旦任务开始依赖上下文、隐含语义或推理能力,BoW 的表达瓶颈会迅速暴露。

总结

​ BoW 和 Embedding 的差异,并不在于“新旧”, 而在于它们对语言本质的不同建模假设。

​ BoW 将语言视为可枚举的符号统计,Embedding 则试图在连续空间中刻画语言分布结构。

​ 理解这一点,比记住任何模型结构都更重要。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 15:00:13

2026必备!AI论文写作软件,千笔 VS 万方智搜AI,本科生高效写作首选!

随着人工智能技术的迅猛发展&#xff0c;AI辅助写作工具已经逐渐成为高校学生完成毕业论文的重要助手。无论是开题报告、文献综述还是整篇论文的撰写&#xff0c;越来越多的学生开始借助AI工具提升效率、降低写作难度。然而&#xff0c;在面对市场上种类繁多、功能各异的AI写作…

作者头像 李华
网站建设 2026/4/23 14:55:17

奈飞工厂算法:个性化推荐系统的极限复刻

如果您喜欢此文章&#xff0c;请收藏、点赞、评论&#xff0c;谢谢&#xff0c;祝您快乐每一天。 “奈飞工厂算法”并非一个官方的独立算法名称&#xff0c;而是指‌奈飞&#xff08;Netflix&#xff09;在其内容推荐与分发系统中所采用的一系列先进算法技术的集合‌&#xff…

作者头像 李华
网站建设 2026/4/16 22:27:47

【2026】 LLM 大模型系统学习指南 (37)

语音语言大模型综合实战 —— 跨模态交互助手落地 作业十聚焦语音语言模型的工程化落地&#xff0c;要求基于 “Transformer 架构、大语言模型&#xff08;LLM&#xff09;、跨模态融合” 等核心技术&#xff0c;搭建一个端到端的跨模态交互助手&#xff08;支持语音 / 文本输…

作者头像 李华
网站建设 2026/4/22 19:45:09

大模型开源入门教程:《开源大模型食用指南》全网发布,轻松助你速通大模型

《开源大模型食用指南》 是一个围绕开源大模型、针对国内初学者、基于 AutoDL 平台的中国宝宝专属大模型教程&#xff0c;针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导&#xff0c;简化开源大模型的部署、使用和应用流程&#xff0c;让更多的…

作者头像 李华
网站建设 2026/4/23 9:49:27

论文查重的“AI侦探”:书匠策AI如何用黑科技破解学术雷区

当你在深夜对着电脑屏幕反复修改论文时&#xff0c;是否总被一个无形的阴影笼罩——查重率&#xff1f;这个让无数学生抓狂的数字&#xff0c;像一把悬在头顶的达摩克利斯之剑&#xff0c;稍有不慎就会让心血付诸东流。但今天&#xff0c;我要带你认识一位能破解这一学术困境的…

作者头像 李华