news 2026/4/25 0:02:06

[模式识别-从入门到入土] 拓展-似然

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
[模式识别-从入门到入土] 拓展-似然

[模式识别-从入门到入土] 拓展-似然

知乎:https://www.zhihu.com/people/byzh_rc

CSDN:https://blog.csdn.net/qq_54636039

注:本文仅对所述内容做了框架性引导,具体细节可查询其余相关资料or源码

参考文章:各方资料

基本公式

P ( A , B ) = P ( A ∣ B ) P ( B ) = P ( B ∣ A ) P ( A ) P ( A ∣ B ) = P ( A ) P ( B ) P ( B ∣ A ) P ( B ) = ∑ i = 1 n P ( B ∣ A i ) P ( A i ) P ( A ∣ B ) = P ( A ) P ( B ∣ A ) ∑ i = 1 n P ( A i ) P ( B ∣ A i ) P(A,B)=P(A|B)P(B)=P(B|A)P(A) \\ P(A|B)= \frac{P(A)}{P(B)} P(B|A) \\ P(B)=\sum_{i=1}^n P(B|A_i)P(A_i) \\ P(A \mid B) = \frac{P(A)\, P(B \mid A)}{\sum_{i=1}^{n} P(A_i)\, P(B \mid A_i)}P(A,B)=P(AB)P(B)=P(BA)P(A)P(AB)=P(B)P(A)P(BA)P(B)=i=1nP(BAi)P(Ai)P(AB)=i=1nP(Ai)P(BAi)P(A)P(BA)

  • 先验概率P ( ω i ) P(\omega_i)P(ωi)
    不考虑任何观测时,属于类别ω i \omega_iωi的概率

  • 后验概率P ( ω i ∣ x ) P(\omega_i|x)P(ωix)
    已知样本x xx后,属于类别ω i \omega_iωi的概率

  • 类条件概率P ( x ∣ ω i ) P(x|\omega_i)P(xωi)
    在类别ω i \omega_iωi条件下,特征x xx出现的概率密度

类条件概率P ( x ∣ ω i ) P(x|\omega_i)P(xωi)

给定样本类别ω i \omega_iωi的情况下,样本特征x xx出现的概率密度
->在类别ω \omegaω下,样本会长成什么样
->P ( x ∣ ω i ) P(x|\omega_i)P(xωi)

变量(参数):x xx
已知(观测值):ω i \omega_iωi

似然L ( ω i ∣ x ) L(\omega_i|x)L(ωix)(Likelihood)

给定样本特征x xx的情况下,样本属于某一类别ω i \omega_iωi的 “可能性度量”
->对这个已经发生的样本x = x 0 x=x_0x=x0,哪个ω \omegaω更“支持”它
->L ( 待优化的参数 ∣ 观测值 ) = L ( ω i ∣ x ) L(\text{待优化的参数}|\text{观测值})=L(\omega_i|x)L(待优化的参数观测值)=L(ωix)

变量(参数):ω i \omega_iωi
已知(观测值):x xx

似然函数L ( ω i ∣ x ) L(\omega_i|x)L(ωix)被定义为P ( x ∣ ω i ) P(x|\omega_i)P(xωi)x xx固定时的函数
L ( ω i ∣ x ) = P ( x ∣ ω i ) , (已观测到x) L(\omega_i|x)=P(x|\omega_i), \quad \text{(已观测到x)}L(ωix)=P(xωi),(已观测到x)
似然不是“概率”,而是“把同一个函数换了看法”:
∑ ω i L ( ω i ∣ x ) = 无需 1 \sum_{\omega_i} L(\omega_i|x) \stackrel{\text{无需}}{=} 1ωiL(ωix)=无需1
似然是后验概率的正比项:
P ( ω i ∣ x ) ∝ L ( ω i ∣ x ) P ( ω i ) P(\omega_i|x) \propto \mathbf{L(\omega_i|x)} P(\omega_i)P(ωix)L(ωi∣x)P(ωi)

为何可以丢弃P ( x ) P(x)P(x):
因为x xx在该概念下, 是常数
-> 而这是概率论的角度不能做到的

如果不引入“似然”这个视角:

  • 无法说“我在对参数做优化”
  • 只能说“这是一个概率公式”,但不知道要最大化谁

-> 找一组参数,让已观测数据“最有可能被生成”

概率论回答的是“随机变量取值的分布”
统计学习要做的是“在已观测数据固定的前提下,反推未知参数”

世界生成数据(概率论) ω ──▶ x 用 P(x|ω) 现实观察数据(统计学习) x ──▶ ω 用 L(ω|x)

证据P ( x ) P(x)P(x)

$P(x) $ 衡量的是:“这个模型整体上,对已观测数据x xx的解释有多好”

视角核心问题用到的量
模型评估模型能否解释数据P ( x ) P(x)P(x)

证据P ( x ) P(x)P(x)是 “模型在不区分类别的情况下生成样本x xx的总体概率”

在 Bayes 公式中负责归一化后验分布,在参数或类别比较中是常数,因此可以被省略

P ( x ) P(x)P(x)在模型选择中至关重要

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 11:30:12

DiskInfo预警阈值设置:主动防御数据风险

DiskInfo预警阈值设置:主动防御数据风险 在深度学习项目中,一次漫长的训练任务可能持续数天甚至数周。想象一下,当模型已经跑完90个epoch,正接近收敛时,系统突然报出 No space left on device 错误——所有进度瞬间归零…

作者头像 李华
网站建设 2026/4/24 17:43:22

PyTorch-CUDA-v2.7镜像启动时间优化报告

PyTorch-CUDA-v2.7镜像启动时间优化报告 在深度学习研发实践中,一个常见的痛点是:新成员入职第一天,花了一整天时间还在装驱动、配环境、解决版本冲突——而此时别人已经在跑实验了。这种“在我机器上能跑”的尴尬局面,在团队协作…

作者头像 李华
网站建设 2026/4/23 12:35:21

新能源汽车的热管理系统-AI总结

(负责电池、电驱、座舱等部件的温度控制),核心是通过 “多回路 集成模块 传感器 / 执行器” 实现精准控温。以下按 “回路分类、核心组件、传感器 / 执行器、控制逻辑、设计细节” 拆解每一个知识点: 一、回路分类(…

作者头像 李华
网站建设 2026/4/23 11:12:07

网页大文件上传插件的加密传输安全性讨论

大文件传输功能解决方案探索与规划 作为上海一家专注于软件和信息技术服务领域,且在 2019 年完成战略融资的企业,我们一直致力于为客户提供高质量、安全可靠的软件解决方案。近期,公司项目面临一个极具挑战性的需求:构建一个大文…

作者头像 李华
网站建设 2026/4/23 9:54:32

GitHub敏感文件泄露防范:.gitignore配置PyTorch项目

GitHub敏感文件泄露防范:科学配置PyTorch项目中的.gitignore 在AI项目开发中,一个看似不起眼的配置文件,往往能决定整个团队的安全底线。设想一下:你刚刚完成了一轮模型训练,兴奋地将代码推送到GitHub仓库&#xff0c…

作者头像 李华
网站建设 2026/4/23 9:55:04

学生证管理系统

系统介绍: 学生证管理系统是一个多功能在线学生证管理平台,旨在简化和规范学生证的申请、补办以及管理过程。系统用户包括学生、学院教师和教务处教师。它提供公告信息发布功能,方便校园内相关通知的传达。学生可以通过系统在线申请办理或补办…

作者头像 李华