news 2026/4/22 20:56:01

【收藏向】零基础读懂AI大模型:训练的3个步骤,竟和上学一模一样!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【收藏向】零基础读懂AI大模型:训练的3个步骤,竟和上学一模一样!

【前言】

如今AI早已渗透生活方方面面,从聊天助手到智能办公,不少小白和程序员都想搞懂:这些聪明的AI大模型到底是怎么来的?了解底层逻辑,才能真正摸清AI的能力边界——知道它能做什么、不能做什么,避免盲目依赖。

最近我刷到OpenAI联合创始人安德烈·卡帕西的3小时深度科普视频,彻底被圈粉!他用“人类上学学习”的类比,把ChatGPT这类大语言模型的训练过程讲得通俗易懂,哪怕是零技术背景也能轻松get。这里也把观看方式分享给大家:B站搜索“安德烈·卡帕西:深入探索像ChatGPT这样的大语言模型”,全程带字幕,放心冲!

本文是我从3小时视频中提炼的核心干货,帮你“快速抓重点”地理解大模型训练的底层逻辑,不用啃复杂公式,看完就能对大模型的诞生过程有清晰认知~

总览:大模型训练逻辑,和人类上学完全同频

安德烈·卡帕西的类比真的太精妙了,也是我看完视频最受启发的点——大语言模型的训练过程,和我们从小上学学知识的逻辑,几乎完全一致!

回忆下我们的课本学习流程,每个知识点的掌握都离不开三步:

第一步:通读知识点,先“眼熟”知识。这一步就像刚翻开课本读概念,只知道“是什么”,但完全不会用;

第二步:看经典例题+解析。通过例题了解知识点的应用场景,学会“照猫画虎”,遇到类似题目能模仿解法;

第三步:做课后习题自主练习。课本只给题目和答案,需要自己摸索解题思路。每个人的思考方式不同,适合的解法也不一样,在这个过程中不仅能吃透知识,甚至可能找到比经典解法更高效的方法,真正做到融会贯通。

而大语言模型的训练,正好对应这三步!

下面我们一步步拆解,用最通俗的语言讲清楚每个步骤的核心逻辑。

第一步:预训练——大模型的“基础知识点学习阶段”

【核心流程】

1、海量信息搜集:给模型找“课本素材”

人类学知识要先找课本、查资料,大模型学知识的“素材库”则来自互联网。不过这不是简单的“复制粘贴”,而是要经过一整套数据加工:先过滤掉广告、垃圾信息等劣质内容,再提取有效文本,最后做信息去重——毕竟重复的内容只会浪费训练资源,不会提升模型能力。

2、信息编码压缩:把文字变成模型能懂的“数字语言”

我们能直接读懂文字,但计算机(模型)只认识数字和计算。所以第一步要把搜集来的文字,转化成模型能理解的数字,这个过程分两步走:

第一步:基础单元编码。比如英文里每个字母对应一个数字ID,中文里每个汉字对应一个数字ID,相当于给文字做“基础编号”;

第二步:高频组合压缩。对于经常出现的文字组合(比如中文的“你好”“今天”,英文的“thank you”“good morning”),专门编一个新的数字ID。这样一来,一句话就能用更短的数字序列表示,模型理解起来更高效。

举个例子:既有“你”“的”这样的单个汉字对应独立数字ID,也有“你好”“今天”这样的常用短语对应专属数字ID。

这里要重点提一个小白必懂的术语:Token(令牌)。刚才说的代表单个文字或短语的数字ID,就是Token,它是大模型理解和输出信息的最小“信息单元”。简单说,模型的所有“思考”和“表达”,都是基于Token的计算。

3、模型学习:训练“预测下文”的能力

有了编码后的数字素材,就可以正式训练模型了。那模型的“学习”到底是什么?其实核心目标很简单:让模型能像人类一样,根据上文内容,预测出合适的下文。

这里用到的核心工具是“神经网络模型”,大家不用怕这个术语——它本质就是一个包含大量参数的复杂数学方程式,核心逻辑和我们小学学的“y=kx+b”很像:输入“上文”(相当于x),通过模型内部的参数计算(相当于k和b),输出“下文”(相当于y)。

但有两个关键区别要注意:一是我们前面编的Token只是“标识符”,不是有计算意义的数字;二是模型输出的不是确定的下文,而是每个Token出现的概率(比如“你好”出现的概率30%,“早上好”出现的概率25%)。

训练过程也很直观:一开始模型的参数都是随机的,输出的结果自然也是混乱的。我们把加工好的互联网素材不断喂给模型,模型的目标就是“提高正确下文Token的概率”,并根据这个目标不断调整内部参数。

【阶段成果:Base Model(基础模型)】

当我们把海量互联网信息都喂给这个拥有数十亿甚至上百亿参数的模型,完成参数调整后,就得到了一个“能预测下文”的基础模型。这个模型有两个关键特点:

1、每次只输出一个Token:根据输入的全部上文,预测并输出下一个最可能的Token;

2、结果具有随机性:模型输出的是Token概率,最终会随机抽取一个Token输出(不是直接选概率最高的)。所以哪怕输入完全一样的上文,每次输出的下文也可能不同。

这里要划重点:此时的基础模型还不是我们熟悉的“智能助手”,它只是一个“随机预测下文的机器”。比如你问它“2+2等于几”,它能答对,可能只是因为训练数据里有过这个问题,它“记下来了”,而不是真的理解了“计算”;如果让它继续输出,很可能会扯到和问题无关的内容。

【基础模型的本质】

简单说,Base Model就是“互联网内容的模拟器”——把整个互联网的信息压缩成一堆参数,这些信息是模糊的、有损耗的,也是基于概率的。它的核心特性的是:

· 以Token为单位模拟互联网内容;

· 结果随机,每次运行输出可能不同;

· 能“复述”训练过的内容(参数就像有损压缩文件,存储了大量世界知识);

· 用合适的提示词(比如“总结下文”),能激活它的相关记忆,输出对应内容。

但基础模型的能力还不够,我们需要进一步训练它,这就进入了第二个阶段。

第二步:后训练之“监督微调”——大模型的“看例题学解题阶段”

【阶段背景】

基础模型能预测下文,但不会“好好回答问题”——比如你问它“什么是大模型”,它可能输出一堆杂乱的相关文字,而不是清晰的解释。核心问题是:它没学过“问答场景的规则”。

解决思路很简单:就像我们学完知识点要多看例题一样,给模型补充“问答类素材”,专门训练它应对问答场景的能力。这就是“监督微调(SFT)”的核心逻辑。

这里要注意:监督微调的训练方法和预训练完全一样,唯一的区别是“训练素材变了”——从通用的互联网文本,变成了专门的“对话问答内容”。

【核心流程】

1、定义特殊Token:给对话“定规则”

为了让模型分清“谁是用户”“谁是助手”,我们需要定义一些预训练阶段没有的“特殊Token”,比如<|im_start|>(对话开始)、<|im_sep|>(角色分隔)、<|im_end|>(对话结束)。

这些特殊Token就像“对话说明书”:明确告诉模型“<|im_start|>user”后面是用户的问题,“<|im_start|>assistant”后面是正确的回答,帮模型快速学会“问答对应”的逻辑。

2、构建海量问答素材:给模型找“例题库”

接下来要收集或制作大量对话问答内容,覆盖科技、生活、学习、工作等各个领域,作为模型的“例题库”。这一步需要巨大的人力投入——毕竟要保证问答内容的准确性和多样性,这也是“人工智障”背后需要“人工”支撑的关键环节。

不过现在有了成熟的大模型,也会用“模型生成模型训练数据”的方式,提高素材制作效率(相当于让优秀的“学长”帮忙编例题)。

【阶段成果:SFT Model(监督微调模型)】

完成监督微调后,模型就彻底学会了“如何回答问题”——我们称之为SFT模型。它的本质是:结合了预训练的海量知识,同时学会了模仿人类的问答方式的预测模型。

这和我们看例题学解题的过程完全一样:看完大量例题后,再遇到类似题目,就能依样画葫芦给出标准答案。比如此时你问它“什么是大模型”,它会给出清晰、有条理的解释,而不是杂乱的文字。

案例:完成监督微调后,模型能精准回答常见问题,比如“大模型的训练步骤有哪些”“Token是什么”等。

【延伸:大模型“幻觉”的原因与缓解方法】

很多人用AI时会遇到“胡编乱造”的情况,这在行业里叫“模型幻觉”。结合监督微调的逻辑,我们很容易理解原因:

幻觉产生的原因

模型的核心还是“概率预测模型”——哪怕某个答案的概率很低,也有可能被随机抽取并输出。比如训练数据里有大量“who is XXX”的问答案例,当你问一个完全不存在的人(比如“who is orson kovacs”),模型会模仿训练过的问答方式,基于现有知识“编”一个答案,哪怕这个答案是错的。

缓解方法

1、让模型学会“说不知道”:在训练素材里加入大量“无法回答时说不知道”的案例,让模型明白“不是所有问题都要强行回答”;

2、给模型“装工具”:让模型学会使用联网搜索、计算器等工具——遇到不懂的内容,先通过工具获取准确信息(比如搜索“orson kovacs是否存在”),再把工具结果作为“上文”输入模型,让模型基于准确信息输出答案。

具体来说,可以补充这几类训练数据,缓解幻觉问题:

第三步:后训练之“强化学习”——大模型的“做习题自主精进阶段”

【阶段背景】

监督微调让模型学会了“模仿人类回答”,但就像我们做题不能只靠模仿例题一样,模型也需要“自主摸索最优解法”。

比如一道数学题,可能有3种解法:例题里的经典解法、更简洁的技巧解法、更易懂的分步解法。监督微调只能让模型模仿例题的解法,但我们不知道哪种解法最适合模型,也不知道模型是否能找到更好的解法。这就需要“强化学习”——只给模型“题目和正确答案”,让它自己摸索最优解题思路。

【核心流程】

1、给模型提供问题,让它自主生成多个不同的“解法”(回答);

2、从这些解法中筛选出“正确的解法”;

3、再从正确解法里挑出“最优解法”(比如更准确、更简洁、更有条理的);

4、把最优解法作为训练素材,重新训练模型;

5、重复以上步骤成千上万次,让模型不断优化解题思路。

【阶段成果:Reasoning Model(推理模型)】

通过强化学习,模型会迎来两个质的飞跃:

1、拥有“思维链(Chain of Thought)”:这就是我们用DeepSeek、GPT-4等前沿大模型时,看到的“一步步思考”的过程。比如解数学题时,模型会先写“第一步:明确题目条件”“第二步:推导公式”,再给出答案。这种思考过程会成为“上文”的一部分,让模型后续的预测更准确(毕竟上文越完整,预测的下文质量越高)。

2、能产生“超越人类的全新解法”:强化学习最经典的案例就是AlphaGo——人类只告诉它围棋规则和“赢棋”目标,它通过自我训练,摸索出了人类从未用过的落子方法,最终战胜人类顶尖棋手。如果AlphaGo只模仿人类的棋谱,永远不可能超越人类。

这里要说明:大模型的强化学习比AlphaGo更难。因为围棋是“封闭领域”(规则固定、目标明确),而大模型要应对的是“开放领域”(问题五花八门,没有统一规则),所以需要更多、更丰富的“习题”来训练。

总结:大模型训练的完整逻辑

再梳理一下大模型从“基础版”到“智能版”的三步训练:

1、预训练:像小学生读课本,积累海量基础知识点,形成基础模型;

2、监督微调:像看例题学解题,模仿人类问答方式,形成能精准回答问题的SFT模型;

3、强化学习:像做习题自主精进,摸索最优解法,形成有思维链、能创新的推理模型。

在此基础上,通过增加图像、语音等多模态数据,模型还能进化出“看懂图片”“听懂语音”的能力,适配更多复杂任务。

反思:预测=逻辑?人类智慧的本质是什么?

了解完训练原理,我有个特别震撼的疑问:我们现在用的AI,能解复杂数学题、写代码、做逻辑推理,本质上竟然只是一个“统计学预测模型”?人类引以为傲的“逻辑思维”,真的能被“预测”替代吗?

后来我想通了:或许是我们把“逻辑”想得太复杂了。人类的逻辑能力,会不会也是基于过往经验的“预测”?比如我们遇到一个问题时,想到的解题思路,其实是基于过去解决类似问题的成功/失败经验,“预测”出的最优方案?

最近听孟岩的播客《无尽的探索》,里面提到了杰夫·霍金斯的《千脑智能》,书里对大脑机制的阐述,竟然和大模型的预测逻辑不谋而合:

或许,人类的“逻辑”和“智慧”,本质上也是一种“预测模型”;或许,以大模型为代表的硅基生命,已经在以自己的方式,重走碳基生命的智能进化之路。

最后留给大家一个思考:当AI的“预测”足够精准时,它和“真正的理解”还有区别吗?欢迎在评论区交流你的看法~

那么,如何系统的去学习大模型LLM?

作为一名从业五年的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/4 14:05:11

Unity Visual Effect Graph 属性(Properties)详解

目录 前言 一、什么是 Properties? 可视化连接示例: 二、Property 的基本类型 三、访问多组件属性(Component Access) 应用场景: 四、类型转换(Casting) 转换规则: 五、复合属性类型(Compound Property Types) 典型示例: 使用方式: 六、可空间化属性(…

作者头像 李华
网站建设 2026/4/19 11:24:34

精益内核:五大原则与十大工具的系统性耦合逻辑

**观点&#xff1a;**精益生产的成功&#xff0c;不在于孤立地应用几个工具&#xff0c;而在于深刻理解其核心原则&#xff0c;并让工具为原则服务&#xff0c;形成系统合力。 理由&#xff1a;许多改善活动失败&#xff0c;源于“工具主义”——跟风导入看板或自动化&#xff…

作者头像 李华
网站建设 2026/4/23 10:12:48

这10个免费插画网站,资深设计师打死都不愿公开

你有没有好奇过&#xff0c;为什么资深设计师的作品总有一种难以言喻的独特质感&#xff1f;在竞争激烈的设计行业&#xff0c;保持视觉上的领先优势&#xff0c;有时就意味着守护几个关键的资源秘诀。《2025年创意资源信息差与专业竞争力关联度报告》中揭示了一个关键现象&…

作者头像 李华
网站建设 2026/4/23 10:09:34

为什么顶尖AI团队都在转向Open-AutoGLM?背后有这6个技术真相

第一章&#xff1a;Open-AutoGLM的起源与核心定位Open-AutoGLM 是一个面向自动化通用语言建模任务的开源框架&#xff0c;旨在降低大规模语言模型在复杂场景下的应用门槛。它由国内多个高校与研究机构联合发起&#xff0c;基于对 AutoGLM 架构的深度解耦与重构&#xff0c;实现…

作者头像 李华
网站建设 2026/4/23 10:11:20

为什么你的Open-AutoGLM跑不动?深度剖析配置不兼容的5大根源

第一章&#xff1a;Open-AutoGLM配置要求 Open-AutoGLM 是一个面向自动化自然语言任务的开源框架&#xff0c;依赖特定的软硬件环境以确保高效运行。为保障系统稳定性与推理性能&#xff0c;需严格遵循其配置规范。 系统环境要求 操作系统&#xff1a;Linux&#xff08;Ubunt…

作者头像 李华