news 2026/5/14 5:36:30

收藏必备:Agentic RAG实战——从传统RAG到智能体驱动的知识检索革命

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
收藏必备:Agentic RAG实战——从传统RAG到智能体驱动的知识检索革命

文章介绍了Agentic RAG技术,通过引入AI智能体将传统静态检索升级为动态知识编排。相比传统RAG的单步检索,Agentic RAG具备多步迭代推理、自适应检索策略、多源信息融合和复杂任务拆解等优势,解决了传统RAG检索不到合适内容就效果差、知识库外信息无法处理等问题。文章详细阐述了Agentic RAG的核心架构、工作模式,并提供了使用LazyLLM框架搭建系统的实践案例,展示了MCP协议在简化工具集成方面的应用。

1、什么是 Agentic RAG?

1. RAG:带着课本进考场的学生

传统RAG就像个勤奋但刻板的学生:

📚 工作原理:用户提问 → 向量化 → 检索相似文档 → 拼接上下文 → LLM生成答案

致命缺陷纯被动执行。它不会思考"这个问题真正在问什么",不会判断"检索到的内容是否真相关",更不会意识到"可能需要多步推理才能得出答案"。

正如搜索结果所示,传统RAG是"单步检索和生成"的固定流水线,缺乏对查询复杂度的分析和策略调整能力。

2. AI Agent:考场里的智能老师

AI智能体更像一位经验丰富的专家教师:

🧠 核心特征:自治决策、工具调用、记忆管理、规划反思

它不仅能理解任务目标,更能自主规划步骤、调用工具、评估结果,整个过程无需人类干预。这位"老师"懂得:

  • 📖 分析题目难度,决定直接作答还是分步解决
  • 🔧 熟练使用计算器、网络搜索、数据库等多种"教辅工具"
  • 💭 反思错误,调整策略,直到给出满意答案

3. Agentic RAG:师生同考的黄金组合

Agentic RAG = RAG + AI Agent

如果说RAG是"带书本考试",Agentic RAG就是**“既有书本,又有老师现场指导”**。这位"智能老师"能动态规划检索策略、自主选择信息源、迭代优化答案质量。

2、核心架构:四种智能工作模式

Agentic RAG通过引入AI智能体,将静态检索升级为动态知识 orchestration。在LazyLLM框架中,我们可以实现四种主流智能体模式:

模式一:Function Call Agent(工具调用型)

特点:直接行动,快速调用工具,边做边学

流程:Action → Observation → 循环直至解决

适用:简单直接的查询任务

模式二:ReAct(思考-行动型)🤔→⚡

特点:每次行动前先思考,推理更严谨

流程:Thought → Action → Observation → 循环

模式三:PlanAndSolve(规划-执行型)📋→✅

特点:先制定完整计划,再分步执行

流程:Plan → 执行单步 → 观察 → 调整计划 → 继续

适用:需要多步骤协作的复杂问题

模式四:ReWOO(无观察推理型)🎯

特点:一次性生成完整计划,并行执行所有步骤

流程:Plan → 执行所有步骤 → 综合结果

优势:效率更高,适合工具间依赖较少的场景

3、降维打击:Agentic RAG为何碾压传统RAG?

对比维度传统RAGAgentic RAG
流程类型单步检索+生成多步迭代推理与检索
控制流固定流水线动态、智能体驱动、含规划决策
检索策略一次检索定生死自适应检索,可反馈优化
记忆能力无状态,不记历史跨行动维护记忆和状态
工具集成仅检索器和生成器灵活调用多种工具(API、计算器、数据库等)
智能决策❌ 无✅ 自动规划、自我反思、动态路由

核心优势解析

1️⃣ 多源信息融合

传统RAG困于单一知识库,Agentic RAG能自主调用搜索引擎、数据库、专业API等工具。就像一个老师既会查课本,还会上网、查专业数据库、咨询同行。

2️⃣ 智能查询优化

当首次检索结果不佳时,智能体会自动更换关键词、切换检索工具、甚至重新理解用户意图。这解决了传统RAG"一次查不到就凉凉"的痛点。

3️⃣ 复杂任务拆解

面对"分析2024年AI论文趋势并生成图表"这类需求,Agentic RAG会自动分解为:搜索论文→统计分析→数据可视化→撰写报告,全程自治。

4️⃣ 结果交叉验证

多个数据源的信息可以相互佐证,智能体还能识别矛盾点并优先采信高可信度来源,大幅减少幻觉。

4、MCP协议:AI世界的"USB-C接口"

1. 标准化革命,解决开发痛点

在构建Agentic RAG时,最头疼的莫过于"每个工具都要重写接口"。MCP(Model Context Protocol)应运而生——它相当于AI应用的USB-C接口,统一了模型与外部世界的交互方式[^原文]。

过去:每接入一个工具(天气API、PDF解析、代码执行)都要写一堆集成代码现在:符合MCP标准的工具即插即用,模型自动识别功能、参数和调用方式

2. 架构三剑客

Host:你的AI应用主体(如Cursor、Claude Desktop)

Client:Host内的通信桥梁,1:1连接Server

Server:提供Tools(函数)、Resources(数据)、Prompts(模板)的标准化服务

在LazyLLM中接入高德地图MCP服务仅需几行代码:

3. 实践:在LazyLLM中使用MCP

1️⃣配置LazyLLM所需要的所有依赖

首先参考 https://docs.lazyllm.ai/zh-cn/latest/ 的Getting started部分,安装LazyLLM并完成环境配置。

同时,由于MCP Server的使用依赖Node.js和npm,可参考https://nodejs.org/en/download 完成最新版本的安装和配置。

2️⃣利用已有的MCP服务

若需接入已有的 MCP 服务(如高德地图的地理位置服务),可通过 LazyLLM 的 MCPClient 工具直接连接,无需自行部署 Server。

SSE URL 接入(以高德 MCP 为例):

无需启动本地 Server,直接通过服务提供商提供的 SSE 长连接 URL 配置 Client。需将”xxx”替换为自己的key。

(创建key:https://lbs.amap.com/api/mcp-server/create-project-and-key)

import lazyllm from lazyllm.tools.agent import ReactAgent from lazyllm.tools import MCPClient mcp_configs = { "amap_mcp": { "url": "http://mcp.amap.com/sse?key=xxx" } } client = MCPClient(command_or_url=mcp_configs["amap_mcp"]["url"]) llm = lazyllm.OnlineChatModule(source='sensenova', model='Qwen3-32B', stream=False) agent = ReactAgent(llm=llm.share(), tools=client.get_tools(), max_retries=15) print(agent("查询北京的天气"))

运行结果如下:

通过本次实践,我们可以了解到,MCP Server的出现直接省去了Agent开发环节中工具研发和调试的成本

5、用 LazyLLM 搭建 Agentic RAG系统下面通过一个完整示例,展示如何一步步实现 Agentic RAG。

1. 搭建基础 RAG

我们先使用 LazyLLM 构建一个标准 RAG,包括:

  • Retriever
  • Reranker
  • LLM
import lazyllm from lazyllm import pipeline, bind, SentenceSplitter, Document, Retriever, Reranker from lazyllm import TrainableModule prompt = 'You will play the role of an AI Q&A assistant and complete a dialogue task. In this task, you need to provide your answer based on the given context and question.' documents = Document( dataset_path="AgenticRAG/documents", embed=TrainableModule(base_model="BAAI/bge-large-zh-v1.5"), manager=False ) documents.create_node_group(name="sentences", transform=SentenceSplitter, chunk_size=1024, chunk_overlap=100) with pipeline() as ppl: ppl.retriever = Retriever(documents, group_name="sentences", similarity="cosine", topk=1) ppl.reranker = Reranker( "ModuleReranker", model=TrainableModule(base_model="BAAI/bge-reranker-large" ,type="rerank"), topk=1, output_format='content', join=True ) | bind(query=ppl.input) ppl.formatter = (lambda nodes, query: dict(context_str=nodes, query=query)) | bind(query=ppl.input) ppl.llm = lazyllm.OnlineChatModule(source='sensenova', model='Qwen3-32B', stream=False).prompt(lazyllm.ChatPrompter(prompt, extra_keys=["context_str"])) if __name__ == "__main__": lazyllm.WebModule(ppl, port=range(23467, 24000)).start().wait()

运行结果如下:

2. 构建 ReAct 智能体

Agentic RAG 就是引入了 AI 智能体的 RAG,这里让我们用 LazyLLM 来注册一个假的知识库搜索工具,实现一个 React:

import json import lazyllm from lazyllm import fc_register, ReactAgent @fc_register("tool") def search_knowledge_base(query: str): ''' Get info from knowledge base in a given query. Args: query (str): The query for search knowledge base. ''' return "《狗·猫·鼠》、《阿长与〈山海经〉》、《二十四孝图》、《五猖会》、《无常》、《从百草园到三味书屋》、《父亲的病》、《琐记》、《藤野先生》、《范爱农》" llm = lazyllm.OnlineChatModule(source='sensenova', model='Qwen3-32B',stream=False) tools = ["search_knowledge_base"] agent = ReactAgent(llm, tools) if __name__ == "__main__": res = agent("朝花夕拾有哪些文章?") print("Result: \n", res)

运行结果如下:

智能体会根据问题,自动决定是否调用该工具。有了 React,我们就可以将它的工具替换为 RAG 中的 Retriever 和 Reranker 来作为一个真实的知识库,让它可以调用检索器:

import lazyllm from lazyllm import (pipeline, bind, OnlineEmbeddingModule, SentenceSplitter, Reranker, Document, Retriever, fc_register, ReactAgent) from lazyllm import TrainableModule documents = Document( dataset_path="AgenticRAG/documents", embed=TrainableModule(base_model="BAAI/bge-large-zh-v1.5"), manager=False ) documents.create_node_group(name="sentences", transform=SentenceSplitter, chunk_size=1024, chunk_overlap=100) with pipeline() as ppl_rag: ppl_rag.retriever = Retriever(documents, group_name="sentences", similarity="cosine", topk=3) ppl_rag.reranker = Reranker("ModuleReranker", model=TrainableModule(base_model="BAAI/bge-reranker-large" ,type="rerank"), topk=1, output_format='content', join=True) | bind(query=ppl_rag.input) @fc_register("tool") def search_knowledge_base(query: str): ''' Get info from knowledge base in a given query. Args: query (str): The query for search knowledge base. ''' return ppl_rag(query) tools = ["search_knowledge_base"] llm = lazyllm.OnlineChatModule(source='sensenova', model='Qwen3-32B', stream=False) agent = ReactAgent(llm, tools) if __name__ == "__main__": res = agent("朝花夕拾有哪些文章?") print("Result: \n", res)

运行结果如下:

  1. 实现 Agentic RAG

将运行结果如下RAG 的检索组件,直接替换为ReactAgent

import lazyllm from lazyllm import (pipeline, bind, OnlineEmbeddingModule, SentenceSplitter, Reranker, Document, Retriever, fc_register, ReactAgent, TrainableModule,FunctionCallAgent) prompt = 'You will play the role of an AI Q&A assistant and complete a dialogue task. In this task, you need to provide your answer based on the given context and question.' documents = Document(dataset_path="AgenticRAG/documents", embed=TrainableModule(base_model="BAAI/bge-large-zh-v1.5"), manager=False) documents.create_node_group(name="sentences", transform=SentenceSplitter, chunk_size=1024, chunk_overlap=100) with pipeline() as ppl_rag: ppl_rag.retriever = Retriever(documents, group_name="sentences", similarity="cosine", topk=3) ppl_rag.reranker = Reranker("ModuleReranker", model=TrainableModule(base_model="BAAI/bge-reranker-large", type="rerank"), topk=1, output_format='content', join=True) | bind(query=ppl_rag.input) @fc_register("tool") def search_knowledge_base(query: str): ''' Get info from knowledge base in a given query. Args: query (str): The query for search knowledge base. ''' return ppl_rag(query) tools = ["search_knowledge_base"] with pipeline() as ppl: ppl.retriever = FunctionCallAgent(lazyllm.OnlineChatModule(source='sensenova', model='Qwen3-32B', stream=False), tools) ppl.formatter = (lambda nodes, query: dict(context_str=nodes, query=query)) | bind(query=ppl.input) ppl.llm = lazyllm.OnlineChatModule(source='sensenova', model='Qwen3-32B', stream=False).prompt(lazyllm.ChatPrompter(prompt, extra_keys=["context_str"])) if __name__ == "__main__": lazyllm.WebModule(ppl, port=range(23467, 24000)).start().wait()
运行结果如下: 此时: 检索不再是一次调用 而是一个“智能体驱动的过程” 一个最小可用的 Agentic RAG 就完成了。 4. 更多的尝试 我们可以尝试使用不同的 AI 智能体工作流(FunctionCallAgent、PlanAndSolveAgent、ReWOOAgent)来替换上面的 React: from lazyllm import FunctionCallAgent, PlanAndSolveAgent, ReWOOAgent # Use FunctionCallAgent: ppl.retriever = FunctionCallAgent(lazyllm.OnlineChatModule(), tools) # Use PlanAndSolveAgent: ppl.retriever = PlanAndSolveAgent(lazyllm.OnlineChatModule(), tools) # Use ReWOOAgent: ppl.retriever = ReWOOAgent(lazyllm.OnlineChatModule(), tools) 这里我们尝试将ReactAgent 替换为FunctionCallAgent, 来查看效果:

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/11 7:44:01

买了个SATA3 SSD,竟然不能用

前几天买了个SATA3 SSD 480G,想当作系统盘。这样能方便的GHOST。结果:家里电脑,单独插上480G,安装WIN7时,揭示无法安装。家里电脑,同时插上2T SSD,启动很慢,进入电脑后也不认盘。公司…

作者头像 李华
网站建设 2026/5/6 2:07:15

FaceFusion镜像提供多用户权限管理体系

FaceFusion镜像的多用户权限管理体系:从工具到平台的演进 在AI生成内容(AIGC)浪潮席卷影视、广告与数字人产业的今天,人脸替换技术早已不再是实验室里的炫技演示。以FaceFusion为代表的开源项目,凭借其高保真度和高效推…

作者头像 李华
网站建设 2026/5/1 2:26:56

2025年学术写作工具革新:6款AI解决方案支持LaTeX全自动处理

2025 热门 AI 论文工具哪个好?6 款适配 LaTeX 模板与论文格式规范六款热门 AI 论文工具对比总结以下是2025年热门AI论文工具的快速对比,帮助您在写作论文时选择合适工具。这六款工具均支持LaTeX模板和论文格式规范,适配性强。总结基于核心功能…

作者头像 李华
网站建设 2026/5/9 11:15:10

大模型学习指南:小白也能懂的Transformer核心原理(值得收藏)

本文为"大模型小白"解析Transformer核心原理,包括其与大模型关系、自注意力机制、多头注意力机制、位置编码及Encoder-Decoder结构。Transformer通过自注意力捕捉序列依赖,多头注意力从多角度理解上下文,位置编码补充位置信息&…

作者头像 李华
网站建设 2026/5/9 11:15:44

选型必读:国内超融合技术优势全对比

随着企业数字化转型进入深水区,超融合基础设施(HCI)作为“云化底座”的核心价值愈发凸显——它通过整合计算、存储、网络与安全资源,实现了IT架构的简化、弹性与高效,成为金融、政府、医疗等关键行业的首选方案。2024年…

作者头像 李华