news 2026/4/23 16:06:30

Spring-AI 结合自定义 mcp server 实现飞书智能机器人

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
Spring-AI 结合自定义 mcp server 实现飞书智能机器人

1. 简介

本文主要介绍基于 spring ai 自定义搭建 mcp 服务端和客户端,主要场景是:

基于本地的mcp服务让飞书机器人跟场景回答不同的问题

实现效果如下

最后附了源码链接.整体代码非常简单,容易上手。

2.概念

2.1 什么是 AI MCP?

MCP(Model Context Protocol)是一种 ​标准化协议​,用来解决一个长期痛点:

👉如何让 AI“安全、可控、标准化地”调用外部工具 / 系统能力?

它的核心目标不是“让 AI 更聪明”,而是:

  • AI 能调用真实系统
  • 同时避免 AI 乱编、乱连、乱访问
  • 并且工具接入方式统一

2.2 MCP 解决了什么问题?

1️⃣ 传统 Function Call 的问题

以 OpenAI Function Calling / Tool Calling 为例:

  • 工具定义写死在 Prompt 或代码里
  • 每个 AI 框架一套接口
  • 权限 / 生命周期 / 连接管理全靠业务自己写
  • 工具多了以后极难维护

👉 在真实系统里会变成:

  • Prompt 很长
  • Tool 定义重复
  • 不同 AI 模型不可复用

2️⃣ MCP 的解决思路

MCP 把 ​工具变成一个标准化的 Server​:

AI Model | | MCP 协议 | MCP Client ────── MCP Server ├─ 查数据库 ├─ 调内部系统 ├─ 查文件 ├─ 调 HTTP API

AI ​不直接接触工具实现​,只通过 MCP 协议:

  • 发现工具
  • 调用工具
  • 获取结构化结果

3. 工程结构

主要分为2个模块,mcp-servermcp-client, mcp-client里面通过java -jar的形式运行 mcp 服务端,在mcp-client最终结合 AI 以及飞书机器人的集成实现消息的回复.

4. 相关源码介绍

4.1 mcp 服务端

服务端非常简单,例如保留一个天气的服务,只需要在方法上加入org.springframework.ai.tool.annotation.Tool;注解即可

importio.kings1990.mcp.mcpserver.enums.WeatherType;importio.kings1990.mcp.mcpserver.record.WeatherRequest;importio.kings1990.mcp.mcpserver.record.WeatherResult;importlombok.extern.slf4j.Slf4j;importorg.springframework.ai.tool.annotation.Tool;importorg.springframework.ai.tool.annotation.ToolParam;importorg.springframework.stereotype.Service;@Service@Slf4jpublicclassWeatherService{@Tool(name="getWeather",description="查询指定城市的天气")publicWeatherResultgetWeather(@ToolParam(description="请求参数")WeatherRequestreq){log.info("MCP Tool getWeather called, city={}",req.city());returnnewWeatherResult(req.city(),WeatherType.SUNNY,"25°C","°C","mcp:getWeather");}}

4.2 mcp客户端

4.2.1让 AI 集成 ToolCallbacks

@ConfigurationpublicclassAiConfig{@BeanpublicChatClientchatClient(ChatClient.Builderbuilder,List<McpSyncClient>mcpSyncClients){returnbuilder.defaultSystem("你是一个AI助手,必须调用工具 kings-spring-ai-mcp-tools 下的方法,如果工具不可用,就明确说明无法调用工具,不要编造。").defaultToolCallbacks(SyncMcpToolCallbackProvider.builder().mcpClients(mcpSyncClients).build()).build();}}

4.2.2基于飞书机器人的长链接集成,实现消息的自动回复

importcn.hutool.core.thread.ThreadUtil;importcom.lark.oapi.event.EventDispatcher;importcom.lark.oapi.service.im.ImService;importcom.lark.oapi.service.im.v1.model.P2MessageReceiveV1;importcom.lark.oapi.ws.Client;importjakarta.annotation.Resource;importorg.springframework.beans.factory.DisposableBean;importorg.springframework.boot.CommandLineRunner;importorg.springframework.stereotype.Component;@ComponentpublicclassLarkWsListenerimplementsCommandLineRunner,DisposableBean{@ResourceprivateLarkBotServicebotService;@ResourceprivateClient.BuilderlarkWsBuilder;@Overridepublicvoidrun(String...args){//verificationToken和 encryptionKey 可选,用于验证和解密事件EventDispatcherhandler=EventDispatcher.newBuilder("","").onP2MessageReceiveV1(newImService.P2MessageReceiveV1Handler(){@Overridepublicvoidhandle(P2MessageReceiveV1event)throwsException{// 1) messageId 用于 replyStringmessageId=event.getEvent().getMessage().getMessageId();// 2) content 是 JSON 字符串,需要解析出文本StringcontentJson=event.getEvent().getMessage().getContent();System.err.println("收到消息: "+contentJson);StringuserText=LarkMsgParser.extractText(contentJson);ThreadUtil.execAsync(()->{botService.onUserMessage(messageId,userText);});}}).build();// 建议把 appId/appSecret 放配置文件ClientwsClient=larkWsBuilder.eventHandler(handler).build();wsClient.start();}@Overridepublicvoiddestroy()throwsException{}}

4.2.3 AI Api-Key 植入

我这边使用 zhipu ai. 这边可以获取api-key.

加入依赖

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-zhipuai</artifactId></dependency>

并且在配置中配置 api-key

spring: ai: zhipuai: api-key: your_api_key_here chat: options: model: glm-4.6

5.启动

直接运行mcp-client主程序,查看飞书机器人是否注册成功

connected to wss://msg-frontier.feishu.cn/

启动成功后在飞书应用里输入例如北京,等待机器人回复

6.源码

github 仓库. 可以 star 查看后续更新


Fast Request是一个类似于 Postman 的 IDEA 插件。它是一个强大的 restful api 工具包插件,可以根据已有的方法帮助您快速生成 url 和 params。Restful Fast Request = API调试工具 + API管理工具 + API搜索工具。 它有一个漂亮的界面来完成请求、检查服务器响应、存储你的 api 请求和导出 api 请求。插件帮助你在 IDEA 界面内更快更高效得调试你的 API。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 13:52:38

提升AI开发效率:Miniconda环境下的PyTorch快速调试技巧

提升AI开发效率&#xff1a;Miniconda环境下的PyTorch快速调试技巧 在深度学习项目中&#xff0c;你是否经历过这样的场景&#xff1f;——一个上周还能正常运行的模型训练脚本&#xff0c;今天却因为某个依赖库版本冲突而报错&#xff1b;或者团队成员复现你的实验时&#xff…

作者头像 李华
网站建设 2026/4/21 17:18:32

通过SSH执行非交互式Miniconda环境批量任务

通过SSH执行非交互式Miniconda环境批量任务 在AI模型训练、数据批处理或自动化运维的日常工作中&#xff0c;我们常常面临这样一个现实&#xff1a;本地机器性能有限&#xff0c;必须将计算密集型任务提交到远程GPU服务器上运行。而这些服务器通常没有图形界面&#xff0c;也无…

作者头像 李华
网站建设 2026/4/22 14:40:27

CondaError全解析:常见错误及其在Miniconda中的修复方式

CondaError全解析&#xff1a;常见错误及其在Miniconda中的修复方式 在现代数据科学与AI开发中&#xff0c;环境管理早已不再是“装个Python就能跑”的简单事。随着项目依赖日益复杂——从PyTorch到TensorFlow&#xff0c;从CUDA版本到NumPy编译优化——稍有不慎就会陷入“这个…

作者头像 李华
网站建设 2026/4/23 6:42:40

Miniconda-Python3.10镜像支持AutoGPT等自主代理运行

Miniconda-Python3.10镜像支持AutoGPT等自主代理运行 在当今AI技术飞速演进的背景下&#xff0c;大语言模型&#xff08;LLM&#xff09;驱动的自主代理系统如AutoGPT、BabyAGI正从实验概念走向实际应用。这些智能体具备目标分解、任务规划与自我迭代的能力&#xff0c;但其背…

作者头像 李华
网站建设 2026/4/23 6:43:57

Miniconda-Python3.10镜像对NLP任务的支持能力分析

Miniconda-Python3.10镜像对NLP任务的支持能力分析 在自然语言处理&#xff08;NLP&#xff09;研究与工程实践中&#xff0c;一个常见但棘手的问题是&#xff1a;为什么同一个模型代码在A机器上训练正常&#xff0c;到了B机器却报错&#xff1f;问题的根源往往不是算法本身&am…

作者头像 李华
网站建设 2026/4/23 6:45:45

Miniconda环境下运行Whisper语音识别模型实战

Miniconda环境下运行Whisper语音识别模型实战 在智能音频应用日益普及的今天&#xff0c;从会议纪要自动生成到跨语言字幕翻译&#xff0c;语音识别技术正以前所未有的速度渗透进我们的工作与生活。OpenAI推出的Whisper模型凭借其端到端、多语言、高精度的特性&#xff0c;迅速…

作者头像 李华