news 2026/4/25 10:40:06

hermes+ollama本地模型实践分享

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
hermes+ollama本地模型实践分享

本文介绍了如何利用Ollama和hermes-agent组合,在个人电脑上部署本地AI应用。这种方法无需注册账号、无需配置云服务器,保证了数据安全(全程不离开硬盘,断网可用),且操作简单(一条命令搞定)。Ollama可下载多种开源模型到本地,支持CPU模式运行;hermes-agent则是一个能自我学习和进化、自带多种技能的智能代理。通过简单安装和命令操作,用户即可在自己的电脑上享受AI服务,无需额外花费。


你有没有想过,把 AI 直接跑在自己的电脑上?这样就不用注册账号、不用配置云服务器了,公司的代码、私人的日志全程不离开自己的硬盘,断网也能用。听起来技术门槛有些高?其实不然。现在主流的办公笔记本大多配置都有 8 核 16G,在自己的办公电脑上跑一个 AI 基本都没什么压力。

今天就聊聊怎么用最简单的方式,在自己的电脑上跑一个这样的 AI。它的组合就是:Ollama 加上 hermes-agent。不用懂复杂的代码,只要跟着做就能用一条命令搞定。

01

Ollama 与 hermes-agent 组合

通过 Ollama,不仅可以把模型下载到自己的电脑上跑,还可以把 hermes-agent 也下载到自己的电脑上跑。通过这两个工具实现自己的本地化部署方案,模型和 Agent 都在自己的电脑上,然后指挥 hermes-agent 干活。

Ollama 号称是"最受欢迎的本地大模型运行工具",通过它可以快速地安装各类的开源模型到自己电脑上,如 Qwen 系列、Deepseek 等。另外不用担心自己电脑没有装显卡能不能跑模型这个问题,因为 Ollama 其中一个厉害之处就是它有一个“CPU-only”模式,就算电脑只有 CPU 它也可以在电脑上跑模型,不一定非要依靠显卡。

hermes-agent 是一个会自我学习进化的 Agent,在 GitHub 上已经有 10 万+的 Star 了。它能记住我们跟它聊过啥、有自己的记忆,不仅自带了 70 多种现成的技能,更厉害的是它还能给自己写新技能并改进。

以前运行这两个工具组合可能需要做一些安装、配置操作,但最近在 Ollama 发布的版本已经官方支持了一键部署 hermes-agent,只要一条命令就可以在本地运行启动 hermes-agent。简化大量操作,可以不需要去搞懂那些复杂的配置,也不用去申请什么模型的 API 密钥。现在这两个工具合在一块使用,只要你电脑带得动,它就能 24 小时给你执行任务。总的来看有以下优点:

  • 门槛超低:现在主流的办公笔记本标配 16G 内存,基本上装了就能跑,不需要专门买台新电脑。

  • 数据安全:所有数据都在你自己的硬盘里,还有断网都能用,也不用怕隐私数据泄露。

  • 不额外花钱:不用交订阅费,不用租云服务器,在自己电脑上跑,没什么额外成本。

  • 操作简单:不用额外配环境,一条命令直接搞定。

02

一条命令运行 hermes-agent

这两个工具组合在本地部署分两步,第一步是安装 Ollama (建议版本号不低于 0.21,官网页直接下载的一般就是最新版了),然后再执行一条命令就能运行 hermes-agent 了。

图:安装操作流程

第一步:装个 Ollama

如果你电脑上还没 Ollama,直接去 Ollama 官网 下载安装包。不管你是苹果 Mac、Windows 还是 Linux 都能装,跟装微信一样简单。

图:Ollama官网获取下载链接/安装包

图:安装Ollama

第二步:用 Ollama 一条命令运行 hermes-agent

打开你电脑上的终端(Terminal),执行下面这行代码就能运行:

ollama launch hermes

图:执行运行hermes-agent命令

这个命令因为会自动下载一些内容所以大概要等个两三分钟,执行这条命令后,剩下的活儿 Ollama 全包了:

  1. 自动下载:如果你还没装 hermes-agent,它会自动完成下载。

  2. 选择模型:它会弹个列表让你选个本地模型(比如qwen3.6或者gemma4,就看自己想用哪个,都可以通过 Ollama 安装到本地),选择后若模型不存在就会去下载模型到本地运行。

图:选模型

  1. 自动配置:它会自动把所有接口都配置好,给 hermes-agent 连接上刚选的模型,然后直接就能用,最后启动 hermes-agent。

提示:

  • 如果用的是 Windows 会麻烦一点,要多执行一个步骤,需要先装个叫 WSL2 的东西(在终端里输入wsl --install就能安装 WSL2 了),然后在 WSL 里面跑上面那条运行命令 。
  • 本地跑的模型,模型运行性能上限取决于自己的电脑配置强弱。如果是普通办公本,跑起来可能会比云供应商提供的模型慢一些,Agent 处理复杂任务时也需要多等一会儿。

03

实践:hermes-agent 写个“日志分析”技能

hermes-agent 最让人惊艳的就是它的技能系统(Skills System)。它不仅自带了一堆技能,还能在你给它安排了复杂任务后,自动把解决步骤存成一个新技能,下次直接用。

比如你教它怎么做报表,它不仅学会了,还自己写了本操作手册,下次你一句话它就能照着手册把活干完。再比如下面让它帮忙分析日志。

Java 日志分析

首先准备一个 java 日志如下:

2026-04-20 10:15:32.451 ERROR [order-service] 4512 --- [nio-8080-exec-1] c.e.order.service.OrderService : Failed to create order for user: U-1024 java.lang.NullPointerException: Cannot invoke "com.example.order.model.Cart.getItems()" because "cart" is null at com.example.order.service.OrderService.createOrder(OrderService.java:45) at com.example.order.controller.OrderController.submit(OrderController.java:22)

然后对 hermes-agent 说:

“帮我写个叫 log-checker 的技能。它要能扫描 .log 文件,找出所有的 ERROR 和 Exception 堆栈,并总结出报错原因和代码行号。”

图:发起创建技能的对话

它就会去创建对应日志分析技能log-checker 如下:

图:技能创建成功

创建完技能后让它开始去分析 java 日志文件,对 hermes-agent 说:

“/root/.hermes/logs/case目录下app.log 日志分析”

图:发起java日志分析对话

图:日志分析完成

以上就是它对 java 日志的分析报告以及给出的修复建议,还可以继续去让它帮忙分析 k8s 常见的 json 格式日志。

k8s 日志分析

准备一个 k8s 常见的 json 格式日志保存到 k8s-pod.json 文件中,如下:

{"ts":1713581732.451,"level":"error","msg":"Database connection timeout","pod":"inventory-app-7d5f5b-9p8wg","trace":"com.mysql.cj.jdbc.exceptions.CommunicationsException: Communications link failure"} {"ts":1713581735.102,"level":"info","msg":"Retrying connection...","pod":"inventory-app-7d5f5b-9p8wg"} [INFO] Some raw kernel message or system boot info...

然后继续跟 hermes-agent 对话:

“使用log-checker帮助分析 /root/.hermes/logs/case 目录下k8s-pod.json文件日志”

于是出现了下面这个 hermes-agent 自我改进的过程,它发现了刚才创建的日志分析技能log-checker存在不足,然后它就开始扩展增强这个技能。

图:hermes-agent自我改进技能

在完成扩展后,它使用了修改后的技能对 json 日志进行分析:

图:hermes-agent分析k8s日志

以上整个过程,一行代码都不用写,全靠 hermes-agent 自己创建、改进技能。

04

结语:抓住大模型时代的职业机遇

AI大模型的发展不是“替代人类”,而是“重塑职业价值”——它淘汰的是重复性、低附加值的工作,却催生了更多需要“技术+业务”交叉能力的高端岗位。对于求职者而言,想要在这波浪潮中立足,不仅需要掌握Python、TensorFlow/PyTorch等技术工具,更要深入理解目标行业的业务逻辑(如金融的风险控制、医疗的临床需求),成为“懂技术、懂业务”的复合型人才。

无论是技术研发岗(如算法工程师、研究员),还是业务落地岗(如产品经理、应用工程师),大模型都为不同背景的职场人提供了广阔的发展空间。只要保持学习热情,紧跟技术趋势,就能在AI大模型时代找到属于自己的职业新蓝海。

最近两年大模型发展很迅速,在理论研究方面得到很大的拓展,基础模型的能力也取得重大突破,大模型现在正在积极探索落地的方向,如果与各行各业结合起来是未来落地的一个重大研究方向

大模型应用工程师年包50w+属于中等水平,如果想要入门大模型,那现在正是最佳时机

2025年Agent的元年,2026年将会百花齐放,相应的应用将覆盖文本,视频,语音,图像等全模态

如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!

扫描下方csdn官方合作二维码获取哦!

给大家推荐一个大模型应用学习路线

这个学习路线的具体内容如下:

第一节:提示词工程

提示词是用于与AI模型沟通交流的,这一部分主要介绍基本概念和相应的实践,高级的提示词工程来实现模型最佳效果,以现实案例为基础进行案例讲解,在企业中除了微调之外,最喜欢的就是用提示词工程技术来实现模型性能的提升

第二节:检索增强生成(RAG)

可能大家经常会看见RAG这个名词,这个就是将向量数据库与大模型结合的技术,通过外部知识来增强改进提升大模型的回答结果,这一部分主要介绍RAG架构与组件,从零开始搭建RAG系统,生成部署RAG,性能优化等

第三节:微调

预训练之后的模型想要在具体任务上进行适配,那就需要通过微调来提升模型的性能,能满足定制化的需求,这一部分主要介绍微调的基础,模型适配技术,最佳实践的案例,以及资源优化等内容

第四节:模型部署

想要把预训练或者微调之后的模型应用于生产实践,那就需要部署,模型部署分为云端部署和本地部署,部署的过程中需要考虑硬件支持,服务器性能,以及对性能进行优化,使用过程中的监控维护等

第五节:人工智能系统和项目

这一部分主要介绍自主人工智能系统,包括代理框架,决策框架,多智能体系统,以及实际应用,然后通过实践项目应用前面学习到的知识,包括端到端的实现,行业相关情景等

学完上面的大模型应用技术,就可以去做一些开源的项目,大模型领域现在非常注重项目的落地,后续可以学习一些Agent框架等内容

上面的资料做了一些整理,有需要的同学可以下方添加二维码获取(仅供学习使用)

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/25 10:31:57

成长型企业首选:2026年4款即开即用的企业培训系统深度评测

成长型企业正处于业务快速扩张与组织能力建设并行的关键阶段,员工数量持续增长、业务版图不断拓展、管理复杂度显著提升,传统的培训模式已难以满足企业高效培养人才、支撑业务发展的核心诉求。如何借助数字化培训系统快速提升员工能力、降低培训管理成本…

作者头像 李华
网站建设 2026/4/25 10:30:39

炉石传说脚本终极指南:快速实现自动化对战与卡组管理

炉石传说脚本终极指南:快速实现自动化对战与卡组管理 【免费下载链接】Hearthstone-Script Hearthstone script(炉石传说脚本) 项目地址: https://gitcode.com/gh_mirrors/he/Hearthstone-Script Hearthstone-Script是一款专业的炉石传…

作者头像 李华
网站建设 2026/4/25 10:28:46

GLM-5开源中文大模型:架构解析、本地部署与领域微调实战

1. 项目概述:一个面向中文优化的开源大语言模型最近在开源社区里,一个名为“GLM-5”的项目引起了我的注意。这个由zai-org组织发布的项目,定位非常清晰:它是一个专门为中文场景优化的大语言模型。如果你正在寻找一个能流畅处理中文…

作者头像 李华