news 2026/4/23 15:32:35

【AI开发必备】Dify接入本地大模型实战指南,小白也能5分钟搞定!告别API收费,手把手教你搭建私有知识库!

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【AI开发必备】Dify接入本地大模型实战指南,小白也能5分钟搞定!告别API收费,手把手教你搭建私有知识库!

基于此,本文对上一篇内容做个补充,主要介绍Dify如何接入本地模型。

对于先前已经搭建好的知识库,需要简单调整。

一、Dify接入本地大模型

如何用Dify接入本地大模型?

需要查看本地是否用Ollama成功部署大模型。

1、 如果你已经在本地部署了大模型。

可以直接在主页->设置->模型供应商中全局配置

配置成功后可看到Ollama

2、如果本地还没有安装模型,

核心步骤如下:

1、下载安装Ollama

官网地址:https://ollama.com/download/windows

点击下载windows 版本,其它版本网上自行检索

2、双击运行

点下一步,无脑安装。

3、检测是否安装成功

windows+R ,输入命令

C:\Users\admin>ollama -v

出现相应的版本号即为安装成功

4、本地部署大模型

考虑到本地机器性能,以接入deepseek-r1为例,用Ollama部署

选取模型规格及参数

接入deepseek-r1:14b,看到发送消息这个对话提示就是安装成了

5、Dify接入本地大模型(重要!!!)

好了,现在用Ollama部署了本地大模型。

这里不在赘述。

到此,我们具备了以下条件:

  • Ollama本地部署deepseek大模型成功.
  • Docker 部署Dify成功

接下来正式操作如何接入本地模型?

关键点:这里需要填写以下内容

  • 基础 URL (Base URL):ollama部署的地址。
  • 模型名称:(必须与本地部署的大模型名字完全一致,个人使用的是deepseek-r1:14b,就配置)
  • 模型类型:对话 (Chat)上下文
  • 长度:4096 (根据显存情况调整)

踩坑!!!:如果你的 Ollama 跑在宿主机上,Dify 跑在 Docker 里,Base URL 千万别填 localhost!

正确姿势:

Mac/Win:http://host.docker.internal:11434Linux: http://172.17.0.1:11434 (Docker 网关 IP)

设置中可视化配置如下:

好了,到这里基本完成Dify本地接入大模型。

知识库配置本地模型

最后,回到知识库本地化模型配置。

详细配置修改如下:

1、点击进入已经建好的知识库

2、点击模型设置,选择本地模型

可以看到已显示本地部署的模型

3、测试验证

那么,如何系统的去学习大模型LLM?

作为一名深耕行业的资深大模型算法工程师,我经常会收到一些评论和私信,我是小白,学习大模型该从哪里入手呢?我自学没有方向怎么办?这个地方我不会啊。如果你也有类似的经历,一定要继续看下去!这些问题啊,也不是三言两语啊就能讲明白的。

所以我综合了大模型的所有知识点,给大家带来一套全网最全最细的大模型零基础教程。在做这套教程之前呢,我就曾放空大脑,以一个大模型小白的角度去重新解析它,采用基础知识和实战项目相结合的教学方式,历时3个月,终于完成了这样的课程,让你真正体会到什么是每一秒都在疯狂输出知识点。

由于篇幅有限,⚡️ 朋友们如果有需要全套 《2025全新制作的大模型全套资料》,扫码获取~

👉大模型学习指南+路线汇总👈

我们这套大模型资料呢,会从基础篇、进阶篇和项目实战篇等三大方面来讲解。

👉①.基础篇👈

基础篇里面包括了Python快速入门、AI开发环境搭建及提示词工程,带你学习大模型核心原理、prompt使用技巧、Transformer架构和预训练、SFT、RLHF等一些基础概念,用最易懂的方式带你入门大模型。

👉②.进阶篇👈

接下来是进阶篇,你将掌握RAG、Agent、Langchain、大模型微调和私有化部署,学习如何构建外挂知识库并和自己的企业相结合,学习如何使用langchain框架提高开发效率和代码质量、学习如何选择合适的基座模型并进行数据集的收集预处理以及具体的模型微调等等。

👉③.实战篇👈

实战篇会手把手带着大家练习企业级的落地项目(已脱敏),比如RAG医疗问答系统、Agent智能电商客服系统、数字人项目实战、教育行业智能助教等等,从而帮助大家更好的应对大模型时代的挑战。

👉④.福利篇👈

最后呢,会给大家一个小福利,课程视频中的所有素材,有搭建AI开发环境资料包,还有学习计划表,几十上百G素材、电子书和课件等等,只要你能想到的素材,我这里几乎都有。我已经全部上传到CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

相信我,这套大模型系统教程将会是全网最齐全 最易懂的小白专用课!!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 14:01:03

【专家亲授】Open-AutoGLM部署实战:仅需6步实现高效本地化运行

第一章:Open-AutoGLM本地化运行概述Open-AutoGLM 是一个基于 AutoGLM 架构的开源自动化语言模型工具,支持在本地环境中部署与运行,适用于私有化部署、数据隐私保护以及离线推理等场景。通过本地化运行,用户可完全掌控模型运行环境…

作者头像 李华
网站建设 2026/4/22 1:55:15

为什么你的Open-AutoGLM在Mac上跑不起来:深度解析系统级适配障碍

第一章:为什么你的Open-AutoGLM在Mac上跑不起来:深度解析系统级适配障碍在将开源项目 Open-AutoGLM 部署至 macOS 环境时,开发者常遭遇运行失败问题。这并非源于代码逻辑缺陷,而是由系统级差异引发的深层适配障碍。架构与指令集不…

作者头像 李华
网站建设 2026/4/23 8:32:16

Open-AutoGLM重试优化实战(专家级避坑手册,仅限内部分享)

第一章:Open-AutoGLM重试机制核心原理与演进Open-AutoGLM作为新一代自动化语言模型推理框架,其重试机制在保障请求稳定性与系统容错能力方面发挥着关键作用。该机制并非简单的次数叠加式重发,而是基于动态上下文感知的智能决策系统&#xff0…

作者头像 李华
网站建设 2026/4/23 8:32:45

从0到1部署Stanford CoreNLP:中英文模型配置与实战指南

引言:为什么需要Stanford CoreNLP? 在自然语言处理(NLP)领域,拥有一个强大、可靠的工具集至关重要。Stanford CoreNLP就是这样一个一站式NLP解决方案,它由斯坦福大学开发,提供了全面的NLP功能&a…

作者头像 李华
网站建设 2026/4/23 8:36:50

python基于AES的文件夹加密解密系统的设计与实现_n11215rb

文章目录具体实现截图主要技术与实现手段关于我本系统开发思路java类核心代码部分展示结论源码lw获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!具体实现截图 同行可拿货,招校园代理 python基于AES的文件夹加密解密系统的设计与实现_n11215r…

作者头像 李华
网站建设 2026/4/23 8:34:52

JMeter 常见易错问题

1、配置错误: 问题:线程组配置错误,例如设置了错误的线程数或循环次数。 解决方法:检查线程组的配置。确保线程数(即并发用户数量)设置正确,以及循环次数符合预期。如果要模拟不同类型的用户行…

作者头像 李华