news 2026/4/23 13:28:05

【保姆级】Ollama下载安装教程:Windows本地部署大模型(Llama3/Qwen/DeepSeek)全攻略

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【保姆级】Ollama下载安装教程:Windows本地部署大模型(Llama3/Qwen/DeepSeek)全攻略

一、 为什么选择 Ollama?

作为一名折腾过 HuggingFace Transformers、LangChain 的老鸟,我深知本地部署大模型的痛苦:显卡驱动冲突、依赖包版本地狱、动辄几十 GB 的权重文件下载……

Ollama 的出现,简直是降维打击。

它将模型权重、配置和推理引擎打包成一个“Modelfile”,就像 Docker 镜像一样。你不需要写一行 Python 代码,只需要一行命令 ollama run llama3,就能在本地跑起 8B 甚至 70B 的大模型。它支持 CPU/GPU 混合推理,对显存不足的个人电脑极其友好。


二、 Ollama 下载安装教程(Windows 篇)

Ollama 的官方服务器在海外,国内直连下载经常出现速度极慢或连接中断的情况。为了方便大家,这里提供最新版、经过毒霸安全认证的Windows 64位 安装包高速直链

1. 获取安装包

⬇️ Ollama Windows 安装包 (高速镜像)

👉 点击下载 Ollama 最新版安装包 (.exe)

2. 安装步骤

Windows 版的安装非常简单,几乎是“傻瓜式”的,但有一个细节需要注意。

1.双击运行下载好的 ollama.exe。

2.点击 Install。软件默认会安装到 C:\Users\你的用户名\AppData\Local\Programs\Ollama。

  • 注意:目前官方安装包暂不支持在 GUI 界面选择安装路径(这是很多人的槽点),但不用担心,安装并不大,占用空间的是模型文件,我们后面可以通过环境变量修改模型路径。

3.安装完成后,Ollama 会自动在后台静默运行,并在任务栏右下角出现一个小羊驼图标。

3. 验证安装

打开CMD (命令提示符)PowerShell,输入以下命令:

codeBash

ollama --version

如果输出了类似 ollama version is 0.5.x 的版本号,说明安装成功,环境变量也已自动配置好。


三、 快速上手:运行你的第一个大模型

安装好后,我们来跑一个模型试试。目前最火的开源模型非 Meta 的Llama 3和阿里的Qwen (通义千问)莫属。

1. 拉取并运行模型

在终端中输入以下命令即可自动下载并运行:

运行 Llama 3 (8B 版本):

codeBash

ollama run llama3

运行 Qwen 2.5 (适合中文场景):

codeBash

ollama run qwen2.5
  • 说明:第一次运行会自动从镜像站拉取模型文件(通常几 GB),速度取决于你的带宽。下载完成后,会自动进入交互式对话界面。

  • 退出对话:输入 /bye 并回车即可退出。

2. 常用命令速查表

作为开发者,这几个命令必须熟记:

命令描述示例
ollama pull [模型名]仅下载模型但不运行ollama pull llama3
ollama list查看本地已安装的模型列表ollama list
ollama rm [模型名]删除本地模型(释放空间)ollama rm llama3
ollama serve启动 API 服务(默认端口 11434)ollama serve

四、 进阶配置:解决 C 盘爆满问题(核心干货)

这是本篇Ollama 下载安装教程中含金量最高的部分。
默认情况下,Ollama 会把下载的动辄几十 GB 的模型文件存放在 C:\Users\你的用户名\.ollama\models。对于 C 盘只有 100G 的用户来说,拉两个模型 C 盘就红了。

解决方案:通过环境变量更改存储路径。

步骤如下:

  1. 关闭 Ollama:在任务栏右下角右键点击 Ollama 图标,选择 Quit Ollama(必须彻底退出,否则配置不生效)。

  2. 打开环境变量设置:

    • 右键“此电脑” -> 属性 -> 高级系统设置 -> 环境变量。

  3. 新建系统变量:

    • 在“系统变量”区域(不是用户变量),点击“新建”。

    • 变量名:OLLAMA_MODELS

    • 变量值:D:\AI_Models (这里填写你想存放模型的非系统盘路径)。

  4. 重启服务:

    • 重新双击 Ollama 启动程序。

    • 验证:以后下载的模型就会自动存入 D 盘了,再也不用担心 C 盘爆红。


五、 开发者应用:API 调用与 WebUI 集成

Ollama 不仅仅是个聊天工具,它更是一个标准的 API 服务端。

1. 本地 API 调用

Ollama 默认在 localhost:11434 开启服务。你可以用 Python 极其简单地调用它:

codePython

import requests import json url = "http://localhost:11434/api/generate" data = { "model": "llama3", "prompt": "用Python写一个冒泡排序", "stream": False } response = requests.post(url, json=data) print(response.json()['response'])

这段代码意味着你可以把大模型接入到你自己的 ERP、网站或者自动化脚本中。

2. 推荐 WebUI:Open WebUI

如果你不喜欢黑乎乎的命令行,想要类似 ChatGPT 那样的漂亮界面,推荐安装Open WebUI(需要 Docker)。
或者使用更轻量的Chatbox客户端,直接在设置里将 API 地址填为 http://localhost:11434 即可连接。


六、 常见问题排查 (Troubleshooting)

Q1: 下载模型速度极慢,经常超时?
A: 这是网络问题。可以尝试配置系统代理,或者寻找国内的 Ollama 镜像源加速。当然,确保你安装的是本文提供的高速安装包能解决软件本身的更新问题。

Q2: 显存不足,运行大模型卡顿?
A: Ollama 默认是 FP16 精度。你可以尝试下载量化版本(Quantized),比如 4-bit 版本。
命令:ollama run llama3:8b-instruct-q4_0。量化后的模型对显存要求大幅降低,8G 显存就能跑得很欢。

Q3: 能够对外网提供服务吗?
A: 默认 Ollama 绑定的是 127.0.0.1。如果想让局域网其他电脑访问,需要设置环境变量 OLLAMA_HOST 为 0.0.0.0。


七、 总结

Ollama 是目前本地部署 LLM 的最优解,没有之一。它屏蔽了底层复杂的 CUDA 和 PyTorch 依赖,让开发者能专注于应用层的创新。

通过这篇Ollama 下载安装教程,你应该已经成功在 Windows 上跑通了第一个大模型,并解决了模型存储路径的隐患。接下来,无论是做 RAG(知识库检索)、做 Agent(智能体),还是单纯用来写代码,Ollama 都是你得力的助手。

附件下载:
Ollama Windows 官方最新版安装包 (高速直链)https://dubapkg.cmcmcdn.com/cs/257def/ollama.exe


版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 6:45:37

希象传屏下载安装教程(最新完整图文流程 + 使用配置指南

前言 在多屏协作、投屏演示、无线会议等场景中,“希象传屏”是一款被众多企业用户与教育机构广泛采用的跨平台投屏工具。它支持手机、平板、电脑等终端之间的高速无线投屏,可实现实时低延迟画面传输,便于展示内容与远程协作。 本文将为你提…

作者头像 李华
网站建设 2026/4/23 6:44:41

Vbot维他动力发布全球首款无需遥控的超能机器狗,开启消费级具身智能时代

12 月 23 日,国内首个消费级具身智能公司Vbot维他动力举行产品发布会,正式推出面向家庭和个人的消费级具身智能产品—Vbot 超能机器狗,售价12,988元,限时直降3,000元,创始权益价9,988元。作为全球首款无需遥控的智能机器狗,Vbot 超能机器狗能自主完成全场景随行、载物、跟拍等多…

作者头像 李华
网站建设 2026/4/23 8:17:18

百考通AI:告别“凑字数”烦恼,一键生成专业实践报告,让实习成果闪闪发光!

对于每一位即将毕业或正在实习的学子而言,“实践报告”是连接校园与职场的一座重要桥梁。它不仅是对实习经历的总结与反思,更是向学校、向未来雇主展示个人能力、专业素养和成长轨迹的关键凭证。然而,面对堆积如山的实习任务和繁重的学业压力…

作者头像 李华
网站建设 2026/4/23 8:17:30

打通信息孤岛:PDM与ERP集成的核心策略与价值

数据一旦流动起来,便能串联起从设计到生产的全价值链;一旦停滞,便成为企业沉重的数字负债。“数据像水一样,在部门间顺畅流动时创造价值,在孤岛中停滞时则成为负担。”某制造企业 CIO 李伟对此深有感触。在他的团队完成…

作者头像 李华
网站建设 2026/4/23 8:17:29

宇视IPSAN系统空间满问题排查方法

宇视IPSAN系统空间满问题排查方法一.问题现象存储设备在正常使用的过程中,突然发现无法正常运行了,服务也无法启动。遇到这种情况,很有可能是存储空间满了导致。二.组网以设备CX1824-V2为例,存储版本为IPSA…

作者头像 李华
网站建设 2026/4/23 8:18:47

矩阵Cholesky 分解在SLAM,目标检测,图像特征方面的应用

矩阵Cholesky分解是一种针对对称正定矩阵的高效分解方法,其核心思想是将矩阵分解为一个下三角矩阵和其转置的乘积(ALLTA LL^TALLT),在SLAM、目标检测和图像特征提取领域具有重要应用,具体如下: 1. SLAM&am…

作者头像 李华