news 2026/4/23 11:43:55

RK3588 板端离线部署 Ollama + Qwen3:0.6B

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
RK3588 板端离线部署 Ollama + Qwen3:0.6B

RK3588 板端离线部署 Ollama + Qwen3:0.6B

(Ubuntu 24.04 / aarch64 / systemd)

适用于 RK3588 / RK3568 等64 位 ARM(aarch64)板卡
适合离线 / 内网环境


1️ 确认系统架构与系统版本

1.1 确认 CPU 架构

uname-m

期望输出:

aarch64

若不是aarch64,请不要继续,Ollama 二进制将无法运行,请选择对应的版本。


1.2 确认系统版本

cat/etc/os-release|head

示例输出:

PRETTY_NAME="Ubuntu 24.04.3 LTS" VERSION="24.04.3 LTS (Noble Numbat)" VERSION_CODENAME=noble
结论:
  • 架构:aarch64(64 位 ARM)
  • 系统:Ubuntu 24.04 LTS
  • 需要使用ollama-linux-arm64.tgz

2️ 准备:下载并放置 Ollama 安装包

2.1 下载 Ollama(ARM64 版本)

注意:不要下载 amd64 版本

curl-fL-oollama-linux-arm64.tgz\https://ollama.com/download/ollama-linux-arm64.tgz
  • 文件大小约2 GB
  • 离线环境可在其他机器下载后拷贝到板子
  • 在浏览器可以点击https://ollama.com/download/ollama-linux-arm64.tgz
    下载,再移动到板端对应目录。

2.2 创建目录并放置安装包

mkdir-p~/llmcd~/llmls-lh

确认能看到:

ollama-linux-arm64.tgz

3️ 安装 Ollama(二进制方式)

3.1 解压到系统目录/usr

cd~/llmsudotar-zxvfollama-linux-arm64.tgz-C/usr

3.2 校验 Ollama 是否可执行

ls-l/usr/bin/ollama /usr/bin/ollama--version

若看到版本号输出,说明二进制正常


4️ 配置 systemd 服务(开机自启)

4.1 创建服务文件

sudovim/etc/systemd/system/ollama.service

填入以下内容:

[Unit] Description=Ollama Service After=network-online.target Wants=network-online.target [Service] Type=simple ExecStart=/usr/bin/ollama serve User=pi #替换为你的用户名 Group=adm #替换为你的用户组 Restart=always RestartSec=3 Environment=PATH=/usr/bin:/usr/local/bin [Install] WantedBy=multi-user.target

说明:

  • User=pi:请确认该用户存在(RK 官方镜像通常为 pi)
  • 若使用root,可改为User=root

4.2 启动并设置开机自启

sudosystemctl daemon-reloadsudosystemctlenable--nowollama

4.3 确认服务状态

systemctl status ollama

看到Active: active (running)即成功。


5️ 拉取并运行 Qwen3:0.6B(CPU 可跑)

5.1 拉模型

ollama pull qwen3:0.6b

首次拉取需联网
离线环境可提前在其他机器下载模型目录再拷贝


5.2 运行模型(交互模式)

ollama run qwen3:0.6b

进入交互后可直接对话,退出方式:

Ctrl + D

6 参考文献

  • https://docs.ollama.com/linux#manual-install
  • http://githubgithub.com/ollama/ollama
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 1:46:33

ssm家教郑州成功 vue

目录SSM家教与Vue技术在郑州的成功应用开发技术核心代码参考示例1.建立用户稀疏矩阵,用于用户相似度计算【相似度矩阵】2.计算目标用户与其他用户的相似度总结源码文档获取/同行可拿货,招校园代理 :文章底部获取博主联系方式!SSM家教与Vue技术…

作者头像 李华
网站建设 2026/4/18 7:48:55

0x3f第21天复习 (9:50-11.30)(16:10-16:33)

子串基础前缀和3min ac思考和为k的子数组10min x小遗忘 10min遗忘10min x核心问题 10min x依旧不会两数之和 10min 细节错误 1min ac字母异位词分组10min ac1min ac最长连续序列5min ac1min ac移动零3min x1min ac无重复字符的最长子串1min ac思考找到字符串中所有字母异位…

作者头像 李华
网站建设 2026/4/16 7:48:17

GLM-TTS实时推理性能测试:每秒25 token的实际表现

GLM-TTS实时推理性能测试:每秒25 token的实际表现 在智能语音交互日益普及的今天,用户对“像人一样说话”的AI系统提出了更高要求——不仅要自然、有情感,更要快得无感。想象一下:当你向语音助手提问后,等待三五秒才听…

作者头像 李华
网站建设 2026/4/23 9:58:15

MyBatisPlus在生产环境中的常见陷阱与优化实践

随着微服务与云原生架构的广泛应用,数据规模已从百万级跃升至亿级,ORM框架的选择与配置成为影响系统稳定性的关键因素。MyBatisPlus以其“简化开发、增强功能”的定位迅速获得广泛采纳。然而,其诸多默认配置往往基于理想化环境设计&#xff0…

作者头像 李华
网站建设 2026/4/20 19:41:14

播客制作新工具:基于GLM-TTS的自动语音朗读系统

播客制作新工具:基于GLM-TTS的自动语音朗读系统 在播客内容持续爆发的今天,越来越多创作者面临一个现实困境:高质量音频产出的速度,远远跟不上创意和市场需求。请嘉宾、反复录制、后期修音……每一步都在消耗时间与精力。而当主理…

作者头像 李华