news 2026/5/4 22:58:30

03ab-PyTorch安装教程 [特殊字符]

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
03ab-PyTorch安装教程 [特殊字符]

03ab-PyTorch安装教程 📚

章节阅读路线图 🗺️

1. 概述

2. 安装前准备

3. CPU版本安装

4. GPU版本安装

5. 验证安装

阅读顺序说明

  • 第1章 → 第2章:先了解PyTorch是什么以及安装前需要准备什么
  • 第2章 → 第3章:准备好环境后,根据需求选择CPU或GPU版本
  • 第3章 → 第4章:CPU版本简单,GPU版本需要额外配置CUDA
  • 第4章 → 第5章:装完必须验证是否正常工作

1. 概述 📝

PyTorch是一个由Facebook开发的开源深度学习框架,从2016年发布至今已经成为学术界和工业界最受欢迎的深度学习工具之一。相比TensorFlow,PyTorch的最大特点是动态计算图,这意味着你可以在代码运行时随时改变网络结构,调试起来非常方便。

我们这个系列主要学习Transformer,而Transformer的代码实现离不开PyTorch。接下来的几节,我会手把手教你把PyTorch环境搭好。

2. 安装前准备 ⚙️

在安装PyTorch之前,我们需要先确认两件事:你有没有NVIDIA显卡、你用的是什么包管理工具。

2.1 检查NVIDIA显卡 🔍

打开命令提示符,输入以下命令:

nvidia-smi

如果你的电脑有NVIDIA显卡,会看到类似这样的输出:

+-----------------------------------------------------------------------------------------+ | NVIDIA-SMI 572.83 Driver Version: 572.83 CUDA Version: 12.8 | |-----------------------------------------+------------------------+----------------------+ | GPU Name Driver-Model | Bus-Id Disp.A | Volatile Uncorr. ECC | |=========================================+========================+======================| | 0 NVIDIA GeForce RTX 4060 ... WDDM | 00000000:01:00.0 Off | N/A | +-----------------------------------------------------------------------------------------+

🔴注意:如果你看到"CUDA Version: 12.8",说明你的显卡驱动支持CUDA 12.8。安装PyTorch时,CUDA版本不能超过这个数字。

如果你没有看到任何NVIDIA相关输出,说明你的电脑没有NVIDIA显卡,只能安装CPU版本。

2.2 选择包管理工具 📦

Windows上常用的Python包管理工具主要有两种:

pip(推荐新手):Python官方的包管理器,简单直接,安装命令一学就会。

conda:Anaconda自带的包管理器,功能强大,但需要额外学习环境管理命令,新手可以先跳过。

新手先用pip把PyTorch装上,跑通代码后再学conda也不迟。

3. CPU版本安装 💻

CPU版本安装最简单,适合没有NVIDIA显卡的同学,或者只是跑一些小模型练手。

3.1 检查Python版本 🐍

PyTorch要求Python版本在3.9以上。打开命令提示符检查:

python--version

如果版本低于3.9,需要先升级Python。建议安装Python 3.10或3.11。

3.2 安装PyTorch 🔧

使用pip安装(推荐):

# CPU版本pipinstalltorch==2.10.0torchvision==0.25.0torchaudio==2.10.0 --index-url https://download.pytorch.org/whl/cpu

💡提示:具体的pip安装命令,请前往PyTorch官方历史版本页面查找,页面上会根据你的需求提供对应的命令。

如果网络比较慢,可以使用国内镜像加速:

pipinstalltorch==2.10.0torchvision==0.25.0torchaudio==2.10.0-ihttps://pypi.tuna.tsinghua.edu.cn/simple

如果镜像速度也不行,可以参考03aa-PyTorch迅雷加速下载小妙招(CSDN版),用迅雷下载.whl文件本地安装。

4. GPU版本安装 🔧

GPU版本可以加速深度学习训练,比CPU快几十倍不止。只有NVIDIA显卡才能使用GPU版本,如果你没有NVIDIA显卡,请跳过这节,直接看第五章验证安装。

4.1 安装CUDA Toolkit 🔧

首先用nvidia-smi查看你的显卡驱动支持什么版本的CUDA。

下载地址:https://developer.nvidia.com/cuda-downloads

下载对应版本后,打开下载页面,按以下选择(以Windows 11 x86_64为例):

  • Operating System:Windows
  • Architecture:x86_64(64位系统)
  • Version:Windows 11(根据你的系统选择)
  • Installer Type:推荐选exe (local)(本地安装包,包含所有组件)

然后点击Download下载。下载完后双击安装包,按照提示一路下一步即可。安装完成后,打开命令提示符验证:

nvcc-V

看到类似输出就说明安装成功:

nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2026 NVIDIA Corporation Built on Thu_Mar_19_22:28:55_Pacific_Daylight_Time_2026 Cuda compilation tools, release 13.2, V13.2.78 Build cuda_13.2.r13.2/compiler.37668154_0

4.2 安装PyTorch GPU版本 🚀

根据你的CUDA版本选择安装命令:

# CUDA 12.6pipinstalltorch==2.10.0torchvision==0.25.0torchaudio==2.10.0 --index-url https://download.pytorch.org/whl/cu126

💡提示:具体的pip安装命令,请前往PyTorch官方历史版本页面查找,页面上会根据你的CUDA版本提供对应的命令。

5. 验证安装 ✅

不管你安装的是CPU还是GPU版本,都需要验证一下是否正常工作。

5.1 基础验证 🧪

进入Python环境,输入以下代码:

importtorch# 打印PyTorch版本print(f"PyTorch版本:{torch.__version__}")# 检查CUDA是否可用print(f"CUDA是否可用:{torch.cuda.is_available()}")# 创建一个随机张量测试x=torch.rand(5,3)print("随机张量测试:")print(x)

如果输出正常,说明PyTorch已经安装成功。

5.2 GPU验证 🔍

如果你安装的是GPU版本,还需要额外验证:

importtorchprint(f"CUDA是否可用:{torch.cuda.is_available()}")print(f"当前设备:{torch.cuda.current_device()}")print(f"设备名称:{torch.cuda.get_device_name(0)}")print(f"CUDA版本:{torch.version.cuda}")

如果torch.cuda.is_available()返回True,说明GPU已经可以用了。


最后更新时间:2026-05-03

参考资料

  • PyTorch官方历史版本安装页面 – PyTorch
  • PyTorch官方Windows安装指南 – GitHub
  • PyTorch 2025保姆级安装教程 – CSDN
  • 2025年Windows最新Pytorch安装教程 – CSDN
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/4 22:58:28

2026届最火的降重复率网站推荐榜单

Ai论文网站排名(开题报告、文献综述、降aigc率、降重综合对比) TOP1. 千笔AI TOP2. aipasspaper TOP3. 清北论文 TOP4. 豆包 TOP5. kimi TOP6. deepseek 目前,市场当中有着好些意在降低文本AI检测比率的在线工具,这些网站&a…

作者头像 李华
网站建设 2026/5/4 22:57:28

RouteMoA:提升大规模语言模型效率的动态路由技术

1. 项目概述在大规模语言模型应用场景中,模型路由技术正成为提升计算效率的关键突破口。RouteMoA(Mixture of Agents Routing)作为新一代智能路由框架,通过动态分配任务到最适合的子模型,实现了计算资源的高效利用。这…

作者头像 李华
网站建设 2026/5/4 22:50:32

多模态大语言模型视觉推理中的注意力优化实践

1. 项目背景与核心挑战多模态大语言模型(MLLM)在视觉推理任务中面临的核心难题是注意力分散问题。当模型同时处理文本和视觉输入时,传统的注意力机制往往难以在复杂场景中准确聚焦关键信息。我在实际项目中发现,即使是当前最先进的…

作者头像 李华
网站建设 2026/5/4 22:46:28

在 OpenClaw 项目中通过 CLI 快速写入 Taotoken 配置

在 OpenClaw 项目中通过 CLI 快速写入 Taotoken 配置 1. 准备工作 在开始配置之前,请确保已安装 OpenClaw 开发环境并创建项目。同时需要准备好 Taotoken 的 API Key,可在 Taotoken 控制台的「API 密钥」页面生成。模型 ID 可在「模型广场」查看&#…

作者头像 李华