如何离线安装CUDA toolkit for WSL
Tạo vào: 28 tháng 3, 2025
Tạo vào: 28 tháng 3, 2025
如何离线安装CUDA toolkit for WSL
离线安装 CUDA Toolkit for WSL (Windows Subsystem for Linux) 的步骤如下:
首先,你需要有一个能够运行 WSL 2 的 Windows 系统,并且安装了 NVIDIA 驱动程序和 CUDA 工具包的支持。确保你已经在系统上启用了 WSL 2,并且有 NVIDIA 显卡。
为了离线安装 CUDA,你需要在有网络连接的电脑上下载 CUDA Toolkit 的离线安装包。你可以 NVIDIA 官方网站来下载所需的 CUDA 版本。
将下载好的安装文件通过 U盘、文件共享、或者其他方式传输到你的 WSL 系统中。你可以将它放在 WSL 系统内的任意4. 安装依赖项 在 WSL 中打开终端,并确保安装了 CUDA 所需的依赖项。你可以通过运行以下命令来安装依赖项:
bashsudo apt-get update sudo apt-get install build-essential dkms
切换到包含 CUDA 安装包的目录,并运行以下命令:
bashsudo bash cuda_<version>_linux.run
请替换 <version>
为你下载的具体 CUDA 版本号。
在安装过程中,你会看到一些选项,确保选择了 Driver
和 Toolkit
,如果你已经安装了适当的驱动程序,你可以跳过安装驱动部分。
安装完成后,你需要设置 CUDA 的环境变量。你可以编辑 ~/.bashrc
文件,添加:
bashexport PATH=/usr/local/cuda-<version>/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-<version>/lib64:$LD_LIBRARY_PATH
请替换 <version>
为你安装的 CUDA 版本号。然后运行以下命令来使环境变量生效:
bashsource ~/.bashrc
可以通过以下命令验证 CUDA 是否成功安装:
bashnvcc --version
如果安装成功,它会显示 CUDA 的版本信息。
如果你需要使用 cuDNN,可以从 NVIDIA 官网 下载 cuDNN 的离线安装包,按照类似的方式安装。
完成上述步骤后,你应该能够在 WSL 上离线安装并运行 CUDA Toolkit。如果有任何问题或错误,检查安装过程中出现的提示信息,并确保所有步骤都已正确执行。
CUDA Toolkit 12.8 Downloads可否在一台电脑上下载,然后在另一台电脑上离线部署。请帮我规划详细方法。
可以的!你完全可以在一台联网电脑上下载 CUDA Toolkit 12.8 的安装文件,然后在另一台电脑(无网络)上进行 离线部署。
下面是完整的步骤规划,包括前期准备、下载、传输、安装和验证部分,确保你能成功离线部署 CUDA Toolkit 12.8,特别是在 WSL 或 Linux 系统中使用。
打开 NVIDIA 官方 CUDA 下载页面: 👉 https://developer.nvidia.com/cuda-12-8-0-download-archive
选择平台:
点击 Base Installer
链接,下载 .run
文件(例如 cuda_12.8.0_..._linux.run
)
可选:下载补充库(如 cuDNN):
.tgz
文件或 .deb
包将所有下载的文件(例如 .run
安装包、cuDNN 压缩包)整理到一个文件夹中,例如:
textcuda_12.8_offline/ ├── cuda_12.8.0_..._linux.run └── cudnn-linux-x86_64-8.x.x.x_cuda12-archive.tar.xz (如需要)
将下载好的 cuda_12.8_offline
文件夹通过以下方式传输到目标电脑(WSL或Linux):
/mnt/c/Users/YourName/cuda_offline
访问)bashsudo apt update sudo apt install build-essential dkms
确保有 gcc/g++ 编译环境。
进入安装包所在目录:
bashcd /path/to/cuda_12.8_offline chmod +x cuda_12.8.0_..._linux.run sudo ./cuda_12.8.0_..._linux.run
在安装交互过程中,你可以选择:
📌 注意:在 WSL 上,NVIDIA 驱动应该安装在 Windows 上,而不是在 WSL 内安装。
编辑你的 shell 配置文件(比如 .bashrc
):
bashexport PATH=/usr/local/cuda-12.8/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH
应用配置:
bashsource ~/.bashrc
如果你需要 cuDNN 加速深度学习:
bashtar -xvf cudnn-linux-x86_64-8.x.x.x_cuda12-archive.tar.xz cd cudnn-*-archive sudo cp include/* /usr/local/cuda/include/ sudo cp lib/* /usr/local/cuda/lib64/
bashnvcc --version
检查是否输出 CUDA 12.8 的版本信息。
也可以运行示例程序:
bashcd /usr/local/cuda-12.8/samples sudoj$(nproc) cd bin/x86_64/linux/release ./deviceQuery
输出中应有 "Result = PASS"
,表示 CUDA 安装成功并可用。
步骤 | 要点 |
---|---|
下载 | 使用 .run 安装器确保离线安装可行 |
环境变量 | 正确配置 PATH 和 LD_LIBRARY_PATH |
驱动 | CUDA Toolkit 安装时不安装 NVIDIA 驱动 |
cuDNN | 可以提前下载并用 tar 包手动部署 |
如果你告诉我你使用SL 版本,我还可以给你更精准的命令或安装包建议。
需要我帮你生成具体的 shell 安装脚本吗?
我在windows上安装cuda toolkit还不行吗
可以!你完全可以在 Windows 上安装 CUDA Toolkit,而且在很多场景下(比如直接用 TensorFlow、PyTorch for Windows、或进行本地开发)安装在 Windows 上是非常合理的做法。
不过你提到的是 “WSL + 离线安装 CUDA Toolkit”,所以我之前是按照 Linux/WSL 的路径给你详细写的。
现在我们来明确两种不同的情况:
这是完全可行的,并且安装方法和离线部署也是可以规划的。以下是详细步骤:
选择如下选项:
下载:
将 .exe
或 .zip
文件通过 U盘、移动硬盘、或文件共享方式传到目标 Windows 电脑。
.exe (local)
安装器:cuda_12.8.xxx_windows.exe
下载对应 CUDA 12.8 的 cuDNN 压缩包(需登录 NVIDIA 开发者账户):
解压 cuDNN 后,将内容复制到 CUDA Toolkit 安装路径下(通常是 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\
):
bin
→ C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v12.8\bin
include
→ 同名路径lib
→ 同名路径打开 cmd
或 PowerShell,输入:
bashnvcc --version
或者在 Start
菜单找到 "NVIDIA Nsight Compute" 等开发工具。
项目 | 安装在 Windows | 安装在 WSL |
---|---|---|
场景 | 原生 Windows 深度学习、CUDA开发 | Linux 环境(WSL)下的开发 |
安装方式 | .exe (local) ,图形界面安装 | .run 文件,命令行安装 |
cuDNN | 拷贝到 Windows CUDA 目录 | 拷贝到 /usr/local/cuda 下 |
使用 PyTorch/TensorFlow | 可用 Windows 版本 | 推荐使用 Linux 版本 |
🔹所以你的选择取决于:你要用 CUDA 的地方是在 Windows 还是 WSL。
需要我帮你列出 Windows CUDA Toolkit 12.8 的官方下载链接?或者直接帮你生成 Windows 安装清单?
如果我要用windows内部的wsl去使用gpu,是不是必须安装wsl的cudatoolkit
好问题!这个是很多人搞混的地方,我们来彻底理清:
是的,如果你要在 WSL (Ubuntu 等) 内部使用 GPU 跑 CUDA 或深度学习任务,你必须在 WSL 内部安装 CUDA Toolkit。
不过,这里有个关键点:
WSL 中使用 GPU 的前提 是:** Windows 上已正确安装支持 CUDA 的 NVIDIA 驱动**,但WSL 内还需要安装 CUDA 工具包(Toolkit)本身。
位置 | 安装内容 | 是否必须 | 作用 |
---|---|---|---|
Windows | NVIDIA GPU 驱动(包括 WSL 支持) | ✅ 必须 | 提供对显卡的访问能力,WSL GPU 接口靠它 |
WSL (Ubuntu 等) | CUDA Toolkit | ✅ 必须 | 提供 nvcc 、libcudart.so 等开发库,供 PyTorch、TensorFlow 使用 |
假设你已经:
你在 WSL 中运行如下代码:
pythonimport torch print(torch.cuda.is_available())
libcuda.so
或某些 runtimeWindows 上安装 GPU 驱动(支持 WSL)
WSL 中安装 CUDA Toolkit(比如 CUDA 12.8)
.run
文件拷贝进去安装(我们前面讲了)在 WSL 中配置好环境变量
bashexport PATH=/usr/local/cuda-12.8/bin:$PATH export LD_LIBRARY_PATH=/usr/local/cuda-12.8/lib64:$LD_LIBRARY_PATH
在 WSL 内部 运行:
bashn信息(如 RTX 3080、驱动版本等),说明 WSL 能访问 GPU。 然后用以下命令验证 CUDA 是否可用: ```bash nvcc --version # 查看 CUDA Toolkit 版本 deviceQuery # 在 /usr/local/cuda/samples 编译运行测试
要点 | 是否需要 |
---|---|
Windows 上安装 GPU 驱动 | ✅ 是,必须的 |
WSL 内安装 CUDA Toolkit | ✅ 是,必须的 |
Windows 上安装 CUDA Toolkit | ❌ 可选(只在你要在 Windows 运行 CUDA 时需要) |
如果你还没安装 WSL 内的 CUDA Toolkit,我可以帮你生成完整的命令或安装脚本。要不要我帮你搭一套?