pycharm安装gpu版pytorch
时间: 2025-06-20 07:56:21 浏览: 2
### 如何在PyCharm中安装GPU版本的PyTorch
#### 准备工作
为了能够在PyCharm中成功配置并使用带有GPU支持的PyTorch环境,首先需要确保宿主机上已正确安装CUDA工具包以及相应的驱动程序。对于特定的操作系统如Ubuntu 18.04, 可能还需要创建软链接以便让系统能够找到必要的库文件[^3]。
```bash
sudo ln -s /usr/local/cuda-10.0/lib64/libnvToolsExt.so.1 /home/hj/bin
sudo ldconfig
```
#### 创建Docker镜像与容器
考虑到兼容性和便捷性,推荐通过Docker来构建一个包含所需依赖项(包括PyTorch及其对应的CUDA版本)的工作环境。下面给出了一条用于启动具有GPU加速功能的PyTorch Docker容器实例的命令:
```bash
docker run --gpus all -p 23:22 -p 7777:8888 -it -v D:\:/root/data1 pytorch/pytorch:1.4-cuda10.1-cudnn7-runtime /bin/bash
```
这条指令不仅启用了所有的可用GPU资源给到容器内应用调用,还完成了SSH服务(端口23)和Jupyter Notebook服务器(端口7777对应于容器内的8888)[^1] 的外部访问映射。
#### 配置PyCharm连接远程解释器
一旦上述步骤顺利完成,则可以在PyCharm里按照官方文档指引设置新的Python解释器指向该Docker容器中的`/opt/conda/envs/<env_name>/bin/python`路径下的Python可执行文件。具体操作流程涉及打开项目设置(Project Settings),选择“Project Interpreter”,点击齿轮图标旁边的加号"+",选取“Add...”, 接着挑选“Docker”标签页下拉列表里的相应选项完成配置过程。
#### 使用ArgParse简化脚本参数管理
当准备就绪之后,在编写训练模型等相关代码时,可以通过引入内置模块`argparse`来自定义命令行接口,从而方便调整实验过程中涉及到的各种超参设定。例如学习率(`--lr`)、批量大小(`--batch_size`)等都可以作为命令行参数传递进来处理[^2]:
```python
import argparse
parser = argparse.ArgumentParser(description='Train a neural network.')
parser.add_argument('--lr', type=float, default=1e-4, help='learning rate')
parser.add_argument('--batch_size', type=int, default=32, help='mini-batch size')
args = parser.parse_args()
print(f'Learning Rate: {args.lr}, Batch Size: {args.batch_size}')
```
阅读全文
相关推荐


















