深度学习pycharm开启GPU
时间: 2025-07-06 18:50:18 浏览: 8
### 配置PyCharm中的深度学习环境以启用GPU支持
#### 创建Python虚拟环境
为了确保项目的独立性和稳定性,在开始之前应该先创建一个新的Python虚拟环境。这可以通过Anaconda来完成,因为其提供了方便的包管理和环境管理工具。
```bash
conda create --name deep_learning_env python=3.6
```
激活新创建的环境:
```bash
conda activate deep_learning_env
```
#### 安装必要的库和支持软件
对于想要利用GPU加速的应用程序来说,安装NVIDIA的CUDA Toolkit以及cuDNN是非常重要的。然而,如果选择的是预编译版本的PyTorch,则不需要手动安装这些组件,因为它们已经被集成到了特定版本之中[^1]。
接着可以直接通过`conda`命令从阿里云镜像源快速获取适合当前系统的PyTorch及其依赖项:
```bash
conda install pytorch torchvision torchaudio cudatoolkit=10.2 -c pytorch -c http://mirrors.aliyun.com/anaconda/cloud/pytorch/
```
上述操作会自动处理好所有的依赖关系,并设置好相应的路径以便于后续开发工作能够顺利调用到所需的资源[^5]。
#### 设置PyCharm解释器
打开PyCharm之后,进入文件菜单下的Settings选项(或者Preferences),找到Project Interpreter部分。点击齿轮图标旁边的加号按钮,选择Add... 。在这里可以选择现有的Conda Environment或者是新建一个基于刚才所建立的那个名为`deep_learning_env` 的环境作为此项目的默认解释器[^4]。
#### 测试配置是否成功
最后一步是在项目里编写一段简单的测试代码来验证一切正常运作。下面是一个用于确认PyTorch能否检测到可用的GPU设备的小例子:
```python
import torch
if __name__ == "__main__":
device = "cuda" if torch.cuda.is_available() else "cpu"
print(f"Using {device} device.")
# 打印出所有已连接的GPU信息
print(torch.cuda.get_device_name(0))
```
运行这段脚本后应当能看到输出显示正在使用的硬件为CUDA而非CPU,同时也应能看见具体的图形处理器名称被打印出来,表明整个过程顺利完成并且可以正常使用GPU来进行计算任务了。
阅读全文
相关推荐


















