PyTorch环境配置问题

为什么深度学习都是用英伟达的显卡?

首先我们需要了解什么是CUDA?

CUDA(Compute Unified Device Architecture),是显卡厂商 NVIDIA 推出的运算平台。

CUDA就类似于编程语言,开发者和显卡通过CUDA进行交流,开发者用CUDA去操作英伟达显卡,可以给显卡发送各种各样的指令。然而,像PyTorch和Tensorflow这种深度学习的库,本质就是从上一级,调用CUDA的库,随后将我们需要处理的数据交给GPU(显卡)去处理,以此达到加快深度学习网络的训练。

在安装好anaconda之后,开发者需要去根据python的版本、PyTorch的版本、CUDA runtime version版本、CUDA driver version版本。

其中最关键的是,CUDA runtime version 的版本要小于等于 CUDA driver version。

这里CUDA runtime version是支持显卡对应的算力。

通过 anaconda 的 命令行界面输入 nVidia-smi

查找到CUDA runtime version,此处我的是12.4

所以再去pytorch官网找小于12.4的版本。直接下载即可

相关推荐

  1. pytorch环境配置

    2024-04-13 03:10:02       41 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-04-13 03:10:02       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-04-13 03:10:02       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-04-13 03:10:02       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-04-13 03:10:02       18 阅读

热门阅读

  1. 桶排序:原理、实现与应用场景详解

    2024-04-13 03:10:02       13 阅读
  2. LeetCode 1. Two Sum

    2024-04-13 03:10:02       14 阅读
  3. 记录一次关于线程池任务编排和共享数据的尝试

    2024-04-13 03:10:02       12 阅读
  4. [AIGC] 分布式锁及其实现方式详解与Python代码示例

    2024-04-13 03:10:02       17 阅读
  5. Python学习入门(1)——基础语句

    2024-04-13 03:10:02       15 阅读
  6. ubuntu添加环境变量

    2024-04-13 03:10:02       16 阅读
  7. vue 事件$on,$off的注意事项

    2024-04-13 03:10:02       15 阅读
  8. Spring WebFlux响应式实现WebFilter解决跨域问题

    2024-04-13 03:10:02       16 阅读
  9. C++类引用的好处

    2024-04-13 03:10:02       15 阅读