cuda缓存示意图
- 开发
- 21
-
一、定义
- cuda 缓存示意图
- gpu 架构示意图
- gpu 内存访问示意图
二、实现
- cuda 缓存示意图
DRAM: 通常指的是GPU的显存,位于GPU芯片外部,通过某种接口(如PCIE)与GPU芯片相连。它是GPU访问的主要数据存储区域,用于存储大量的数据。
L1: 缓存位于GPU芯片内部,靠近计算核心。L1缓存通常直接集成在每个计算单元(如流多处理器SM)内部。
L2: 缓存位于GPU芯片内部,靠近计算核心。L2缓存则可能被多个计算单元共享。
速度: L1>L2>DRAM
容量: L1<<L2<DRAM
- gpu 架构示意图
- gpu 内存访问示意图
原文地址:https://blog.csdn.net/weixin_40777649/article/details/140377102
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。
本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:https://www.suanlizi.com/kf/1811911433177403392.html
如若内容造成侵权/违法违规/事实不符,请联系《酸梨子》网邮箱:1419361763@qq.com进行投诉反馈,一经查实,立即删除!