cuda缓存示意图

一、定义

  1. cuda 缓存示意图
  2. gpu 架构示意图
  3. gpu 内存访问示意图

二、实现

  1. cuda 缓存示意图
    在这里插入图片描述
    DRAM: 通常指的是GPU的显存,位于GPU芯片外部,通过某种接口(如PCIE)与GPU芯片相连。它是GPU访问的主要数据存储区域,用于存储大量的数据。
    L1: 缓存位于GPU芯片内部,靠近计算核心。L1缓存通常直接集成在每个计算单元(如流多处理器SM)内部。
    L2: 缓存位于GPU芯片内部,靠近计算核心。L2缓存则可能被多个计算单元共享。
    速度: L1>L2>DRAM
    容量: L1<<L2<DRAM
  2. gpu 架构示意图
    在这里插入图片描述
  3. gpu 内存访问示意图
    在这里插入图片描述

相关推荐

  1. cuda】四、基础概念:Cache Tiled 缓存分块技术

    2024-07-13 07:52:04       46 阅读
  2. cuda

    2024-07-13 07:52:04       45 阅读
  3. 缓存

    2024-07-13 07:52:04       60 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-13 07:52:04       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-13 07:52:04       72 阅读
  3. 在Django里面运行非项目文件

    2024-07-13 07:52:04       58 阅读
  4. Python语言-面向对象

    2024-07-13 07:52:04       69 阅读

热门阅读

  1. ref和reactive

    2024-07-13 07:52:04       24 阅读
  2. 如何在SQLServer中更改端口

    2024-07-13 07:52:04       24 阅读
  3. Bilibili Android一二面凉经(2024)

    2024-07-13 07:52:04       24 阅读
  4. CollectionUtils的使用

    2024-07-13 07:52:04       22 阅读
  5. hivehook 表血缘与字段血缘的解析

    2024-07-13 07:52:04       26 阅读
  6. 404/400、Flask、WSGI

    2024-07-13 07:52:04       23 阅读
  7. Tinker集成备忘录

    2024-07-13 07:52:04       18 阅读