PyTorch核心--tensor 张量 !!

文章目录

前言

张量的概念

1. 张量的定义

2. 张量的属性

3. 张量的形状

张量的原理

1. 存储(storage)

2. 形状(shape)

3. 步幅(stride)

张量的操作

1. 数学运算

2. 逻辑运算

3. 索引和切片

4. 形状操作

5. 广播

总结


前言

在PyTorch中,张量是核心数据结构,它是一个多维数组,类似Numpy中的数组。张量不仅仅是存储数据的容器,还是进行各种数学运算和深度学习操作的基础。

下面从3个方面做一共总结:

  1. 张量的概念
  2. 张量的原理
  3. 张量的操作

张量的概念

1. 张量的定义

张量是一种多维数组,它可以是标量(零维数组)、向量(一维数组)、矩阵(二维数组)或具有更高维度的数组。

在PyTorch中,张量是tensor.Tensor 的实例,可以通过不同的方式创建,如直接从Python列表、Numpy数组或通过特定函数生成。

import torch

# 创建一个标量
scalar_tensor = torch.tensor(3.14)

# 创建一个向量
vector_tensor = torch.tensor([1, 2, 3])

# 创建一个矩阵
matrix_tensor = torch.tensor([[1, 2, 3], [4, 5, 6]])

# 创建一个3D张量
tensor_3d = torch.rand((2, 3, 4))  # 2行3列4深度

2. 张量的属性

每个张量都有一些重要的属性,包括形状(shape)、数据类型(dtype)和设备(device)。

# 获取张量的形状
shape = tensor_3d.shape

# 获取张量的数据类型
dtype = tensor_3d.dtype

# 获取张量所在的设备
device = tensor_3d.device

3. 张量的形状

张量的形状定义了其维度和每个维度上的大小。例如,形状为(2,3,4)的张量具有2行、3列和4个深度。形状对于理解和操作张量非常重要。

# 获取张量的形状
shape = tensor_3d.shape

# 改变张量的形状
reshaped_tensor = tensor_3d.view(3, 8)  # 将原始形状(2, 3, 4)变为(3, 8)

张量的原理

PyTorch中的张量是基于Tensor类实现的,它提供了对底层存储的抽象。

张量包含三个主要组件:

  • 存储(storage)
  • 形状(shape)
  • 步幅(stride)

1. 存储(storage)

存储是实际存储数据的地方,它是一块连续的内存区域。多个张量可以共享相同的存储,从而减少内存消耗。存储中的数据按照张量的形状进行排列。

# 获取张量的存储
storage = tensor_3d.storage()

2. 形状(shape)

张量的形状定义了其维度和每个维度上的大小。形状信息有助于解释存储中数据的组织方式。

# 获取张量的形状
shape = tensor_3d.shape

3. 步幅(stride)

步幅是指在存储中移动到下一个元素所需的步数。了解步幅有助于理解在张量中进行索引和切片时的性能。

# 获取张量的步幅
stride = tensor_3d.stride()

张量的操作

PyTorch提供了丰富的张量操作,包括数学运算、逻辑运算、索引和切片等。

这里列举最常见的几种操作:

1. 数学运算

# 加法
result_add = tensor_3d + 2

# 乘法
result_mul = tensor_3d * 3

# 矩阵乘法
matrix_a = torch.rand((2, 3))
matrix_b = torch.rand((3, 4))
result_matmul = torch.mm(matrix_a, matrix_b)

2. 逻辑运算

# 大小比较
result_compare = tensor_3d > 0.5

# 逻辑运算
result_logical = torch.logical_and(result_add, result_compare)

3. 索引和切片

# 索引
element = tensor_3d[0, 1, 2]

# 切片
sliced_tensor = tensor_3d[:, 1:3, :]

4. 形状操作

# 改变形状
reshaped_tensor = tensor_3d.view(3, 8)

# 转置
transposed_tensor = tensor_3d.transpose(0, 2)

5. 广播

广播是一种自动扩展张量的操作,使得形状不同的张量可以进行逐元素的数学运算。

# 广播
tensor_a = torch.rand((1, 3, 1))
tensor_b = torch.rand((2, 1, 4))
result_broadcast = tensor_a + tensor_b

总结

张量作为深度学习中的基本数据结构,对于理解和实现神经网络非常关键。

来源:DOWHA小壮

相关推荐

  1. PyTorch核心--tensor !!

    2024-01-13 12:42:03       30 阅读
  2. PyTorch(Tensor)的生成

    2024-01-13 12:42:03       24 阅读
  3. Pytorch简介】2.What are Tensors 什么是

    2024-01-13 12:42:03       34 阅读
  4. Pytorch常用函数用法归纳:创建tensor

    2024-01-13 12:42:03       6 阅读
  5. tensorflow中tensor

    2024-01-13 12:42:03       44 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-01-13 12:42:03       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-01-13 12:42:03       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-01-13 12:42:03       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-01-13 12:42:03       18 阅读

热门阅读

  1. AOSP 编译

    2024-01-13 12:42:03       33 阅读
  2. Spring整理-Spring Bean的生命周期

    2024-01-13 12:42:03       33 阅读
  3. Xbox无法登陆解决方式

    2024-01-13 12:42:03       113 阅读
  4. 【Node.js学习 day5——包管理工具】

    2024-01-13 12:42:03       34 阅读
  5. 正则表达式

    2024-01-13 12:42:03       23 阅读
  6. 浅谈Vue中的NextTick。

    2024-01-13 12:42:03       32 阅读
  7. 前端系列:正则表达式RegExp详解

    2024-01-13 12:42:03       29 阅读
  8. 什么是激励函数?

    2024-01-13 12:42:03       32 阅读
  9. Vue3 中 ref和reactive的区别是什么?

    2024-01-13 12:42:03       34 阅读
  10. 笙默考试管理系统-MyExamTest----codemirror(68)

    2024-01-13 12:42:03       26 阅读
  11. 记录spring boot 异常处理

    2024-01-13 12:42:03       36 阅读
  12. 《设计模式的艺术》笔记 - 单例模式

    2024-01-13 12:42:03       34 阅读