神经网络学习2

张量(Tensor)是深度学习和科学计算中的基本数据结构,用于表示多维数组。张量可以看作是一个更广义的概念,涵盖了标量、向量、矩阵以及更高维度的数据结构。具体来说,张量的维度可以是以下几种形式:
标量(0维张量):
一个单一的数值。
例如:3.0。
向量(1维张量):
一维数组,即一个数值的列表。
例如:[1.0, 2.0, 3.0]。
矩阵(2维张量):
二维数组,即一个数值的表格。

在 PyTorch 中,张量可以通过 torch.tensor 函数创建。
创建标量张量:

import torch
scalar = torch.tensor(3.0)
print(scalar)  # tensor(3.0)

向量张良

vector = torch.tensor([1.0, 2.0, 3.0])
print(vector)  # tensor([1., 2., 3.])

创建矩阵张量:

matrix = torch.tensor([[1.0, 2.0], [3.0, 4.0]])
print(matrix)  # tensor([[1., 2.], [3., 4.]])

张量有许多有用的属性和方法,例如:
形状(Shape)

print(matrix.shape)  # torch.Size([2, 2])

数据类型(Data Type):

print(matrix.dtype)  # torch.float32

设备(Device):

print(matrix.device)  # 例如:cpu 或 cuda:0

torch.nn是一个实例化的使用,torch.nn.functrion是方法的使用。两个都很好用

卷积操作
在这里插入图片描述

卷积核:卷积核是一个小的矩阵,用于在输入数据上执行卷积操作。它的大小通常比输入数据小得多,例如 3x3、5x5 或 7x7。
滤波器:滤波器是卷积核的另一个名称,它与卷积核的功能相同。

卷积操作是将卷积核应用到输入数据的每个位置,通过滑动窗口的方式逐元素相乘并求和,生成一个新的输出值。以下是卷积操作的步骤:
将卷积核放在输入数据的一个位置上。
逐元素相乘并求和,得到一个新的输出值。
将卷积核移动到下一个位置,重复上述步骤,直到遍历整个输入数据。

卷积核的作用
特征提取:卷积核通过对局部区域的操作,可以提取不同层次的特征,例如边缘、纹理、颜色等。
参数共享:卷积核在整个输入数据上共享,使得模型参数减少,提高计算效率。
空间不变性:卷积核能够捕捉输入数据的空间特征,不受位置变化的影响。

在卷积神经网络中,通常会有多个卷积核,每个卷积核提取不同的特征。因此,卷积层的输出不仅包含空间维度(高度和宽度),还包含深度维度(通道数)。例如,一个卷积层可能有 32 个 3x3 的卷积核,输入是一个 RGB 图像(具有 3 个通道),输出将是 32 个特征图。

权重参数本来就是随机初始化,之后根据优化方法会一轮一轮的不断向最优解逼近
开始数值就是一个初始化数值,然后通过训练慢慢优化,最后得到合适的数值

注意:torchvision.transforms.ToTensor 是用于将 PIL 图像或 NumPy 数组转换为张量的,但它需要一个特定的输入格式。对于 NumPy 数组,可以直接使用 torch.tensor 进行转换。

典型的卷积神经网络期望输入是一个四维张量,形状为 (batch_size, channels, height, width)。
其中,batch_size 表示每个批次的样本数量,channels 表示输入图像的通道数(对于灰度图像通道数为 1,对于彩色图像通道数为 3),height 和 width 表示图像的高度和宽度。
下面是一个简单的卷积操作

import torch
import torch.nn.functional as F
import numpy as np
inputtensor = torch.tensor([[1, 2, 0, 3, 1],
                            [0, 1, 2, 3, 1],
                            [1, 2, 1, 0, 0],
                            [5, 2, 3, 1, 1],
                            [2, 1, 0, 1, 1]], dtype=torch.float32)
# 使用 NumPy 创建卷积核
np_kernel = np.random.randn(3, 3)

# 将 NumPy 数组转换为 PyTorch 张量
kernel = torch.tensor(np_kernel, dtype=torch.float32)

inputtensor=torch.reshape(inputtensor,(1,1,5,5))
kernel=torch.reshape(kernel,(1,1,3,3))
print(kernel.shape)
print(inputtensor.shape)

output=F.conv2d(inputtensor,kernel,stride=1)
print(output)
output2=F.conv2d(inputtensor,kernel,stride=2)
print(output2)

在这里插入图片描述
padding即在输入的周围进行填充一圈再进行卷积操作,空白部分默认视为0

import torch
import torch.nn.functional as F
import numpy as np
inputtensor = torch.tensor([[1, 2, 0, 3, 1],
                            [0, 1, 2, 3, 1],
                            [1, 2, 1, 0, 0],
                            [5, 2, 3, 1, 1],
                            [2, 1, 0, 1, 1]], dtype=torch.float32)
# 使用 NumPy 创建卷积核
np_kernel = np.random.randn(3, 3)

# 将 NumPy 数组转换为 PyTorch 张量
kernel = torch.tensor(np_kernel, dtype=torch.float32)

inputtensor=torch.reshape(inputtensor,(1,1,5,5))
kernel=torch.reshape(kernel,(1,1,3,3))
print(kernel.shape)
print(inputtensor.shape)

output=F.conv2d(inputtensor,kernel,stride=1)
print(output)
output2=F.conv2d(inputtensor,kernel,stride=2)
print(output2)
output3=F.conv2d(inputtensor,kernel,stride=1,padding=1)
print(output3)

相关推荐

最近更新

  1. TCP协议是安全的吗?

    2024-06-19 07:08:03       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-06-19 07:08:03       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-06-19 07:08:03       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-06-19 07:08:03       18 阅读

热门阅读

  1. 递归:汉诺塔问题III

    2024-06-19 07:08:03       6 阅读
  2. shell函数的定义

    2024-06-19 07:08:03       5 阅读
  3. Redis 面试热点(一)

    2024-06-19 07:08:03       6 阅读
  4. GPRS与4G网络:技术差异与应用选择

    2024-06-19 07:08:03       5 阅读
  5. 百度翻译注册流程

    2024-06-19 07:08:03       6 阅读