损失函数与反向传播

nn.L1Loss()

import torch
from torch import nn

inputs = torch.tensor([1, 2, 3], dtype=torch.float32)
targets = torch.tensor([1, 2, 5], dtype=torch.float32)

inputs = torch.reshape(inputs, (1, 1, 1, 3))
targets = torch.reshape(targets, (1, 1, 1, 3))

loss = nn.L1Loss()
result = loss(inputs, targets)

print(result)  # tensor(0.6667)

在这里插入图片描述

reduction=‘sum’(默认是mean)

loss = nn.L1Loss(reduction='sum')

在这里插入图片描述

MSE

loss_mse = nn.MSELoss()
result_mse = loss_mse(inputs, targets)

在这里插入图片描述
在这里插入图片描述

CrossEntropyLoss_交叉熵损失

在这里插入图片描述

x = torch.tensor([0.1, 0.2, 0.3])
y = torch.tensor([1])
x = torch.reshape(x, (1,3))
loss_cross = nn.CrossEntropyLoss()
result_cross = loss_cross(x, y)
print(result_cross)

在这里插入图片描述

使用之前的网络

import torchvision.datasets
from torch import nn
from torch.utils.data import DataLoader

dataset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True,
                                       transform=torchvision.transforms.ToTensor())
dataloader = DataLoader(dataset, batch_size=64, shuffle=True)


class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init__()
        self.model1 = nn.Sequential(
            nn.Conv2d(in_channels=3, out_channels=32, kernel_size=5, stride=1, padding=2),
            nn.MaxPool2d(kernel_size=2),
            nn.Conv2d(in_channels=32, out_channels=32, kernel_size=5, stride=1, padding=2),
            nn.MaxPool2d(2),
            nn.Conv2d(32, 64, 5, padding=2),
            nn.MaxPool2d(2),
            nn.Flatten(),
            nn.Linear(1024, 64),
            nn.Linear(64, 10)
        )

    def forward(self, x):
        x = self.model1(x)
        return x
tudui = Tudui()
for data in dataloader:
    imgs, targets = data
    outputs = tudui(imgs)
    print(outputs)
    print(targets)

在这里插入图片描述

可以正确输出,且是分类问题,因此使用交叉熵

tudui = Tudui()
loss = nn.CrossEntropyLoss()
for data in dataloader:
    imgs, targets = data
    outputs = tudui(imgs)
    result_loss = loss(outputs, targets)
    print(result_loss)

1.计算实际输出和目标之间的差距
2.为我们更新输出提供一定的依据(反向传播)grad

查看梯度

在这里插入图片描述
在这里插入图片描述

执行反向传播后

在这里插入图片描述
在这里插入图片描述

相关推荐

  1. 梯度反向传播过程是如何处理repeat函数

    2024-01-07 19:16:02       12 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-01-07 19:16:02       16 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-01-07 19:16:02       16 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-01-07 19:16:02       15 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-01-07 19:16:02       18 阅读

热门阅读

  1. 设计模式篇章(3)——七种结构型模式

    2024-01-07 19:16:02       40 阅读
  2. pinia的独立维护,统一导出及持久化

    2024-01-07 19:16:02       40 阅读
  3. vue的增量式学习-篇章4

    2024-01-07 19:16:02       40 阅读
  4. kafka 偏移量的类型与提交方式

    2024-01-07 19:16:02       38 阅读
  5. 华为OD机试 2024 真题 - VLAN资源池 c++实现

    2024-01-07 19:16:02       35 阅读
  6. 【我的Rust库】get_local_info 0.1.6发布

    2024-01-07 19:16:02       31 阅读
  7. C#-接口

    2024-01-07 19:16:02       32 阅读
  8. 解释 Git 的基本概念和使用方式。

    2024-01-07 19:16:02       27 阅读
  9. 自用PHP在线Access转html表格小功能(快速预览access)

    2024-01-07 19:16:02       37 阅读