pytorch交叉熵

1. Entropy

Entropy中文是熵的意思,它代表一种不确定性,不确定性越高惊喜度也就越高。
在这里插入图片描述
在这里插入图片描述
如上图,假设熵代表中奖概率,当熵为2 的中奖概率为1/4没什么惊喜,当熵为1.3568时,中奖概率就比较低了,惊喜度就比较高了,而当熵为0.0313时,中奖概率已经很低很低了,这时惊喜度就很高了。

2. 交叉熵

交叉熵计算公式分为两个部分,H§熵和DKL(KL Devergence散度),当p和q的分布相同时,DKL=0,此时H(p,q) = H§
当使用one-hot编码时,H§=0,此时H(p,q) = DKL(p|q)
在这里插入图片描述

3. 二分类

交叉熵计算公式在这里插入图片描述
使用交叉熵计算loss的一个实例:
在这里插入图片描述
从图中可以看出通过交叉熵计算loss梯度下降还是比较快的。

4. 为什么分类问题使用交叉熵

在这里插入图片描述

因为使用交叉熵梯度下降比较快,从上图的曲线也可以看出,刚开始的时候loss比较大,使用交叉熵后,loss很快就降下来了。
而当使用交叉熵梯度不下降的时候,可以尝试MSE。

5. 代码示例

在这里插入图片描述
F.cross_entropy = softmax + log + nll_loss
图中1:logits不能是经过softmat和log的,因为F.cross_entropy 中已经包括两个操作。
图中2:要经过softmax和log两个操作
F.nll_loss是将softmax、log操作分离计算loss的操作。

相关推荐

  1. PyTorch交叉理解

    2024-04-08 05:50:05       10 阅读
  2. NLP(5)-softmax和交叉

    2024-04-08 05:50:05       14 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-04-08 05:50:05       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-04-08 05:50:05       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-04-08 05:50:05       18 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-04-08 05:50:05       20 阅读

热门阅读

  1. HTTP的强制缓存和协商缓存

    2024-04-08 05:50:05       15 阅读
  2. HTTPS中的TLS和TCP能同时握手吗

    2024-04-08 05:50:05       15 阅读
  3. GMSSL学习笔记

    2024-04-08 05:50:05       12 阅读
  4. 网络安全之SQL注入

    2024-04-08 05:50:05       14 阅读
  5. ubuntu18.04-arm7v架构下构建Telegraf自定义系统服务

    2024-04-08 05:50:05       12 阅读
  6. ubuntu怎么按安装时间显示已安装的软件

    2024-04-08 05:50:05       14 阅读
  7. 使用docx4j转换word为pdf处理中文乱码问题

    2024-04-08 05:50:05       10 阅读
  8. @SpringBootApplication 详解

    2024-04-08 05:50:05       13 阅读
  9. Springboot 集成Rabbitmq之延时队列

    2024-04-08 05:50:05       15 阅读
  10. hadoop streaming及hadoop官方文档

    2024-04-08 05:50:05       16 阅读