深度学习之网络构建

目标

在这里插入图片描述

选择合适的神经网络

卷积神经网络(CNN):我们处理图片、视频一般选择CNN
循环神经网络(RNN):我们处理时序数据一般选择RNN

超参数的设置

为什么训练的模型的错误率居高不下

在这里插入图片描述
在这里插入图片描述

如何调测出最优的超参数

在这里插入图片描述
就是要不断循环调测

各个超参数的重要程度

在这里插入图片描述

调参策略

在这里插入图片描述

提升CNN的泛化能力

在这里插入图片描述

激活函数的选择

常见的激活函数包括:

sigmoid函数:将输入映射到0到1之间。
tanh函数:将输入映射到-1到1之间。
ReLU函数:修正线性单元,将负值映射为0。
Leaky ReLU:修正线性单元的改进版本,在负值时有一个小的斜率,避免ReLU的神经元死亡问题。

在这里插入图片描述
在这里插入图片描述

损失函数的选择

常见的损失函数包括但不限于:

均方误差(Mean Squared Error, MSE): 适用于回归任务,计算预测值与真实值之间的平方差。

交叉熵损失(Cross-Entropy Loss): 适用于多分类任务,衡量模型输出的概率分布与真实标签之间的差异,常见的有分类交叉熵和二元交叉熵。

对数损失(Log Loss): 也称为二元交叉熵损失,通常用于二分类问题,特别是在逻辑回归模型中。

Hinge损失: 主要用于支持向量机(SVM)中,帮助实现最大间隔分类。

Huber损失: 对异常值较为鲁棒的回归损失函数,结合了均方误差和绝对误差的优点。

自定义损失函数: 根据具体问题的特性和需求,可以设计和使用特定的损失函数。

选择合适的损失函数取决于任务的性质和数据的分布,能够最大程度地提高模型的性能和泛化能力。

在这里插入图片描述
在这里插入图片描述

相关推荐

  1. 深度学习 - 构建神经网络

    2024-07-11 13:20:01       24 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-11 13:20:01       67 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-11 13:20:01       72 阅读
  3. 在Django里面运行非项目文件

    2024-07-11 13:20:01       58 阅读
  4. Python语言-面向对象

    2024-07-11 13:20:01       69 阅读

热门阅读

  1. 使用 Vue 3 实现打字机效果

    2024-07-11 13:20:01       23 阅读
  2. 设计模式-单例模式

    2024-07-11 13:20:01       22 阅读
  3. 达梦数据库系列—23. DSC集群搭建

    2024-07-11 13:20:01       17 阅读
  4. RabbitMQ 迁移

    2024-07-11 13:20:01       21 阅读
  5. 【编程范式】理解响应式编程(reactive programming)

    2024-07-11 13:20:01       26 阅读
  6. Python 循环语句

    2024-07-11 13:20:01       21 阅读