常用指标和损失总结

损失

回归问题

L1损失

L1 损失是最小化模型参数的绝对值之和。

倾向于使模型参数接近零,导致模型变得更加稀疏。这意味着一些特征的权重可能变为零,从而被模型忽略。

对异常值非常敏感。异常值会导致参数权重绝对值增大,从而影响模型的整体结构。

求解 L1 损失的问题通常比求解 L2 损失的问题更难。L1 损失的优化问题是一个非凸问题,而 L2 损失的优化问题是一个凸问题。这使得 L1 损失的优化算法(如坐标下降法)可能需要更多的迭代来收敛。

当模型的稀疏性非常重要时,例如在文本分析或生物信息学中,L1 损失是一个很好的选择。

L2损失

L2 损失是最小化模型参数的平方和。

倾向于使模型参数的值变小,但不会导致参数变为零。这有助于防止模型过拟合,同时保持参数的非零值。

对异常值的影响较小。虽然异常值会导致参数权重增大,但其平方值会变大,从而在总和中的贡献相对较小。

由于其凸性,L2 损失的优化问题(如最小二乘法)通常更容易解决,并且有多种有效的算法(如梯度下降、牛顿法等)。

当模型的参数需要保留非零值,并且对异常值不太敏感时,L2 损失是一个更常用的选择。

分类问题

交叉熵损失

指标

混淆矩阵

精确度(precision)/查准率:TP/(TP+FP)=TP/P 预测为真中,实际为正样本的概率

召回率(recall)/查全率:TP/(TP+FN) 正样本中,被识别为真的概率

假阳率(False positive rate):FPR = FP/(FP+TN) 负样本中,被识别为真的概率

真阳率(True positive rate):TPR = TP/(TP+FN) 正样本中,能被识别为真的概率

准确率(accuracy):ACC =(TP+TN)/(P+N) 所有样本中,能被正确识别的概率

AUC

ROC曲线面积,纵坐标TPR,横坐标FPR

GAUC

带权重的auc

相关推荐

  1. Linux指令总结

    2024-07-18 18:26:01       51 阅读
  2. Git指令总结

    2024-07-18 18:26:01       29 阅读
  3. 总结 SpringMVC 中的注解

    2024-07-18 18:26:01       54 阅读
  4. TS总结

    2024-07-18 18:26:01       47 阅读
  5. 自然语言处理方法评价指标

    2024-07-18 18:26:01       55 阅读

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-07-18 18:26:01       66 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-07-18 18:26:01       70 阅读
  3. 在Django里面运行非项目文件

    2024-07-18 18:26:01       57 阅读
  4. Python语言-面向对象

    2024-07-18 18:26:01       68 阅读

热门阅读

  1. uni-app 文件上传实战:适配多平台

    2024-07-18 18:26:01       17 阅读
  2. 每天一个数据分析题(四百三十二)- 假设检验

    2024-07-18 18:26:01       18 阅读
  3. NC65 设置下拉列表框值

    2024-07-18 18:26:01       23 阅读
  4. django项目 bug记录

    2024-07-18 18:26:01       24 阅读
  5. Reflect使用的一些总结

    2024-07-18 18:26:01       15 阅读
  6. day02.09.逻辑运算符·二

    2024-07-18 18:26:01       22 阅读