吴恩达机器学习笔记 二十五 衡量纯度 决策树特征选择 信息增益 熵的计算公式

全都是猫,很纯,有的不是猫,也很纯。

熵(entropy): 衡量一组数据纯度的指标。熵的图象如下图所示,纵轴通常用 H 来表示。当训练集的比例为一半一半的时候熵最高,为1;全是猫或者全是狗的时候最低,为0。

选择什么特征可以最大程度地减少熵 ?  熵的减少在 决策树 中称信息增益(information gain)

因为分到左右两支的样本数不同,所以要计算左右两个子树的熵的加权平均

 实际中要对比的熵的减少,用根结点的熵减去计算出的加权平均,得到的结果就是信息增益,衡量的是让树分裂而导致的纯度的提升。如果计算出来 没减少多少熵,那么就不必冒着过拟合的风险再分裂树。

 熵的计算公式

其中 p 是当前这个结点有多少是正样本(多少只猫),w 是有多少样本进入到了这个结点

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-03-22 15:14:03       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-03-22 15:14:03       101 阅读
  3. 在Django里面运行非项目文件

    2024-03-22 15:14:03       82 阅读
  4. Python语言-面向对象

    2024-03-22 15:14:03       91 阅读

热门阅读

  1. Http常用响应状态码

    2024-03-22 15:14:03       39 阅读
  2. ap聚类结果怎么看

    2024-03-22 15:14:03       38 阅读
  3. LeetCode //C - 41. First Missing Positive

    2024-03-22 15:14:03       40 阅读
  4. Python算法练习

    2024-03-22 15:14:03       37 阅读
  5. [C#] Xml 非法字符处理方法

    2024-03-22 15:14:03       40 阅读
  6. 大型语言模型(LLM)全解读

    2024-03-22 15:14:03       39 阅读