白话机器3:PCA与SVM详细数学原理

一、PCA数学原理

1.数据标准化

        首先,需要对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。假设有一个的数据矩阵X,其中每一列是一个样本,每一行是一个特征。

标准化公式如下:

x_{ij}^{'} = \frac{x_{ij} - \mu_j}{\sigma_j}

其中,x_{ij}是原始数据矩阵X中的元素,\mu_j是第j个特征的均值,\sigma_j 是第j个特征的标准差,x_{ij}^{'}是标准化后的数据。

2.计算协方差矩阵

        接下来,我们需要计算标准化后数据矩阵的协方差矩阵。协方差矩阵是一个对称矩阵,它描述了数据中不同特征之间的线性关系。

协方差矩阵的计算公式如下:

复制

C = \frac{1}{n-1} X^{'} X^{'T}

        其中,n 是样本数量,X^{'} 是标准化后的数据矩阵,X^{'T}X^{'}的转置。

3.计算特征值和特征向量

        协方差矩阵的特征值和特征向量可以通过求解特征方程得到:

|C - \lambda I| = 0

其中,\lambda 是特征值,I是单位矩阵。

对于每个特征值\lambda_i,我们可以找到对应的特征向量v_i,满足:

(C - \lambda_i I) v_i = 0

4.选择主成分

特征值的大小代表了对应特征向量方向上的方差大小。我们通常选择最大的几个特征值对应的特征向量作为主成分,因为它们包含了数据中的大部分信息。

在这个例子中,我们想要将数据降维到3x1,所以我们只需要选择一个主成分,即选择最大的特征值对应的特征向量。

5.数据投影

最后,我们将原始数据矩阵X投影到选定的主成分上,得到降维后的数据矩阵。

投影公式如下:

Y = X^{'} v_1

其中,Y 是降维后的数据矩阵,v_1 是最大的特征值对应的特征向量。

二、SVM数学原理

相关推荐

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-05-09 08:28:07       98 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-05-09 08:28:07       106 阅读
  3. 在Django里面运行非项目文件

    2024-05-09 08:28:07       87 阅读
  4. Python语言-面向对象

    2024-05-09 08:28:07       96 阅读

热门阅读

  1. Vue Router 路由hash和history模式

    2024-05-09 08:28:07       34 阅读
  2. 机器学习笔记03

    2024-05-09 08:28:07       33 阅读
  3. Unrecognized function or variable ‘datachk‘. Matlab debug

    2024-05-09 08:28:07       28 阅读
  4. matlab实现四种数值积分法运算

    2024-05-09 08:28:07       34 阅读
  5. Oracle中blob和clob的区别和例子

    2024-05-09 08:28:07       36 阅读
  6. 加盟零食店的真是大冤种

    2024-05-09 08:28:07       31 阅读
  7. Debian常用命令

    2024-05-09 08:28:07       40 阅读
  8. TensorFlow 的基本概念和使用场景

    2024-05-09 08:28:07       33 阅读
  9. 20240508金融读报:风控分析拟人化&国际信贷创新

    2024-05-09 08:28:07       34 阅读
  10. C++中的特殊类设计看完秒懂!

    2024-05-09 08:28:07       35 阅读