理解协方差矩阵

举报
OvAvO 发表于 2021/11/16 14:14:20 2021/11/16
【摘要】 理解机器学习里面的重要概念, 协方差矩阵

Covariance Matrix

2021-10-29

https://janakiev.com/blog/covariance-matrix/

Variance, Covariance

  • Variance measures the variation of a single random variable (like height of a person in a population)

    σ x 2 = E ( 1 n 1 i = 1 n ( x i x ˉ ) 2 ) \sigma_{x}^{2}=\mathbb E \left(\frac{1}{n-1} \sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)^{2}\right)

  • Whereas covariance is a measure of how much two random variables vary together (like the height of a person and the weight of a person in a population)

    σ ( x , y ) = E ( 1 n 1 i = 1 n ( x i x ˉ ) ( y i y ˉ ) ) \sigma(x, y)=\mathbb E\left(\frac{1}{n-1} \sum_{i=1}^{n}\left(x_{i}-\bar{x}\right)\left(y_{i}-\bar{y}\right)\right)

所以方差也可以看作一个随机变量自己与自己的协方差:

σ x 2 = 1 n 1 i = 1 n ( x i x ˉ ) ( x i x ˉ ) = σ ( x , x ) \sigma_{x}^{2} = \frac{1}{n-1} \sum_{i=1}^{n}(x_{i}-\bar{x})(x_{i}-\bar{x}) = \sigma(x, x)

协方差矩阵

Wikipedia:

假设 X X 是以 n n 个随机变量组成的列向量,

X = [ X 1 X 2 X n ] \mathbf{X} = \begin{bmatrix} X_1 \\ X_2 \\ \vdots \\ X_n \end{bmatrix}

并且 μ i \mu_i X i X_i 的期望值,即, μ i = E ( X i ) \mu_i = \mathrm{E}(X_i) 。协方差矩阵的第 ( i , j ) (i,j) 項(第 ( i , j ) (i,j) 項是一个协方差)被定义为如下形式:

Σ i j = c o v ( X i , X j ) = E [ ( X i μ i ) ( X j μ j ) ] \Sigma_{ij} = \mathrm{cov}(X_i, X_j) = \mathrm{E}\begin{bmatrix} (X_i - \mu_i) (X_j - \mu_j) \end{bmatrix}

而协方差矩阵为:

Σ = E [ ( X E [ X ] ) ( X E [ X ] ) T ] \Sigma=\mathrm{E} \left[ \left( \mathbf{X} - \mathrm{E}[\mathbf{X}] \right) \left( \mathbf{X} - \mathrm{E}[\mathbf{X}] \right)^{\rm T} \right]

= [ E [ ( X 1 μ 1 ) ( X 1 μ 1 ) ] E [ ( X 1 μ 1 ) ( X 2 μ 2 ) ] E [ ( X 1 μ 1 ) ( X n μ n ) ] E [ ( X 2 μ 2 ) ( X 1 μ 1 ) ] E [ ( X 2 μ 2 ) ( X 2 μ 2 ) ] E [ ( X 2 μ 2 ) ( X n μ n ) ] E [ ( X n μ n ) ( X 1 μ 1 ) ] E [ ( X n μ n ) ( X 2 μ 2 ) ] E [ ( X n μ n ) ( X n μ n ) ] ] = \begin{bmatrix} \mathrm{E}[(X_1 - \mu_1)(X_1 - \mu_1)] & \mathrm{E}[(X_1 - \mu_1)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_1 - \mu_1)(X_n - \mu_n)] \\ \\ \mathrm{E}[(X_2 - \mu_2)(X_1 - \mu_1)] & \mathrm{E}[(X_2 - \mu_2)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_2 - \mu_2)(X_n - \mu_n)] \\ \\ \vdots & \vdots & \ddots & \vdots \\ \\ \mathrm{E}[(X_n - \mu_n)(X_1 - \mu_1)] & \mathrm{E}[(X_n - \mu_n)(X_2 - \mu_2)] & \cdots & \mathrm{E}[(X_n - \mu_n)(X_n - \mu_n)] \end{bmatrix}

矩阵中的第 ( i , j ) (i,j) 个元素是 X i X_i X j X_j 的协方差

进一步

矩阵的奇异值分解可以将数据还原为普通的形式, 这在LDA等许多算法中都有应用
进一步可以阅读以下文章:
https://janakiev.com/blog/covariance-matrix/

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。