- 智能搜索和推荐系统:原理、算法与应用
- 刘宇
- 457字
- 2021-06-03 16:06:54
1.2.4 特征向量和特征值
矩阵可以通过分解发现矩阵表示成数据元素时不明显的函数性质。特征分解是矩阵分解最常使用的方法之一,它将矩阵分解成一组特征向量和特征值。矩阵A的特征向量是指与A相乘后相当于对该向量进行缩放的非零向量x:

标量λ被称为这个特征向量对应的特征值。类似地,我们也可以定义左特征向量xTA=λxT,但是通常更关注右特征向量。如果υ是A的特征向量,那么其缩放后也是A的特征向量。此外,鉴于sυ和υ有相同的特征值,因此我们通常只考虑单位特征向量。
假设矩阵A有n个线性无关的特征向量{υ(1),…,υ(n)},对应的特征值为{λ1,…,λn},我们可将特征向量连接成一个矩阵使得每一列是一个特征向量[υ(1),…,υ(n)],同时也可以将特征值连接成一个向量λ=[λ1,…,λn]T,则可以将特征分解为:

不是每个矩阵都能够分解成特征值和特征向量。在一些情况下,特征分解可能会涉及复数和非实数。每个实对称矩阵都可以分解成实特征向量和实特征值:

其中,Q是A的特征向量组成的正交矩阵,Λ是对角矩阵。特征值Λi,i对应的特征向量是矩阵Q的第i列,记作Q:,i。