矩阵分解技术将一个矩阵分解成更简单、结构化的组件,以高效地解决计算问题。常见的方法包括 LU 分解、QR 分解、奇异值分解 (SVD)、Cholesky 分解和非负矩阵分解 (NMF)。每种技术都有其独特的用途,从求解线性系统到降维,具体取决于矩阵的属性和应用需求。
LU 分解将一个方阵分解为一个下三角矩阵 (L) 和一个上三角矩阵 (U)。这对于求解线性方程组很有用,因为三角矩阵简化了前向和后向替换。例如,在电路分析或结构工程模拟中,LU 分解有助于高效地计算大型系统的解。QR 分解将一个矩阵分解为一个正交矩阵 (Q) 和一个上三角矩阵 (R)。正交矩阵保留向量的长度和角度,使得 QR 成为最小二乘回归的理想选择,这是机器学习中的常见任务。NumPy 等库使用 QR 来解决数据点多于变量的超定系统。
奇异值分解 (SVD) 将任何矩形矩阵分解为三个组成部分:U(左奇异向量)、Σ(奇异值的对角矩阵)和 V(右奇异向量)。SVD 是推荐系统的基础,它识别潜在的用户-项目偏好,并在主成分分析 (PCA) 中用于降低数据维度。Cholesky 分解专门用于对称正定矩阵,将它们分解为一个下三角矩阵 (L) 及其转置。这种方法在金融中的投资组合优化或物理学中求解偏微分方程等问题中具有计算效率。
非负矩阵分解 (NMF) 约束因子为非负值,使其适用于负值没有意义的数据集。例如,在文本挖掘中,NMF 通过将术语-文档矩阵分解为非负的主题-词和文档-主题矩阵来识别主题。类似地,在图像处理中,NMF 可以将图像分离为加性成分(例如,面部特征)。每种技术的效用取决于上下文:LU 和 Cholesky 在数值稳定性方面表现出色,QR 在正交变换方面表现出色,SVD 在发现潜在模式方面表现出色,NMF 在非负数据的可解释性方面表现出色。