[SVD分解.docxVIP

  1. 1、有哪些信誉好的足球投注网站(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
[SVD分解

?数学之美之SVD分解?2012-07-03 10:48:59分类:?C/C++所谓SVD,就是要把矩阵进行如下转换:A = USVTthe columns of?U?are the eigenvectors of the?AAT?matrix and the columns of?V?are the eigenvectors of the?ATA?matrix.?VT?is the transpose of?V?and?S?is a diagonal matrix. By definition the nondiagonal elements of diagonal matrices are zero. The diagonal elements of?S?are a special kind of values of the original matrix. These are termed the?singular values?of?A.?1?The Frobenius Norm一个矩阵所有元素的平方和再开方称为这个矩阵的Frobenius Norm。特殊情况下,行矩阵的Frobenius Norm为该向量的长度2 计算A转置 A*At At*A   ?3 计算S 在SVD中,将AAt的特征值从大到小排列,并开方,得到的就是奇异值。 比如上图中,特征值为40,10.因此奇异值为6.32,3.16。矩阵的奇异值有如下特性: a 矩阵的奇异值乘积等于矩阵行列式的值 6.32*3.16 = 20 = |A| b 矩阵A的?Frobenius Norm等于奇异值的平方和的开方  总结一下计算S的步骤:1 计算AT?和ATA;2?计算ATA的特征值,排序并开方。 由此可以得到S,下面来看如何计算?U,VT4? 计算V和VT 利用ATA的特征值来计算特征向量 ? 既然刚才提到V就是特征向量的组合,那么 5 计算U A = USVT AV = USVTV = US AVS-1?= USS-1 U = AVS-1  ?6 计算SVD 可以看出,SVD可以对矩阵进行分解重建。7 降维的SVD 如果我们只保留前k个最大的奇异值,前k列个U,前k行个V,相当于将数据中占比不大的噪音进行过滤,这样既可以有效地对数据进行泛化,又起到了降维减少运算量的目的。是不是很奇妙? 8 实际用途  我们实际的工作中,经常会用到这种降维方法。包括现在非常火的推荐问题,以及LSI问题都对SVD有着广泛的应用。 举个最常用的例子,在文本挖掘中:A就是 t (term) 行 d (document) 列的矩阵,每列是一篇文章,每行是一个单词,每个单元格的当前单词在当前文章里的出现次数。 U 是一个 t?行 r?列 的矩阵, V 是一个 r?行 d 列 的矩阵, S 是一个 r?行 r?列的对角矩阵。这里 r 的大小是 A的秩。那么U和V中分别是A的奇异向量,而S是A的奇异值。AA的正交单位特征向量组成U,特征值组成SS,AA的正交单位特征向量组成V,特征 值(与AA相同)组成SS。希望大家细细体会,多多交流,一起进步。?svd的另外一篇好文章:转自:/LeftNotEasy/archive/2011/01/19/svd-and-applications.html前言: 上一次写了关于PCA与LDA的 文章,PCA的实现一般有两种,一种是用特征值分解去实现的,一种是用奇异值分解去实现的。在上篇文章中便是基于特征值分解的一种解释。特征值和奇异值在 大部分人的印象中,往往是停留在纯粹的数学计算中。而且线性代数或者矩阵论里面,也很少讲任何跟特征值与奇异值有关的应用背景。奇异值分解是一个有着很明 显的物理意义的一种方法,它可以将一个比较复杂的矩阵用更小更简单的几个子矩阵的相乘来表示,这些小矩阵描述的是矩阵的重要的特性。就像是描述一个人一 样,给别人描述说这个人长得浓眉大眼,方脸,络腮胡,而且带个黑框的眼镜,这样寥寥的几个特征,就让别人脑海里面就有一个较为清楚的认识,实际上,人脸上 的特征是有着无数种的,之所以能这么描述,是因为人天生就有着非常好的抽取重要特征的能力,让机器学会抽取重要的特征,SVD是一个重要的方法。 在机器学习领域,有相当多的应用与奇异值都可以扯上关系,比如做feature reduction的PCA,做数据压缩(以图像压缩为代表)的算法,还有做有哪些信誉好的足球投注网站引擎语义层次检索的LSI(Latent Semantic Indexing) 另外在这里抱怨一下,之前在百度里面有哪些信誉好的足球投注网站过SVD,出来的结果都是俄罗斯的一种狙击枪(AK47同时代的),是因为穿越火线这个游戏里面有一把狙击枪叫做 SVD,而在Google上面有哪些信誉好的足球投注网站的时候,出来的都是奇异值分解(英文资料为主)。想玩玩战争游

文档评论(0)

huhongjun + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档