@@ -129,10 +129,22 @@ <h3 id="svd的几何意义">SVD的几何意义</h3>
129
129
1 & 2
130
130
\end{bmatrix}
131
131
\]</ span > 它的几何变换结果为:</ p >
132
- < p > < img src ="http://7u2qr4.com1.z0.glb.clouddn.com/blogTimLine%E6%88%AA%E5%9B%BE20150701163654.png " alt ="此处输入图片的描述 "> 很难用简单的语言描述上面图形是如何变换的,因为对于不同的点它的变化方向是不一样的。(x,y)经过变换变为(2x+y,x+2y),点在x轴的变化量需要考虑点在y轴上的坐标,同理点在y轴的变化也要考虑x轴的坐标。这种变换x和y方向是相互< strong > 耦合</ strong > 的,而在实际问题分析中我们并不希望这种耦合。我们将上面的图片旋转45度,得到以下结果:</ p >
133
- < p > < img src ="http://7u2qr4.com1.z0.glb.clouddn.com/blogTimLine%E6%88%AA%E5%9B%BE20150701165534.png " alt ="此处输入图片的描述 "> 我们发现,现在变换后的图像在x轴和y轴的变化已经解耦了。</ p >
132
+ < div class ="figure ">
133
+ < img src ="http://7u2qr4.com1.z0.glb.clouddn.com/blogTimLine%E6%88%AA%E5%9B%BE20150701163654.png " alt ="此处输入图片的描述 ">
134
+ < p class ="caption "> 此处输入图片的描述</ p >
135
+ </ div >
136
+ < p > 很难用简单的语言描述上面图形是如何变换的,因为对于不同的点它的变化方向是不一样的。(x,y)经过变换变为(2x+y,x+2y),点在x轴的变化量需要考虑点在y轴上的坐标,同理点在y轴的变化也要考虑x轴的坐标。这种变换x和y方向是相互< strong > 耦合</ strong > 的,而在实际问题分析中我们并不希望这种耦合。我们将上面的图片旋转45度,得到以下结果:</ p >
137
+ < div class ="figure ">
138
+ < img src ="http://7u2qr4.com1.z0.glb.clouddn.com/blogTimLine%E6%88%AA%E5%9B%BE20150701165534.png " alt ="此处输入图片的描述 ">
139
+ < p class ="caption "> 此处输入图片的描述</ p >
140
+ </ div >
141
+ < p > 我们发现,现在变换后的图像在x轴和y轴的变化已经解耦了。</ p >
134
142
< p > 当A是方阵时,其奇异值的几何意义是:若x是n维单位球面上的一点,则Ax是一个n维椭球面上的点,其中椭球的n个半轴长正好是A的n个奇异值。简单地说,在二维情况下,A将单位圆变成了椭圆,A的两个奇异值是椭圆的长半轴和短半轴,如下图(图片来自维基百科):</ p >
135
- < p > < img src ="http://7u2qr4.com1.z0.glb.clouddn.com/blog512px-Singular-Value-Decomposition.svg.png " alt ="此处输入图片的描述 "> 左上表示原来的图像,右上表示经过M矩阵变换后的最后图像。这个变换可以分解为3步:首先经过V*矩阵旋转坐标系,然后通过< span class ="math inline "> \(\Sigma\)</ span > 对角矩阵在新的坐标系上进行拉伸(新的坐标系下拉伸方向是解耦的),最后再通过U矩阵再进行坐标系旋转,得到最终结果。维基百科对这张图的原文描述如下:</ p >
143
+ < div class ="figure ">
144
+ < img src ="http://7u2qr4.com1.z0.glb.clouddn.com/blog512px-Singular-Value-Decomposition.svg.png " alt ="此处输入图片的描述 ">
145
+ < p class ="caption "> 此处输入图片的描述</ p >
146
+ </ div >
147
+ < p > 左上表示原来的图像,右上表示经过M矩阵变换后的最后图像。这个变换可以分解为3步:首先经过V*矩阵旋转坐标系,然后通过< span class ="math inline "> \(\Sigma\)</ span > 对角矩阵在新的坐标系上进行拉伸(新的坐标系下拉伸方向是解耦的),最后再通过U矩阵再进行坐标系旋转,得到最终结果。维基百科对这张图的原文描述如下:</ p >
136
148
< blockquote >
137
149
< p > The upper left shows the unit disc in blue together with the two canonical unit vectors. The upper right shows the action of M on the unit disc: it distorts the circle to an ellipse. The SVD decomposes M into three simple transformations: a rotation V*, a scaling Σ along the coordinate axes and a second rotation U. The SVD reveals the lengths σ1 resp. σ2 of the of the semi-major axis resp. semi-minor axis of the ellispe; they are just the singular values which occur as diagonal elements of the scaling Σ. The rotation of the ellipse with respect to the coordinate axes is given by U.</ p >
138
150
</ blockquote >
@@ -152,7 +164,7 @@ <h2 id="svd的应用">SVD的应用</h2>
152
164
< p > 左奇异向量表示词(矩阵的行)的一些特性,右奇异向量表示文档(列)的一些特性,中间的奇异值矩阵表示左奇异向量的一行与右奇异向量的一列的重要程序,数字越大越重要。</ p >
153
165
< p > 因此SVD可以挖掘出数据中潜在的“重要因素(factor)”。奇异值越大,该factor对结果的影响就越大。SVD可以利用这个特性做用户推荐。反之,如果我们的M矩阵是一个杂乱无章的矩阵,我们对该矩阵进行SVD分解将会得到相差无几的奇异值,也就无法提取出对结果影响比较大的factor了。</ p >
154
166
< h2 id ="参考文献 "> 参考文献</ h2 >
155
- < p > http://www.cnblogs.com/leftnoteasy/archive/2011/01/19/svd-and-applications.html http://blog.csdn.net/google19890102/article/details/29591553 http://www.puffinwarellc.com/index.php/news-and-articles/articles/33-latent-semantic-analysis-tutorial.html?start=4 http://www.flickering.cn/%E6%95%B0%E5%AD%A6%E4%B9%8B%E7%BE%8E/2015/01/%E5%A5%87%E5%BC%82%E5%80%BC%E5%88%86%E8%A7%A3%EF%BC%88we-recommend-a-singular-value-decomposition%EF%BC%89/ 维基百科</ p >
167
+ < p > http://www.cnblogs.com/leftnoteasy/archive/2011/01/19/svd-and-applications.html http://blog.csdn.net/google19890102/article/details/29591553 http://www.puffinwarellc.com/index.php/news-and-articles/articles/33-latent-semantic-analysis-tutorial.html?start=4 http://www.ams.org/samplings/feature-column/fcarc-svd 维基百科</ p >
156
168
157
169
</ div >
158
170
< footer class ="article-footer clearfix ">
0 commit comments