Descomposición en valores singulares

En álgebra lineal, la descomposición en valores singulares (o DVS) de una matriz real o compleja es una factorización de la misma con muchas aplicaciones en estadística y otras disciplinas.

Definiciones previas

Dada una matriz real A M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} , los valores propios de la matriz cuadrada, simétrica y semidefinida positiva A T A M n ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{n}(\mathbb {R} )} son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto escalar estándar vemos que:


( A T A ) T = A T ( A T ) T = A T A {\displaystyle (A^{T}A)^{T}=A^{T}(A^{T})^{T}=A^{T}A} , o sea que es simétrica.


x , A T A x = x T A T A x = ( A x ) T A x = A x 2 0 {\displaystyle \langle x,A^{T}Ax\rangle =x^{T}A^{T}Ax=(Ax)^{T}Ax=\|Ax\|^{2}\geq 0} , es decir A T A {\displaystyle A^{T}A} es semidefinida positiva.



Por ser A T A {\displaystyle A^{T}A} una matriz real simétrica, todos sus valores propios son reales —en particular, como es semidefinida positiva, son todos mayores o iguales a cero—. Ver demostración.


Definición

Sean λ 1 λ 2 λ n 0 {\displaystyle \lambda _{1}\geq \lambda _{2}\geq \cdots \geq \lambda _{n}\geq 0} los valores propios de la matriz A T A {\displaystyle A^{T}A} ordenados de mayor a menor. Entonces σ i := λ i {\displaystyle \sigma _{i}:={\sqrt {\lambda _{i}}}} es el i {\displaystyle i} -ésimo valor singular de la matriz A {\displaystyle A} .

Teorema

Sea A M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} y λ 1 λ r > λ r + 1 = = λ n = 0 {\displaystyle \lambda _{1}\geq \cdots \geq \lambda _{r}>\lambda _{r+1}=\cdots =\lambda _{n}=0} los valores propios de A T A {\displaystyle A^{T}A} . Es decir, los primeros r {\displaystyle r} valores propios no nulos, ordenados de manera decreciente, y los n r {\displaystyle n-r} valores propios nulos.

Sea ( v 1 , , v n ) {\displaystyle (v_{1},\ldots ,v_{n})} una base ortonormal de R n {\displaystyle \mathbb {R} ^{n}\,} formada por valores propios de A T A {\displaystyle A^{T}A} —que existe por el teorema espectral—. Entonces:


  1. Los vectores A v 1 , , A v r {\displaystyle Av_{1},\ldots ,Av_{r}} son ortogonales dos a dos y A v i = λ i = σ i {\displaystyle \|Av_{i}\|={\sqrt {\lambda _{i}}}=\sigma _{i}} .
  2. ( 1 σ 1 A v 1 , , 1 σ r A v r ) {\displaystyle {\big (}{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big )}} es una base ortonormal del subespacio fundamental Col ( A ) {\displaystyle \operatorname {Col} (A)} .
  3. ( v r + 1 , , v n ) {\displaystyle (v_{r+1},\ldots ,v_{n})} es una base ortonormal del subespacio fundamental Nul ( A ) {\displaystyle \operatorname {Nul} (A)} .
  4. rg ( A ) = r {\displaystyle \operatorname {rg} (A)=r} es decir, el rango de la matriz A {\displaystyle A} coincide con la cantidad de valores singulares no nulos.

Demostración

  1. A v i , A v j = v i T A T A v j = λ j v i T v j = { λ j i = j 0 i j {\displaystyle \langle Av_{i},Av_{j}\rangle =v_{i}^{T}A^{T}Av_{j}=\lambda _{j}v_{i}^{T}v_{j}={\begin{cases}\lambda _{j}&i=j\\0&i\neq j\end{cases}}} . Teniendo en cuenta este resultado, A v i = A v i , A v i = λ i = σ i {\displaystyle \|Av_{i}\|={\sqrt {\langle Av_{i},Av_{i}\rangle }}={\sqrt {\lambda _{i}}}=\sigma _{i}} .
  2. Como la familia de vectores ( v i ) 1 i r {\displaystyle (v_{i})_{1\leq i\leq r}} es ortonormal —en particular, linealmente independiente—, los productos A v i {\displaystyle Av_{i}} son combinaciones lineales de las columnas de A {\displaystyle A} , por lo que el subespacio generado por estos productos está contenido en Col ( A ) {\displaystyle \operatorname {Col} (A)} . Además, los vectores A v 1 , , A v r {\displaystyle Av_{1},\ldots ,Av_{r}} son ortogonales dos a dos —en particular, linealmente independientes—, por lo tanto deducimos que dim ( 1 σ 1 A v 1 , , 1 σ r A v r ) = r = dim ( Col ( A ) ) {\displaystyle \dim {\big (}{\big \langle }{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big \rangle }{\big )}=r=\dim(\operatorname {Col} (A))} , de donde Col ( A ) = 1 σ 1 A v 1 , , 1 σ r A v r {\displaystyle \operatorname {Col} (A)={\big \langle }{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big \rangle }} . Así, teniendo en cuenta lo demostrado en el punto anterior, ( 1 σ 1 A v 1 , , 1 σ r A v r ) {\displaystyle {\big (}{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big )}} es una base ortonormal de Col ( A ) {\displaystyle \operatorname {Col} (A)} .
  3. Es claro que si la familia de vectores ( v i ) r < i n {\displaystyle (v_{i})_{r<i\leq n}} , está asociada a valores propios nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que Nul ( A ) = Nul ( A T A ) {\displaystyle \operatorname {Nul} (A)=\operatorname {Nul} (A^{T}A)} —demostración en el último punto de esta lista de propiedades— se ve que ( v r + 1 , , v n ) {\displaystyle (v_{r+1},\ldots ,v_{n})} es una base ortonormal de Nul ( A ) {\displaystyle \operatorname {Nul} (A)}
  4. Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que rg ( A ) = r {\displaystyle \operatorname {rg} (A)=r} .

Descomposición en valores singulares de una matriz

Una DVS de A M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} es una factorización del tipo A = U Σ V T {\displaystyle A=U\Sigma V^{T}} con U M m ( R ) {\displaystyle U\in {\mathcal {M}}_{m}(\mathbb {R} )} y V M n ( R ) {\displaystyle V\in {\mathcal {M}}_{n}(\mathbb {R} )} ortogonales y Σ M m × n ( R ) {\displaystyle \Sigma \in {\mathcal {M}}_{m\times n}(\mathbb {R} )} una matriz formada por los valores singulares de A {\displaystyle A} en su diagonal principal ordenados de mayor a menor, y ceros en el resto de entradas.

Teorema

Toda matriz A M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} admite una DVS.

Demostración

Sean λ 1 λ r > λ r + 1 = = λ n = 0 {\displaystyle \lambda _{1}\geq \cdots \geq \lambda _{r}>\lambda _{r+1}=\cdots =\lambda _{n}=0} los valores propios de A T A M n ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{n}(\mathbb {R} )} ordenados de esta manera. Sea ( v 1 , , v n ) {\displaystyle (v_{1},\ldots ,v_{n})} una base ortonormal de R n {\displaystyle \mathbb {R} ^{n}} formada por vectores propios de A T A {\displaystyle A^{T}A} , cada uno asociado —en orden— a un valor propio.


Recordemos que los vectores A v 1 , , A v n {\displaystyle Av_{1},\ldots ,Av_{n}} son ortogonales dos a dos, con A v r + 1 = = A v m = 0 {\displaystyle Av_{r+1}=\cdots =Av_{m}=0} . Si llamamos u 1 := 1 σ 1 A v 1 , , u r := 1 σ r A v r {\displaystyle u_{1}:={\frac {1}{\sigma _{1}}}Av_{1},\ldots ,u_{r}:={\frac {1}{\sigma _{r}}}Av_{r}} , vemos que:

  • u 1 , , u r {\displaystyle u_{1},\ldots ,u_{r}} son ortonormales. Entonces, si r < m {\displaystyle r<m} , podemos completar con vectores u r + 1 , , u m {\displaystyle u_{r+1},\ldots ,u_{m}} hasta formar una base ortonormal de R m {\displaystyle \mathbb {R} ^{m}}


  • { A v 1 = σ 1 u 1 A v r = σ r u r A v r + 1 = 0 A v n = 0 {\displaystyle \left\{{\begin{array}{c}Av_{1}=\sigma _{1}u_{1}\\\vdots \\Av_{r}=\sigma _{r}u_{r}\\Av_{r+1}=0\\\vdots \\Av_{n}=0\end{array}}\right.}


  • Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices V = ( | | v 1 v n | | ) M n ( R ) {\displaystyle V={\begin{pmatrix}|&&|\\v_{1}&\cdots &v_{n}\\|&&|\end{pmatrix}}\in {\mathcal {M}}_{n}(\mathbb {R} )} ortogonal y


U Σ = ( | | u 1 u n | | ) U M m ( R )  ortogonal ( σ 1 0 0 0 0 0 σ 2 0 0 0 0 0 σ r 0 0 0 0 0 0 0 0 0 0 0 0 ) Σ M m × n ( R ) = ( | | | | σ 1 u 1 σ r u r 0 0 | | | | ) {\displaystyle U\Sigma =\underbrace {\begin{pmatrix}|&&|\\u_{1}&\cdots &u_{n}\\|&&|\end{pmatrix}} _{U\in {\mathcal {M}}_{m}(\mathbb {R} ){\text{ ortogonal}}}\underbrace {\begin{pmatrix}\sigma _{1}&0&\cdots &0&0&\cdots &0\\0&\sigma _{2}&\cdots &0&0&\cdots &0\\\vdots &\vdots &\ddots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &\sigma _{r}&0&\cdots &0\\0&0&\cdots &0&0&\cdots &0\\\vdots &\vdots &\ddots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &0&0&\cdots &0\\\end{pmatrix}} _{\Sigma \in {\mathcal {M}}_{m\times n}(\mathbb {R} )}={\begin{pmatrix}|&&|&|&&|\\\sigma _{1}u_{1}&\cdots &\sigma _{r}u_{r}&0&\cdots &0\\|&&|&|&&|\end{pmatrix}}}


Claramente A V = U Σ {\displaystyle AV=U\Sigma \,} y, finalmente, como V {\displaystyle V} es una matriz ortogonal, A = U Σ V T {\displaystyle A=U\Sigma V^{T}} . Esta es la ecuación de una DVS de A {\displaystyle A\,} .

Viendo esta descomposición, es claro que la matriz A {\displaystyle A} puede escribirse como combinación lineal de matrices de rango 1 tal que:


A = i = 1 r σ i u i v i T {\displaystyle A=\sum _{i=1}^{r}\sigma _{i}u_{i}v_{i}^{T}}

Descomposición en valores singulares reducida (DVS reducida)

Este tipo de descomposición resulta de quedarse sólo con los r {\displaystyle r} vectores propios unitarios asociados a los r {\displaystyle r} valores singulares no nulos. Las matrices U {\displaystyle U} , V {\displaystyle V} y Σ {\displaystyle \Sigma } entonces son:


U r = ( | | u 1 u r | | ) T {\displaystyle U_{r}={\begin{pmatrix}|&&|\\u_{1}&\cdots &u_{r}\\|&&|\end{pmatrix}}^{T}}

V r = ( | | v 1 v r | | ) T {\displaystyle V_{r}={\begin{pmatrix}|&&|\\v_{1}&\cdots &v_{r}\\|&&|\end{pmatrix}}^{T}}

Σ r = diag ( σ 1 , , σ r ) {\displaystyle \Sigma _{r}=\operatorname {diag} (\sigma _{1},\ldots ,\sigma _{r})}


A = U r Σ r V r T {\displaystyle A=U_{r}\Sigma _{r}V_{r}^{T}}


Observación: Σ r {\displaystyle \Sigma _{r}} es una matriz diagonal de tamaño r × r {\displaystyle r\times r} .

Propiedades

Las matrices a continuación denotadas con la letra P {\displaystyle P} , son de proyección sobre el subespacio indicado. Las matrices denotadas con la letra I {\displaystyle I} son las identidades del orden denotado.

  • P Col ( A ) = U r U r T {\displaystyle P_{\operatorname {Col} (A)}=U_{r}U_{r}^{T}}


  • P Nul ( A t ) = I m U r U r T = U m r U m r T {\displaystyle P_{\operatorname {Nul} (A^{t})}=I_{m}-U_{r}U_{r}^{T}=U_{m-r}U_{m-r}^{T}}


  • P Fil ( A ) = V r V r T {\displaystyle P_{\operatorname {Fil} (A)}=V_{r}V_{r}^{T}}


  • P Nul ( A ) = I n V r V r T = V n r V n r T {\displaystyle P_{\operatorname {Nul} (A)}=I_{n}-V_{r}V_{r}^{T}=V_{n-r}V_{n-r}^{T}}


  • U r T U r = U m r T U m r = I m {\displaystyle U_{r}^{T}U_{r}=U_{m-r}^{T}U_{m-r}=I_{m}}


  • V r T V r = V n r T V n r = I n {\displaystyle V_{r}^{T}V_{r}=V_{n-r}^{T}V_{n-r}=I_{n}}


  • ( u 1 , , u r ) {\displaystyle (u_{1},\ldots ,u_{r})} es una base ortonormal de Col ( A ) {\displaystyle \operatorname {Col} (A)}


  • ( u r + 1 , , u m ) {\displaystyle (u_{r+1},\ldots ,u_{m})} es una base ortonormal de Nul ( A T ) {\displaystyle \operatorname {Nul} (A^{T})}


  • ( v 1 , , v r ) {\displaystyle (v_{1},\ldots ,v_{r})} es una base ortonormal de Fil ( A ) {\displaystyle \operatorname {Fil} (A)}


  • ( v r + 1 , , v n ) {\displaystyle (v_{r+1},\ldots ,v_{n})} es una base ortonormal de Nul ( A ) {\displaystyle \operatorname {Nul} (A)}


  • A = U Σ V T {\displaystyle A=U\Sigma V^{T}} implica que A T = ( U Σ V T ) T = V Σ T U T {\displaystyle A^{T}=(U\Sigma V^{T})^{T}=V\Sigma ^{T}U^{T}} .


  • A T A = V Σ T U T U Σ V T A T = V Σ T Σ V T A T A = V r diag ( λ 1 , , λ r ) V r T {\displaystyle A^{T}A=V\Sigma ^{T}U^{T}U\Sigma V^{T}\Leftrightarrow A^{T}=V\Sigma ^{T}\Sigma V^{T}\Leftrightarrow A^{T}A=V_{r}\operatorname {diag} (\lambda _{1},\ldots ,\lambda _{r})V_{r}^{T}} —una diagonalización ortogonal de A T A {\displaystyle A^{T}A} —.


  • Las matrices simétricas A T A M n ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{n}(\mathbb {R} )} y A A T M m ( R ) {\displaystyle AA^{T}\in {\mathcal {M}}_{m}(\mathbb {R} )} tienen los mismos valores propios no nulos y, por lo tanto, los valores singulares no nulos de la matriz A {\displaystyle A} pueden calcularse usando cualquiera de estas dos. Además, todos los vectores del conjunto { u 1 , , u r } {\displaystyle \{u_{1},\ldots ,u_{r}\}} son vectores propios de A A T M m ( R ) {\displaystyle AA^{T}\in {\mathcal {M}}_{m}(\mathbb {R} )} y también, como ya se mencionó, Nul ( A T ) = u r + 1 , , u m {\displaystyle \operatorname {Nul} (A^{T})=\langle u_{r+1},\ldots ,u_{m}\rangle } . Esto es fácil de ver, teniendo en cuenta que


1 i r ,   A v i = σ i u i A A T A v i λ i v i = σ i A A t u i λ i A v i = σ i 2 A v i σ i u i = σ i A A T u i A A T u i = σ i 2 u i = λ i u i {\displaystyle \forall 1\leq i\leq r,\ Av_{i}=\sigma _{i}u_{i}\Leftrightarrow A\underbrace {A^{T}Av_{i}} _{\lambda _{i}v_{i}}=\sigma _{i}AA^{t}u_{i}\Leftrightarrow \lambda _{i}Av_{i}=\sigma _{i}^{2}\underbrace {Av_{i}} _{\sigma _{i}u_{i}}=\sigma _{i}\cdot AA^{T}u_{i}\Leftrightarrow AA^{T}u_{i}=\sigma _{i}^{2}u_{i}=\lambda _{i}u_{i}}


Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada A M 2 × 8 ( R ) {\displaystyle A\in {\mathcal {M}}_{2\times 8}(\mathbb {R} )} , entonces A T A M 8 ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{8}(\mathbb {R} )} tiene un polinomio característico de grado 8 y A A T M 2 ( R ) {\displaystyle AA^{T}\in {\mathcal {M}}_{2}(\mathbb {R} )} tiene un polinomio característico de grado 2. Como los valores propios no nulos de ambas matrices coinciden, el cálculo de valores singulares de A {\displaystyle A} se hace más sencillo.


Aplicaciones

Pseudoinversa

Para una matriz no cuadrada A {\displaystyle A} descompuesta en valores singulares A = U Σ V T {\displaystyle A=U\Sigma V^{T}} , su pseudoinversa es

A + := V Σ + U T {\displaystyle A^{+}:=V\Sigma ^{+}U^{T}}

donde Σ + {\displaystyle \Sigma ^{+}} es la pseudoinversa de Σ {\displaystyle \Sigma } , que siendo una matriz diagonal se computa reemplazando todos los valores no nulos de la diagonal por sus recíprocos, y luego trasponiendo.

La pseudoinversa es un camino para resolver cuadrados mínimos lineales.

Solución de norma mínima

La pseudoinversa obtenida mediante la DVS permite hallar x {\displaystyle x} que minimiza la norma A x b {\displaystyle \|Ax-b\|} . La solución esː

x min = A + b = V Σ + U T b {\displaystyle x_{\text{min}}=A^{+}b=V\Sigma ^{+}U^{T}b}

Se aplica para aproximar la solución del sistema de ecuaciones indeterminado A x b {\displaystyle \|Ax-b\|} .

Solución de ecuaciones lineales homogéneas

Un conjunto de ecuaciones lineales homogéneas se puede escribir en la forma A x = 0 {\displaystyle Ax=0} para una matriz A {\displaystyle A} y un vector x {\displaystyle x} . Una situación típica consiste hallar x {\displaystyle x} no nulo, conociendo A {\displaystyle A} . Las soluciones son todos los vectores singulares cuyo valor singular es cero, y toda combinación lineal entre ellos. Si A {\displaystyle A} no tiene ningún valor singular cero, entonces no hay solución aparte de x = 0 {\displaystyle x=0} .

Minimización de cuadrados mínimos totales

El problema de minimización por cuadrados mínimos totales consiste en hallar x {\displaystyle x} que minimiza la norma A x {\displaystyle \|Ax\|} bajo la condición x = 1 {\displaystyle \|x\|=1} :

min x = 1 A x {\displaystyle \min _{\|x\|=1}\|Ax\|} .

La solución es el vector singular correspondiente al mínimo valor singular no cero.

Ejemplos de cálculo de DVS

Ejemplo 1

Si A = ( 0 0 0 9 3 0 ) {\displaystyle A={\begin{pmatrix}0&0\\0&9\\3&0\end{pmatrix}}} , entonces A T A = ( 9 0 0 81 ) {\displaystyle A^{T}A={\begin{pmatrix}9&0\\0&81\end{pmatrix}}} , cuyos autovalores son λ 1 = 81 {\displaystyle \lambda _{1}=81} y λ 2 = 9 {\displaystyle \lambda _{2}=9} asociados a los autovectores v 1 = ( 0 , 1 ) {\displaystyle v_{1}=(0,1)} y v 2 = ( 1 , 0 ) {\displaystyle v_{2}=(1,0)} . Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas).

Entonces, los valores singulares de A {\displaystyle A} son σ 1 = 81 = 9 {\displaystyle \sigma _{1}={\sqrt {81}}=9} y σ 2 = 9 = 3 {\displaystyle \sigma _{2}={\sqrt {9}}=3} . Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.


Ahora buscamos los vectores u 1 , u 2 , u 3 R 3 {\displaystyle u_{1},u_{2},u_{3}\in \mathbb {R} ^{3}} que deberán cumplir


{ A v 1 = σ 1 u 1 A v 2 = σ 2 u 2 A v 3 = 0 {\displaystyle \left\{{\begin{array}{c}Av_{1}=\sigma _{1}u_{1}\\Av_{2}=\sigma _{2}u_{2}\\Av_{3}=0\end{array}}\right.}


Esto es u 1 = 1 σ 1 A v 1 = 1 9 ( 0 , 9 , 0 ) = ( 0 , 1 , 0 ) {\displaystyle u_{1}={\frac {1}{\sigma _{1}}}Av_{1}={\frac {1}{9}}(0,9,0)=(0,1,0)} y u 2 = 1 σ 2 A v 2 = 1 3 ( 0 , 0 , 3 ) = ( 0 , 0 , 1 ) {\displaystyle u_{2}={\frac {1}{\sigma _{2}}}Av_{2}={\frac {1}{3}}(0,0,3)=(0,0,1)} .


Entonces completamos a una base ortonormal de R 3 {\displaystyle \mathbb {R} ^{3}} , ( ( 0 , 1 , 0 ) , ( 0 , 0 , 1 ) , ( 1 , 0 , 0 ) ) {\displaystyle ((0,1,0),(0,0,1),(1,0,0))} .



Nuestras matrices ortogonales son:


U = ( 0 0 1 1 0 0 0 1 0 ) {\displaystyle U={\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}} y V = ( 0 1 1 0 ) {\displaystyle V={\begin{pmatrix}0&1\\1&0\end{pmatrix}}}



Y la matriz compuesta por los valores singulares ordenados:


Σ = ( 9 0 0 3 0 0 ) {\displaystyle \Sigma ={\begin{pmatrix}9&0\\0&3\\0&0\end{pmatrix}}}


Por lo tanto la DVS de A {\displaystyle A\,} es:


A = ( 0 0 1 1 0 0 0 1 0 ) ( 9 0 0 3 0 0 ) ( 0 1 1 0 ) = 9 ( 0 1 0 ) ( 0 1 ) + 3 ( 0 0 1 ) ( 1 0 ) = ( 0 0 0 9 3 0 ) {\displaystyle A={\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}{\begin{pmatrix}9&0\\0&3\\0&0\end{pmatrix}}{\begin{pmatrix}0&1\\1&0\end{pmatrix}}=9{\begin{pmatrix}0\\1\\0\end{pmatrix}}{\begin{pmatrix}0&1\end{pmatrix}}+3{\begin{pmatrix}0\\0\\1\end{pmatrix}}{\begin{pmatrix}1&0\end{pmatrix}}={\begin{pmatrix}0&0\\0&9\\3&0\end{pmatrix}}} .


Y la DVS reducida es


A = ( 0 0 1 0 0 1 ) ( 9 0 0 3 ) ( 0 1 1 0 ) {\displaystyle A={\begin{pmatrix}0&0\\1&0\\0&1\end{pmatrix}}{\begin{pmatrix}9&0\\0&3\end{pmatrix}}{\begin{pmatrix}0&1\\1&0\end{pmatrix}}}


Observación: No siempre ocurre que V = V T {\displaystyle V=V^{T}} como en este caso.

Ejemplo 2

Sea B = ( 0 0 1 0 0 1 ) {\displaystyle B={\begin{pmatrix}0&0&1\\0&0&1\end{pmatrix}}} . Entonces, para hacer más sencillo el proceso, calculamos B B T = ( 1 1 1 1 ) {\displaystyle BB^{T}={\begin{pmatrix}1&1\\1&1\end{pmatrix}}} que tiene un polinomio característico de grado 2. Los autovalores son λ 1 = 2 {\displaystyle \lambda _{1}=2} y λ 2 = 0 {\displaystyle \lambda _{2}=0} asociados a los autovectores de norma unitaria u 1 = 1 2 ( 1 , 1 ) {\displaystyle u_{1}={\frac {1}{\sqrt {2}}}(1,1)} y u 2 = 1 2 ( 1 , 1 ) {\displaystyle u_{2}={\frac {1}{\sqrt {2}}}(-1,1)} . Nuestro único valor singular no nulo es σ 1 = 2 {\displaystyle \sigma _{1}={\sqrt {2}}} .


Observaciones:

  • Es claro que rg ( B ) = 1 {\displaystyle \operatorname {rg} (B)=1} coincide con la cantidad de valores singulares no nulos de la matriz y además Col ( B ) = 1 2 ( 1 , 1 ) {\displaystyle \operatorname {Col} (B)=\left\langle {\frac {1}{\sqrt {2}}}(1,1)\right\rangle } .
  • Sabemos que B T B M 3 ( R ) {\displaystyle B^{T}B\in {\mathcal {M}}_{3}(\mathbb {R} )} tiene un polinomio característico de grado 3. Sus raíces son λ 1 = 2 {\displaystyle \lambda _{1}=2} , λ 2 = λ 3 = 0 {\displaystyle \lambda _{2}=\lambda _{3}=0} . Veámoslo:


B T B = ( 0 0 0 0 0 0 0 0 2 ) p B T B ( x ) = det ( x I 3 B T B ) = x 2 ( x 2 ) {\displaystyle B^{T}B={\begin{pmatrix}0&0&0\\0&0&0\\0&0&2\end{pmatrix}}\Longrightarrow p_{B^{T}B}(x)=\det(xI_{3}-B^{T}B)=x^{2}(x-2)} .


Ahora, sabemos que B v i = σ i u i B T B v i = σ i 2 v i = σ i B T u i {\displaystyle Bv_{i}=\sigma _{i}u_{i}\Leftrightarrow B^{T}Bv_{i}=\sigma _{i}^{2}v_{i}=\sigma _{i}B^{T}u_{i}} , es decir B T u i = σ i v i v i = 1 σ i B T u i {\displaystyle B^{T}u_{i}=\sigma _{i}v_{i}\Leftrightarrow v_{i}={\frac {1}{\sigma _{i}}}B^{T}u_{i}} . Entonces, resulta del único valor singular no nulo: v 1 = 1 2 ( 0 , 0 , 2 ) = ( 0 , 0 , 1 ) {\displaystyle v_{1}={\frac {1}{2}}(0,0,2)=(0,0,1)} .


Ahora, completamos a una base ortonormal de R 3 {\displaystyle \mathbb {R} ^{3}} , ( ( 0 , 0 , 1 ) , ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) ) {\displaystyle ((0,0,1),(1,0,0),(0,1,0))} . En este ejemplo, nuestras matrices ortogonales son:


U = 1 2 ( 1 1 1 1 ) {\displaystyle U={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&-1\\1&1\end{pmatrix}}} y V = ( 0 1 0 0 0 1 1 0 0 ) {\displaystyle V={\begin{pmatrix}0&1&0\\0&0&1\\1&0&0\end{pmatrix}}} .



Σ = ( 2 0 0 0 0 0 ) {\displaystyle \Sigma ={\begin{pmatrix}{\sqrt {2}}&0&0\\0&0&0\end{pmatrix}}} .


Y la DVS resulta entonces


B = 1 2 ( 1 1 1 1 ) ( 2 0 0 0 0 0 ) ( 0 0 1 1 0 0 0 1 0 ) = ( 1 1 ) ( 0 0 1 ) = ( 0 0 1 0 0 1 ) {\displaystyle B={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&-1\\1&1\end{pmatrix}}{\begin{pmatrix}{\sqrt {2}}&0&0\\0&0&0\end{pmatrix}}{\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}={\begin{pmatrix}1\\1\end{pmatrix}}{\begin{pmatrix}0&0&1\end{pmatrix}}={\begin{pmatrix}0&0&1\\0&0&1\end{pmatrix}}} .


Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.

Véase también

Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q420904
  • Wd Datos: Q420904