Tema 1.1 - Dos Descomposiciones Matriciales

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 18

Análisis Numérico Matricial

Tema 1.1- Dos descomposiciones matriciales


Carlos Fdez. García
Curso 2023-24

Índice
1. Notación y preliminares 1

2. Descomposición en valores singulares 4


2.1. Triangulación de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.2. Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3. Descomposición en valores singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.4. Pseudoinversa de una matriz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

3. Descomposición QR de una matriz. 14

1. Notación y preliminares
A lo largo de toda la asignatura debemos tener en cuenta una serie de asuntos que pasamos a enumerar

Sobre espacios vectoriales y matrices

A lo largo de toda la asignatura debemos tener en cuenta una serie de asuntos que pasamos a enumerar
1. Vamos a considerar aplicaciones lineales entre espacios vectoriales. Normalmente los espacios serán Cn o Rn .
2. En cada espacio vectorial consideraremos siempre que tenemos una base definida y escribiremos las coordenadas
de los vectores en dicha base como matrices columna. Igualmente consideraremos que tenemos un producto
interno definido y, por consiguiente, su norma asociada.

3. Denotaremos el espacio vectorial de matrices de m filas y n columnas mediante la expresión Mm,n (K) donde
K representa el cuerpo sobre el que está definida la matriz, es decir, el cuerpo en el que están los elementos que
componen la matriz (habitualmente R o C). En caso de que la matriz sea cuadrada de orden n escribiremos,
símplemente, Mn (K).

4. Dada una matriz A ∈ Mm,n (C) denotaremos mediante A∗ a la matriz traspuesta y conjugada de A, es decir
t
A∗ = A ∈ Mn,m (C)

5. Desde luego, si A tiene coeficientes reales, A∗ = At .

6. Denotaremos mediante ⟨x, y⟩ al producto escalar de dos vectores de un espacio vectorial dado. Si en dicho espacio
vectorial tenemos definidos más de un producto escalar distinto (cosa que ocurrirá) pondremos un subíndice
indicando de cuál de ellos se trata. Por ejemplo
n
X
⟨x, y⟩ℓ2 (Cn ) = xi yi
k=1

t t
representará el producto escalar euclídeo en Cn de dos vectores x = (x1 ... xn ) e y = (y1 ... yn ) de Cn .

7. Procederemos de modo análogo con las normas. Así


v
q u n
uX 2
∥x∥ℓ2 (Cn ) = ⟨x, x⟩ℓ2 (Cn ) =t |xk |
k=1

es la norma euclídea de x en Cn .

1
8. Fijémonos que, si tenemos una base ortonormal cualquiera en Cn , B = {e1 , ..., en }, por ejemplo Pn la base canónica,
y expresamos los vectores, x, y ∈ Cn como matrices columna de Mn (C) es decir x = k=1 xk ek tiene como
t Pn
coordenadas X = (x1 , x2 , ..., xn ) ∈ Mn (C) y, análogamente, y = k=1 yk ek tiene como coordenadas Y =
t
(y1 , y2 , ..., yn ) ∈ Mn (C), entonces
 
x1
n
X  x2 
{x, y}ℓ2 (Cn ) = xk yk∗ = (y1∗ , y2∗ , ..., yn∗ ) 
 ...  = Y X
 ∗

k=1
xn

Es decir, podemos escribir el producto escalar habitual como el producto de las matriz de corrdenadas traspuesta
conjugada del segundo vector por la del primer vector.

Sobre aplicaciones lineales

1. Si tenemos dos K-espacios vectoriaes U y V , dotados de dos bases BU = {u1 , ..., un } y BV = {v1 , ..., vm },
cualquier aplicación lineal definida entre ellos, f : U −→ V , estará unívocamente determinada por una matriz
de Mm,n (K) cuyas columnas serán las coordenadas de las imágenes de los vectores uk k = 1, ..., n, expresadas
en la base BV .
2. Dado que, normalmente, trabajaremos en Rn o Cn en las bases canónicas, hablaremos de la matriz asociada a
la aplicación lineal sin hacer notar en qué base está expresada dicha matriz a no ser que consideremos necesario
especificarla.

3. Nos hace falta establecer el concepto de aplicación adjunta

Definición de aplicación adjunta a una dada

Dados dos espacios vectoriales U y V dotados ambos de producto escalar, si tenemos una aplicación lineal
f : U → V , llamamos aplicación lineal adjunta a f a la única aplicación lineal f ∗ : V → U que
satisface que
⟨f (x) , y⟩V = ⟨x, f ∗ (y)⟩U
para toda pareja de vectores x ∈ U e y ∈ V .

4. En el caso de que los espacios vectoriales sean Cn y Cm y el producto escalar el habitual, podemos enunciar el
siguiente resultado.

Proposición matriz de la aplicación adjunta a una dada

Si consideramos una aplicación lineal definida de Cn a Cm , f : Cn −→ Cm , ambos espacios dotados de


un producto escalar y bases ortonormales bajo dicho producto, y su matriz asociada en dichas
bases es A ∈ Mm,n (C), entonces su aplicación adjunta f ∗ : V −→ U viene dada por la matriz A∗ en las
mismas bases.

Probar esta afirmación es fácil si nos damos cuenta de que podemos escribir el producto escalar como el producto
de matrices coordendas.
Sean X ∈ Mn (Cn ) e Y ∈ Mn (Cm ) son las coordenadas de vectores x ∈ Cn e y ∈ Cm . En este contexto,
sabemos que las coordenadas de f (x) son resultado del producto AX y, entonces

⟨f (x) , y⟩ = ⟨AX, Y ⟩ = Y ∗ AX = (Y ∗ A) X = (A∗ Y ) X = ⟨X, A∗ Y ⟩

Así pues, podemos deducir que las coordenadas de f ∗ (y) son A∗ Y es decir, A∗ es la matriz asociada a la
aplicación lineal adjunta (éste es el motivo por el cual llamamos matriz adjunta de A a la matriz A∗ ).

5. En el caso de que los espacios vectoriales sean Cn y Cm y el producto escalar el habitual, podemos enunciar el
siguiente resultado.

2
Proposición. Matriz de la aplicación adjunta a una dada

Si consideramos una aplicación lineal definida de Cn a Cm , f : Cn −→ Cm , ambos espacios dotados de


un producto escalar y bases ortonormales bajo dicho producto, y su matriz asociada en dichas
bases es A ∈ Mm,n (C), entonces su aplicación adjunta f ∗ : V −→ U viene dada por la matriz A∗ en las
mismas bases.

6. Definimos un caso especial para endomorfismos

Definición de matriz o aplicación autoadjunta

Si ocurre que A∗ = A decimos que la matriz (o la aplicación lineal que define) es autoadjunta. En el caso
de que estemos trabajando en el cuerpo de los números reales, la matriz (o la aplicación) será simétrica.

7. Un caso importante es el de las matrices unitarias

Definición: matriz unitaria

Una matriz cuadrada P ∈ Mn (C) se llama unitaria, si su inversa es su adjunta (traspuesta conjugada),
es decir, P ∗ P = P P ∗ = I.

8. Podemos caracterizar o, al menos, ilustrar la importancia de estas matrices si tenemos en cuenta que, si P =
(p1 |p2 |...|pn ) es una matriz cuyos vectores columna, p1 , p2 , ..., pn forman una base ortonormal de Cn respecto al
producto escalar habitual, ocurre que

p∗1
 ∗
p∗1 p2 p∗1 pn
  
p1 p1 ...

 p∗2   p∗2 p1 p∗2 p2 ... p∗2 pn 
 ...  (p1 |p2 |...|pn ) =  ...
P P =   =
... ... 
p∗n p∗n pn p∗n p2 ... p∗n pn
 
⟨p1 , p1 ⟩ ⟨p2 , p1 ⟩ ... ⟨pn , p1 ⟩
 ⟨p1 , p2 ⟩ ⟨p2 , p2 ⟩ ... ⟨pn , p2 ⟩ 
=
 =I
... ... ... 
⟨p1 , pn ⟩ ⟨p2 , pn ⟩ ... ⟨pn , pn ⟩

9. Recordamos el concepto de matriz diagonalizable

Proposición: matriz diagonalizable

Una matriz de Mn (C) con distintos autovalores {λ1 , ..., λp }, 1 ⩽ p ⩽ n, es diagonalizable si, y sólo si,
Cn = Eλ1 + ... + Eλp donde por Eλk representamos el espacio generado por los vectores propios asociados
al valor propio λk .

En este contexto es fácil probar este resultado.


Necesidad. Si Cn = Eλ1 + ... + Eλp entonces, considerando la unión de las bases de los espacios Eλk ∀k =
1, ..., p, obtenemos una base de vectores propios, B = {v1 , v2 , ..., vn }. Entonces, dado que f (vk ) = λjk vk
para algún jk ∈ {1, ..., p}, la expresión matricial de la aplicación lineal en esta base es diagonal y, en la
diagonal de la misma están los autovalores correspondientes a cada autovector de la base.
Suficiencia. Supongamos que A es diagonalizable, entonces existe una matriz P no singular, tal que
P −1 AP = D siendo D = diag (d1 , ..., dn ) una matriz diagonal.
• Es evidente que los vectores columna de P , P = (p1 |p2 |...|pn ), forman una base de Cn . Además, como
P −1 AP = D, tenemos que AP = P D
• Pero AP = A (p1 |p2 |...|pn ) = (Ap1 |Ap2 |...|Apn ) y P D = (d1 p1 |d2 p2 |...|dn pn ) por lo tanto Apk = dk pk
para todo k = 1, ..., n. Es decir, son vectores propios de la aplicación.

3
• Ahora bien, en el conjunto {dk }k=1,...,n puede haber valores repetidos, representamos entonces mediante
{λ1 , ..., λp } a los valores distintos del conjunto anterior y, entonces, podemos concluir que Cn = Eλ1 +
... + Eλp

2. Descomposición en valores singulares


2.1. Triangulación de matrices
Definición: matriz reducible a forma triangular

Decimos que una matriz A ∈ Mn (C) se puede reducir a una forma triangular si existe una matriz no singular P y
una matriz triangular T tales que
A = P T P −1

Teorema: toda matriz se puede triangularizar

Cualquer matriz A ∈ Mn (C) se puede reducir a una forma triangular mediante un cambio de base.

Lo probamos por inducción


Es evidente para n = 1. Supongamos que es cierto para un cierto natural n, y consideramos una matriz A ∈
Mn+1 (C).
Tomamos ahora un autovalor (al menos tiene uno), λ1 , y un autovector asociado al mismo, e1 ∈ Cn+1 .

Si ahora elegimos {e2 , ..., en+1 } hasta conseguir una base de Cn+1 , podremos encontrar coeficientes aj y bi,j tales
Pn+1
que Aej = aj e1 + i=2 bi,j ei , donde (aj , b2,j , ..., bn,j ) son las coordenadas de Aej ∈ Cn en la base elegida.
Si denotamos mediante B a la matriz que contiene los coeficientes bi,j es decir B = (bi,j ) ∈ Mn (C) y consideramos
la matriz de cambio de base de la canónica a {e1 , ..., en+1 } tendremos
 
λ1 a2 ... an
 0
P1−1 AP1 = 


 ... B 
0

Ahora podremos encontrar P2 ∈ Mn (C), no singular, y una matriz triangular, T2 ∈ Mn (C), tales que B =
P2 T2 P2−1 .
Así, si  
1 0 ... 0
 
P3 =  
 ... P2 
0

Tomando P = P1 P3 tenemos
P −1 AP = T
siendo T triangular.

Teorema: Factorización de Schur

Dada una matriz, A ∈ Mn (C), podemos encontrar una matriz unitaria P , es decir P ∗ = P −1 , tal que P ∗ AP es
triangular.

4
Sea Q es la matriz de cambio de base que triangulariza la matriz A (existe siempre por el teorema anterior),
entonces T = Q−1 AQ con T triangular superior.
Ahora, denotamos mediante {⃗q1 , ⃗q2 , ..., ⃗qn } a la base de vectores de Cn que constituyen las columnas de Q y
aplicamos el proceso de Gram-Schimdt para conseguir la base ortonormal {⃗ p1 , p⃗2 , ..., p⃗n } tenemos
Pi−1
⃗qi − j=1 ⟨⃗
pj , ⃗qi ⟩ p⃗j
p⃗i = Pi−1 ∀i = 1, 2, ..., n =⇒
⃗qi − j=1 ⟨⃗
pj , ⃗qi ⟩ p⃗j
i−1
X i−1
X
=⇒ ⃗qi = pj , ⃗qi ⟩ p⃗j + ⃗qi −
⟨⃗ pj , ⃗qi ⟩ p⃗j p⃗i ∀i = 1, 2, ..., n
⟨⃗
j=1 j=1

Es decir, cada ⃗qi está en el espacio generado por los i primeros elementos de la base ortonormal {⃗
p1 , p⃗2 , ..., p⃗n },
dicho de otro modo, existe una matriz triangular superior U , tal que

Q = P U ⇐⇒ P = QU −1

y, por lo tanto
−1
P ∗ AP = QU −1 AQU −1 = U Q−1 AQU −1 = U T U −1

Para terminar, por ser U triangular superior, U −1 también lo es, lo cual implica que P ∗ AP es producto de tres
matrices triangulares superiores y, por lo tanto, triangular superior.

2.2. Matrices normales


Definición: matrices normales

Una matriz A ∈ Mn (C) se dice que es normal si

A∗ A = AA∗

Proposición: caracterización de las matrices normales

Una matriz A ∈ Mn (C) es normal, es decir AA∗ = A∗ A, si, y sólo si, existe una matriz unitaria P tal que

A = P DP −1 = P DP ∗

siendo D diagonal.

Demostración

Necesidad

i) Supongamos que existe una matriz unitaria P , es decir P −1 = P ∗ , y otra diagonal D tales que A = P DP ∗ .
ii) Es evidente que

AA∗ = (P DP ∗ ) (P DP ∗ ) = (P DP ∗ ) (P D∗ P ∗ ) = P DP ∗ P D∗ P ∗ = P DD∗ P ∗
∗ ∗
A∗ A (P DP ∗ ) (P DP ∗ ) = (P ∗ ) D∗ P ∗ (P DP ∗ ) = P DP ∗ P D∗ P ∗ = P D∗ DP ∗

=

iii) Pero, como D es diagonal, evidentemente, D∗ D = DD∗ es decir, es normal


iv) Por lo tanto, teniendo en cuenta todo lo anterior AA∗ = A∗ A es decir, es A es normal.
Suficiencia

i) Supongamos ahora que A es normal, es decir, AA∗ = A∗ A.

5
ii) Si hacemos la triangularización de Schur, encontraremos una matriz unitaria, P (recordemos que P ∗ = P −1 ),
tal que A = P T P ∗ siendo T una matriz triangular superior.
iii) Entonces, tenemos

AA∗ = (P T P ∗ ) (P T P ∗ ) = P T P ∗ P T ∗ P ∗ = P T T ∗ P ∗

A∗ A = (P T P ∗ ) (P T P ∗ ) = P T ∗ P ∗ P T P ∗ = P T ∗ T P ∗

es decir, T es una matriz normal y triangular superior.


iv) Pero, forzosamente, una matriz normal y triangular superior debe ser diagonal. Para verlo procedemos del
siguiente modo:
a) Vamos a denotar mediante ti,j , t1i,j y t2i,j a los elementos de la matriz T , T T ∗ y T ∗ T , respectivamente.
b) Dicho de otro modo T = (ti,j )i,j=1,...,n , T T ∗ = t1i,j i,j=1,...,n y T ∗ T = t2i,j i,j=1,...,n .
 

c) Entonces, para todo i, j = 1, ..., n


n
X n
X
t1i,j = ti,k tj,k = ti,k tj,k
k=1 k=máx(i,j)
n mı́n(i,j)
X X
t2i,j = tk,i tk,j = tk,i tk,j
k=1 k=1

ya que, por ser triangular superior ti,k = 0 si i > k.


d ) Pero, dado que la matriz es normal

n mı́n(i,j)
X X
t1i,j = t2i,j ⇒ ti,k tj,k = tk,i tk,j
k=máx(i,j) k=1

e) Si nos restringimos a la diagonal, tenemos

n
X i
X
2 2
t1i,i = t2i,i ⇒ |ti,k | = |tk,i | =⇒
k=i k=1
n
X i−1
X
2 2
=⇒ |ti,k | = |tk,i | ⇒ ti,k = tk,i = 0 ∀k ̸= i
k=i+1 k=1

v) Entonces, concluimos que T es, en realidad, diagonal y, por lo tanto, la matriz de cambio de base ortogonal
P diagonaliza la matriz normal A.

Proposición: caracterización de las matrices autoadjuntas

Una matriz, A ∈ Mn (C), es autoadjunta (o de Hermite) si, y sólo si es diagonalizable en una base ortonormal y sus
autovalores son reales.

Demostración

Suficiencia
i) Suponemos que A es autoadjunta, es decir A∗ = A, lo cual implica que es normal.
ii) Entonces, por el teorema anterior, existe un cambio de base ortonormal, es decir, una matriz P unitaria y
tal que A = P ∗ DP siendo D una matriz diagonal.
iii) Sólo falta ver que sus autovectores son reales, para ello, supongamos que λ y v son un valor propio y un
vector propio asociado a él, entonces
2
⟨Av, v⟩ = ⟨λv, v⟩ = λ ∥v∥
2
⟨v, Av⟩ = ⟨v, λv⟩ = λ ∥v∥

6
iv) Ahora bien, como A es autoadjunta ⟨Av, v⟩ = ⟨v, Av⟩ =⇒ λ = λ es decir, λ es real.
Necesidad.
1. Supongamos que A es diagonalizable en una base ortonormal con autovalores reales.
2. Entonces existe una matriz de cambio de base P y una diagonal D tales que A = P DP ∗
3. Pero, en este caso A∗ = (P ∗ )∗ D∗ P ∗ y como los autovalores son reales, D = D∗ , entonces

A∗ = P DP ∗ = A

es decir A es autoadjunta.

2.3. Descomposición en valores singulares


Definición: valores singulares de una matriz

Los valores singulares de una matriz A ∈ Mm,n (C) son las raíces cuadradas de los autovalores no nulos de A∗ A.

Lema: autovalores no nulos de un producto de matrices

Sea A ∈ Mm,n (C) y B ∈ Mn,m (C). Los autovalores no nulos de las matrices AB y BA son los mismos y, por lo tanto,
también lo son sus valores singulares.

Demostración

Supongamos que λ es un autovalor no nulo de AB, existirá entonces un autovector asociado x, tal que ABx = λx.

El autovector x no puede estar en el núcleo de B ya que, si lo estuviese, tendríamos que Bx = 0 pero, en ese
caso ABx = 0 y, por lo tanto x no podría ser un autovector de AB con autovalor no nulo.
Así pues, multiplicando por la izquierda por la matriz B, BABx = λBx, es decir, Bx es un autovector no nulo
de BA con autovalor λ.

Corolario: valores singulares de matrices autoadjuntas

Los valores singulares de A y A∗ son iguales, para toda matriz A ∈ Mm,n (C).

Proposición: relación de los valores singulares con los autovalores de una matriz normal

Los valores singulares de una matriz normal son los módulos de sus autovalores no nulos.

Demostración

Si A es normal, existe P unitaria tal que A = P DP ∗ , donde D es la matriz diagonal que contiene sus autovalores.
Como A∗ A = P ∗ D∗ DP deducimos que A∗ A y D∗ D tienen los mismos autovalores.
Para terminar sólo hace faltan notar que D∗ D es una matriz diagonal cuyos elementos no nulos son los módulos
al cuadrado de los autovalores de A.

7
Teorema: descomposición en valores singulares, SVD

Sea A ∈ Mm,n (C) una matriz que tiene r valores singulares positivos. Existen dos matrices unitarias U ∈ Mn (C) y
V ∈ Mm (C) y una matriz diagonal Σ
e ∈ Mm,n (R) tal que A = V ΣU e ∗y
 
Σ 0r×(n−r)
Σ=
e
0(m−r)×r 0(m−r)×(n−r)

donde Σ = diag(µ1 , ..., µr ), siendo µ1 ⩾ µ2 ⩾ ... ⩾ µr > 0 los valores singulares de A y 0j,k es la matriz nula de j filas
y k columnas.

Demostración

Sabemos que la matriz A ∈ Mm×n (C), por lo tanto, tiene, a lo sumo, un número de valores singulares igual a
mı́n (m, n).
Consideramos que tiene r valores singulares, es ecir, que la matriz A∗ A tiene r autovalores positivos µ21 , ..., µ2r
(los cuadrados de los valores singulares de A) que ordenamos de modo descendente µ1 ⩾ µ2 ⩾ ... ⩾ µr ⩾ 0.

Dado que la matriz A∗ A es normal, existe una matriz unitaria U ∈ Mn (R), tal que

U ∗ A∗ AU = diag(µ21 , ..., µ2r , 0, n−r...veces, 0)

Así pues, definimos


diag (µ1 , ..., µr )
 
0r×(n−r)
Σ
e= ∈ Mm,n (C)
0(m−r)×r 0(m−r)×(n−r)
donde, por 0k,l denotamos la matriz nula de k filas y l columnas.
Con ésto tenemos

diag (µ1 , ..., µr ) diag (µ1 , ..., µr )


  
te 0r×(m−r) 0r×(n−r)
ΣΣ=
e =
0(n−r)×r 0(n−r)×(m−r) 0(m−r)×r 0(m−r)×(n−r)
diag µ21 , ..., µ2r
  
0r×(r−n)
= ∈ Mn×n (R)
0(n−r)×r 0(n−r)×(n−r)

y es claro que
U ∗ A∗ AU = Σ
e tΣ
e

Consideramos ahora
diag µ−1 −1
  
S= 1 , ..., µr 0r×(m−r)
∈ Mn,m (C)
0(n−r)×r 0(n−r)×(m−r)
y denotamos
V = AU S ∈ Mm×m (C)

Todo ha sido construido de modo que


i)

diag µ−1 −1 diag (µ1 , ..., µr )


   
1 , ..., µr 0r×(m−r) 0r×(n−r)

e= =
0(n−r)×r 0(n−r)×(m−r) 0(m−r)×r 0(m−r)×(n−r)
 
Ir×r 0r×(n−r)
= ∈ Mn×n (C)
0(n−r)×r 0(n−r)×(n−r)

ii)

diag (µ1 , ..., µr ) diag µ−1 −1


   
0r×(n−r) 1 , ..., µr 0r×(m−r)
ΣS
e = =
0(m−r)×r 0(m−r)×(n−r) 0(n−r)×r 0(n−r)×(m−r)
 
Ir×r 0r×(m−r)
= ∈ Mm×m (C)
0(m−r)×r 0(m−r)×(m−r)

8
iii)

U ∗ A∗ V = U ∗ A∗ AU S = Σ e t ΣS
e =
diag µ21 , ..., µ2r diag µ−1 −1
    
0r×(r−n) 1 , ..., µr 0r×(m−r)
= =
0(n−r)×r 0(n−r)×(n−r) 0(n−r)×r 0(n−r)×(m−r)
diag (µ1 , ..., µr )
 
0r×(m−r) e∗
= =Σ
0(n−r)×r 0(n−r)×(m−r)

Lo único que falta comprobar es que V es unitaria, es decir, que V V ∗ = Im×m . Si hacemos las cuentas directa-
mente, veremos que no, ya que, por los comentarios inmediatamente anteriores, de (3) tenemos que V ∗ AU = Σ, e
y teniendo en cuenta (2) , entonces
 
∗ ∗ Ir×r 0r×(m−r)
V V = V AU S = ΣS =
e
0(m−r)×r 0(m−r)×(m−r)

Es decir, sólo tenemos la identidad si r = m.


De hecho, si r < m, y, si denotamos, usando, de nuevo, la notación por cajas,
 
Mr×r Mr×(n−r)
AU = ∈ Mm×n (C)
M(m−r)×r M(m−r)×(n−r)
vemos que

V = AU S =
diag µ−1 −1
   
Mr×r Mr×(n−r) 1 , ..., µr 0r×(m−r)
= =
M(m−r)×r M(m−r)×(n−r) 0(n−r)×r 0(n−r)×(m−r)
Mr×r diag µ−1 , ..., µ−1
  
1 r 0r×(m−r)
=
M(m−r)×r diag µ−1 −1

1 , ..., µr 0(m−r)×(m−r)

Es decir, los vectores cuyas columnas forman la matriz V no forman una base de Cm ya que, los m − r últimos
son nulos.
Así pues, distingimos dos casos:

1. Si r = m, tomando, V = AU S, se cumple que


e ∗
A = V ΣU

2. Si r < m, tomamos V = AU S + Ve donde, elegimos



Ve = 0m×r Vm×(n−r)

de modo que, V = AU S + Ve , sea unitaria (es decir, completamos el conjunto de columnas no nulas de AU S
hasta conseguir una base ortonormal de Cm ), entonces
 
e ∗ = AU S + Ve ΣU
V ΣU e ∗ = AU S ΣUe ∗ + Ve ΣU
e ∗ = A + Ve ΣU
e ∗

Ahora bien

diag (µ1 , ..., µr )


 
 0r×(n−r)
Ve Σ
e= 0m×r Vm×(n−r) = 0m×n =⇒
0(m−r)×r 0(m−r)×(n−r)
e ∗ = 0m×n
=⇒ Ve ΣU

y, por lo tanto, también en este caso


e ∗
A = V ΣU

Ejemplo: descomposición en valores singulares de una matriz de rango máximo

9
Queremos hacer la descomposición en valores singulares de la matriz
 
3 1 1
A=
1 −3 1

1. Tenemos entonces que


   
3 1   10 0 4
3 1 1
A∗ A =  1 −3  = 0 10 −2 
1 −3 1
1 1 4 −2 2

2. Calculamos el polinomio característico de la matriz A∗ A

10 − λ 0 4
2
|A∗ A − λI| = 0 10 − λ −2 = (10 − λ) (2 − λ) − 16 (10 − λ) − 4 (10 − λ) =
4 −2 2−λ
= (10 − λ) [(10 − λ) (2 − λ) − 20] = (10 − λ) (λ − 12) λ

3. Calculamos una base del espacio asociado al autovalor λ = 12



 −2x + 4z = 0 
x = 2z
ker (A∗ A − 12I) ≡ −2y − 2z = 0 ≡
y = −z
4x − 2y − 10z = 0

√ √ √ 
y podemos tomar como vector v1 = (2, −1, 1) que, normalizando, nos da e1 = 6 6
3 ,− 6 , 6
6

4. Ahora, hacemos lo propio con el autovalor λ = 10



4z = 0 
z=0

ker (A − 10I) ≡ 2z = 0 ≡
y = 2x
4x − 2y − 8z = 0

√ √ 
y, así, v2 = (1, 2, 0) y, normalizando, e2 = 5
5 2 5
, 5 , 0 .

5. Finalmente, si λ = 0 
10x + 4z = 0 
z = 5y

ker (A − 0I) ≡ 10y − 2z = 0 ≡
x = −2y
4x − 2y + 2z = 0

 √ √ √ 
por lo tanto, v3 = (−2, 1, 5) y e3 = − 1530 , 3030 , 630 .

6. Teniendo en cuenta la base ortonormal de vectores que hemos obtenido, tenemos que la matriz de cambio de
base, U , es unitaria y  √ √ √ 
6 5 30

 3√ 5
√ √ 15 
U =  − 66 2 5 5 30
√ √30

6 30
6 0 6
√ √
7. Además, los valores singulares de la matriz son, µ1 = 2 3, µ2 = 10
8. Consideramos la matriz  √ 
2 3 √0 0
Σ
e=
0 10 0

9. Con esta nomenclatura, tendremos


U ∗ A∗ AU = Σ
e tΣ
e

10. Si consideramos
1
0
 √

2 3
S= 0 √1 
10
0 0

10
tendremos
 √ √ √ 
6 5 1
−√ 1530 0


3√ 5
  2 3
3 1 1 √
V = AU S = −√ 66 2 5 30 0 √1 =
 
1 −3 1  5 √30
 10
6 30 0 0
6 0 6
 √ √ 
2 2 √ √ !
6√ 10 2 2
 
3 1 1 √
= −√122 2
= √2 2√
 
1 −3 1  5 2
− 22
2 2
12 0

11. Finalmente  √ √ √ ∗
6 5

2

2
! √  3√ 5

−√ 1530
e ∗= 2 3 √0 0
A = V ΣU √2 2√
−√ 66 2 5 30
 
2
− 22 0 10 0 5 √30
 
2 6 30
6 0 6

Ejemplo: descoposición en valores singulares de una matriz de rango deficiente

Queremos hacer la descomposición en valores singulares de la matriz


 
1 1 1
A=
1 1 1

1. Tenemos entonces que    


1 1   2 2 2
1 1 1
A∗ A =  1 1  = 2 2 2 
1 1 1
1 1 2 2 2

2. Calculamos el polinomio característico de la matriz A∗ A,

2−λ 2 2
2
|A∗ A − λI| = 2 2−λ 2 = (2 − λ) + 16 − 12 (2 − λ) = −λ3 + 6λ2 = λ2 (6 − λ)
2 2 2−λ

3. Calculamos una base del espacio asociado al autovalor λ = 6



 −4x + 2y + 2z = 0  
∗ x − 2y + z = 0 x=z
ker (A A − 6I) ≡ 2x − 4y + 2z = 0 ≡ ≡
x + y − 2z = 0 y=z
2x + 2y − 4z = 0

√ √ √ 
y podemos tomar como vector v1 = (1, 1, 1) que, normalizando, nos da e1 = 3 3
3 , 3 , 3
3

4. Ahora, hacemos lo propio con el autovalor λ = 0



 x=λ
ker (A∗ A − 0I) ≡ x + y + z = 0 ≡ y=µ
z = −λ − µ

a) Consideramos, por ejemplo, v2 = (1, 1, −2)


b) Para que el otro vector, v3 = (λ, µ, −λ − µ), sea ortonormal a éste, elegimos λ y µ tales que

λ + µ + 2λ + 2µ = 0 =⇒ λ = −µ =⇒ v3 = (1, −1, 0)
√ √ √  √ √ 
c) Ahora, normalizando, e2 = 6
6
, 6
6
, − 3
6
y e3 = 2
2
, − 2
2
, 0 .

11
5. Teniendo en cuenta la base ortonormal de vectores que hemos obtenido, tenemos que la matriz de cambio de
base, U , es unitaria y  √ √ √ 
3 6 2
√3 √6 2√
3 6
U = − 22
 
√3 6√ 
3
3 − 66 0

6. Además, el único valor singular no nulo es µ1 = 6
7. Consideramos la matriz  √ 
6 0 0
Σ
e=
0 0 0

8. Con esta nomenclatura, tendremos


U ∗ A∗ AU = Σ
e tΣ
e

9. Si consideramos
√1
 
6
0
S= 0 0 
0 0
tenemos
 √ √ √ 
3 6 2 √1

 
√3 √6 2√ 6
0
1 1 1 3 6
Ve = AU S = − 22 0 0 =
 
1 1 1  √3 6√ 
3
− 66 0 0 0
3
 √ 
2 √
 
√6
0 2
!
1 1 1 2 √2
0
= 0 =
 
1 1 1  √6 2
0
2 2
6 0

10. La matriz Ve sale singular puesto que el único vector que sale no nulo es el correspondiente al único valor singular
no nulo. Para obtener una matriz no singular, completamos la base hasta obtener una ortornormal
√ √ !
2 2
V = √2 2√
2
2 − 22

11. Y
 √ √ √ ∗
√ √ ! √ 3 6 2
2 2 √3 √6 2√

e ∗= 6 0 0 3 6
A = V ΣU √2 2√
− 22  =
 
2
− 22 0 0 0 √3 6√

3
2
3 − 66 0
 √ √ √ 
 √ 3 3 3
√3 √3 3√
  
= √3 0 0  6 6
− 66 =
 1 1 1
3 0 0 √6 6√ 1 1 1

2
2 − 22 0

12. Cualquier vector que hubiésemos elegido para completar la base valdría, ya que
 √ √ √ ∗
√ ! √ 3 6 2
2 √3 √6 2√

a 6 0 0 3 6
√2 − 22  =
 
2 0 0 0
 √3 6√
b 3
2
3 − 66 0
 √ √ √ 
 √ 3 3 3
√3 √3 3√
  
= √3 0 0  6 6
− 66 =
 1 1 1
3 0 0 √6 6√ 1 1 1

2
2 − 22 0

2.4. Pseudoinversa de una matriz.


Definición: Pseudoinversa de una matriz

12
Sea A = V ΣU
e ∗ la descomposición en valores singulares de una matriz A ∈ Mm,n (C) que tiene r valores singulares no
nulos. Llamamos pseudoinversa de A a la matriz A⋆ ∈ Mn,m (C) definida como

e ⋆V ∗
A⋆ = U Σ

con
Σ−1
 
e⋆ = 0r×(m−r)
Σ ∈ Mn,m (C)
0(n−r)×r 0(n−r)×(m−r)

Proposición: propiedades de la pseudoinversa de una matriz de rango máximo

Sea A ∈ Mm×n (C) de rango máximo, se cumple que


1. m ⩽ n ⇒ AA⋆ = I ∈ Mm (C)

2. m ⩾ n ⇒ A⋆ A = I ∈ Mn (C)

Demostración

Se deja la demostración para el lector y se recomienda seguir los siguientes pasos.


1. Deducir que, si A es de rango máximo Σ̃ también lo es.

2. Escribir la descomposición en valores singulares de A, cómo sería su pseudoinversa y multiplicarlas utilizando la


nomenclatura de las cajas matriciales.

Ejemplo: cálculo de una pseudoinversa

Ahora queremos calcular la pseudoinversa del primer ejemplo que hicimos


 
3 1 1
A=
1 −3 1

1. Sabemos que
 √ √ √ ∗
6 5

2 2
√ ! √  3√ 5

−√ 1530
e ∗= 2 3 √0 0
A = V ΣU √2 2√
−√ 66 2 5 30
 
2
− 22 0 10 0 5 √30
 
2 6 30
6 0 6

2. Consideramos la matriz !t √ !t
1 3
√ 0 0 0 0
e⋆ =
Σ 2 3 = 6 √
0 √1 0 0 10
0
10 10

3. Entonces
 √ √ √ ∗
6 5
t √
2

2
! √
3
!
3√ 5

−√ 1530

 0 0
(A⋆ ) = V Σ
e⋆ U∗ = √2 2√ 6 √ −√ 66 2 5 30
 =
 
2
− 22 10 5 √30

2 0 10 0 6 30
6 0 6
 √ √ √ 
6

6

2 5
!
√3
−√66 6
6  4 7 1

12
√ 10√ 0 5 2 5 15 60 12
= 0 =
 
1
6
− 2105 5
√ √5 √ − 17 1

0 15 60 12
12
− 1530 30
30
30
6

13
4. Por lo tanto
4 1
 
15 15
A⋆ =  7
60 − 17
60

1 1
12 12

5. Si comprobamos, tendremos
16 4
 
   
3 1 1 60 60 1 0
AA⋆ =  7
− 17 =
1 −3 1 60
5 5
60 0 1
60 60

y, por otro lado


16 4 52 4 20 13 1 1
     
 
60 60 3 1 1 60 60 60 15 15 3
−10
A⋆ A =  7
− 17  = 4 58 = 1 29
− 61 
60
5 5
60 1 −3 1 60
20
60
−10
60
10
15
1
30
60 60 60 60 60 3 − 61 1
6

3. Descomposición QR de una matriz.


Proposición: descomposición QR de una matriz

Sea A ∈ Mm×n (R) de rango máximo. Existe una descomposición

A = QR

donde Q es una matriz unitaria y R es una matriz triangular superior con elementos no negativos en su diagonal.

Demostración

Supongamos que A = (ai,j )i=1,...m;j=1,...,n y llamamos ⃗aj ∈ Rm , j = 1, ..., n, a los vectores columna de A.

Dado que A tiene rango máximo, llamando n0 = mı́n (m,  n), podemos encontrar un conjunto de n0 índices
distintos, {jk }k=1,...,n0 tales que el conjunto de vectores ⃗aj1 , ..., ⃗ajn0 es un sistema linealmente independiente
de Rm procediendo del siguiente modo: j1 será el índice del primer vector no nuloa del sistema {⃗a1 , ..., ⃗an } y,
recursivamente, tomaremos para cada k > 1, el primer índice de la lista jk−1 + 1, ..., n que haga que el sistema
{⃗aj1 , ..., ⃗ajk } sea linealmente independiente. Cuando hayamos elegido n0 vectores, tendremos el sistema deseado.
Una vez que tenemos este conjunto de vectores hay dos posibilidades
1. m ⩽ n y, entonces, forzosamente, forman una base de Rm
2. m > n, en cuyo caso, podremos completar el conjunto con m − n vectores más hasta conseguir una base de
Rm .
En cualquiera de los casos, conseguimos una base de Rm en la cual, los n0 primeros vectores se han elegido como
hemos descrito.

Realizamos entonces el proceso de ortonormalización de Gram-Schmidt, a partir de este conjunto de vectores,


para obtener un sistema ortonormal
Pj−1
⃗ajk − i=1 ⟨⃗vi , ⃗ajk ⟩ ⃗vi
⃗vk = Pj−1 ∀k = 1, ..., m
⃗ak − i=1 ⟨⃗vi , ⃗ajk ⟩ ⃗vi

Consideramos la matriz cuyas columnas están formadas por los vectores obtenidos

Q = (⃗v1 | ⃗v2 | ... | ⃗vm ) ∈ Mm (R)

14
que, evidentemente, es unitaria ya que
 t 
⃗v1
 −   
 t 
 ⃗v2  ⟨⃗v1 , ⃗v1 ⟩ ⟨⃗v1 , ⃗v2 ⟩ ... ⟨⃗v1 , ⃗vm ⟩
t
   ⟨⃗v2 , ⃗v1 ⟩ ⟨⃗v2 , ⃗v2 ⟩ ... ⟨⃗v2 , ⃗vm ⟩ 
QQ=  −  (⃗v1 | ⃗v2 | ... | ⃗vm ) = 
   = Im
 ...  ... ... ... 

 − 
 ⟨⃗
v m , ⃗v1 ⟩ ⟨⃗vm , ⃗v2 ⟩ ... ⟨⃗vm , ⃗vm ⟩
t
⃗vm

Además, Qt A va a ser triangular superior porque, tal y como hemos constuido la matriz Q, se tiene que
 t 
⃗v1
 −   
 t 
 ⃗v2  ⟨⃗v1 , ⃗a1 ⟩ ⟨⃗v1 , ⃗a2 ⟩ ... ⟨⃗v1 , ⃗an ⟩
t
   ⟨⃗v2 , ⃗a1 ⟩ ⟨⃗v2 , ⃗a2 ⟩ ... ⟨⃗v2 , ⃗am ⟩ 
QA=  −  (⃗a1 | ⃗a2 | ... | ⃗an ) = 
  
 ...  ... ... ... 

 − 
 ⟨⃗
v m , ⃗
a 1 ⟩ ⟨⃗
v m , ⃗a2 ⟩ ... ⟨⃗vm , ⃗am ⟩
t
⃗vm

si i > j, ⟨⃗vi , ⃗aj ⟩ = 0, ya que ⃗aj estará en el espacio generado por los j primeros vectores de la base ortonormal
{⃗v1 , ..., ⃗vn0 } y vi es ortogonal a dicho espacio.

Tomamos entonces R = Qt A y hemos encontrado la descomposición

A = QR

con Q unitaria y R triangular superior.

Para terminar, vamos a comprobar ahora que los términos de la diagonal son no negativos, tenemos que
* Pj−1 +
⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk
⟨⃗vj , ⃗aj ⟩ = Pj−1 , ⃗aj =
⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk
Pj−1 2 Pj−1 2
⟨⃗aj , ⃗aj ⟩ − k=1 ⟨⃗vk , ⃗aj ⟩ ⟨⃗vk , ⃗aj ⟩ ∥⃗aj ∥ − k=1 |⟨⃗vk , ⃗aj ⟩|
= Pj−1 = Pj−1
⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk ⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk

ahora bien,

n
X j
X j
X j−1
X
2 2 2
⃗aj = ⟨⃗vk , ⃗aj ⟩ ⃗vk = ⟨⃗vk , ⃗aj ⟩ ⃗vk =⇒ ∥⃗aj ∥ = |⟨⃗vk , ⃗aj ⟩| ⩾ |⟨⃗vk , ⃗aj ⟩| =⇒
k=1 k=1 k=1 k=1
j−1
X
2 2
=⇒ ∥⃗aj ∥ − |⟨⃗vk , ⃗aj ⟩| ⩾ 0
k=1
a Nótese que, si n > m, podría ocurrir la matriz tuviese algún vector columna nulo y, sin embargo, siga teniendo rango máximo. Desde

luego, en el caso contrario, m ⩾ n, todos los vectores columna deben ser no nulos.

Corolario: descomposición QR de una matriz cuadrada

Sea A ∈ Mn (R) no singular. Existe una única descomposición QR de la matriz

A = QR

tal que los elementos de la diagonal de la matriz triangular superior, R, son estrictamente positivos.

Demostración

15
Desde luego, la existencia de la factorización es consecuencia directa de la proposición anterior.

El hecho de que los elementos de la diagonal de R sean todos no nulos se deduce, directamente, de que el
determinante de la matriz es no nulo.
Pero debemos proceder a probar la unicidad de la factorización, para ello
1. Supongamos que tenemos dos factorizaciones de este tipo

A = Q1 R1 = Q2 R2 =⇒ Qt1 Q2 = R1 R2−1

2. Domo R2 es triangular superior, R2−1 también lo es y, por lo tanto, R1 R2−1 es de nuevo triangular superior,
por lo tanto Qt1 Q2 es triangular superior, tiene los elementos de su diagonal positivosa y
t
Qt1 Q2 Qt1 Q2

=I

3. Ahora bien, como Qt1 Q2 es unitaria, el único modo de que sea triangular superior y con elementos en la
diagonal positivos es que sea la propia identidad. Afirmamos ésto por dos motivos:
−1
a) Qt1 Q2 es triangular superior implica (Qt1 Q2 ) también lo es.
t
b) Qt1 Q2es triangular superior implica (Qt1 Q2 ) es triangular inferior.
−1 t
c) Qt1 Q2es unitaria implica (Qt1 Q2 ) = (Qt1 Q2 ) .
d ) Así pues, Qt1 Q2 es una matriz diagonal tal que, si ai,i son los elementos de su diagonal, a2i,i = 1 pero,
como deben ser positivos ai,i = 1 ∀i.
4. Entonces
Qt1 Q2 = I =⇒ Q1 = Q2 =⇒ R1 = R2
a Estaafirmación resulta evidente si tenemos en cuenta que R1 R2−1 = Qt1 Q2 . Efectivamente
• R1 tiene los elementos de su diagonal positivos
• R2 también y, por lo tanto, R2−1 también los tiene (basta con darnos cuenta de que los menores correspondientes a los elementos de
la diagonal, son todos positivos por ser determinantes de matrices triangulares superior con elementos positivos en la diagonal)
• Los elementos de la diagonal del producto de dos matrices triangulares superior son los productos de los elementos de la diagonal de
cada una de ellas

Ejemplo: factorización QR de una matriz usando el método de Gram-Schmidt

Encontrar la descomposición QR de la matriz


 
1 8 20 40 36
 −1 4 14 2 2 
A= 
 1 8 0 −12 −12 
−1 4 −6 6 6

Tomamos el conjunto libre de vectores de R4 formado por las cuatro primeras columnas de la matriz
n o
t t t t
a1 = (1, −1, 1, −1) , a2 = (8, 4, 8, 4) , a3 = (20, 14, 0, −6) , a4 = (40, 2, −12, 6)

y realizamos el proceso de Gram-Schmidt


 t
a1 1 1 1 1
v1 = = ,− , ,−
∥a1 ∥ 2 2 2 2

a2 − (at2 v1 ) v1
v2 =
∥a2 − (at2 v1 ) v1 ∥

16
pero, como
    1   1
  
   
8 2 2 8 2 6
t
  4    −1   − 12   4   −2   6 
a2 − a2 v1 v1 = 
  − (8, 4, 8, 4)  12
    1
= − = 
8   2
 
2
  8   2   6 
4 − 12 − 12 4 −2 6

por lo tanto
 t
1 1 1 1
v2 = , , ,
2 2 2 2
Ahora
1 1
      
2 2 3
− 12 − 21   −3 
at3 v1 v1 = 
    
(20, 14, 0, −6) 
 1
  1
= 
    3 
2 2
− 12 − 21 −3
y
1 1
      
2 2 7
1 1   7 
at3 v2 v2 = 
    
(20, 14, 0, −6) 
 2   2 = 
1   1   7 
2 2
1 1
2 2
7
y, entonces
 
10 t
t t t

 =⇒ v3 = a3 − (a3 v1 ) v1 − (a3 v2 ) v2 = 1 , 1 , − 1 , − 1
 10 
at3 − at3 v1 v1 − at3 v2 v2 = 
 
 −10  ∥at3 − (at3 v1 ) v1 − (at3 v2 ) v2 ∥ 2 2 2 2
−10

Finalmente,
1 1
      
2 2 5
− 12 − 21   −5 
at4 v1 v1 = 
    
(40, 2, −12, 6) 
 1
 
  1
=
  5 

2 2
− 12 − 21 −5
1 1
      
2 2 9
1 1   9 
at4 v2
    
(40, 2, −12, 6) 
v2 =   2   2 = 
1   1   9 
2 2
1 1
2 2
9
y
1 1
      
2 2 12
1 1   12 
at4 v3 v3 = 
    
(40, 2, −12, 6) 
 2   2 = 
− 12   − 21   −12 
− 12 − 12 −12
y, entonces
 
14
 −14 
at4 − at4 v1 v1 − at4 v2 v2 − at4 v3 v3 = 
  
 −14  =⇒

14
t
at4 − (at4 v1 ) v1 − (at4 v2 ) v2 − (at4 v3 ) v3

1 1 1 1
=⇒ v4 = = ,− ,− ,
∥at4 − (at4 v1 ) v1 − (at4 v2 ) v2 − (at4 v3 ) v3 ∥ 2 2 2 2

Por lo tanto  
1 1 1 1
1 −1 1 1 −1 
Q=  
2  1 1 −1 −1 
−1 1 −1 1

17
y     
1 −1 1 −1 1 8 20 40 36 2 4 6 10 8
t 1 1 1 1 1   −1 4 14 2 2   0 12 14 18 16 
R=QA=   = 
2 1 1 −1 −1   1 8 0 −12 −12   0 0 20 24 22 
1 −1 −1 1 −1 4 −6 6 6 0 0 0 28 26

18

También podría gustarte