Tema 1.1 - Dos Descomposiciones Matriciales
Tema 1.1 - Dos Descomposiciones Matriciales
Tema 1.1 - Dos Descomposiciones Matriciales
Índice
1. Notación y preliminares 1
1. Notación y preliminares
A lo largo de toda la asignatura debemos tener en cuenta una serie de asuntos que pasamos a enumerar
A lo largo de toda la asignatura debemos tener en cuenta una serie de asuntos que pasamos a enumerar
1. Vamos a considerar aplicaciones lineales entre espacios vectoriales. Normalmente los espacios serán Cn o Rn .
2. En cada espacio vectorial consideraremos siempre que tenemos una base definida y escribiremos las coordenadas
de los vectores en dicha base como matrices columna. Igualmente consideraremos que tenemos un producto
interno definido y, por consiguiente, su norma asociada.
3. Denotaremos el espacio vectorial de matrices de m filas y n columnas mediante la expresión Mm,n (K) donde
K representa el cuerpo sobre el que está definida la matriz, es decir, el cuerpo en el que están los elementos que
componen la matriz (habitualmente R o C). En caso de que la matriz sea cuadrada de orden n escribiremos,
símplemente, Mn (K).
4. Dada una matriz A ∈ Mm,n (C) denotaremos mediante A∗ a la matriz traspuesta y conjugada de A, es decir
t
A∗ = A ∈ Mn,m (C)
6. Denotaremos mediante ⟨x, y⟩ al producto escalar de dos vectores de un espacio vectorial dado. Si en dicho espacio
vectorial tenemos definidos más de un producto escalar distinto (cosa que ocurrirá) pondremos un subíndice
indicando de cuál de ellos se trata. Por ejemplo
n
X
⟨x, y⟩ℓ2 (Cn ) = xi yi
k=1
t t
representará el producto escalar euclídeo en Cn de dos vectores x = (x1 ... xn ) e y = (y1 ... yn ) de Cn .
es la norma euclídea de x en Cn .
1
8. Fijémonos que, si tenemos una base ortonormal cualquiera en Cn , B = {e1 , ..., en }, por ejemplo Pn la base canónica,
y expresamos los vectores, x, y ∈ Cn como matrices columna de Mn (C) es decir x = k=1 xk ek tiene como
t Pn
coordenadas X = (x1 , x2 , ..., xn ) ∈ Mn (C) y, análogamente, y = k=1 yk ek tiene como coordenadas Y =
t
(y1 , y2 , ..., yn ) ∈ Mn (C), entonces
x1
n
X x2
{x, y}ℓ2 (Cn ) = xk yk∗ = (y1∗ , y2∗ , ..., yn∗ )
... = Y X
∗
k=1
xn
Es decir, podemos escribir el producto escalar habitual como el producto de las matriz de corrdenadas traspuesta
conjugada del segundo vector por la del primer vector.
1. Si tenemos dos K-espacios vectoriaes U y V , dotados de dos bases BU = {u1 , ..., un } y BV = {v1 , ..., vm },
cualquier aplicación lineal definida entre ellos, f : U −→ V , estará unívocamente determinada por una matriz
de Mm,n (K) cuyas columnas serán las coordenadas de las imágenes de los vectores uk k = 1, ..., n, expresadas
en la base BV .
2. Dado que, normalmente, trabajaremos en Rn o Cn en las bases canónicas, hablaremos de la matriz asociada a
la aplicación lineal sin hacer notar en qué base está expresada dicha matriz a no ser que consideremos necesario
especificarla.
Dados dos espacios vectoriales U y V dotados ambos de producto escalar, si tenemos una aplicación lineal
f : U → V , llamamos aplicación lineal adjunta a f a la única aplicación lineal f ∗ : V → U que
satisface que
⟨f (x) , y⟩V = ⟨x, f ∗ (y)⟩U
para toda pareja de vectores x ∈ U e y ∈ V .
4. En el caso de que los espacios vectoriales sean Cn y Cm y el producto escalar el habitual, podemos enunciar el
siguiente resultado.
Probar esta afirmación es fácil si nos damos cuenta de que podemos escribir el producto escalar como el producto
de matrices coordendas.
Sean X ∈ Mn (Cn ) e Y ∈ Mn (Cm ) son las coordenadas de vectores x ∈ Cn e y ∈ Cm . En este contexto,
sabemos que las coordenadas de f (x) son resultado del producto AX y, entonces
∗
⟨f (x) , y⟩ = ⟨AX, Y ⟩ = Y ∗ AX = (Y ∗ A) X = (A∗ Y ) X = ⟨X, A∗ Y ⟩
Así pues, podemos deducir que las coordenadas de f ∗ (y) son A∗ Y es decir, A∗ es la matriz asociada a la
aplicación lineal adjunta (éste es el motivo por el cual llamamos matriz adjunta de A a la matriz A∗ ).
5. En el caso de que los espacios vectoriales sean Cn y Cm y el producto escalar el habitual, podemos enunciar el
siguiente resultado.
2
Proposición. Matriz de la aplicación adjunta a una dada
Si ocurre que A∗ = A decimos que la matriz (o la aplicación lineal que define) es autoadjunta. En el caso
de que estemos trabajando en el cuerpo de los números reales, la matriz (o la aplicación) será simétrica.
Una matriz cuadrada P ∈ Mn (C) se llama unitaria, si su inversa es su adjunta (traspuesta conjugada),
es decir, P ∗ P = P P ∗ = I.
8. Podemos caracterizar o, al menos, ilustrar la importancia de estas matrices si tenemos en cuenta que, si P =
(p1 |p2 |...|pn ) es una matriz cuyos vectores columna, p1 , p2 , ..., pn forman una base ortonormal de Cn respecto al
producto escalar habitual, ocurre que
p∗1
∗
p∗1 p2 p∗1 pn
p1 p1 ...
∗
p∗2 p∗2 p1 p∗2 p2 ... p∗2 pn
... (p1 |p2 |...|pn ) = ...
P P = =
... ...
p∗n p∗n pn p∗n p2 ... p∗n pn
⟨p1 , p1 ⟩ ⟨p2 , p1 ⟩ ... ⟨pn , p1 ⟩
⟨p1 , p2 ⟩ ⟨p2 , p2 ⟩ ... ⟨pn , p2 ⟩
=
=I
... ... ...
⟨p1 , pn ⟩ ⟨p2 , pn ⟩ ... ⟨pn , pn ⟩
Una matriz de Mn (C) con distintos autovalores {λ1 , ..., λp }, 1 ⩽ p ⩽ n, es diagonalizable si, y sólo si,
Cn = Eλ1 + ... + Eλp donde por Eλk representamos el espacio generado por los vectores propios asociados
al valor propio λk .
3
• Ahora bien, en el conjunto {dk }k=1,...,n puede haber valores repetidos, representamos entonces mediante
{λ1 , ..., λp } a los valores distintos del conjunto anterior y, entonces, podemos concluir que Cn = Eλ1 +
... + Eλp
Decimos que una matriz A ∈ Mn (C) se puede reducir a una forma triangular si existe una matriz no singular P y
una matriz triangular T tales que
A = P T P −1
Cualquer matriz A ∈ Mn (C) se puede reducir a una forma triangular mediante un cambio de base.
Si ahora elegimos {e2 , ..., en+1 } hasta conseguir una base de Cn+1 , podremos encontrar coeficientes aj y bi,j tales
Pn+1
que Aej = aj e1 + i=2 bi,j ei , donde (aj , b2,j , ..., bn,j ) son las coordenadas de Aej ∈ Cn en la base elegida.
Si denotamos mediante B a la matriz que contiene los coeficientes bi,j es decir B = (bi,j ) ∈ Mn (C) y consideramos
la matriz de cambio de base de la canónica a {e1 , ..., en+1 } tendremos
λ1 a2 ... an
0
P1−1 AP1 =
... B
0
Ahora podremos encontrar P2 ∈ Mn (C), no singular, y una matriz triangular, T2 ∈ Mn (C), tales que B =
P2 T2 P2−1 .
Así, si
1 0 ... 0
P3 =
... P2
0
Tomando P = P1 P3 tenemos
P −1 AP = T
siendo T triangular.
Dada una matriz, A ∈ Mn (C), podemos encontrar una matriz unitaria P , es decir P ∗ = P −1 , tal que P ∗ AP es
triangular.
4
Sea Q es la matriz de cambio de base que triangulariza la matriz A (existe siempre por el teorema anterior),
entonces T = Q−1 AQ con T triangular superior.
Ahora, denotamos mediante {⃗q1 , ⃗q2 , ..., ⃗qn } a la base de vectores de Cn que constituyen las columnas de Q y
aplicamos el proceso de Gram-Schimdt para conseguir la base ortonormal {⃗ p1 , p⃗2 , ..., p⃗n } tenemos
Pi−1
⃗qi − j=1 ⟨⃗
pj , ⃗qi ⟩ p⃗j
p⃗i = Pi−1 ∀i = 1, 2, ..., n =⇒
⃗qi − j=1 ⟨⃗
pj , ⃗qi ⟩ p⃗j
i−1
X i−1
X
=⇒ ⃗qi = pj , ⃗qi ⟩ p⃗j + ⃗qi −
⟨⃗ pj , ⃗qi ⟩ p⃗j p⃗i ∀i = 1, 2, ..., n
⟨⃗
j=1 j=1
Es decir, cada ⃗qi está en el espacio generado por los i primeros elementos de la base ortonormal {⃗
p1 , p⃗2 , ..., p⃗n },
dicho de otro modo, existe una matriz triangular superior U , tal que
Q = P U ⇐⇒ P = QU −1
y, por lo tanto
−1
P ∗ AP = QU −1 AQU −1 = U Q−1 AQU −1 = U T U −1
Para terminar, por ser U triangular superior, U −1 también lo es, lo cual implica que P ∗ AP es producto de tres
matrices triangulares superiores y, por lo tanto, triangular superior.
A∗ A = AA∗
Una matriz A ∈ Mn (C) es normal, es decir AA∗ = A∗ A, si, y sólo si, existe una matriz unitaria P tal que
A = P DP −1 = P DP ∗
siendo D diagonal.
Demostración
Necesidad
i) Supongamos que existe una matriz unitaria P , es decir P −1 = P ∗ , y otra diagonal D tales que A = P DP ∗ .
ii) Es evidente que
∗
AA∗ = (P DP ∗ ) (P DP ∗ ) = (P DP ∗ ) (P D∗ P ∗ ) = P DP ∗ P D∗ P ∗ = P DD∗ P ∗
∗ ∗
A∗ A (P DP ∗ ) (P DP ∗ ) = (P ∗ ) D∗ P ∗ (P DP ∗ ) = P DP ∗ P D∗ P ∗ = P D∗ DP ∗
=
5
ii) Si hacemos la triangularización de Schur, encontraremos una matriz unitaria, P (recordemos que P ∗ = P −1 ),
tal que A = P T P ∗ siendo T una matriz triangular superior.
iii) Entonces, tenemos
∗
AA∗ = (P T P ∗ ) (P T P ∗ ) = P T P ∗ P T ∗ P ∗ = P T T ∗ P ∗
∗
A∗ A = (P T P ∗ ) (P T P ∗ ) = P T ∗ P ∗ P T P ∗ = P T ∗ T P ∗
n mı́n(i,j)
X X
t1i,j = t2i,j ⇒ ti,k tj,k = tk,i tk,j
k=máx(i,j) k=1
n
X i
X
2 2
t1i,i = t2i,i ⇒ |ti,k | = |tk,i | =⇒
k=i k=1
n
X i−1
X
2 2
=⇒ |ti,k | = |tk,i | ⇒ ti,k = tk,i = 0 ∀k ̸= i
k=i+1 k=1
v) Entonces, concluimos que T es, en realidad, diagonal y, por lo tanto, la matriz de cambio de base ortogonal
P diagonaliza la matriz normal A.
Una matriz, A ∈ Mn (C), es autoadjunta (o de Hermite) si, y sólo si es diagonalizable en una base ortonormal y sus
autovalores son reales.
Demostración
Suficiencia
i) Suponemos que A es autoadjunta, es decir A∗ = A, lo cual implica que es normal.
ii) Entonces, por el teorema anterior, existe un cambio de base ortonormal, es decir, una matriz P unitaria y
tal que A = P ∗ DP siendo D una matriz diagonal.
iii) Sólo falta ver que sus autovectores son reales, para ello, supongamos que λ y v son un valor propio y un
vector propio asociado a él, entonces
2
⟨Av, v⟩ = ⟨λv, v⟩ = λ ∥v∥
2
⟨v, Av⟩ = ⟨v, λv⟩ = λ ∥v∥
6
iv) Ahora bien, como A es autoadjunta ⟨Av, v⟩ = ⟨v, Av⟩ =⇒ λ = λ es decir, λ es real.
Necesidad.
1. Supongamos que A es diagonalizable en una base ortonormal con autovalores reales.
2. Entonces existe una matriz de cambio de base P y una diagonal D tales que A = P DP ∗
3. Pero, en este caso A∗ = (P ∗ )∗ D∗ P ∗ y como los autovalores son reales, D = D∗ , entonces
A∗ = P DP ∗ = A
es decir A es autoadjunta.
Los valores singulares de una matriz A ∈ Mm,n (C) son las raíces cuadradas de los autovalores no nulos de A∗ A.
Sea A ∈ Mm,n (C) y B ∈ Mn,m (C). Los autovalores no nulos de las matrices AB y BA son los mismos y, por lo tanto,
también lo son sus valores singulares.
Demostración
Supongamos que λ es un autovalor no nulo de AB, existirá entonces un autovector asociado x, tal que ABx = λx.
El autovector x no puede estar en el núcleo de B ya que, si lo estuviese, tendríamos que Bx = 0 pero, en ese
caso ABx = 0 y, por lo tanto x no podría ser un autovector de AB con autovalor no nulo.
Así pues, multiplicando por la izquierda por la matriz B, BABx = λBx, es decir, Bx es un autovector no nulo
de BA con autovalor λ.
Los valores singulares de A y A∗ son iguales, para toda matriz A ∈ Mm,n (C).
Proposición: relación de los valores singulares con los autovalores de una matriz normal
Los valores singulares de una matriz normal son los módulos de sus autovalores no nulos.
Demostración
Si A es normal, existe P unitaria tal que A = P DP ∗ , donde D es la matriz diagonal que contiene sus autovalores.
Como A∗ A = P ∗ D∗ DP deducimos que A∗ A y D∗ D tienen los mismos autovalores.
Para terminar sólo hace faltan notar que D∗ D es una matriz diagonal cuyos elementos no nulos son los módulos
al cuadrado de los autovalores de A.
7
Teorema: descomposición en valores singulares, SVD
Sea A ∈ Mm,n (C) una matriz que tiene r valores singulares positivos. Existen dos matrices unitarias U ∈ Mn (C) y
V ∈ Mm (C) y una matriz diagonal Σ
e ∈ Mm,n (R) tal que A = V ΣU e ∗y
Σ 0r×(n−r)
Σ=
e
0(m−r)×r 0(m−r)×(n−r)
donde Σ = diag(µ1 , ..., µr ), siendo µ1 ⩾ µ2 ⩾ ... ⩾ µr > 0 los valores singulares de A y 0j,k es la matriz nula de j filas
y k columnas.
Demostración
Sabemos que la matriz A ∈ Mm×n (C), por lo tanto, tiene, a lo sumo, un número de valores singulares igual a
mı́n (m, n).
Consideramos que tiene r valores singulares, es ecir, que la matriz A∗ A tiene r autovalores positivos µ21 , ..., µ2r
(los cuadrados de los valores singulares de A) que ordenamos de modo descendente µ1 ⩾ µ2 ⩾ ... ⩾ µr ⩾ 0.
Dado que la matriz A∗ A es normal, existe una matriz unitaria U ∈ Mn (R), tal que
y es claro que
U ∗ A∗ AU = Σ
e tΣ
e
Consideramos ahora
diag µ−1 −1
S= 1 , ..., µr 0r×(m−r)
∈ Mn,m (C)
0(n−r)×r 0(n−r)×(m−r)
y denotamos
V = AU S ∈ Mm×m (C)
ii)
8
iii)
U ∗ A∗ V = U ∗ A∗ AU S = Σ e t ΣS
e =
diag µ21 , ..., µ2r diag µ−1 −1
0r×(r−n) 1 , ..., µr 0r×(m−r)
= =
0(n−r)×r 0(n−r)×(n−r) 0(n−r)×r 0(n−r)×(m−r)
diag (µ1 , ..., µr )
0r×(m−r) e∗
= =Σ
0(n−r)×r 0(n−r)×(m−r)
Lo único que falta comprobar es que V es unitaria, es decir, que V V ∗ = Im×m . Si hacemos las cuentas directa-
mente, veremos que no, ya que, por los comentarios inmediatamente anteriores, de (3) tenemos que V ∗ AU = Σ, e
y teniendo en cuenta (2) , entonces
∗ ∗ Ir×r 0r×(m−r)
V V = V AU S = ΣS =
e
0(m−r)×r 0(m−r)×(m−r)
V = AU S =
diag µ−1 −1
Mr×r Mr×(n−r) 1 , ..., µr 0r×(m−r)
= =
M(m−r)×r M(m−r)×(n−r) 0(n−r)×r 0(n−r)×(m−r)
Mr×r diag µ−1 , ..., µ−1
1 r 0r×(m−r)
=
M(m−r)×r diag µ−1 −1
1 , ..., µr 0(m−r)×(m−r)
Es decir, los vectores cuyas columnas forman la matriz V no forman una base de Cm ya que, los m − r últimos
son nulos.
Así pues, distingimos dos casos:
de modo que, V = AU S + Ve , sea unitaria (es decir, completamos el conjunto de columnas no nulas de AU S
hasta conseguir una base ortonormal de Cm ), entonces
e ∗ = AU S + Ve ΣU
V ΣU e ∗ = AU S ΣUe ∗ + Ve ΣU
e ∗ = A + Ve ΣU
e ∗
Ahora bien
9
Queremos hacer la descomposición en valores singulares de la matriz
3 1 1
A=
1 −3 1
10 − λ 0 4
2
|A∗ A − λI| = 0 10 − λ −2 = (10 − λ) (2 − λ) − 16 (10 − λ) − 4 (10 − λ) =
4 −2 2−λ
= (10 − λ) [(10 − λ) (2 − λ) − 20] = (10 − λ) (λ − 12) λ
√ √ √
y podemos tomar como vector v1 = (2, −1, 1) que, normalizando, nos da e1 = 6 6
3 ,− 6 , 6
6
√ √
y, así, v2 = (1, 2, 0) y, normalizando, e2 = 5
5 2 5
, 5 , 0 .
5. Finalmente, si λ = 0
10x + 4z = 0
z = 5y
ker (A − 0I) ≡ 10y − 2z = 0 ≡
x = −2y
4x − 2y + 2z = 0
√ √ √
por lo tanto, v3 = (−2, 1, 5) y e3 = − 1530 , 3030 , 630 .
6. Teniendo en cuenta la base ortonormal de vectores que hemos obtenido, tenemos que la matriz de cambio de
base, U , es unitaria y √ √ √
6 5 30
−
3√ 5
√ √ 15
U = − 66 2 5 5 30
√ √30
6 30
6 0 6
√ √
7. Además, los valores singulares de la matriz son, µ1 = 2 3, µ2 = 10
8. Consideramos la matriz √
2 3 √0 0
Σ
e=
0 10 0
10. Si consideramos
1
0
√
2 3
S= 0 √1
10
0 0
10
tendremos
√ √ √
6 5 1
−√ 1530 0
√
3√ 5
2 3
3 1 1 √
V = AU S = −√ 66 2 5 30 0 √1 =
1 −3 1 5 √30
10
6 30 0 0
6 0 6
√ √
2 2 √ √ !
6√ 10 2 2
3 1 1 √
= −√122 2
= √2 2√
1 −3 1 5 2
− 22
2 2
12 0
11. Finalmente √ √ √ ∗
6 5
√
2
√
2
! √ 3√ 5
√
−√ 1530
e ∗= 2 3 √0 0
A = V ΣU √2 2√
−√ 66 2 5 30
2
− 22 0 10 0 5 √30
2 6 30
6 0 6
2−λ 2 2
2
|A∗ A − λI| = 2 2−λ 2 = (2 − λ) + 16 − 12 (2 − λ) = −λ3 + 6λ2 = λ2 (6 − λ)
2 2 2−λ
√ √ √
y podemos tomar como vector v1 = (1, 1, 1) que, normalizando, nos da e1 = 3 3
3 , 3 , 3
3
λ + µ + 2λ + 2µ = 0 =⇒ λ = −µ =⇒ v3 = (1, −1, 0)
√ √ √ √ √
c) Ahora, normalizando, e2 = 6
6
, 6
6
, − 3
6
y e3 = 2
2
, − 2
2
, 0 .
11
5. Teniendo en cuenta la base ortonormal de vectores que hemos obtenido, tenemos que la matriz de cambio de
base, U , es unitaria y √ √ √
3 6 2
√3 √6 2√
3 6
U = − 22
√3 6√
3
3 − 66 0
√
6. Además, el único valor singular no nulo es µ1 = 6
7. Consideramos la matriz √
6 0 0
Σ
e=
0 0 0
9. Si consideramos
√1
6
0
S= 0 0
0 0
tenemos
√ √ √
3 6 2 √1
√3 √6 2√ 6
0
1 1 1 3 6
Ve = AU S = − 22 0 0 =
1 1 1 √3 6√
3
− 66 0 0 0
3
√
2 √
√6
0 2
!
1 1 1 2 √2
0
= 0 =
1 1 1 √6 2
0
2 2
6 0
10. La matriz Ve sale singular puesto que el único vector que sale no nulo es el correspondiente al único valor singular
no nulo. Para obtener una matriz no singular, completamos la base hasta obtener una ortornormal
√ √ !
2 2
V = √2 2√
2
2 − 22
11. Y
√ √ √ ∗
√ √ ! √ 3 6 2
2 2 √3 √6 2√
e ∗= 6 0 0 3 6
A = V ΣU √2 2√
− 22 =
2
− 22 0 0 0 √3 6√
3
2
3 − 66 0
√ √ √
√ 3 3 3
√3 √3 3√
= √3 0 0 6 6
− 66 =
1 1 1
3 0 0 √6 6√ 1 1 1
2
2 − 22 0
12. Cualquier vector que hubiésemos elegido para completar la base valdría, ya que
√ √ √ ∗
√ ! √ 3 6 2
2 √3 √6 2√
a 6 0 0 3 6
√2 − 22 =
2 0 0 0
√3 6√
b 3
2
3 − 66 0
√ √ √
√ 3 3 3
√3 √3 3√
= √3 0 0 6 6
− 66 =
1 1 1
3 0 0 √6 6√ 1 1 1
2
2 − 22 0
12
Sea A = V ΣU
e ∗ la descomposición en valores singulares de una matriz A ∈ Mm,n (C) que tiene r valores singulares no
nulos. Llamamos pseudoinversa de A a la matriz A⋆ ∈ Mn,m (C) definida como
e ⋆V ∗
A⋆ = U Σ
con
Σ−1
e⋆ = 0r×(m−r)
Σ ∈ Mn,m (C)
0(n−r)×r 0(n−r)×(m−r)
2. m ⩾ n ⇒ A⋆ A = I ∈ Mn (C)
Demostración
1. Sabemos que
√ √ √ ∗
6 5
√
2 2
√ ! √ 3√ 5
√
−√ 1530
e ∗= 2 3 √0 0
A = V ΣU √2 2√
−√ 66 2 5 30
2
− 22 0 10 0 5 √30
2 6 30
6 0 6
2. Consideramos la matriz !t √ !t
1 3
√ 0 0 0 0
e⋆ =
Σ 2 3 = 6 √
0 √1 0 0 10
0
10 10
3. Entonces
√ √ √ ∗
6 5
t √
2
√
2
! √
3
!
3√ 5
√
−√ 1530
∗
0 0
(A⋆ ) = V Σ
e⋆ U∗ = √2 2√ 6 √ −√ 66 2 5 30
=
2
− 22 10 5 √30
2 0 10 0 6 30
6 0 6
√ √ √
6
√
6
√
2 5
!
√3
−√66 6
6 4 7 1
12
√ 10√ 0 5 2 5 15 60 12
= 0 =
1
6
− 2105 5
√ √5 √ − 17 1
0 15 60 12
12
− 1530 30
30
30
6
13
4. Por lo tanto
4 1
15 15
A⋆ = 7
60 − 17
60
1 1
12 12
5. Si comprobamos, tendremos
16 4
3 1 1 60 60 1 0
AA⋆ = 7
− 17 =
1 −3 1 60
5 5
60 0 1
60 60
A = QR
donde Q es una matriz unitaria y R es una matriz triangular superior con elementos no negativos en su diagonal.
Demostración
Supongamos que A = (ai,j )i=1,...m;j=1,...,n y llamamos ⃗aj ∈ Rm , j = 1, ..., n, a los vectores columna de A.
Dado que A tiene rango máximo, llamando n0 = mı́n (m, n), podemos encontrar un conjunto de n0 índices
distintos, {jk }k=1,...,n0 tales que el conjunto de vectores ⃗aj1 , ..., ⃗ajn0 es un sistema linealmente independiente
de Rm procediendo del siguiente modo: j1 será el índice del primer vector no nuloa del sistema {⃗a1 , ..., ⃗an } y,
recursivamente, tomaremos para cada k > 1, el primer índice de la lista jk−1 + 1, ..., n que haga que el sistema
{⃗aj1 , ..., ⃗ajk } sea linealmente independiente. Cuando hayamos elegido n0 vectores, tendremos el sistema deseado.
Una vez que tenemos este conjunto de vectores hay dos posibilidades
1. m ⩽ n y, entonces, forzosamente, forman una base de Rm
2. m > n, en cuyo caso, podremos completar el conjunto con m − n vectores más hasta conseguir una base de
Rm .
En cualquiera de los casos, conseguimos una base de Rm en la cual, los n0 primeros vectores se han elegido como
hemos descrito.
Consideramos la matriz cuyas columnas están formadas por los vectores obtenidos
14
que, evidentemente, es unitaria ya que
t
⃗v1
−
t
⃗v2 ⟨⃗v1 , ⃗v1 ⟩ ⟨⃗v1 , ⃗v2 ⟩ ... ⟨⃗v1 , ⃗vm ⟩
t
⟨⃗v2 , ⃗v1 ⟩ ⟨⃗v2 , ⃗v2 ⟩ ... ⟨⃗v2 , ⃗vm ⟩
QQ= − (⃗v1 | ⃗v2 | ... | ⃗vm ) =
= Im
... ... ... ...
−
⟨⃗
v m , ⃗v1 ⟩ ⟨⃗vm , ⃗v2 ⟩ ... ⟨⃗vm , ⃗vm ⟩
t
⃗vm
Además, Qt A va a ser triangular superior porque, tal y como hemos constuido la matriz Q, se tiene que
t
⃗v1
−
t
⃗v2 ⟨⃗v1 , ⃗a1 ⟩ ⟨⃗v1 , ⃗a2 ⟩ ... ⟨⃗v1 , ⃗an ⟩
t
⟨⃗v2 , ⃗a1 ⟩ ⟨⃗v2 , ⃗a2 ⟩ ... ⟨⃗v2 , ⃗am ⟩
QA= − (⃗a1 | ⃗a2 | ... | ⃗an ) =
... ... ... ...
−
⟨⃗
v m , ⃗
a 1 ⟩ ⟨⃗
v m , ⃗a2 ⟩ ... ⟨⃗vm , ⃗am ⟩
t
⃗vm
si i > j, ⟨⃗vi , ⃗aj ⟩ = 0, ya que ⃗aj estará en el espacio generado por los j primeros vectores de la base ortonormal
{⃗v1 , ..., ⃗vn0 } y vi es ortogonal a dicho espacio.
A = QR
Para terminar, vamos a comprobar ahora que los términos de la diagonal son no negativos, tenemos que
* Pj−1 +
⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk
⟨⃗vj , ⃗aj ⟩ = Pj−1 , ⃗aj =
⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk
Pj−1 2 Pj−1 2
⟨⃗aj , ⃗aj ⟩ − k=1 ⟨⃗vk , ⃗aj ⟩ ⟨⃗vk , ⃗aj ⟩ ∥⃗aj ∥ − k=1 |⟨⃗vk , ⃗aj ⟩|
= Pj−1 = Pj−1
⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk ⃗aj − k=1 ⟨⃗vk , ⃗aj ⟩ ⃗vk
ahora bien,
n
X j
X j
X j−1
X
2 2 2
⃗aj = ⟨⃗vk , ⃗aj ⟩ ⃗vk = ⟨⃗vk , ⃗aj ⟩ ⃗vk =⇒ ∥⃗aj ∥ = |⟨⃗vk , ⃗aj ⟩| ⩾ |⟨⃗vk , ⃗aj ⟩| =⇒
k=1 k=1 k=1 k=1
j−1
X
2 2
=⇒ ∥⃗aj ∥ − |⟨⃗vk , ⃗aj ⟩| ⩾ 0
k=1
a Nótese que, si n > m, podría ocurrir la matriz tuviese algún vector columna nulo y, sin embargo, siga teniendo rango máximo. Desde
luego, en el caso contrario, m ⩾ n, todos los vectores columna deben ser no nulos.
A = QR
tal que los elementos de la diagonal de la matriz triangular superior, R, son estrictamente positivos.
Demostración
15
Desde luego, la existencia de la factorización es consecuencia directa de la proposición anterior.
El hecho de que los elementos de la diagonal de R sean todos no nulos se deduce, directamente, de que el
determinante de la matriz es no nulo.
Pero debemos proceder a probar la unicidad de la factorización, para ello
1. Supongamos que tenemos dos factorizaciones de este tipo
A = Q1 R1 = Q2 R2 =⇒ Qt1 Q2 = R1 R2−1
2. Domo R2 es triangular superior, R2−1 también lo es y, por lo tanto, R1 R2−1 es de nuevo triangular superior,
por lo tanto Qt1 Q2 es triangular superior, tiene los elementos de su diagonal positivosa y
t
Qt1 Q2 Qt1 Q2
=I
3. Ahora bien, como Qt1 Q2 es unitaria, el único modo de que sea triangular superior y con elementos en la
diagonal positivos es que sea la propia identidad. Afirmamos ésto por dos motivos:
−1
a) Qt1 Q2 es triangular superior implica (Qt1 Q2 ) también lo es.
t
b) Qt1 Q2es triangular superior implica (Qt1 Q2 ) es triangular inferior.
−1 t
c) Qt1 Q2es unitaria implica (Qt1 Q2 ) = (Qt1 Q2 ) .
d ) Así pues, Qt1 Q2 es una matriz diagonal tal que, si ai,i son los elementos de su diagonal, a2i,i = 1 pero,
como deben ser positivos ai,i = 1 ∀i.
4. Entonces
Qt1 Q2 = I =⇒ Q1 = Q2 =⇒ R1 = R2
a Estaafirmación resulta evidente si tenemos en cuenta que R1 R2−1 = Qt1 Q2 . Efectivamente
• R1 tiene los elementos de su diagonal positivos
• R2 también y, por lo tanto, R2−1 también los tiene (basta con darnos cuenta de que los menores correspondientes a los elementos de
la diagonal, son todos positivos por ser determinantes de matrices triangulares superior con elementos positivos en la diagonal)
• Los elementos de la diagonal del producto de dos matrices triangulares superior son los productos de los elementos de la diagonal de
cada una de ellas
Tomamos el conjunto libre de vectores de R4 formado por las cuatro primeras columnas de la matriz
n o
t t t t
a1 = (1, −1, 1, −1) , a2 = (8, 4, 8, 4) , a3 = (20, 14, 0, −6) , a4 = (40, 2, −12, 6)
a2 − (at2 v1 ) v1
v2 =
∥a2 − (at2 v1 ) v1 ∥
16
pero, como
1 1
8 2 2 8 2 6
t
4 −1 − 12 4 −2 6
a2 − a2 v1 v1 =
− (8, 4, 8, 4) 12
1
= − =
8 2
2
8 2 6
4 − 12 − 12 4 −2 6
por lo tanto
t
1 1 1 1
v2 = , , ,
2 2 2 2
Ahora
1 1
2 2 3
− 12 − 21 −3
at3 v1 v1 =
(20, 14, 0, −6)
1
1
=
3
2 2
− 12 − 21 −3
y
1 1
2 2 7
1 1 7
at3 v2 v2 =
(20, 14, 0, −6)
2 2 =
1 1 7
2 2
1 1
2 2
7
y, entonces
10 t
t t t
=⇒ v3 = a3 − (a3 v1 ) v1 − (a3 v2 ) v2 = 1 , 1 , − 1 , − 1
10
at3 − at3 v1 v1 − at3 v2 v2 =
−10 ∥at3 − (at3 v1 ) v1 − (at3 v2 ) v2 ∥ 2 2 2 2
−10
Finalmente,
1 1
2 2 5
− 12 − 21 −5
at4 v1 v1 =
(40, 2, −12, 6)
1
1
=
5
2 2
− 12 − 21 −5
1 1
2 2 9
1 1 9
at4 v2
(40, 2, −12, 6)
v2 = 2 2 =
1 1 9
2 2
1 1
2 2
9
y
1 1
2 2 12
1 1 12
at4 v3 v3 =
(40, 2, −12, 6)
2 2 =
− 12 − 21 −12
− 12 − 12 −12
y, entonces
14
−14
at4 − at4 v1 v1 − at4 v2 v2 − at4 v3 v3 =
−14 =⇒
14
t
at4 − (at4 v1 ) v1 − (at4 v2 ) v2 − (at4 v3 ) v3
1 1 1 1
=⇒ v4 = = ,− ,− ,
∥at4 − (at4 v1 ) v1 − (at4 v2 ) v2 − (at4 v3 ) v3 ∥ 2 2 2 2
Por lo tanto
1 1 1 1
1 −1 1 1 −1
Q=
2 1 1 −1 −1
−1 1 −1 1
17
y
1 −1 1 −1 1 8 20 40 36 2 4 6 10 8
t 1 1 1 1 1 −1 4 14 2 2 0 12 14 18 16
R=QA= =
2 1 1 −1 −1 1 8 0 −12 −12 0 0 20 24 22
1 −1 −1 1 −1 4 −6 6 6 0 0 0 28 26
18