Tarea 9 Diagonalizacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 11

312 Capítulo 4 Eigenvalores y eigenvectores

Encuentre el término constante y el coeficiente de ln!1 que el producto de todos los eigenvalores de AB es
en los lados izquierdo y derecho de esta ecuación.] el producto de todos los eigenvalores de A y B
41. Sean A y B matrices de n " n. Demuestre que la suma individualmente. (Compare este ejercicio con el
de todos los eigenvalores de A # B es la suma de ejercicio 24.)
todos los eigenvalores de A y B individualmente. Pruebe 42. Pruebe el Teorema 4.19.

4.4 Semejanza y diagonalización


Como vio en la última sección, las matrices triangulares y diagonales son agradables en
el sentido de que sus eigenvalores se muestran con transparencia. Sería agradable si pu-
diera relacionarse una matriz cuadrada dada con una triangular o diagonal en tal forma
que tuvieran exactamente los mismos eigenvalores. Desde luego, ya conoce un procedi-
miento para convertir una matriz cuadrada en forma triangular, a saber, la eliminación
gaussiana. Por desgracia, este proceso no conserva los eigenvalores de la matriz. En esta
sección se considera un tipo diferente de transformación de una matriz que se comporta
bien con respecto a los eigenvalores.

Matrices semejantes

Definición Sean A y B matrices de n " n. Se dice que A es semejante a B si existe


una matriz invertible P de n " n tal que P !1AP $ B. Si A es semejante a B, se escribe
A ! B.

Comentarios
• Si A ! B, puede escribir, de modo equivalente, que A $ PBP !1 o AP $ PB.
• La semejanza es una relación entre matrices en el mismo sentido que “menor que
o igual a” es una relación entre enteros. Note que en la definición hay una dirección (u
orden) implícita. Como a % b no necesariamente implica b % a, no debe suponer que
A ! B implica B ! A. (De hecho, esto es cierto, como se demostrará en el siguiente teo-
rema, pero no se deduce inmediatamente de la definición.)
• La matriz P depende de A y B. No es única para un par dado de matrices A y B
similares. Para ver esto, simplemente tome A $ B $ I, en cuyo caso I ! I, pues P !1IP $ I
para cualquier matriz invertible P.

Ejemplo 4.22 1 2 1 0
Sea A $ c d yB $ c d . Entonces A ! B, dado que
0 !1 !2 !1

1 2 1 !1 3 1 1 !1 1 0
c dc d $ c d $ c dc d
0 !1 1 1 !1 !1 1 1 !2 !1
1 !1
Por tanto, AP $ PB con P $ c d . (Note que no es necesario calcular P !1. Vea el
1 1
primer Comentario en la página anterior.)
Sección 4.4 Semejanza y diagonalización 313

Teorema 4.21 Sean A, B y C matrices de n " n.


a. A ! A
b. Si A ! B, entonces B ! A.
c. Si A ! B y B ! C, entonces A ! C.

Demostración (a) Esta propiedad surge del hecho de que I !1AI $ A.


(b) Si A ! B, entonces P !1AP $ B para alguna matriz invertible P. Como se hizo notar
en el primer Comentario de la página anterior, esto es equivalente a PBP !1 $ A. Al hacer
Q $ P !1, se tiene Q!1BQ $ (P !1)!1BP !1 $ PBP !1 $ A. Por tanto, por definición,
B ! A.
(c) En el ejercicio 30 se le pide demostrar la propiedad (c).

Comentario Cualquier relación que satisfaga las tres propiedades del Teorema 4.21
se llama relación de equivalencia. Las relaciones de equivalencia surgen frecuentemente
en matemáticas, y los objetos que se conectan vía una relación de este tipo por lo gene-
ral comparten propiedades importantes. Está a punto de ver que esto también es cierto
para las matrices semejantes.

Teorema 4.22 Sean A y B matrices de n " n con A ! B. Entonces


a. det A $ det B
b. A es invertible si y sólo si B es invertible.
c. A y B tienen el mismo rank.
d. A y B tienen el mismo polinomio característico.
e. A y B tienen los mismos eigenvalores.

Demostración Se demuestran (a) y (d) y las propiedades restantes se dejan como ejer-
cicios. Si A ! B, entonces P !1AP $ B para alguna matriz invertible P.

(a) Al tomar determinantes de ambos lados, se tiene


det B $ det1P!1AP2 $ 1 det P!1 2 1 det A2 1 det P2

1
$ a b 1 det A2 1 det P2 $ det A
det P
(d) El polinomio característico de B es

det 1B ! lI2 $ det 1P!1AP ! lI2

$ det 1P!1AP ! lP!1IP2

$ det 1P!1AP ! P!1 1lI2P2

$ det 1P!1 1A ! lI2P2 $ det 1A ! lI2


y el último paso procede como en (a). Por tanto, det(B ! lI ) $ det(A ! lI ); esto es, los
polinomios característicos de B y A son los mismos.
314 Capítulo 4 Eigenvalores y eigenvectores

Comentario Dos matrices pueden tener en común las propiedades (a) a (e)
1 0 1 1
(y más) y aún así no ser semejantes. Por ejemplo, A $ c d yB $ c d tienen de-
0 1 0 1
terminante 1 y rank 2, son invertibles y tienen polinomio característico (1 ! l)2 y eigen-
valores l1 $ l2 $ 1. Pero A no es semejante a B, pues P!1AP $ P!1IP $ I & B para cual-
quier matriz invertible P.
El Teorema 4.22 es más útil para demostrar que dos matrices no son semejantes, pues
A y B no pueden ser semejantes si falla alguna de las propiedades de la (a) a la (e).

Ejemplo 4.23 1 2 2 1
(a) A $ c d yB$ c d no son semejantes, pues det A $ !3 pero det B $ 3.
2 1 1 2
1 3 1 1
(b) A $ c d yB$ c d no son semejantes, pues el polinomio característico
2 2 3 !1
IIIII
de A es l2 ! 3l ! 4 mientras que el de B es l2 ! 4. (Compruébelo.) Sin embargo, note
!!

"

que A y B tienen los mismos determinante y rank.

Diagonalización
La mejor situación posible es cuando una matriz cuadrada es semejante a una matriz
diagonal. Como está a punto de ver, el que una matriz sea diagonalizable está estrecha-
mente relacionado con los eigenvalores y eigenvectores de la matriz.

Definición Una matriz A de n " n es diagonalizable si existe una matriz diago-


nal D tal que A sea semejante a D; esto es, si existe una matriz invertible P de n " n tal
que P !1AP $ D.

Ejemplo 4.24 A$ c
1 3
d es diagonalizable pues, si P $ c
1 3
d yD$ c
4 0
d, entonces P!1AP $ D,
2 2 1 !2 0 !1
como puede comprobarse fácilmente. (En realidad, es más rápido comprobar el enun-
ciado equivalente AP $ PD, pues no requiere encontrar P !1.)

El ejemplo 4.24 plantea la pregunta de dónde pueden provenir las matrices P y D.


Observe que las entradas diagonales 4 y !1 de D son los eigenvalores de A, pues son las
raíces de su polinomio característico, que se encontró en el ejemplo 4.23(b). El origen de
la matriz P es menos obvio, pero, como está a punto de demostrarse, sus entradas se ob-
tienen de los eigenvectores de A. El Teorema 4.23 precisa esta conexión.

Teorema 4.23 Sea A una matriz de n " n. Entonces A es diagonalizable si y sólo si A tiene n eigen-
vectores linealmente independientes.
Más precisamente, existe una matriz invertible P y una matriz diagonal D tales que
P !1AP $ D si y sólo si las columnas de P son n eigenvectores linealmente independien-
tes de A y las entradas de la diagonal de D son los eigenvalores de A correspondientes a
los eigenvectores en P en el mismo orden.
Sección 4.4 Semejanza y diagonalización 315

Demostración Suponga primero que A es similar a la matriz diagonal D vía P !1AP $ D


o, de manera equivalente, AP $ PD. Sean p1, p2, . . . , pn las columnas de P y sean l1,
l2, . . . , ln. las entradas de la diagonal de D. Entonces
l1 0 p 0
0 l2 p 0
A3p1 p2 p pn 4 $ 3p1 p2 p pn 4 ≥ ¥ (1)
o o ∞ o
0 0 p ln
o 3Ap1 Ap2 p Apn 4 $ 3l1p1 l2p2 p lnpn 4 (2)

donde el lado derecho es justo la representación columna-renglón del producto PD. Al


igualar las columnas se tiene
Ap1 $ l1p1, Ap2 $ l2p2, . . . , Apn $ lnpn
lo que demuestra que los vectores columna de P son eigenvectores de A cuyos eigenvalo-
res correspondientes son las entradas diagonales de D en el mismo orden. Dado que P es
invertible, sus columnas son linealmente independientes, por el teorema fundamental de
las matrices invertibles.
Por el contrario, si A tiene n eigenvectores linealmente independientes p1, p2, . . . , pn
con eigenvalores correspondientes l1, l2, . . . , ln, respectivamente, entonces
Ap1 $ l1p1, Ap2 $ l2p2, . . . , Apn $ lnpn
Esto implica a la ecuación (2) anterior, que es equivalente a la ecuación (1). En conse-
cuencia, si se toma P como la matriz de n " n con columnas p1, p2, . . . , pn, entonces la
ecuación (1) se convierte en AP $ PD. Dado que las columnas de P son linealmente in-
dependientes, el teorema fundamental de las matrices invertibles implica que P es inver-
tible, de modo que P !1AP $ D ; esto es, A es diagonalizable.

Ejemplo 4.25 Si es posible, encuentre una matriz P que diagonalice


0 1 0
A $ £0 0 1§
2 !5 4
Solución Esta matriz se estudió en el ejemplo 4.18, donde se descubrió que tiene ei-
genvalores l1 $ l2 $ 1 y l3 $ 2. Los eigenespacios tienen las siguientes bases:
1
Para l1 l2 1, E1 tiene base £ 1 § .
1
1
Para l3 2, E2 tiene base £ 2 § .
4
Dado que todos los demás eigenvectores son sólo múltiplos de uno de estos dos vectores
base, no puede haber tres eigenvectores linealmente independientes. En consecuencia,
por el Teorema 4.23, A no es diagonalizable.

Ejemplo 4.26 Si es posible, encuentre una matriz P que diagonalice


!1 0 1
A $ £ 3 0 !3 §
1 0 !1
316 Capítulo 4 Eigenvalores y eigenvectores

Solución Esta es la matriz del ejemplo 4.19. Ahí se descubrió que los eigenvalores de A
son l1 $ l2 $ 0 y l3 $ !2, con las siguientes bases para los eigenespacios:
0 1
Para l1 l2 0, E 0 tiene base p1 £ 1 § y p2 £0§.
0 1
1
Para l3 2, E 2 tiene base p3 £ 3§.
1
Se comprueba directamente que estos tres vectores son linealmente independientes. Por
tanto, si se tiene
0 1 !1
P $ 3 p1 p2 p3 4 $ £ 1 0 3§
0 1 1
entonces P es invertible. Más aún,
0 0 0
P!1AP $ £ 0 0 0§ $ D
0 0 !2
como puede comprobarse fácilmente. (Si hace la comprobación a mano, es mucho más
fácil comprobar la ecuación equivalente AP $ PD.)

Comentarios
• Cuando existan suficientes eigenvectores, pueden colocarse en las columnas de P
en cualquier orden. Sin embargo, los eigenvalores provendrán de la diagonal de D en el
mismo orden que sus correspondientes eigenvectores en P. Por ejemplo, si hubiera
elegido
0 !1 1
P $ 3p1 p3 p2 4 $ £ 1 3 0§
0 1 1
entonces habría encontrado
0 0 0
P AP $ £ 0 !2 0 §
!1

0 0 0

• En el ejemplo 4.26 se le pidió comprobar que los eigenvectores p1, p2, y p3 eran li-
nealmente independientes. ¿Era necesario comprobar esto? Se sabía que {p1, p2} era
linealmente independiente, pues era una base para el eigenespacio E0. También se sabía
que los conjuntos {p1, p3} y { p2, p3} eran linealmente independientes, por el Teorema
4.20. Pero a partir de esta información no se podía concluir que {p1, p2, p3} era lineal-
mente independiente. Sin embargo, el siguiente teorema garantiza que la independencia
lineal se conserva cuando se combinan las bases de diferentes eigenespacios.

Teorema 4.24 Sea A una matriz de n " n y sean l1, l2, . . . , lk distintos eigenvalores de A. Si Bi es una
base para el eigenespacio Eli , entonces B $ B1 ´ B2 ´ p ´ Bk (es decir, la colección
total de vectores base para todos los eigenespacios) es linealmente independiente.
Sección 4.4 Semejanza y diagonalización 317

Demostración Sea Bi $ 5vi1, vi2, . . . , vini 6 para i $ 1, . . . , k. Tiene que demostrar que
B $ 5v11, v12, . . . , v1n1, v21, v22, . . . , v2n2, . . . , vk1, vk2, . . . , vknk 6
es linealmente independiente. Suponga que alguna combinación lineal no trivial de estos
vectores es el vector cero, por decir,
1c11v11 # p # c1n1v1n1 2 # 1c21v21 # p # c2n2v2n2 2 # p # 1ck1vk1 # p # cknkvknk 2 $ 0
(3)
Al denotar las sumas entre paréntesis mediante x1, x2, . . . xk, puede escribir la ecuación
(3) como
x1 # x2 # p # xk $ 0 (4)
IIIII
!!

Ahora cada xi está en Eli (¿por qué?) y por tanto o es un eigenvector correspondiente
"

a li o es 0. Pero, puesto que los eigenvalores de li son distintos, si alguno de los factores
xi es un eigenvector, son linealmente independientes, por el Teorema 4.20. Sin embargo,
la ecuación (4) es una relación de dependencia lineal; esto es una contradicción. Se con-
cluye que la ecuación (3) debe ser trivial; esto es: todos sus coeficientes son cero. Por
tanto, B es linealmente independiente.

Existe un caso en el que la capacidad de diagonalización es automática: una matriz


de n " n con n eigenvalores distintos.

Teorema 4.25 Si A es una matriz de n " n con n eigenvalores distintos, entonces A es diagonaliza-
ble.

Demostración Sean v1, v2, . . . , vn eigenvectores correspondientes a los n eigenvalores


IIIII
distintos de A. (¿Por qué no podría haber más que n de tales eigenvectores?) Por el Teo-
!!

"

rema 4.20, v1, v2, . . . , vn son linealmente independientes, de modo que, por el Teorema
4.23, A es diagonalizable.

Ejemplo 4.27 La matriz


2 !3 7
A $ £0 5 1§
0 0 !1
tiene eigenvalores l1 $ 2, l2 $ 5 y l3 $ !1, por el Teorema 4.15. Dado que existen tres
eigenvalores distintos para una matriz de 3 " 3, A es diagonalizable, por el Teorema 4.25.
(Si en realidad requiere una matriz P tal que P !1AP sea diagonal, deberá calcular bases
para los eigenespacios, como en el ejemplo 4.19 y el ejemplo 4.26 anteriores.)

El teorema final de esta sección es un importante resultado que caracteriza a las matri-
ces diagonalizables en términos de las dos nociones de multiplicidad que se introdujeron
después del ejemplo 4.18. Ofrece condiciones precisas con las cuales una matriz de n " n
puede ser diagonalizable, aun cuando tenga menos de n eigenvalores, como en el ejemplo
4.26. Primero se prueba un lema que verifica si una matriz es o no diagonalizable.

Lema 4.26 Si A es una matriz de n " n, entonces la multiplicidad geométrica de cada eigenvalor
es menor o igual que su multiplicidad algebraica.
318 Capítulo 4 Eigenvalores y eigenvectores

Demostración Suponga que l1 es un eigenvalor de A con multiplicidad geométrica p;


esto es, dim El1 $ p. De manera específica, sea El1 que tiene base B1 $ {v1, v2, . . . , vp}.
Sea Q cualquier matriz invertible de n " n que tenga v1, v2, . . . , vp como sus primeras co-
lumnas p, por ejemplo,
Q $ 3v1 p vp vp#1 p vn 4
o, como una matriz particionada,
Q $ 3 U V4
Sea
C
Q!1 $ c d
D
donde C es p " n.
Dado que las columnas de U son eigenvectores que corresponden a l1, AU $ l1U.
También se tiene
Ip O C CU CV
c d $ In $ Q!1Q $ c d 3 U V4 $ c d
O In!p D DU DV

de donde se obtiene CU $ Ip , CV $ O, DU $ O y DV $ In!p . Por tanto,

C CAU CAV l1CU CAV l1Ip CAV


Q!1AQ $ c d A3 U V 4 $ c d $ c d $ c d
D DAU DAV l1DU DAV O DAV

Por el ejercicio 69 de la sección 4.2, se tiene que

det1Q!1AQ ! lI2 $ 1l1 ! l2 p det1DAV ! lI2 (5)

Pero det (Q!1AQ ! lI ) es el polinomio característico de Q!1AQ, que es igual que el po-
linomio característico de A, por el Teorema 4.22(d). Por tanto, la ecuación (5) implica
que la multiplicidad algebraica de l1 es al menos p, su multiplicidad geométrica.

Teorema 4.27 El teorema de diagonalización

Sea A una matriz de n " n cuyos distintos eigenvalores son l1, l2, . . . , lk. Los si-
guientes enunciados son equivalentes:
a. A es diagonalizable.
b. La unión B de las bases de los eigenespacios de A (como en el Teorema 4.24) con-
tiene n vectores.
c. La multiplicidad algebraica de cada eigenvalor es igual a su multiplicidad geomé-
trica.

Demostración (a) 1 (b) Si A es diagonalizable, entonces tiene n eigenvectores lineal-


mente independientes, por el Teorema 4.23. Si ni de dichos eigenvectores corresponde al
IIIII
eigenvalor li, entonces Bi contiene al menos ni vectores. (Ya se sabe que dichos ni vecto-
!!

"

res son linealmente independientes; la única cosa que puede evitar que sean una base de
Eli es que no puedan generarlo.) Por tanto, B contiene al menos n vectores. Pero, por el
Teorema 4.24, B es un conjunto linealmente independiente en !n; por tanto, contiene
exactamente n vectores.
Sección 4.4 Semejanza y diagonalización 319

(b) 1 (c) Sea di $ dim Eli la multiplicidad geométrica de li, y sea mi la multiplicidad al-
gebraica li de mi. Por el Lema 4.26, di % mi para i $ 1, . . . , k. Ahora suponga que se
cumple la propiedad (b). Entonces también se tiene
n $ d1 # d2 # p # dk % m1 # m2 # p # mk

Pero m1 # m2 # p # mk $ n, pues la suma de las multiplicidades algebraicas de los ei-


genvalores de A es justo el grado del polinomio característico de A, a saber, n.
Se tiene que d1 # d2 # p # dk $ m1 # m2 # p # mk, lo cual implica que

1m1 ! d1 2 # 1m2 ! d2 2 # p # 1mk ! dk 2 $ 0 (6)


Al usar nuevamente el Lema 4.26, se sabe que mi ! di ' 0 para i $ 1, . . . , k, de donde se
puede deducir que cada sumando en la ecuación (6) es cero; esto es, mi $ di para i $
1, . . . , k.
(c) 1 (a) Si la multiplicidad algebraica mi y la multiplicidad geométrica di son iguales
para cada eigenvalor li de A, entonces B tiene d1 # d2 # p # dk $ m1 # m2 # p # mk
$ n vectores que son linealmente independientes, por el Teorema 4.24. Por tanto, son
n eigenvectores linealmente independientes de A, y A es diagonalizable, por el Teo-
rema 4.23.

Ejemplo 4.28 0 1 0
(a) La matriz A $ £ 0 0 1 § del ejemplo 4.18 tiene dos eigenvalores distintos: l1 $
2 !5 4
l2 $ 1 y l3 $ 2. Dado que el eigenvalor l1 $ l2 $ 1 tiene multiplicidad algebraica 2 pero
multiplicidad geométrica 1, A no es diagonalizable, por el teorema de diagonalización.
(Vea también el ejemplo 4.25.)
!1 0 1
(b) La matriz A $ £ 3 0 !3 § del ejemplo 4.19 también tiene dos eigenvalores dis-
1 0 !1
tintos, l1 $ l2 $ 0 y l3 $ !2. El eigenvalor 0 tiene multiplicidades algebraica y geomé-
trica 2, y el eigenvalor !2 tiene multiplicidades algebraica y geométrica 1. Por tanto, esta
matriz es diagonalizable, por el teorema de diagonalización. (Esto concuerda con los ha-
llazgos del ejemplo 4.26.)

Esta sección concluye con una aplicación de la diagonalización al cálculo de las po-
tencias de una matriz.

Ejemplo 4.29 0 1
Calcule A10 si A $ c d.
2 1
Solución En el ejemplo 4.21 se descubrió que esta matriz tiene eigenvalores l1 $ !1 y
1 1
l2 $ 2, con eigenvectores correspondientes v1 $ c d y v2 $ c d . Se tiene (de alguno
!1 2
de los teoremas de esta sección) que A es diagonalizable y P !1AP $ D, donde

1 1 !1 0
P $ 3 v1 v2 4 $ c d and = c
y DD$ d
!1 2 0 2
320 Capítulo 4 Eigenvalores y eigenvectores

Al despejar para A, se tiene A $ PDP !1, que facilita encontrar potencias de A. Calcule

A2 $ 1PDP!1 2 1PDP!1 2 $ PD 1P!1P 2 DP!1 $ PDIDP!1 $ PD 2P !1


IIIII
y, por lo general, An $ PDnP !1 para todo n ' 1. (Debe verificar esto por inducción. Ob-

!!
"

serve que este hecho será verdadero para cualquier matriz diagonalizable, no sólo para la
de este ejemplo.)
Dado que

!1 0 n 1!1 2 n 0
Dn $ c d $ c d
0 2 0 2n
se tiene
1 1 1!12 n 0 1 1 !1
An $ PDnP!1 $ c dc d c d
!1 2 0 2n !1 2
1 1 1!12 n 0 23 ! 13
$ c dc dc 1d
!1 2 0 2n 31 3

21!12 n # 2n 1!12 n#1 # 2n


3 3
$ ≥ ¥
21!12 n#1 # 2n#1 1!12 n#2 # 2n#1
3 3

Puesto que sólo se pidió A10, esto es más de lo que necesita. Pero ahora puede simple-
mente establecer n $ 10 para encontrar
21!12 10 # 210 1!12 11 # 210
3 3 342 341
A10 $ ≥ ¥ $ c d
21!12 11 # 211 1!12 12 # 211 682 683
3 3

Ejercicios 4.4

En los ejercicios 1-4, demuestre que A y B no son matrices se- En los ejercicios 5-7, una diagonalización de la matriz A se da
mejantes. en la forma P !1AP $ D. Mencione los eigenvalores de A y las
4 1 1 0 bases para los eigenespacios correspondientes.
1. A $ c d, B $ c d
3 1 0 1 2 !1 5 !1 1 1 4 0
5. c dc dc d $ c d
1 2 2 !5 !1 1 2 2 1 2 0 3
2. A $ c d, B $ c d
3 4 !2 4 2 1 1
2 1 1 1 0 !1
3 3 3
2 1 4 1 0 0 6. £ 0 !1 0 § £ 0 1 0§ £0 !1 0§
3. A $ £ 0 2 3 § , B $ £ !1 4 0 § !13 1 1
2 0 1 1 1 2
3 3
0 0 4 2 3 4
3 0 0
1 0 2 1 0 3
$C0 1 0S
4. A $ £ 0 1 2§, B $ £1 2 2§
0 0 0
1 1 4 1 0 3
Sección 4.4 Semejanza y diagonalización 321

1 1 1
8 8 8 1 3 3 3 0 1 1 k 0 1 1 k
7. £ ! 14 3
4 ! 14 § £2 0 2§ £2 1 0§ $ 28. A $ £ 0 2 0§ 29. A $ £ 1 1 k§
5
8 ! 38 ! 38 3 3 1 3 !1 !1 0 0 1 1 1 k
6 0 0 30. Demuestre el Teorema 4.21(c).
£ 0 !2 0§
31. Demuestre el Teorema 4.22(b).
0 0 !2
32. Demuestre el Teorema 4.22(c).
33. Demuestre el Teorema 4.22(e).
En los ejercicios 8-15, determine si A es diagonalizable y, si lo
34. Si A y B son matrices invertibles, demuestre que AB y
es, encuentre una matriz invertible P y una matriz diagonal D
BA son semejantes.
tales que P !1AP $ D.
1 2 !3 4 35. Demuestre que si A y B son matrices semejantes, enton-
8. A $ c d 9. A $ c d ces tr(A) $ tr(B). [Sugerencia: encuentre una forma de
2 1 !1 1
usar el ejercicio 45 de la sección 3.2.]
1 2 0 1 0 1
10. A $ £ 0 1 2§ 11. A $ £ 0 1 1 §
0 0 2 1 1 0
1 0 0 1 2 1 En general, es difícil demostrar que dos matrices son semejan-
12. A $ £ 1 1 3§ 13. A $ £ !1 0 1 § tes. Sin embargo, si dos matrices semejantes son diagonaliza-
bles, la tarea se vuelve más sencilla. En los ejercicios 36-39, de-
3 0 1 1 1 0
muestre que A y B son semejantes al demostrar que son
1 1 1 1 2 0 0 4 semejantes a la misma matriz diagonal. Luego encuentre una
1 1 0 2 0 2 0 0 matriz invertible P tal que P !1AP $ B.
14. A $ ≥ ¥ 15. A $ ≥ ¥
0 0 2 1 0 0 !2 0 3 1 1 2
0 0 0 1 0 0 0 !2 36. A $ c d, B $ c d
0 !1 2 1
5 !3 !1 1
37. A $ c d, B $ c d
4 !2 !6 4
En los ejercicios 16-23, use el método del ejemplo 4.29 para
calcular la potencia indicada de la matriz. 2 1 0 3 2 !5
!5 8 5 !1 6 10 38. A $ £ 0 !2 1 § , B $ £ 1 2 !1 §
16. c d 17. c d 0 0 1 2 2 !4
!4 7 1 0
0 !3 !5 0 3 k 1 0 2 !3 !2 0
18. c d 19. c d
!1 2 1 2 39. A $ £ 1 !1 1 § , B $ £ 6 5 0§
1 0 1 8 1 1 1 2002 2 0 1 4 4 !1
20. £ 1 0 1 § 21. £ 0 !1 0§ 40. Demuestre que si A es semejante a B, entonces AT es se-
1 0 1 0 0 !1 mejante a BT.
3 1 1 k 1 1 0 k 41. Demuestre que si A es diagonalizable, también lo es AT.
22. £ 0 1 0 § 23. £ 2 !2 2 §
42. Sea A una matriz invertible. Demuestre que, si A es dia-
1 1 3 0 1 1
gonalizable, también lo es A!1.
43. Demuestre que si A es una matriz diagonalizable con un
solo eigenvalor l, entonces A es de la forma A $ lI. (A
En los ejercicios 24-29, encuentre todos los valores (reales) de k tal matriz se le llama matriz escalar.)
para los cuales A sea diagonalizable.
44. Sean A y B matrices de n " n, cada una con n eigenvalo-
1 1 1 k
24. A $ c d 25. A $ c d res distintos. Pruebe que A y B tienen los mismos eigen-
0 k 0 1 vectores si y sólo si AB $ BA.
1 0 k
k 1 45. Sean A y B matrices semejantes. Pruebe que las multipli-
26. A $ c d 27. A $ £ 0 1 0 § cidades algebraicas de los eigenvalores de A y B son
1 0
0 0 1 iguales.
322 Capítulo 4 Eigenvalores y eigenvectores

46. Sean A y B matrices semejantes. Pruebe que las multipli- (a) Demuestre que no es posible encontrar tres vectores
cidades geométricas de los eigenvalores de A y B son linealmente independientes v1, v2, v3 en !6 tales que
iguales. [Sugerencia: demuestre que si B $ P # 1AP, en- Av1 $ v1, Av2 $ v2 y Av3 $ v3.
tonces todo eigenvector de B es de la forma P # 1 v para (b) Si A es diagonalizable, ¿cuáles son las dimensiones
algún eigenvector v de A.] de los eigenespacios E# 1, E1 y E2?
47. Demuestre que si A es una matriz diagonalizable tal que a b
todo eigenvalor de A es 0 o 1, entonces A es idempo- 50. Sea A $ c d.
c d
tente (esto es: A2 $ A).
(a) Demuestre que A es diagonalizable si 1a # d2 2 '
48. Sea A una matriz nilpotente (esto es: Am $ O para algún 4bc 7 0 y no es diagonalizable si 1a # d2 2 '
m > 1). Pruebe que si A es diagonalizable, entonces A 4bc 6 0.
debe ser la matriz ero. (b) Encuentre dos ejemplos para demostrar que si
49. Suponga que A es una matriz de 6 ! 6 con polinomio 1a # d2 2 ' 4bc $ 0, entonces A puede o no ser dia-
característico cA1l2 $ 11 ' l2 11 # l2 2 12 # l2 3. gonalizable.

4.5 Métodos iterativos para calcular


eigenvalores
En este punto, el único método que se tiene para calcular los eigenvalores de una matriz
es resolver la ecuación característica. Sin embargo, existen muchos problemas con este
método que resultan poco prácticos excepto para los ejemplos pequeños. El primer pro-
En 1824, el matemático noruego blema es que depende del cálculo de un determinante, que es un proceso que consume
Niels Henrik Abel (1802-1829) de- mucho tiempo para matrices grandes. El segundo problema es que la ecuación caracte-
mostró que una ecuación polino- rística es polinomial, y no hay fórmulas para resolver ecuaciones polinomiales de grado
mial general de quinto grado mayor que 4 (los polinomios de grados 2, 3 y 4 pueden resolverse usando la fórmula cua-
(quíntica) no se puede resolver me- drática y sus análogas). Por tanto, uno se ve forzado a aproximar eigenvalores en la ma-
diante radicales; esto es: no hay una
yoría de los problemas prácticos. Por desgracia, los métodos para aproximar las raíces de
fórmula para sus raíces en térmi-
un polinomio son muy sensibles a errores de redondeo y por tanto no son confiables.
nos de sus coeficientes que use so-
lamente las operaciones de suma, En lugar de ello, se pasa por alto el polinomio característico y se toma un enfoque di-
resta, multiplicación, división y ferente, al aproximar primero un eigenvector y luego usar este eigenvector para encon-
sacar n-ésimas raíces. En un en- trar el eigenvalor correspondiente. En esta sección se explorarán algunas variaciones de
sayo escrito en 1830 y publicado tal método, que se basa en una simple técnica iterativa.
de manera póstuma en 1846, el
matemático francés Evariste Galois
(1811-1832) ofreció una teoría El método de potencia
más completa que establecía con- El método de potencia se aplica a una matriz de n ! n que tiene un eigenvalor domi-
diciones bajo las cuales una ecua- nante "1; esto es, un eigenvalor que es mayor en valor absoluto que todos los otros ei-
ción polinominal arbitraria puede
genvalores. Por ejemplo, si una matriz tiene eigenvalores # 4, # 3, 1 y 3, entonces # 4 es
resolverse mediante radicales. El
el eigenvalor dominante, pues 4 $ "# 4" % "# 3" & "3" & "1". Por otra parte, una matriz
trabajo de Galois fue útil para el
establecimiento de la rama del ál- con eigenvalores # 4, # 3, 3 y 4 no tiene eigenvalor dominante.
gebra llamada teoría de grupos; su El método de potencia avanza de manera iterativa para producir una secuencia de
enfoque de las ecuaciones polino- escalares que converja en l1 y una secuencia de vectores que converja en el correspon-
miales ahora se conoce como teo- diente eigenvector v1, el eigenvector dominante. Por simplicidad, se supondrá que la
ría de Galois. matriz A es diagonalizable. El siguiente teorema es la base para el método de potencia.

También podría gustarte