Ejercicios Resueltos Trasnformaciones Lineales Algebra Lineal

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 31

CAPÍTULO 4

TRANSFORMACIONES LINEALES

4.1. Transformaciones lineales


Los conjuntos R× {0} ⊆ R2 y R son evidentemente distintos; el primero está formado por
pares ordenados de R2 que tienen la segunda coordenada 0, mientras que el segundo consiste de
números reales. Sin embargo, como espacios vectoriales sobre R, son esencialmente los mismos.
De hecho, es posible establecer una correspondencia biyectiva entre estos dos conjuntos de
manera que las operaciones de espacio vectorial sean preservadas. Cuando esto ocurre decimos
que los espacios vectoriales son isomorfos. Precisamos mejor esta idea a lo largo de este capítulo.
Sea A ∈ Mm×n (F). Por el teorema 1.2.8, la función τA : Fn → Fm definida por τA (x) = Ax
(x ∈ Fn ), satisface las propiedades:
om

τA (x + y) = τA (x) + τA (y)
.c
a1

τA (αx) = ατA (x)


ic
at

para todo α ∈ F y x, y ∈ Fn . Más generalmente tenemos el siguiente concepto fundamental del


em

álgebra lineal:
at
M
w.
ww

Definición 4.1.1 Sean V y W espacios vectoriales sobre F. Una transformación lineal T


de V en W es una función T : V → W que satisface

T (x + y) = T (x) + T (y)
T (αx) = αT (x)

para todo α ∈ F y x, y ∈ V . Denotamos por L (V, W ) al conjunto de todas las transformaciones


lineales de V en W . Cuando V = W escribimos L (V, V ) = L (V ) y una transformación lineal
de L (V ) la llamamos un operador lineal sobre V .
84 juan rada

Un ejemplo trivial de transformación lineal entre espacios vectoriales V y W es la transfor-


mación nula, denotada por 0 :V → W y definida por 0 (v) = 0 para todo v ∈ V .

Ejemplo 4.1.2 Como vimos antes, si A ∈ Mm×n (F) , entonces τA : Fn → Fm es una transfor-
mación lineal. Consideremos algunas matrices en M2 (R):
 
1 0
1. Reflexión respecto al eje x: Sea A = . Entonces τA : R2 → R2 está definida por
    0 −1
x x
τA = . Geométricamente, τA toma un vector de R2 y lo refleja respecto al
y −y
eje x.
 
1 0
2. Proyección sobre el eje x: Si P = , entonces τP : R2 → R2 está definida por
    0 0
x x
τP = . Esto es, τP toma un vector de R2 y lo proyecta sobre el eje x.
y 0
3. Rotación: sea 0 ≤ θ ≤ 2π y consideremos la matriz
  m
cosθ −senθ
o
U= .
.c

senθ cosθ
a1

 
ic

x
Si ∈ R2 entonces x = rcosα y y = rsenα. Así,
at

y
em

      
x cosθ −senθ rcosα rcos (θ + α)
U = =
at

y senθ cosθ rsenα rsen (θ + α)


M

En otras palabras, la transformación lineal τU : R2 → R2 toma un vector de R2 y lo rota


w.
ww

un ángulo θ en sentido contrario a las agujas del reloj.

Ejemplo 4.1.3 Las siguientes funciones son ejemplos de transformaciones lineales entre espa-
cios vectoriales:

1. Sea D el subespacio de F (R, R) formado por las funciones f : R → R que tienen derivadas
de todos los órdenes y D : D → D definida por D (f ) = f ′ . Para cualesquiera f, g ∈
F (R, R) y α ∈ R tenemos que

D (f + g) = (f + g)′ = f ′ + g ′ = D (f ) + D (g)
D (αf ) = (αf )′ = αf ′ = αD (f )

2. Sea S = {f ∈ F ([a, b] , R) : f es continua} e I : S → R la función definida por


Zb
I (f ) = f (x) dx.
a
Transformaciones lineales 85

Si f, g ∈ S y α ∈ R, entonces

Zb Zb
I (f + g) = (f + g) (x) dx = [f (x) + g (x)] dx
a a
Zb Zb
= f (x) dx + g (x) dx = I (f ) + I (g)
a a

y
Zb Zb Zb
I (αf ) = (αf ) (x) dx = αf (x) dx = α f (x) dx = αI (f )
a a a

Vamos a establecer algunos hechos simples sobre las transformaciones lineales.

Teorema 4.1.4 Sea T ∈ L (V, W ). Entonces se cumplen las siguientes condiciones:


m
1. T (0) = 0;
o
.c
a1

2. T (−v) = −T (v) = (−1) T (v) .


ic
at

Demostración. Demostramos la parte 1, la segunda la dejamos como ejercicio. Tenemos


que
em

T (0) = T (0 + 0) = T (0) + T (0)


at

Luego sumando el inverso aditivo de T (0) a ambos lados de la relación anterior obtenemos
M

T (0) = 0.
w.

El siguiente resultado nos proporciona muchos ejemplos de transformaciones lineales. Además,


ww

establece que una transformación lineal T ∈ L (V, W ) queda completamente determinada por
los valores que toma en una base de V .

Teorema 4.1.5 Sean V, W espacios vectoriales y v1 , . . . , vn una base ordenada de V . Conside-


remos elementos w1 , . . . , wn ∈ W . Entonces existe una única T ∈ L (V, W ) tal que T (vi ) = wi
para todo i.

Demostración. Definamos la función T : V → W por T (vi ) = wi para cada i y extendamos


linealmente a V por la fórmula
n
! n
X X
T αi vi = αi T (vi ) .
i=1 i=1

T está bien definida por el hecho de que cada vector de V tiene una representación única como
combinación lineal de vectores de la base. La linealidad de T es clara por la forma que la
86 juan rada

definimos. Para ver la unicidad, supongamos que S ∈ L (V, W ) satisface S (vi ) = wi para todo
i. Entonces ! !
Xn Xn n
X n
X
S αi vi = αi S (vi ) = αi T (vi ) = T αi vi
i=1 i=1 i=1 i=1

Ejemplo 4.1.6 Consideremos el espacio vectorial

V = {p (x) ∈ F [x] : grad (p (x)) ≤ k}

y sean α0 , . . . , αk elementos de F. Entonces existe una única transformación lineal T : V → F


tal que por T (xi ) = αi , para todo i = 0, . . . , k. De hecho, está definida por
k
! k
X X
T βi xi = βi αi .
i=0 i=0

Dotamos a continuación al conjunto de las transformaciones lineales L (V, W ) de una estruc-


tura de espacio vectorial. mo
.c
a1

Definición 4.1.7 Dadas S, T ∈ L (V, W ) definimos la suma de S y T , denotada por S + T , a


la función S + T : V → W definida por
ic
at

(S + T ) (x) = S (x) + T (x)


em

para todo x ∈ V . Si α ∈ F entonces la multiplicación del escalar α por T ∈ L (V, W ), denotado


at

por αT , es la función αT : V → W definida por


Mw.

(αT ) (x) = αT (x)


ww

Teorema 4.1.8 Sean V y W espacios vectoriales sobre F. Si S, T ∈ L (V, W ) y α ∈ F entonces


S + T y αS pertenecen a L (V, W ). Más aun, L (V, W ) es un espacio vectorial sobre F con estas
operaciones.

Demostración. Dejamos como ejercicio al lector.


A L (V, W ) lo llamamos el espacio de las transformaciones lineales de V en W.
Consideramos ahora la composición entre transformaciones lineales.

Teorema 4.1.9 Sean


S ∈ L (V, W )
y
T ∈ L (U, V )
. Entonces
ST ∈ L (U, W ) .
Transformaciones lineales 87

Demostración. Sean α, β ∈ F y x, y ∈ U. Entonces

(ST ) (αx + βy) = S [T (αx + βy)]


= S [αT (x) + βT (y)]
= αS (T (x)) + βS (T (y))
= α (ST ) (x) + β (ST ) (y)

La transformación lineal identidad es la función IV : V → V definida por I (x) = x para


todo x ∈ V. Es fácil ver que IV T = T IV = T para cualquier T ∈ L (V ).
Al igual que las matrices, la composición de transformaciones lineales no es conmutativa.

Ejemplo 4.1.10 Sean S : R3 → R3 y T : R3 → R3 los operadores lineales definidos por


       
x x x x
S  y = y  yT  y  =  z .
z 0 z m
o 0
.c

Entonces
a1

           
ic

x x x x x x
 y   z   z   y   y   0 
at

ST =S = y TS =T =
z 0 0 z 0 0
em
at

Usamos la notación de potencias para representar la composición de un operador lineal


consigo mismo: si T ∈ L (V ) , entonces T 0 = I, y para un entero n ≥ 1, T n = T T n−1 . Las
M

potencias de un operador lineal sí conmutan, i.e.,


w.
ww

T r T s = T s T r = T r+s .

En el próximo resultado presentamos una lista de propiedades básicas que satisface la com-
posición de transformaciones lineales. Suponemos que los espacios de partida y de llegada son
los adecuados.

Teorema 4.1.11 Sean R, S y T transformaciones lineales. Entonces

1. (RS) T = R (ST ) ;

2. R (S + T ) = RS + RT ;

3. (R + S) T = RT + ST ;

4. λ (RS) = (λR) S = R (λS) para todo λ ∈ F.


88 juan rada

Demostración. La dejamos como ejercicio para el lector.

EJERCICIOS

1. Sea U ∈ Mn (F) invertible y considere la función T : Mn (F) → Mn (F) definida por


T (A) = U −1 AU, para todo A ∈ Mn (F). ¿Es T un operador lineal? ¿Es inyectivo? ¿Es
sobreyectivo?

2. Sea M ∈ Mn (F) y defina la función T : Mn (F) → Mn (F) por T (A) = AM − MA.


Demuestre que T es un operador lineal.
 
x
3. Sea F : R → R definida por F
2
= xy. ¿Es F una transformación lineal?
y

4. Encuentre un operador lineal R : R2 → R2 que tome un vector de R2 y:

a) lo refleje respecto a la recta y = x;


b) lo refleje respecto al eje y; mo
.c

c) lo proyecte sobre el eje y.


a1
ic

5. Sea F : R2 → R2 el único operador lineal que satisface


at

       
em

1 2 0 1
F = yF = .
2 3 1 4
at

   
M

x x
Encuentre una expresión explícita para F , donde ∈ R2 .
w.

y y
ww

6. ¿Existe una transformación lineal T : R3 → R2 tal que


   
1   1  
  1   0
T −1 = yT 1 = ?
0 1
1 1

7. ¿Existe un operador lineal T : R2 → R2 tal que


           
1 1 2 0 −3 1
T = , T = yT = ?
−1 0 −1 1 2 1

8. Sea V el espacio de los números complejos considerado como espacio vectorial sobre R.
Encuentre una transformación lineal de V en V pero que no sea lineal cuando considere a
V como espacio vectorial sobre C.
Transformaciones lineales 89

9. Sea F : V → W una transformación lineal y suponga que v1 , . . . , vn ∈ V son tales que


F (v1 ) , . . . , F (vn ) son linealmente independientes. Demuestre que los vectores v1 , . . . , vn
también son linealmente independientes.

10. Demuestre el teorema 4.1.8.

11. Demuestre el teorema 4.1.11.

12. Considere las transformaciones lineales F : R3 → R2 , G : R3 → R2 y H : R3 → R2


definidas por
   
x   x  
x+y+z 2x + z
F y  = , G y = y
x+y x+z
z z
 
x  
2y
H y  =
x
z

Demuestre que F, G y H son linealmente independientes como vectores de L (R3 , R2 ).


m
o
.c
a1

13. Encuentre dos operadores lineales S, T en R2 tales que ST = 0 pero T S 6= 0.


ic

14. Sea P ∈ L (V ) tal que P 2 = P . Demuestre que V = ker (P ) ⊕ Im (P ) .


at
em

4.2. El núcleo y la imagen


at
M

Una propiedad importante de las transformaciones lineales es que envía subespacios en sub-
w.

espacios.
ww

Teorema 4.2.1 Sea T ∈ L (V, W ) y U un subespacio de V . Entonces

T (U) = {T (u) : u ∈ U}

es un subespacio de W .

Demostración. Sean x, y ∈ U y α ∈ F. Entonces

T (x) + T (y) = T (x + y) ∈ T (U)

y
αT (x) = T (αx) ∈ T (U)

En particular, si T ∈ L (V, W ) , entonces T (V ), llamado la imagen de T y denotado por


Im (T ), es un subespacio de W . Otro subespacio importante asociado a T es el núcleo de T .
90 juan rada

Definición 4.2.2 Sea T ∈ L (V, W ). El núcleo de T , denotado por ker (T ), es el subconjunto


de V
ker (T ) = {v ∈ V : T (v) = 0} .

Observamos que ker (T ) es no vacío porque T (0) = 0.

Teorema 4.2.3 Sea T ∈ L (V, W ). Entonces ker (T ) es un subespacio de V .

Demostración. Sean x, y ∈ ker (T ) y α ∈ F. Entonces, al ser T una transformación lineal,

T (x + y) = T (x) + T (y) = 0 + 0 = 0

y
T (αx) = αT (x) = α0 = 0
porque x, y ∈ ker (T ). En consecuencia, x + y y αx ∈ ker (T ).

Ejemplo 4.2.4 Veamos algunos ejemplos.


m
o
.c

1. Sea A ∈ Mm×n (F) y τA ∈ L (Fn , Fm ) la transformación lineal inducida por A. Entonces


a1
ic

ker (τA ) = {x ∈ Fn : τA (x) = 0}


at

= {x ∈ Fn : Ax = 0}
em

y
at
M

Im (τA ) = {τA (x) : x ∈ Fn }


w.

= {Ax : x ∈ Fn }
ww

Esto es, ker (τA ) y Im (τA ) coincide con lo que llamamos en secciones anteriores el núcleo
y la imagen de A. Para calcular estos subespacios usamos las técnicas estudiadas en el
capítulo 1.

2. Sea D el subespacio de F (R, R) formado por las funciones f : R → R que tienen derivadas
de todos los órdenes y D : D → D definida por D (f ) = f ′ . Entonces

ker (D) = {f ∈ D : D (f ) = 0}
= {f ∈ D : f ′ = 0}
= {f ∈ D : f es constante}

Para decidir si una transformación lineal es inyectiva basta con revisar el núcleo.

Teorema 4.2.5 Sea T ∈ L (V, W ). Entonces T es inyectiva si, y sólo si, ker (T ) = {0} .
Transformaciones lineales 91

Demostración. Supongamos que T es inyectiva y sea x ∈ ker (T ). Entonces

T (0) = 0 = T (x) .

De aquí se concluye que x = 0 y, por lo tanto, ker (T ) = {0}. Recíprocamente, sean x, y ∈ V y


supongamos que T (x) = T (y). Como T es lineal entonces

T (x − y) = 0

y así, x − y ∈ ker (T ) = {0}. Esto demuestra que x = y y T es inyectiva.


El resultado central de esta sección establece una relación entre las dimensiones del núcleo y
la imagen de una transformación lineal definida sobre un espacio vectorial de dimensión finita.

Teorema 4.2.6 Sea T ∈ L (V, W ) y V un espacio vectorial de dimensión finita. Entonces


Im (T ) es de dimensión finita y

dim (V ) = dim [ker (T )] + dim [Im (T )]

Demostración. Consideremos una base w1 , . . . , wk de ker (T ). Extendamos este conjunto


m
o
de vectores a una base w1 , . . . , wk , v1 , . . . , vr de V . Entonces es claro que dim (V ) = k + r.
.c
a1

Faltaría ver que dim [Im (T )] = r. Para eso demostramos que T (v1 ) , . . . , T (vr ) es una base de
ic

Im (T ). Primero, si y ∈ Im (T ) , entonces y = T (x) para algún x ∈ V . Luego existen escalares


at

α1 , . . . , αk , β1 , . . . , βr tales que
em

x = α1 w1 + · · · + αk wk + β1 v1 + · · · + βr vr
at

y como wi ∈ ker (T ) para todo i obtenemos


M
w.
ww

y = T (x) = T (α1 w1 + · · · + αk wk + β1 v1 + · · · + βr vr )
= α1 T (w1 ) + · · · + αk T (wk ) + β1 T (v1 ) + · · · + βr T (vr )
= β1 T (v1 ) + · · · + βr T (vr )

Esto demuestra que T (v1 ) , . . . , T (vr ) generan a Im (T ). Por otro lado, si γ1 , . . . , γr son escalares
tales que
γ1 T (v1 ) + · · · + γr T (vr ) = 0
entonces
0 = γ1 T (v1 ) + · · · + γr T (vr ) = T (γ1 v1 + · · · + γr vr )
En particular, γ1 v1 + · · · + γr vr ∈ ker (T ) y así, existen escalares ζ1 , . . . , ζk tales que

γ1 v1 + · · · + γr vr = ζ1 w1 + · · · + ζk wk

o equivalentemente,
ζ1 w1 + · · · + ζk wk − γ1 v1 − · · · − γr vr = 0
92 juan rada

Pero w1 , . . . , wk , v1 , . . . , vr es una base de V , por lo tanto, ζ1 = · · · = ζk = γ1 = · · · = γr = 0.


En consecuencia, T (v1 ) , . . . , T (vr ) son vectores linealmente independientes.
En particular, si A ∈ Mm×n (F) y τA ∈ L (Fn , Fm ) es la transformación lineal inducida por
A, entonces
dim (Fn ) = dim (ker (τA )) + dim (Im (τA ))
o, equivalentemente,
n = nul (A) + rgo (A)
Este es el teorema de la dimensión para matrices (teorema 3.4.12).
Una consecuencia inmediata del teorema anterior es la siguiente.

Corolario 4.2.7 Sean V y W espacios de dimensión finita tales que dim (V ) = dim (W ) y
T ∈ L (V, W ). Entonces T es inyectiva si, y sólo si, T es sobreyectiva.

Demostración. Por el teorema 4.2.6 sabemos que

dim (V ) = dim [ker (T )] + dim [Im (T )]


m
Si T es inyectiva entonces ker (T ) = {0} y así, dim (W ) = dim (V ) = dim [Im (T )]. Se concluye
o
.c

del teorema 3.3.12 que Im (T ) = W . Recíprocamente, si Im (T ) = W, entonces dim [ker (T )] = 0


a1

y, por lo tanto, ker (T ) = {0}. Esto demuestra que T es inyectiva.


ic
at

EJERCICIOS
em

   
x x − y + 2z
at

1. Sea T : R3 → R3 definida por T  y  =  2x + y . Encuentre una base para


M

z −x − 2y + 2z
w.

ker (T ) y Im (T ).
ww

2. Describa explícitamente un operador lineal de R3 en R3 que tenga como imagen al subes-


pacio generado por (1, 0, −1)⊤ y (1, 2, 2)⊤ .
 
1 2
3. Sea M = y considere el operador lineal T : M2 (R) → M2 (R) definida por
0 3
T (A) = AM − MA, para todo A ∈ M2 (R). Encuentre una base del núcleo de T .

4. Sean A, B ∈ Mn (F). Demuestre que si AB = In entonces BA = In .

5. Sea T : V → W una transformación lineal y S un subespacio de V . Demuestre (a) Si


dim (S) = 1 entonces T (S) es un punto o una recta; (b) Si dim (S) = 2 entonces T (S) es
un plano, una recta o un punto.

6. Sea T : V → W una transformación lineal y S un subespacio de V . Demuestre (a) Si S


es un recta arbitraria de V, entonces T (S) es una recta o un punto; (b) Si S es un plano
arbitrario de V, entonces T (S) es un plano, una recta o un punto.
Transformaciones lineales 93

7. Sea T : V → W una transformación lineal. Demuestre que si dim (V ) > dim (W ) , entonces
T no es inyectiva.

8. Sea V el subespacio de F (R, R) formado por las funciones que tienen derivadas de todos
los órdenes y sea D n : V → V el operador derivada n-ésima. ¿Cuál es el núcleo de D n ?

9. ¿Cuál es la dimensión del espacio S = {A ∈ Mn (F) : T r (A) = 0}?



10. Demuestre que la función P : Mn (F) → Mn (F) definida por P (A) = 21 A + A⊤ es
un operador lineal. Además, ker (P ) consiste en el espacio de las matrices antisimétricas
y Im (P ) el espacio de las matrices simétricas. ¿Cuál es la dimensión del espacio de las
matrices antisimétricas? Encuentre una base para el espacio de las matrices antisimétricas.

11. Suponga que U, W son subespacios de V .

a) Demuestre que la función T : U × W → V , definida por T (u, w) = u − w, es una


transformación lineal.
b) Demuestre que dim (U + W ) = dim (U) + dim (W ) − dim (U ∩ W ) .
mo
.c

4.3. Isomorfismos
a1
ic

Definición 4.3.1 Un isomorfismo de V a W es una transformación lineal T : V → W


at

biyectiva. Si existe un isomorfismo de V a W decimos que V es isomorfo a W y escribimos


em

V ∼= W.
at

Dos espacios isomorfos son esencialmente los mismos, lo único que cambia es la naturaleza
M

de sus elementos.
w.
ww

Ejemplo 4.3.2 Presentamos algunos ejemplos de isomorfismos.

1. A ∈ Mn (F) es invertible si, y sólo si, τA : Fn → Fn es un isomorfismo. Esto es conse-


cuencia del corolario 4.2.7 y el teorema 3.4.13.

2. Sea F× {0} el subespacio de F2 definido como

F× {0} = {(x, 0) : x ∈ F}

Entonces ϕ : F → F× {0} definido por ϕ (x) = (x, 0) es un isomorfismo. Supongamos que


x, y ∈ F y α, β ∈ F. Entonces

ϕ (αx + βy) = (αx + βy, 0) = α (x, 0) + β (y, 0)


= αϕ (x) + βϕ (y)

Así, ϕ es una transformación lineal. Además se verifica fácilmente que ϕ es biyectiva.


94 juan rada

Si T ∈ L (V, W ) es un isomorfismo, entonces, en particular, existe la función inversa T −1 :


W → V tal que
T T −1 = IW y T −1 T = IV

Teorema 4.3.3 Si T ∈ L (V, W ) es un isomorfismo, entonces T −1 ∈ L (W, V ) es un isomor-


fismo.

Demostración. Sabemos que T −1 es biyectiva. Sean w, z ∈ W y α, β ∈ F. Como T es


sobreyectiva, w = T (x) y z = T (y), donde x, y ∈ V. Luego

T −1 (αw + βz) = T −1 (αT (x) + βT (y)) = T −1 (T (αx + βy))


= αx + βy = αT −1 (w) + βT −1 (z)

Como consecuencia de este resultado tenemos que la relación “ ∼ = ” es simétrica: si V es


isomorfo a W, entonces W es isomorfo a V . Por lo tanto, a partir de ahora decimos simplemente
que los espacios V y W son isomorfos. También es reflexiva porque la IV es un isomorfismo para
cualquier espacio V , y transitiva por el teorema 4.1.9. Deducimos que la relación “ ∼
m = ” es una
o
relación de equivalencia sobre el conjunto de los espacios vectoriales sobre F.
.c
a1
ic

Teorema 4.3.4 Sean S ∈ L (V, W ) y T ∈ L (U, V ) isomorfismos. Entonces


at

−1
1. (T −1 ) = T;
em

2. ST es un isomorfismo y (ST )−1 = T −1 S −1 ;


at
M

Demostración. Demostramos 2.
w.
ww

 
(ST ) T −1 S −1 = S T T −1 S −1 = SIV S −1 = IW
 
T −1 S −1 (ST ) = T −1 S −1 S T = T −1 IV T = IU

Luego (T S)−1 = (S −1 T −1 ).
Los conceptos de independencia, generación y bases pasan a través del isomorfismo de un
espacio a otro.

Teorema 4.3.5 Supongamos que T ∈ L (V, W ) es un isomorfismo y X un subconjunto de V .


Entonces:

1. X es linealmente independiente si, y sólo si, T (X) es linealmente independiente;

2. X genera a V si, y sólo si, T (X) genera a W ;

3. X es una base de V si, y sólo si, T (X) es una base de W.


Transformaciones lineales 95

Demostración. 1. Supongamos que X es un conjunto linealmente independiente y


n
X
αi T (xi ) = 0,
i=1
 n

P
donde los αi ∈ F y los xi ∈ X. Como T es lineal, entonces T αi xi = 0 y en consecuencia,
i=1
n
P
αi xi ∈ ker (T ) = {0} porque T es inyectiva. Esto implica que αi = 0 para todo i. Recíproca-
i=1
mente, supongamos que T (X) es linealmente independiente.
n Seannβ1 , . . . , βk escalares tales que
n
P P P
βi xi = 0 para ciertos xi ∈ X. Entonces 0 = T βi xi = βi T (xi ) y así, βi = 0 para
i=1 i=1 i=1
todo i.
2. Supongamos que X genera a V y sea w ∈ W . Entonces existe v ∈ V tal que T (v) = w
r
P
porque T es sobreyectiva. Sean γ1 , . . . , γr escalares y x1 , . . . , xr ∈ X tales que v = γi xi . Luego
i=1

r
! r
X X
m
o
w = T (v) = T γixi = γiT (xi )
.c
a1

i=1 i=1
ic

Esto demuestra que T (X) genera a W . Recíprocamente, supongamos que T (X) genera a W y
at

sea x ∈ V. Entonces !
em

Xr r
X
T (x) = ζi T (xi ) = T ζi xi
at

i=1 i=1
M

r
P
para ciertos xi ∈ X y escalares ζi ∈ F. Se deduce por la inyectividad de T que x = ζi xi . Así,
w.
ww

i=1
X genera a V.
3. Es consecuencia inmediata de las partes 1 y 2.

Corolario 4.3.6 Sean V y W espacios vectoriales de dimensión finita sobre F. Entonces V ∼


=
W si, y sólo si, dim (V ) = dim (W ).

Demostración. Si V ∼ = W existe un isomorfismo T ∈ L (V, W ). Si X es una base de V,


entonces sabemos por el teorema anterior que T (X) es una base de W . Como T es biyectiva,
T (X) tiene exactamente el mismo número de vectores que X. Por lo tanto, dim (V ) = dim (W ).
Recíprocamente, sean v1 , . . . , vn y w1 , . . . , wn bases ordenadas de V y W respectivamente.
Consideremos la (única) transformación lineal T ∈ L (V, W ) dada por el teorema 4.1.5 tal que
T (vi ) = wi . Entonces T es sobreyectiva porque W = gen (w1 , . . . , wn ) ⊆ Im (T ). El resultado
se deduce ahora del teorema 4.2.7.
Se desprende del corolario anterior que un espacio vectorial V de dimensión n es isomorfo
al espacio Fn .
96 juan rada

Ejemplo 4.3.7 De hecho, si B = {v1 , . . . , vn } es una base ordenada de V, entonces, por el


teorema 3.5.5, la función V −→ Fn dada por v [v]B , para cada v ∈ V , es un isomorfismo.

EJERCICIOS
   
x 2x + y
1. Sea S ∈ L (R ) definida por S
2
= . Demuestre que S es invertible.
y 3x − 5y
   
x 3x
2. Sea T ∈ L (R3 ) definida por T  y  =  x−y . ¿Es T invertible? De serlo,
z 2x + y + z
encuentre T .
−1

3. Sea S ∈ L (V ) tal que S r = 0. Demuestre que I − S es invertible.

4. Suponga que m > n y sean T ∈ L (Rm , Rn ) y U ∈ L (Rn , Rm ). Demuestre que UT no es


invertible.

5. Sea T ∈ L (V ), donde V es un espacio vectorial de dimensión finita. Suponga que existe


mo
U ∈ L (V ) tal que T U = I. Demuestre que T es invertible y T −1 = U. Por medio de un
.c
a1

ejemplo demuestre que el resultado no es cierto si V no tiene dimensión finita.


ic

6. Suponga que el espacio vectorial V es suma directa de los subespacios U y W . Demuestre


at

que V es isomorfo al espacio producto directo U × W .


em

7. Sean V y W espacios vectoriales y sea U ∈ L (V, W ) un isomorfismo. Demuestre que


at

T UT U −1 es un isomorfismo de L (V ) en L (W ) .
Mw.
ww

4.4. Matriz asociada a una transformación lineal


En esta sección demostramos que si V y W son espacios vectoriales de dimensión n y m
respectivamente, entonces L (V, W ) ∼
= Mm×n (F).

Teorema 4.4.1 Sean V y W espacios vectoriales sobre F de dimensión n y m respectivamente.


Supongamos que B es una base ordenada de V y C es una base ordenada W . Para cada T ∈
L (V, W ) existe una única matriz A ∈ Mm×n (F) tal que

[T (v)]C = A [v]B (4.1)

para todo v ∈ V .

Demostración. Supongamos que B = {v1 , . . . , vn } es una base ordenada de V . Definamos


la matriz A ∈ Mm×n (F) que tiene como columna i a [T (vi )]C , para todo i = 1, . . . , n. Sea v ∈ V
Transformaciones lineales 97

y supongamos que [v]B = (α1 , . . . , αn )⊤ . Entonces


" n
!# " n #
X X
[T (v)]C = T αi vi = αi T (vi )
i=1 C i=1 C
n
X n
X n
X
= αi [T (vi )]C = αi Aei = A αi ei
i=1 i=1 i=1
= A [v]B

Supongamos que B ∈ Mm×n (F) satisface

[T (v)]C = B [v]B

para todo v ∈ V . En particular, Aei = A [vi ]B = B [vi ]B = Bei para todo i = 1, . . . , n, lo cual
indica que A y B tienen todas las columnas iguales.

Definición 4.4.2 La matriz A que asociamos a la transformación lineal T ∈ L (V, W ) en el


teorema 4.4.1 se llama la matriz de T respecto a las bases B y C. La denotamos por
m
A = [T ]BC .
o
.c
a1

Ejemplo 4.4.3 Sea T : R2 → R2 el operador lineal definido por


ic

   
at

x x+y
T =
em

y 2x − 5y
   
at

1 0
Vamos a calcular la matriz [T ]BB donde B = , . Para esto calculamos
M

1 2
w.

        
ww

1 2 1 5 0
T = =2 + −
1 −3 1 2 2

Por otra parte,        


0 2 1 0
T = =2 + (−6)
2 −10 1 2
En consecuencia,  
2 2
[T ]BB = 5
− 2 −6

Ejemplo 4.4.4 Sea V = {p (x) ∈ F [x] : grado de p (x) ≤ 2}. Consideremos las bases

B = 1, x − 1, x2 − x

y 
B′ = 3, x, x2 − 1
98 juan rada

de V y la transformación lineal D : V → V definida por D (p (x)) = p′ (x), la derivada de p (x).


Vamos a construir la matriz [D]BB′ .

D (1) = 0 = 0 (3) + 0 (x) + 0 x2 − 1
1 
D (x − 1) = 1 = (3) + 0 (x) + 0 x2 − 1
3
 1 
D x2 − x = 2x − 1 = − (3) + 2 (x) + 0 x2 − 1
3
En consecuencia,  
0 31 − 13
[D]BB′ = 0 0 2 
0 0 0

Teorema 4.4.5 Sean V y W espacios vectoriales sobre F de dimensión n y m respectivamente.


Supongamos que B es una base ordenada de V y C es una base ordenada W . La función

[·]BC : L (V, W ) −→ Mm×n (F) ,


mo
.c

definida por T [T ]BC , es un isomorfismo.


a1
ic

Demostración. Sean S, T ∈ L (V, W ) y α ∈ F. Entonces la columna i de la matriz asociada


at

a S + T es
em

[(S + T ) (vi )]C = [S (vi ) + T (vi )]C = [S (vi )]C + [T (vi )]C
y la columna i de la matriz asociada a αS es
at
M

[(αS) (vi )]C = [αS (vi )]C = α [S (vi )]C


w.
ww

Luego [S + T ]BC = [S]BC + [T ]BC y [αS]BC = α [S]BC . Esto demuestra que la función definida
por T [T ]BC es lineal. Además, es biyectiva. En efecto, supongamos que B = {v1 , . . . , vn } y
C = {w1 , . . . , wm }. Si T ∈ L (V, W ) y [T ]BC = 0, entonces, por (4.1), [T (v)]C = 0 para todo
v ∈ V . Esto implica que T = 0 y, por lo tanto, la función es inyectiva. Para ver la sobreyectividad
sea M ∈ Mm×n (F) y supongamos que Mei = (x1i , . . . , xmi )⊤ para cada i = 1, . . . , n. Definamos
Q : V → W por Q (vi ) = xi1 w1 + · · · + xim wm y extendamos linealmente a todo V . Entonces
Q ∈ L (V, W ) y [Qvi ]C = Mei para todo i = 1, . . . , n. Por lo tanto, [Q]BC = M. Esto termina la
demostración.
La matriz asociada a una composición de transformaciones lineales es el producto de las
matrices asociadas a cada una de las transformaciones lineales.

Teorema 4.4.6 Sea T ∈ L (V, W ) y S ∈ L (W, Z). Supongamos que B, C y D son bases de
V, W y Z respectivamente. Entonces

[ST ]BD = [S]CD [T ]BC


Transformaciones lineales 99

Demostración. Por la relación (4.1),


[S (w)]D = [S]CD [w]C
para todo w ∈ W y
[T (v)]C = [T ]BC [v] B
para todo v ∈ V . Luego para v ∈ V tenemos que
[(ST ) (v)]D = [S (T (v))]D = [S]CD [T (v)] C
= [S]CD [T ]BC [v]B
Por la unicidad, [ST ]BD = [S]CD [T ]BC .
El isomorfismo dado en el teorema 4.4.5 entre los espacios vectoriales L (V, W ) y Mm×n (F)
depende de las bases elegidas B y C. Surge de forma natural la siguiente pregunta: si B′ y C ′
son otras bases de V y W respectivamente, ¿qué relación existe entre [T ]BC y [T ]B′ C ′ ?
Recordamos que si B = {v1 , . . . , vn } y B′ son bases ordenadas del espacio vectorial V , la
matriz cambio de base de B a B′ es la matriz invertible P ∈ Mn (F) que tiene como columna i
al vector columna [vi ]B′ .
m
o
Teorema 4.4.7 Sean V, W espacios vectoriales de dimensión finita y T ∈ L (V, W ). Supon-
.c
a1

gamos que B,B′ son bases ordenadas de V y C,C ′ son bases ordenadas de W . Sea P la matriz
cambio de base de B a B′ y Q la matriz cambio de base de C a C ′ . Entonces
ic
at

[T ]B′ C ′ = Q [T ]BC P −1
em

Demostración. Por los teoremas 3.5.6 y 4.4.1 tenemos que


at


Q [T ]BC P −1 [v]B′ = Q [T ]BC [v]B = Q [T (v)]C
Mw.

= [T (v)]C ′
ww

para todo v ∈ V . Por la unicidad del teorema 4.4.1 deducimos que


Q [T ]BC P −1 = [T ]B′ C ′

Ejemplo 4.4.8 Sea U : R2 −→ R3 la transformación lineal definida por


 
  x
x
U = x−y 
y
y
n o n o
Consideremos la base B = (1, 1, 1)⊤ , (1, 1, 0)⊤ , (1, 0, 0)⊤ de R3 y C = (1, 1)⊤ , (1, −1)⊤
   
1 −1 1 0
de R2 . Un cálculo demuestra que [U]CB =  −1 3  y [U]E ′ E =  1 −1  , donde E ′
1 −1 0 1
100 juan rada

y E son las bases canónicas de R2 y R3 respectivamente.


 Por el teorema anterior sabemos
1 1
que [U]E ′ E = Q [U]CB P −1 , donde P = es la matriz cambio de base de C a E ′ y
  1 −1
1 1 1
Q =  1 1 0  es la matriz cambio de base de B a E.
1 0 0

Para simplificar la notación, si T ∈ L (V ) y B es una base ordenada de V , escribiremos [T ]B


en lugar de [T ]BB y diremos que [T ]B es la matriz de T con respecto a B.

Corolario 4.4.9 Sea V un espacio vectorial de dimensión finita y T ∈ L (V ). Supongamos que


B,B′ son bases ordenadas de V y P es la matriz cambio de base de B a B′ . Entonces

[T ]B′ = P [T ]B P −1

Demostración. Esto es consecuencia inmediata del teorema 4.4.7, tomando V = W , B = C


y B′ = C ′ .
Este resultado motiva la siguiente definición.
om
Definición 4.4.10 Sean A, B ∈ Mn (F). Decimos que A es semejante a B si existe una matriz
.c
a1

invertible Q ∈ Mn (F) tal que B = Q−1 AQ.


ic

La relación de semejanza es una relación de equivalencia sobre el espacio Mn (F) (ver ejercicio
at

12) y, por lo tanto, divide a Mn (F) en clases de equivalencia disjuntas. Se concluye del corolario
em

anterior que las matrices asociadas a un operador lineal con respecto a bases diferentes son
matrices semejantes. El recíproco también es cierto, es decir, si A, B ∈ Mn (F) son semejantes,
at

entonces A, B son matrices asociadas a un operador lineal T ∈ L (V ) con respecto a dos bases
M

de V . Ese es nuestro próximo resultado.


w.
ww

Teorema 4.4.11 Supongamos que A, B ∈ Mn (F) son semejantes. Entonces existen bases B y
B′ de un espacio vectorial V de dimensión finita y T ∈ L (V ) tales que [T ]B = A y [T ]B′ = B.

Demostración. Sea V un espacio vectorial de dimensión n y B una base de V . Por el


teorema 4.4.5, existe T ∈ L (V ) tal que [T ]B = A. Sea Q ∈ Mn (F) una matriz invertible tal
que B = Q−1 AQ. Veamos que es posible construir una base B′ de V tal que la matriz cambio
de base de B a B′ es P = Q−1 . En tal caso obtenemos que

[T ]B′ = P [T ]B P −1 = Q−1 AQ = B

Recordando que [·] : V → Fn es un isomorfismo, consideremos la base B′ = {v1 , . . . , vn } de V


determinada por la relación
[vi ]B = Qei
para todo i = 1, . . . , n. Entonces

Q−1 [vi ] B = ei = [vi ]B′


Transformaciones lineales 101

para todo i y, en consecuencia, Q−1 [v] B = [v]B′ para todo v ∈ V . Como P es única tal que

P [v]B = [v]B′

para todo v ∈ V , concluimos que P = Q−1 .


En resumen, concluimos que las diferentes representaciones de un operador lineal T ∈ L (V )
forman una de las clases de equivalencias determinadas por la relación de semejanza sobre
Mn (F).

EJERCICIOS
   
x 0
1. Sea T : C → C el operador lineal definido por T
2 2
= . Considere la base
    y y
i 2
B= , de C2 y E la base canónica de C2 . Calcule [T ]BE , [T ]EB , [T ]EE y
1 −i
[T ]BB .
 m 
x  
o
x+z
.c

2. Sea T : R → R el operador lineal definido por T


3 2   . Considere la
a1

y =
2y − x
z
ic

     
 −1 1 1 
at

base B =  0  , 1 , 0  de R3 y las bases canónicas E y E ′ de R3 y R2


  
em

 
1 1 0
respectivamente. Calcule [T ]BE ′ y [T ]EE ′ .
at
M

3. Sea T ∈ L (R3 ) cuya matriz en la base canónica es


w.
ww

 
2 3 1
A= 3 0 2 
−1 2 1

Encuentre una base de Im (T ) y una base de ker (T ) .


 
1 2
4. Sea M = y T ∈ L (M2 (R)) definida por T (A) = MA, para todo A ∈ M2 (R).
3 4
Si B = {I11 , I12 , I21 , I22 } es la base canónica de M2 (R) encuentre [T ]BB .

5. Demuestre que dim Im (T ) = rgo (A) y dim ker (T ) = nul (A), donde T ∈ L (V ) y A =
[T ]BB para una base arbitraria B de V .

6. Demuestre que la función definida por A τA es un isomorfismo entre los espacios


vectoriales Mn (F) y L (Fn ).
102 juan rada

     
 1 1 1     
1 1
7. Sea B =  1  ,  1  ,  0  una base ordenada de R3 y C = ,
  1 −1
1 0 0
una base ordenada de R2 . Considere la aplicación lineal T : R3 −→ R2 definida por
 
x  
x − 3z
T y =
2x + y
z

Encuentre:

a) [T ]EE ′ , donde E es la base standard de R3 y E ′ es la base standard de R2 ;


b) [T ]BC ;
c) Matrices invertibles P, Q tales que [T ]BC = Q [T ]EE ′ P −1.
   
x 4x − y
8. Dada T ∈ L (R ) definida por T
2
= y las bases de R2
y 2x + y
       
m
1 0 1 2
o
E= , yB= ,
.c

0 1 3 5
a1
ic

a) Encuentre la matriz cambio de base P de E a B, la matriz cambio de base Q de B a


at

E y compruebe que Q = P −1.


em

b) Encuentre [T ]E , [T ]B y compruebe que


at

[T ]B = Q−1 [T ]E Q
M
w.

donde Q es la matriz cambio de base de B a E.


ww

   
x 2y + z
9. Sea S ∈ L (R3 ) definida por S  y  =  x − 4y  y considere las bases de R3
z 3x
           
 1 0 0   1 1 1 
E=   
0 , 1 , 0    yB=  1 , 1 , 0 
   
   
0 0 1 1 0 0

a) Encuentre la matriz cambio de base P de E a B, la matriz cambio de base Q de B a


E y compruebe que Q = P −1.
b) Encuentre [T ]E , [T ]B y compruebe que

[T ]B = Q−1 [T ]E Q

donde Q es la matriz cambio de base de B a E.


Transformaciones lineales 103

10. Considere las bases B = {1, i} y C = {1 + i, 1 + 2i} del espacio vectorial C sobre R.

a) Encuentre las matrices cambio de base P y Q de B a C y de C a B respectivamente;


b) Compruebe que Q = P −1 ;
c) Demuestre que [T ]B = P −1 [T ]C P , donde T es el operador lineal T : C → C definido
por T (z) = z.

11. Sea V un espacio vectorial con bases B a E. Si P es la matriz cambio de base de E a B y


Q es la matriz cambio de base de B a E demuestre que Q = P −1 .
12. Demuestre que la relación de semejanza de matrices es una relación de equivalencia.
13. Demuestre que matrices semejantes tienen la misma traza.
14. Demuestre que matrices semejantes tienen el mismo rango.

4.5. Autovalores y autovectores


m
Uno de los objetivos principales de este curso consiste en estudiar los operadores lineales
o
.c
a1

definidos sobre un espacio vectorial V . Teniendo en cuenta que un operador lineal tiene distintas
representaciones matriciales, es natural elegir una base de V de forma que la representación
ic

resulte lo más simple posible. Las matrices diagonales son bastante sencillas.
at
em

Definición 4.5.1 Una matriz D ∈ Mn (F) es diagonal si cumple [D]ij = 0 para todo i 6= j.
at

Es decir, todos los elementos fuera de la diagonal son 0. Si los elementos sobre la diagonal
M

son [D]ii = λi , para i = 1, . . . , n, entonces escribimos


w.
ww

D = diag (λ1 , . . . , λn )
Presentamos en este capítulo criterios para decidir cuando existe una base B de V tal que [T ]B
es una matriz diagonal.
Definición 4.5.2 Sea V un espacio vectorial. Un operador lineal T ∈ L (V ) es diagonalizable
si existe una base B de V tal que [T ]B es una matriz diagonal.
Ejemplo 4.5.3 Consideremos el operador lineal T ∈ L (R2 ) definido por
   
x 6x − y
T =
y 3x + 2y
   
1 1
Entonces B = , es una base de R2 . Además,
3 1
       
1 3 1 1
T = =3 +0
3 9 3 1
104 juan rada

y        
1 5 1 1
T = =0 +5
1 5 3 1
Por lo tanto,  
3 0
[T ]B =
0 5
y así, T es diagonalizable.

Ejemplo 4.5.4 Sea S ∈ L (R2 ) definida por


   
x y
S =
y 0
 
0 1
La matriz asociada a S con respecto a la base canónica es A = . Si S fuera diagona-
0 0
lizable existiría una matriz invertible Q tal que A = QDQ−1 , donde D es diagonal. Luego,
2 m
0 = A2 = QDQ−1 = QD 2 Q−1
o
.c
a1

Pero entonces D 2 = 0 porque Q es invertible, y esto implica que D = 0 porque D es diagonal.


ic

Esto implica que A = 0, una contradicción.


at
em

El problema de decidir si un operador lineal es diagonalizable es equivalente a determinar si


una matriz es semejante a una matriz diagonal.
at
M

Teorema 4.5.5 Sea V un espacio vectorial y A ∈ Mn (F) una matriz asociada a T ∈ L (V ).


w.
ww

T es diagonalizable si, y sólo si, A es semejante a una matriz diagonal.

Demostración. Sea B una base de V tal que [T ]B = A. Si T es diagonalizable, entonces


existe una base C de V tal que [T ]C = D, donde D es una matriz diagonal. Por el teorema 4.4.7,

D = [T ]C = P [T ]B P −1 = P AP −1

Así, A es semejante a una matriz diagonal. Recíprocamente, si A = [T ]B es semejante a una


matriz diagonal D, entonces por el teorema 4.4.11, existe una base C de V tal que [T ]C = D.
Esto demuestra que T es diagonalizable.

Definición 4.5.6 Decimos que la matriz A ∈ Mn (F) es diagonalizable si existe una matriz
diagonal D tal que A es semejante a D.

Introducimos la teoría de autovalores con el fin de estudiar el problema de diagonalización


de una matriz.
Transformaciones lineales 105

Definición 4.5.7 Sea A ∈ Mn (F). Un autovalor de A es un escalar λ ∈ F tal que

Ax = λx

para algún 0 6= x ∈ Fn . Decimos que x es un autovector de A asociado a λ.


 
7 −2
Ejemplo 4.5.8 Consideremos la matriz A = ∈ M2 (R). Entonces 3 es un autova-
4 1
lor de A porque    
1 1
A =3
2 2
 
1
El vector es un autovector de A asociado a 3.
2

Teorema 4.5.9 Sea A ∈ Mn (F). Las siguientes condiciones son equivalentes:

1. λ es un autovalor de A; om
.c

2. det (λI − A) = 0.
a1
ic

Demostración. Esto es consecuencia de los teoremas 3.4.13 y 2.4.7 porque λ es un autovalor


at

de A si, y sólo si, (λI − A) x = 0 para 0 6= x ∈ Fn si, y sólo si, λI − A no es invertible si, y sólo
si, det (λI − A) = 0.
em

Este resultado nos proporciona un método para encontrar los autovalores y autovectores
at

de una matriz. Si tratamos a λ como una variable, entonces det (λI − A) es un polinomio en
M

λ y los autovalores de A son las raíces de la ecuación polinómica det (λI − A) = 0. Después
w.

de encontrar los autovalores de A encontramos los autovectores como la solución no trivial del
ww

sistema de ecuaciones homogéneas (λI − A) x = 0. Es decir, los vectores diferentes de cero en


ker (λI − A). Llamamos a ker (λI − A) el autoespacio de A asociado al autovalor λ.

Definición 4.5.10 El polinomio pA = pA (x) = det (xI − A) ∈ F [x] se llama polinomio ca-
racterístico de A.

El hecho de que los autovalores de una matriz A se obtienen como raíces de pA (x) nos indica
que hay diferencias cuando tomamos F = R o F = C
 
0 1
Ejemplo 4.5.11 Consideremos la matriz B = ∈ M2 (R). Entonces el polinomio
−1 0
característico de B es  
x −1
pB = det = x2 + 1 ∈ R [x]
1 x
Este polinomio no tiene raíces sobre R y, por lo tanto, B no tiene autovalores.
106 juan rada

 
0 1
Ejemplo 4.5.12 Consideremos la matriz B = ∈ M2 (C). Entonces el polinomio
−1 0
característico de B es
 
x −1
pB = det = x2 + 1 = (x + i) (x − i)
1 x

En este ejemplo notamos que los autovalores de B son {−i, i}. El autoespacio asociado al
1
autovalor λ = −i es el subespacio generado por el vector . El autoespacio asociado a
  −i
1
λ = i es el subespacio generado por el vector .
i

El próximo resultado muestra que matrices semejantes tienen el mismo polinomio caracte-
rístico.

Teorema 4.5.13 Sean A, B ∈ Mn (F) matrices semejantes. Entonces pA = pB .


m
Demostración. Sea P ∈ Mn (F) una matriz invertible tal que B = P −1 AP . Entonces
o
.c
a1


pA = det (xI − A) = det P −1 (xI − A) P = det (xI − B) = pB
ic
at

En particular, matrices semejantes tienen los mismos autovalores.


em

Concluimos esta sección con un importante resultado sobre la independencia lineal de au-
at

tovectores.
M
w.

Teorema 4.5.14 Sea A ∈ Mn (F) y λ1 , . . . , λk los diferentes autovalores de A.


ww

1. Si xi es un autovector asociado a λi para cada i = 1, . . . , k, entonces el conjunto x1 , . . . , xk


es linealmente independiente;

2. Si para cada i = 1, . . . , k, Bi es una base de ker (λi I − A) entonces B = B1 ∪ · · · ∪ Bk es


un conjunto linealmente independiente.

Demostración. 1. Supongamos que el conjunto x1 , . . . , xk es linealmente dependiente. En-


tonces para algún entero 1 ≤ s < k tenemos que x1 , . . . , xs es linealmente independiente pero
x1 , . . . , xs+1 es linelamente dependiente. Luego

xs+1 = α1 x1 + · · · + αs xs (4.2)

donde no todos los αi ∈ F son ceros. Multiplicando ambos lados por A obtenemos

λs+1 xs+1 = α1 λ1 x1 + · · · + αs λs xs
Transformaciones lineales 107

y multiplicando ambos lados de (4.2) por λs+1 obtenemos

λs+1 xs+1 = λs+1 α1 x1 + · · · + λs+1 αs xs

Por la independencia lineal de x1 , . . . , xs concluimos que αj λj = λs+1 αj para todo j = 1, . . . , s.


Sea r tal que αr 6= 0. Entonces αr (λr − λs+1 ) = 0 y así λr = λs+1 , una contradicción.
2. Vamos a demostrar que

ker (λj I − A) ∩ [ker (λ1 I − A) + · · · + ker (λj−1I − A)] = {0}

para todo j = 2, . . . , k. En efecto, supongamos que x ∈ ker (λj I − A) y x = x1 + · · · + xj−1 ,


donde xi ∈ ker (λi I − A) para todo i = 1, . . . , j − 1. Entonces
j−1 j−1 j−1
X X X
(λi − λj ) xi = λi xi − λj xi = Ax − λj x = 0
i=1 i=1 i=1

Se deduce de la primera parte que todos los xi son cero y, por lo tanto, x = 0.
Ahora supongamos que Bi = {xi,1 , . . . , xi,ti } y consideremos una combinación lineal
om
.c
a1

α1,1 x1,1 + · · · + α1,t1 x1,t1 + · · · + αk,1 xk,1 + · · · + αk,tk xk,tk = 0


ic

Si llamamos yi = αi,1 xi,1 + · · · + αi,ti xi,ti ∈ ker (λi I − A) , entonces y1 + · · · + yk = 0. Sea j el


at

máximo entero positivo tal que yj 6= 0. Luego


em

yj = y1 + · · · + yj−1 ∈ ker (λj I − A) ∩ [ker (λ1 I − A) + · · · + ker (λj−1 I − A)] = {0}


at
M

Esto es una contradicción. Por lo tanto, yi = 0 para todo i y así, αi,t = 0 para todo 1 ≤ i ≤ k
w.

y 1 ≤ t ≤ ti . Esto termina la demostración.


ww

EJERCICIOS
 
2 3
1. Encuentre el polinomio característico de la matriz A = ∈ M2 (R), los auto-
−1 1
 
2 3
valores y los autoespacios correspondientes. ¿Qué ocurre si considera a A = ∈
−1 1
M2 (C)?

2. Sea A ∈ Mn (F) una matriz triangular. Demuestre que los autovalores de A son los
elementos de la diagonal de A.
 
−9 4 4
3. Encuentre el polinomio característico de la matriz A =  −8 3 4  ∈ M2 (R), los
−16 8 7
autovalores y los autoespacios correspondientes.
108 juan rada

4. Sea T ∈ L (V ) donde V es un espacio vectorial de dimensión n. Si T tiene n autovalores


diferentes, demuestre que T es diagonalizable.

5. Sean A, B ∈ Mn (F) . Demuestre que si I −AB es invertible, entonces I −BA es invertible


y que
(I − BA)−1 = I + B (I − AB)−1 A
Concluya que AB y BA tienen los mismos autovalores.

6. Sea V el espacio de las funciones continuas de R en R y T : V → V el operador lineal


sobre V definido por
Zx
(T f ) (x) = f (t) dt
0

Demuestre que T no tiene autovalores.

7. Sea D ∈ Mn (F) una matriz diagonal con polinomio característico


m
(x − c1 )d1 · · · (x − ck )dk
o
.c
a1

donde c1 , . . . , ck son distintos. Sea V = {A ∈ Mn (F) : AD = DA}. Demuestre que la


ic

dimensión de V es d21 + · · · + d2k .


at
em

8. Demuestre que 0 es un autovalor de A si, y sólo si, A no es invertible.


at

9. Suponga que λ es un autovalor de la matriz invertible A. Demuestre que λ−1 es un autovalor


M

de A−1 .
w.
ww

10. Suponga que v es un autovector de las matrices A, B ∈ Mn (F). Demuestre que v es un


autovector de αA + βB, donde α, β ∈ F.

11. Suponga que λ es un autovalor de la matriz A con autovector asociado v. Demuestre que
para todo entero n > 0, λn es un autovalor de An con autovector asociado v.

12. Sean A, B ∈ Mn (F) tales que AB = BA. Sea λ un autovalor de B y W el autoespacio de


B asociado a λ. Demuestre que AW ⊆ W .

13. Sea T ∈ L (V ). Un autovalor de T es un escalar λ ∈ F tal que

T x = λx

para algún 0 6= x ∈ V . Se dice que x es un autovector de T asociado a λ. Sea A = [T ]B la


matriz asociada a T con respecto a la base B. Demuestre que λ ∈ F es un autovalor de T
si, y sólo si, λ es un autovalor de A.
Transformaciones lineales 109

4.6. Diagonalización
En esta sección establecemos la conexión entre la teoría de autovalores y el problema de
diagonalización.

Teorema 4.6.1 La matriz A ∈ Mn (F) es diagonalizable si, y sólo si, existe una base de Fn
formada por autovectores de A.

Demostración. Sea P una matriz invertible tal que AP = P D, donde

D = diag (λ1 , . . . , λn ) .

Por el teorema 3.4.13, las columnas de P∗1 , . . . , P∗n de P forman una base de Fn . Por otra parte,
un cálculo simple demuestra que

AP∗j = (AP )∗j = (P D)∗j = λj P∗j

para cada j = 1, . . . , n. Así, cada P∗j es un autovector asociado al autovalor λj . Recíprocamente,


supongamos que y1 , . . . , yn es una base de Fn formada por autovectores de A, digamos Ayj =
m
o
.c

λj yj . Sea P la matriz cuya columna j es el vector yj . Entonces P es invertible y para todo


a1

j = 1, . . . , n
ic

(AP )∗j = Ayj = λj yj = (P D)∗j


at

donde D = diag (λ1 , . . . , λn ). Esto demuestra que P −1AP = diag (λ1 , . . . , λn ) .


em

Damos a continuación un criterio útil para decidir cuando una matriz A ∈ Mn (F) es dia-
at

gonalizable, en el caso que el polinomio característico pA de A se expresa como producto de


factores lineales:
M

pA = (x − λ1 )m1 · · · (x − λk )mk (4.3)


w.
ww

donde λ1 , . . . , λk son los autovalores diferentes de A y m1 +· · ·+mk = n. Para cada j = 1, . . . , k,


recordamos que la multiplicidad algebraica de λj , que denotamos por maA (λj ), es el número
mj . Esto es, maA (λj ) = mj .
Es importante notar que por el Teorema Fundamental del Álgebra, si tomamos F = C,
entonces cualquier matriz A ∈ Mn (C) tiene polinomio pA en la forma dada en (4.3).

Definición 4.6.2 Sea A ∈ Mn (F). La dimensión del autoespacio ker (λI − A) asociado a un
autovalor λ de A se llama la multiplicidad geométrica de λ y la denotamos por mgA (λ).

En general, la multiplicidad algebraica y geométrica de un autovalor son diferentes.


 
0 0
Ejemplo 4.6.3 Consideremos la matriz A = . Entonces ΦA = x2 y, por lo tanto, el
1 0
único autovalor de A es el cero. En este caso, dim [ker (0I − A)] = dim [ker (A)] = 1. Esto es,
mgA (0) = 1 6= 2 = maA (0).
110 juan rada

Teorema 4.6.4 Sea A ∈ Mn (F) y λ0 un autovalor de A. Entonces mgA (λ0 ) ≤ maA (λ0 ).

Demostración. Supongamos que mgA (λ0 ) = r y sea Q1 , . . . , Qr una base de ker (λ0 I − A).
Extendamos hasta una base
Q1 , . . . , Qr , Qr+1 , . . . , Qn
de Fn y consideremos la matriz invertible Q que tiene a Qj como columna j, para j = 1, . . . , n.
Entonces 
Q−1 AQ ∗j = Q−1 AQ∗j = Q−1 AQj = Q−1 λ0 Qj = λ0 ej
para todo j = 1, . . . , r. Por lo tanto
 
−1 λ0 Ir B
Q AQ =
0 C

para ciertas B ∈ Mr,n−r (F) y C ∈ Mn−r (F). Se concluye del teorema 4.5.13 que
 
(x − λ0 ) Ir −B
pA = pQ−1 AQ = det
0 xIn−r − C mo
.c
a1

Desarrollando este determinante por las primeras m columnas obtenemos que pA = (x − λ0 )r |xIn−r − C|
lo cual demuestra que
ic

maA (λ0 ) ≥ r = mgA (λ0 )


at
em

Ahora estamos en condiciones de presentar un criterio para decidir cuando una matriz es
at

diagonalizable.
M
w.

Teorema 4.6.5 Sea A ∈ Mn (F) tal que pA se expresa como producto de factores lineales.
ww

Entonces A es diagonalizable si, y sólo si, mgA (λ) = maA (λ) para todo λ ∈ σ (A) .

Demostración. Supongamos que A es diagonalizable y sea λ un autovalor de A tal que


maA (λ) = r. Entonces  
−1 λIr 0
P AP =
0 B
donde B ∈ Mn−r (F) es diagonal y λ no es autovalor de B. En consecuencia,
 
0 0
(λI − A) = P P −1
0 λIn−r − B

Como matrices semejantes tienen igual rango se obtiene que


 
0 0
rgo (λI − A) = rgo = rgo (λIn−r − B) = n − r
0 λIn−r − B
Transformaciones lineales 111

Se deduce del Teorema de la Dimensión que


mgA (λ) = dim [ker (λI − A)] = n − rgo (λI − A) = n − (n − r) = r
Recíprocamente, supongamos que λ1 , . . . , λk son los diferentes autovalores de A y supon-
gamos que mgA (λi ) = maA (λi ) para todo i. Elijamos para cada i = 1, . . . , k una base Bi de
ker (λi I − A). Entonces, por el teorema 4.5.14, el conjunto B = B1 ∪ · · · ∪ Bk es linealmente
Pk Pk
independiente. Además, el número de vectores en B es mgA (λi ) = maA (λi ) = n. En
i=1 i=1
consecuencia, B es una base de Fn formada por autovectores de A y el resultado se deduce del
teorema 4.6.1.
 
2 1 1
Ejemplo 4.6.6 Sea A =  2 3 2  ∈ M3 (R). Entonces
1 1 2
 
x − 2 −1 −1
pA = det  −2 x − 3 −2  = (x − 5) (x − 1)2
−1 −1 x − 2
m
Por lo tanto, el conjunto de autovalores de A es el conjunto {1, 5} , maA (1) = 2 y maA (5) = 1.
o
.c

Calculemos ahora las multiplicidades geométricas de los autovalores de A. Usando las técnicas
a1

del primer capítulo tenemos


ic

   
3 −1 −1 1 0 −1
at

5I − A =  −2 2 −2  ∼  0 1 −2  (4.4)
em

f
−1 −1 3 0 0 0
at

Luego rgo (5I − A) = 2, y por el Teorema de la Dimensión, mgA (5) = 1. Similarmente,


M

   
−1 −1 −1 1 1 1
w.
ww

1I − A =  −2 −2 −2  ∼  0 0 0  (4.5)
f
−1 −1 −1 0 0 0
y así, rgo (I − A) = 1 lo cual implica mgA (1) = 2. El teorema 4.6.5 nos garantiza que A
es diagonalizable. Para encontrar la matriz P invertible tal que P −1 AP es diagonal debemos
construir bases de los autoespacios ker (5I − A) y ker (I − A) . De la relación (4.4) obtenemos
que
y − 2z = 0
x−z = 0
Luego la solución
 del
 sistema
  (5I−
homogéneo A) X = 0 viene dada por los vectores de la
x 1  1 
forma  2x  = x 2 . Es decir,  2  es una base de ker (5I − A). Por otra parte,
 
 
x 1 1
se deduce de la relación (4.5) que
x+y+z = 0
112 juan rada

   
 0 1 
Luego el conjunto  1  ,  0  forma una base de ker (I − A). La matriz invertible
 
−1 −1
P que buscamos es  
1 0 1
P = 2 1 0 
1 −1 −1
En efecto,

AP = (AP∗1 , AP∗2 , AP∗3 ) = (5P∗1 , P∗2 , P∗3 )


= (P∗1 , P∗2 , P∗3 ) diag (5, 1, 1) = P diag (5, 1, 1)
 
3 1 0
Ejemplo 4.6.7 Sea B =  0 3 1  ∈ M3 (R). Entonces
0 0 3

x − 3 −1 0

pB = 0 x − 3 −1 = (x − 3)3 m
o
0 x−3
.c

0
a1

Así, 3 es el único autovalor de B y maB (3) = 3. Por otro lado,


ic
at

 
0 −1 0
em

3I − B =  0 0 −1 
0 0 0
at
M

En consecuencia, rgo (3I − B) = 2 y mgB (3) = 1. Concluimos que la matriz B no es diago-


w.
ww

nalizable.

EJERCICIOS
  
x 6x − y
1. Sea F : R → R el operador lineal definido por F
2 2
= . ¿Es F diago-
y 3x + 2y
nalizable? En caso de serlo, encuentre una base B de R2 tal que [F ]B es diagonal.
   
x 2x + y
2. Sea T : R3 → R3 el operador lineal definido por T  y  =  y − z . ¿Es T
z 2y + 4z
diagonalizable? En caso de serlo, encuentre una base B de R3 tal que [T ]B es diagonal.
 
6 −3 −2
3. Sea A =  4 −1 −2 . Es A semejante, sobre C, a una matriz diagonal?
10 −5 −3
Transformaciones lineales 113

4. Sea A ∈ M2 (R) simétrica. Demuestre que A es diagonalizable.


 
0 0 0 0
 a 0 0 0 
5. ¿Bajo que condiciones es la matriz A = 
 0
 diagonalizable?
b 0 0 
0 0 c 0

mo
.c
a1
ic
at
em
at
Mw.
ww

También podría gustarte