Main 1 PDF

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 130

Álgebra Lineal I

Vı́ctor M. Bautista-Ancona

Facultad de Matemátics, Universidad Autónoma de Yucatán


Email address: [email protected]
Índice general

Prefacio vii

Capı́tulo 1. Sistemas de ecuaciones lineales 1


§1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 1
§1.2. Rango y consistencia 20
§1.3. Uso de la factorización P A = LU para resolver el sistema
Ax = b 25
§1.4. Exercises 32

Capı́tulo 2. Determinantes 43
§2.1. Definición y propiedades 44
§2.2. Cálculo de determinantes 47
§2.3. Matrices invertibles y determinantes. Regla de Cramer 50
§2.4. Exercises 55

Capı́tulo 3. Espacios Vectoriales 57


§3.1. Espacios vectoriales 57
§3.2. Subespacios Vectoriales 61
§3.3. Dependencia lineal 65
§3.4. Base y dimensión 73
§3.5. Espacios fundamentales de una matriz 80
§3.6. Sumas directas 85
§3.7. Rango de un producto de matrices 90
§3.8. Exercises 91

v
vi Índice general

Capı́tulo 4. Transformaciones Lineales 101


§4.1. Transformaciones Lineales 101
§4.2. Propiedades básicas 106
§4.3. Construcción de transformaciones lineales 107
§4.4. Núcleo e imagen de una transformación lineal 108
§4.5. Teorema de la dimensión 109
§4.6. Transformaciones lineales inyectivas y suprayectivas 110
§4.7. Exercises 113
Apéndice A. Matrices 115
§A.1. Definición formal 115
§A.2. Operaciones con matrices 115
§A.3. Multiplicación de matrices por vectores 120
Apéndice B. Funciones 123
Prefacio

El álgebra lineal es una herramienta básica para casi todas las ramas
de la matemática ası́ como para disciplinas afines tales como la fı́sica, la
ingenierı́a y la computación, entre otras.
Estas notas, basadas en la materia Álgebra Lineal I destinada a alumnos
de la Licenciaturas en: actuarı́a, enseñanza de las matemáticas, matemáticas,
ciencias de la computación, ingenierı́a en computación y ingenierı́a de soft-
ware de la Facultad de Matemáticas de la Universidad Autóma de Yucatán,
pretenden, entre tantos buenos textos de álgebra lineal existentes, ser sólo
una introducción básica al tema que se ajusta a los contenidos curriculares
del curso y, al mismo tiempo, una guı́a de estudios para los alumnos.
Las notas no presuponen ningún conocimiento previo de álgebra lineal,
aunque sı́ de algunas propiedades básicas de polinomios con coeficientes
en un campo y de números complejos, y en algunos ejercicios se utilizan
estructuras que provienen de la aritmética elemental.
Si el lector tiene algún comentario, corrección, sugerencias, etc., por favor
envı́ale un correo electrónico al autor.

—————————

Copyright: Victor Bautista Ancona, 2010-2011, 2019. Licencia: Creative


Commons Attribution-Share Alike 3.0 License

—————————

vii
Capı́tulo 1

Sistemas de ecuaciones
lineales

Los sistemas de ecuaciones lineales son comunes en ciencias y en ma-


temáticas. Los dos ejemplos de preparatoria siguientes darán sentido a cómo
surgen.

1.1. Sistemas de ecuaciones lineales y la inversa de una


matriz
El primer ejemplo es de Fı́sica. Suponga que tenemos tres objetos, uno
de ellos de masa conocida de 2 kg, y queremos conocer las masas de los dos
objetos restantes. Supongamos además que la experimentación produce los
siguientes dos balanceos de masas.

Se sabe que el momento de cada objeto es la masa por la distancia al


punto de balance. Sabemos que para el balance debemos tener que la suma
de momentos en el lado izquierdo debe ser igual a la suma de momentos de
la derecha. Esto nos da el siguiente sistema de dos ecuaciones.

1
2 1. Sistemas de ecuaciones lineales

40h + 15c = 100


25c = 50 + 50h

El segundo ejemplo de un sistema lineal es de Quimica. Podemos mez-


clar, bajo condiciones controladas, tolueno C7 H8 y ácido nı́trico HNO3 para
producir trinitrotolueno C7 H5 O6 N3 y agua (las condiciones tienen que ser
muy controladas - trinitrotolueno es mejor conocido como TNT). En que
proporción mezclamos estos componentes? El número de átomos de cada
elemento presente antes de la reacción

x C7 H8 + y HNO3 −→ z C7 H5 O6 N3 + w H2 O

debe ser igual al número presente después de la misma. Aplicando esto


a los elementos C, H, N, y O obtenemos el sistema

7x = 7z
8x + 1y = 5z + 2w
1y = 3z
3y = 6z + 1w

Concluir cada uno de estos ejemplos requiere saber resolver un sistema


de ecuaciones. En cada sistema, las ecuaciones envuelven únicamente las
primeras potencias de las variables. Este capı́tulo muestra como resolver
cualquiera de estos sistemas.

1.1.1. Definición de sistemas de ecuaciones lineales.

Definición 1.1. Una combinación lineal de x1 , x2 , . . . , xn tiene la forma

a1 x1 + a2 x2 + a3 x3 + · · · + an xn

donde los números a1 , . . . , an ∈ Re son los coeficientes de la combinación.


Una ecuación lineal tiene la forma a1 x1 + a2 x2 + a3 x3 + · · · + an xn = d donde
d ∈ Re es la constante.
Una n-tupla (s1 , s2 , . . . , sn ) ∈ Ren es una solución de, o satisface, la
ecuación si sustituyendo los números s1 , . . . , sn por la variables obtenemos
un enunciado verdadero: a1 s1 + a2 s2 + . . . + an sn = d.
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 3

Un sistema de m ecuaciones lineales con n variables

a1,1 x1 + a1,2 x2 + · · · + a1,n xn = d1


a2,1 x1 + a2,2 x2 + · · · + a2,n xn = d2
..
.
am,1 x1 + am,2 x2 + · · · + am,n xn = dm

tiene la solución (s1 , s2 , . . . , sn ) si esta n-tupla es una solución de todas las


ecuaciones en el sistema. El conjunto solución es el conjunto de todas las
soluciones.

Ejemplo 1.2. La combinación 3x1 +2x2 de x1 y x2 es lineal. La combinación



3x21 + 2 sin(x2 ) no es lineal, ni tampoco lo es − x2 + 3x52 = 0.

Ejemplo 1.3. El par ordenado (−1, 5) es una solución de este sistema.

3x1 + 2x2 = 7
−x1 + x2 = 6

En contraste, (5, −1) no es una solución.

Hallar el conjunto de todas las soluciones es resolver el sistema. Ni la


adivinación o la buena fortuna son necesarias para resolver un sistema lineal.
Existe un algoritmo que siempre funciona.
Sin embargo, en R2 , podemos calcular o analizar las soluciones de los
sistemas de ecuaciones lineales de manera geométrica. Por ejemplo, considere
el siguiente sistema lineal

x1 + x2 = 5
8x1 + 16x2 = 48

y graficamos en R2 cada una de las ecuaciones (por separado). Observe que


las rectas se interesan en exactamente un punto (4, 1), y que dicho punto
es solución del sistema. La pregunta es: Pueden haber más soluciones? La
respuesta, por supuesto, es no y el conjunto solución es {(4, 1)}.
Sin embargo, en esta situación podrı́an ocurrir casos extremos.

Ejemplo 1.4. Grafiquemos el siguiente sistema de ecuaciones:

x1 + x2 = 5
16x1 + 16x2 = 48

Como podemos ver, las dos lı́neas rectas son paralelas. Intuitivamente, podrı́amos
suponer que no existe solución del sistema.
4 1. Sistemas de ecuaciones lineales

Ejemplo 1.5. Consideremos ahora el siguiente sistema


x1 + x2 = 3
16x1 + 16x2 = 48
Graficando podemos ver que las dos lineas rectas son la misma! Y por lo
tanto, las dos rectas se intersectan en cada uno de sus puntos. Entonces:
Que pasa con las soluciones?
Note que nunca podremos obtener (por ejemplo) dos puntos de intersec-
ción con únicamente dos lı́neas rectas.
Problema 1.6. Graficamente, analize la situación si perdemos la condición
de linealidad y se nos permite usar ecuaciones no-lineales.
Problema 1.7. Dado n ∈ N, puedes escribir un sistema de ecuaciones no-
lineales que tenga n soluciones?
Gráficamente, la linealidad de los sistemas de ecuaciones se encargan de
que tengamos únicamente los tres siguientes casos:
El sistema es inconsistente, es decir, no tiene solución.
El sistema es consistente determinado, es decir, tiene solución y ésta
es única.
El sistema es consistente indeterminado, es decir, tiene infinitas so-
luciones.
Más adelante, daremos condiciones necesarias y suficientes para determi-
nar cuando un sistema de ecuaciones lineales es inconsistente o consistente.
Por ahora, observe que esta idea geométrica puede no funcionar en dimensio-
nes mayores. En el caso general, usamos lo siguiente: Realizando operaciones
que no cambien el conjunto solución del sistema, lo transformamos en uno
más simple, de tal manera, que ambos sistemas sean equivalentes (que ten-
gan las mismas soluciones). En este enunciado, la palabra clave es: simple,
en este contexto, simple no es equivalente a fácil. Este algoritmo es conocido
como Eliminación Gaussiana (o Método de Gauss o Eliminación Lineal) y
será nuestro objeto de estudio en la siguiente sección.

1.1.2. Representación Matricial. Ahora, usando matrices mostramos


una forma compacta (y muy útil) de escribir sistemas de ecuaciones lineales.
Definición 1.8. Sea
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = c1
a2,1 x1 + a2,2 x2 + · · · + a2,n xn = c2
..
.
am,1 x1 + am,2 x2 + · · · + am,n xn = cm
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 5

un sistema de m ecuaciones con n incógnitas. La matriz asociada del sistema


la definimos como
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
 
 .. .. .. 
 . . . 
am,1 am,2 · · · am,n
La matriz aumentada del sistema es la matriz asociada con una columna
adicional formada por lo términos constantes del sistema:
 
a1,1 a1,2 · · · a1,n c1
 a2,1 a2,2 · · · a2,n c2 
 
 .. .. .. .. 
 . . . . 
am,1 am,2 · · · am,n cm
Problema 1.9. Halla la matriz asociada y la matriz aumentada del sistema

5x1 + 7x2 = 9
−x2 = 3

1.1.3. Operaciones elementales de renglón. Comenzemos con el si-


guiente ejemplo. Supongamos que queremos resolver el sistema

3x3 = 9
x1 + 5x2 − 2x3 = 2
1
x1 + 2x2 = 3
3
Reescribamos el sistema intercambiando la fila 1 con la fila 3, en lo siguiente,
a esta transformación le llamaremos del tipo I
1
x1 + 2x2 = 3
3
x1 + 5x2 − 2x3 = 2
3x3 = 9

Multiplicamos la primera ecuación por el número 3, en lo siguiente, a esta


transformación le llamaremos del tipo II

x1 + 6x2 = 9
x1 + 5x2 − 2x3 = 2
3x3 = 9

Multiplicamos ambos lados de la primera fila por −1 y se la sumamos a la


segunda fila y escribimos el resultado como una nueva segunda fila, en lo
6 1. Sistemas de ecuaciones lineales

siguiente, a esta transformación le llamaremos del tipo III


x1 + 6x2 = 9
−x2 − 2x3 = −7
3x3 = 9
Después de la sucesión de pasos, el sistema está ahora en una forma más
simple y ya podemos hallar los valores de cada variable usando la sustitución
hacia atrás. Despejamos x3 en la tercera ecuación y obtenemos que x3 = 3,
ahora sustituimos este valor en la segunda ecuación y obtenemos que x2 = 1.
Por último, sustituimos ambos valores en la primera ecuación y obtenemos
que x1 = 3. Concluı́mos entonces que el sistema es consistente determinado
y su solución es {(3, 1, 3)}.
El método ejemplificado anteriormente es llamado eliminación gaussiana
y el Teorema 1.24 lo formaliza.

1.1.4. Matrices Elementales.


Definición 1.10. La función δ : Z × Z → {0, 1} definida mediante la regla

1 si i = j
δi,j =
0 6 j
si i =
es llamado el sı́mbolo de Kronecker o la delta de Kronecker.
Ejemplo 1.11. δ2,5 = δ5,2 = 0, δ4,4 = 1, δ−3,−3 = 1, δ7,1 = δ1,7 = 0.
Problema 1.12. Calcular las siguientes sumas:
P10 k
k=1 2 δk,4 ,
P10 δ7,k
k=1 k ,
P10 2
k=1 k δk,12 ,
P10
k=1 δi,k δk,j con 1 ≤ i, j ≤ 10.

Definición 1.13. Sea K un campo, y sea n un entero positivo. La matriz


identidad de tamaño n, denotada por In o simplemente I (cuando es claro
en el contexto que todas las matrices son de n × n), es la matriz de n × n
cuya entrada (i, j)-ésima es 1 si i = j, y 0 si i 6= j. Más formalmente,
(In )i,j = δi,j .
Definición 1.14. La matriz canónica de n × n de coordenadas (r, s), deno-
tada Enrs (o simplemente E rs si es conocido el valor de n), es la matriz cuya
entrada (i, j)-ésima es 1 si el par ordenado (i, j) es igual al par ordenado
(r, s), y 0 en cualquier otro caso. Más formalmente,
(Enrs )i,j = δr,i δs,j .
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 7

Ejemplo 1.15.
 
  0 0 0 0
  0 0 0
0 1  0 0 0 0 
E212 = , E333 =  0 0 0  , E432 = .
0 0  0 1 0 0 
0 0 1
0 0 0 0
Definición 1.16. Una matriz elemental es una matriz cuadrada que tenga
alguna de las siguientes formas:
Tipo I. I − E rr − E ss + E rs + E sr , con r 6= s;
Tipo II. I − E rr + aE rr para algún a ∈ K, a 6= 0;
Tipo III. I + aE rs con a ∈ K, a 6= 0 y i 6= j.
Ejemplo 1.17. Del tipo I:
     
0 1 0 0 0 1 1 0 0
 1 0 0 , 0 1 0 , 0 0 1 .
0 0 1 1 0 0 0 1 0
Del tipo II:
     
7 0 0 1 0 0 1 0 0
 0 1 0 , 0 1 0 , 0 5 0 .
0 0 1 0 0 −8 0 0 1
Del tipo III:
     
1 2 0 1 0 −7 1 0 0
 0 1 0 , 0 1 0 , 0 1 0 .
0 0 1 0 0 1 0 9 1

Recuerde la siguiente:
Definición 1.18. Sea A una matriz de n × m. Una operación elemental de
renglones (o también llamada operación elemental de filas) de A es una de
las tres siguientes operaciones:
Tipo I. (Intercambio) Intercambiar los renglones r-ésimo y s-ésimo, con r 6=
s.
Tipo II. (Escalamiento) Reemplazar el renglón r-ésimo por a veces el renglón
i-ésimo, con a 6= 0. Coloquialmente, decimos que multiplicamos el
renglón r-ésimo por a.
Tipo III. (Reemplazo) Reemplazar el renglón s-ésimo de A por la suma del
renglón s-ésimo más a veces el renglón r-ésimo, con s 6= r y a 6= 0.
Coloquialmente, decimos que le sumamos al renglón s-ésimo a veces
el renglón r-ésimo.
8 1. Sistemas de ecuaciones lineales

Ejemplo 1.19. Considere la matriz


 
1 0
A= ,
−1 3
Sumando 2 veces el segundo renglón al primer renglón de A nos da la matriz
 
−1 6
A= ,
−1 3
Intercambiando el primero y el segundo renglón de A nos da
 
−1 3
A= ,
1 0
Multiplicando el segundo renglón de A por −2 nos da
 
1 0
A= .
2 −6
Teorema 1.20. Sea R una matriz elemental de n × n del Tipo i, con i =
1, 2, 3. Entonces R se obtiene de realizar una única operación elemental de
renglón de Tipo i a la matriz identidad In . Debido a esto, a la operación
elemental de renglón de arriba se le llama la operación elemental de renglón
asociada a la matriz elemental R. Inversamente, si se realiza una operación
elemental de renglón a I, se obtendrá una matriz elemental del mismo tipo.
Más aún, si A es una matriz de n × m, entonces el producto RA es igual al
resultado de realizar a A la operación elemental de renglón asociada a R.

Demostración. Observe que


(E rs A)i∗ = (E rs )i∗ A
Ahora, (E rs )i∗ es un vector renglón y tenemos
n 
rs
X
rs 0 si i 6= r
[(E )i∗ A]ij = (E )ik Akj = Pn rs
k=1 k=1 (E )rk Akj = Asj si i = r
Ahora, veamos que pasa con las matrices del tipo I, es decir,
[(I − E rr − E ss + E rs + E sr ) A]ij
y calculemos su entrada (i.j)-ésima:

 Aij si i 6= s, r
rr ss rs sr
[A − E A − E A + E A + E A]ij = Arj − Arj − 0 + Asj + 0 = Asj si i = r
Asj − 0 − Asj + 0 + Arj = Arj si i = s

ahora es claro el teorema para las matrices del tipo I. Para las matrices del
tipo II, i.e., [(I − E rr + aE rr ) A]ij :

rr rr Aij si i 6= r
[A − E A + aE A]ij =
Arj − Arj + aArj = aArj si i = r
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 9

y vemos que el teorema se sigue para matrices del Tipo II. Finalizar el
teorema requiere de un analisis similar y se deja al lector. 

1.1.5. Sistemas Equivalentes.

Definición 1.21. Sean A y B matrices de n × m. Decimos que A y B son


equivalentes por renglones (o equivalentes por filas) si B se puede obtener
de A realizando un número finito de operaciones elementales de renglones.

Ejemplo 1.22. Las matrices

   
1 2 0 1
A= ,B =
3 8 1 2

son equivalentes por renglón.

Teorema 1.23. Sean A y B matrices de n × m con entradas en un campo


K. Entonces A y B son equivalentes por reglones si y sólo si existe una
matriz C de n × n tal que C es producto de matrices elementales y B = CA.

Teorema 1.24. Si un sistema lineal es transformado por alguna de las


siguientes operaciones:

Operación del Tipo I: Intercambiamos dos ecuaciones (o filas);


Operación del Tipo II: Mutiplicamos una ecuación (o fila) por un
número distinto de cero;
Operación del Tipo III: Reemplazamos una ecuación (o fila) con la
suma de ella misma y un múltiplo de otra ecuación (o fila).

Entonces el conjunto solución no cambia.

Demostración. Primero notemos las siguientes restricciones:

En la operación del Tipo II no se permite multiplicar por el cero, ya


que esto elimina dicha ecuación,
En la operación Tipo III, no se permite sumar un múatiplo de una
fila a sı́ misma.
10 1. Sistemas de ecuaciones lineales

Demostremos que la primer tipo de observación no altera el conjunto solu-


ción. Para esto, consideremos el siguiente sistema de ecuaciones lineales:
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = d1
..
.
ai,1 x1 + ai,2 x2 + · · · + ai,n xn = di
..
.
aj,1 x1 + aj,2 x2 + · · · + aj,n xn = dj
..
.
am,1 x1 + am,2 x2 + · · · + am,n xn = dm
ahora, realizamos una operación del tipo I, y obtenemos
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = d1
..
.
aj,1 x1 + aj,2 x2 + · · · + aj,n xn = dj
..
.
ai,1 x1 + ai,2 x2 + · · · + ai,n xn = di
..
.
am,1 x1 + am,2 x2 + · · · + am,n xn = dm
La n-tupla (s1 , . . . , si , . . . , sj , . . . , sn ) satisface el sistema antes del intercam-
bio si y solamente si al sustituir xi por si obtenemos enunciados verdaderos:
a1,1 s1 +a1,2 s2 +· · ·+a1,n sn = d1 y . . . y ai,1 s1 +ai,2 s2 +· · ·+ai,n sn = di y . . . y
aj,1 s1 +aj,2 s2 +· · ·+aj,n sn = dj y . . . y am,1 s1 +am,2 s2 +· · ·+am,n sn = dm . Al
obtener enunciados unidos con un “y” podemos reordenar los enunciados, ası́
que esto se cumple si y solamente si a1,1 s1 + a1,2 s2 + · · · + a1,n sn = d1 y . . . y
aj,1 s1 +aj,2 s2 +· · ·+aj,n sn = dj y . . . y ai,1 s1 +ai,2 s2 +· · ·+ai,n sn = di y . . . y
am,1 s1 +am,2 s2 +· · ·+am,n sn = dm si y solamente si (s1 , . . . , sj , . . . , si , . . . , sn )
resuelve el sistema después del intercambio. Esto es, la oepración del tipo I
no cambia el conjunto solucioón. 
Problema 1.25. Completar la prueba del teorema 1.24.
Definición 1.26. Las operaciones del Teorema 1.24 son llamadas opera-
ciones de reducción o operaciones de filas o operaciones de renglón. En lo
siguiente, las llamaremos operaciones gaussianas.

Denotamos por Ri al renglón i y compactamos las operaciones gaussianas


de la siguiente manera:
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 11

A la operación de intercambiar los renglones i y j, la denotamos


Ri ↔ Rj .
A la operación de multiplicar el renglón i por un número k, la de-
notamos por Ri ↔ kRi .
A la operación de reemplazar el renglón j con la multiplicación por
k de la ecuación i y la suma del renglón j la denotamos por Rj ↔
Rj + kRi .

1.1.6. Matriz escalonada y matriz escalonada reducida.


Definición 1.27. Una matriz escalonada es una matriz cuyos renglones
que consisten únicamente de ceros, si los hay, están en la parte inferior de
la matriz y, la primera entrada diferente de cero en el resto de los renglones
está a la derecha de la primera entrada diferente de cero del renglón anterior.
Ejemplo 1.28. La forma escalonada de una matriz luce como sigue:
 
* ∗ ∗ ∗ ∗ ∗ ∗ ∗
 0
 ∗ ∗ ∗ ∗ ∗ ∗ ∗  
 0
 0 0 ∗ ∗ ∗ ∗ ∗  .
 0
 0 0 0 0 ∗ ∗ ∗  
 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 0 0
Problema 1.29. ¿La matriz cero es escalonada?
Definición 1.30. Una matriz escalonada reducida es una matriz que está
en su forma escalonada, todos los pivotes son 1 y cada pivote es la única
entrada no cero es su columna.
Ejemplo 1.31. La forma escalonada reducida de una matriz luce como
sigue:  
1 0 ∗ 0 ∗ 0 ∗ ∗
 0
 1 ∗ 0 ∗ 0 ∗ ∗ 

 0 0 0 1 ∗ 0 ∗ ∗
 
.


 0
 0 0 0 0 1 ∗ ∗ 

 0 0 0 0 0 0 0 0 
0 0 0 0 0 0 0 0
1.1.7. Métodos de Gauss y de Gauss-Jordán para resolver un
sistema de ecuaciones lineales.
Ejemplo 1.32. Resolvamos el sistema usando operaciones gaussianas:
x+y =0
2x − y + 3z = 3
x − 2y − z = 3
12 1. Sistemas de ecuaciones lineales

hacemos R2 ↔ R2 − 2R1 y R3 ↔ R3 − R1 , obtenemos


x+y =0
−3y + 3z = 3
−3y − z = 3
ahora, hacemos R3 ↔ R3 − R2 ,
x+y =0
−3y + 3z = 3
−4z = 0
Usando sustitución hacia atrás, obtemos
z = 0y = −1x = 1
Por tanto, la solución es: (1, −1, 0).
Problema 1.33. Usando operaciones gaussianas y sustitución hacia atrás,
halla la solución del sistema:
x+y+z =9
2x + 4y − 3z = 1
3x + 6y − 5z = 0
Definición 1.34. En cada fila de un sistema lineal, la primera variable
con coeficiente distinto de cero es llamada variable lider de la ecuación (o
fila). Un sistema está en su forma escalonada si cada variable lider está a
la derecha de las variables lideres de las filas de arriba (excepto la variable
lider de la primera fila).

En resumen, el algoritmo gaussiano consiste en llevar el sistema a su


forma escalonada y después hacer sustitución hacia atrás.
Ejemplo 1.35. Considere el sistema:
x+y+z =0
y+z =0
Observe que el sistema se encuentra en su forma escalonada y también que,
las variables lideres son x y y. Pero, que pasa con la variable z? Ésta no es
lider, pero la podemos usar para describir las variables lideres, esto es,
y = −z
x =0
Asi que el conjunto solución puede ser descrito como
{(0, −z, z) | z ∈ R}.
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 13

Del ejemplo anterior, podemos obtener la siguiente definición.


Definición 1.36. Las variables no lideres en un sistema lineal en su forma
escalonada son llamadas variables libres.
Ejemplo 1.37. Considere el sistema
2x + z = 3
2−y−z =1
3x − y = 4
reducimos el sistema a su forma escalonada y obtenemos el siguiente sistema
equivalente:
2x + z = 3
3 1
−y − z = −
2 2
Observe que las variables lideres son x, y y la variable libre es z, enton-
ces usamos a z para describir el conjunto solución. De la segunda ecuación
obtenemos y = 21 − 32 z y de la primera x = 32 − 12 z. El conjunto solución es
3 1 1 3
{( − z, − z, z)z ∈ R}.
2 2 2 2
Problema 1.38. Resuelve el siguiente sistema
x+y+z−w =1
y − z + w = −1
3x + 6z − 6w =6
−y + z − w =1
Problema 1.39. Halle una matriz escalonada equivalente por renglones a
las siguientes matrices:
   
0 2 3 8 1 −1 −1 2 1
 2 3 1 5  ,  2 −2 −1 3 3 
1 −1 −2 −5 −1 1 −1 0 −3
Teorema 1.40. Sea A una matriz de n × m con entradas en un campo K.
Entonces existe una matriz escalonada que es equivalente por renglones a A.
Problema 1.41. Halle una matriz escalonada reducida equivalente por ren-
glones a las matrices del Ejercicio 1.39
Teorema 1.42. Sea A una matriz con entradas en un campo K. Entonces
existe una matriz escalonada reducida que es equivalente por renglones a A.
Teorema 1.43. Toda matriz elemental R es invertible, y su inversa es una
matriz elemental del mismo tipo.
14 1. Sistemas de ecuaciones lineales

Demostración. Tenemos tres casos, según el tipo de la matriz elemental


R. En cada caso sólo daremos la inversa, y se le dejará al lector demostrar
que efectivamente lo es (Ejercicio de la Lista 04)
Tipo I. R = I − E ii − E jj + E ij + E ji , con i 6= j; entonces R−1 = R;
Tipo II. R = I − E ii + aE ii para algún a ∈ K, a 6= 0; entonces R−1 =
I − E ii + a−1 E ii ,
Tipo III. R = I + aE ij con algún a ∈ K, a 6= 0, y i 6= j; entonces R−1 =
I − aE ij .


Teorema 1.44. La relación “equivalente por renglones a” es una relación


de equivalencia en el conjunto de todas las matrices n × m con entradas en
un campo K, es decir:
1. Toda matriz es equivalente por renglones a sı́ misma.
2. Si A es equivalente por renglones a B entonces B es equivalente por
renglones a A.
3. Si A es equivalente por renglones a B y B es equivalente por renglo-
nes a C, entonces A es equivalente por renglones a C.

Teorema 1.45. Sea A una matriz de n × n con entradas en un campo K.


Tenemos que son equivalentes las siguientes condiciones:
1. A es invertible.
2. A es equivalente por renglones a la matriz identidad In .
3. A es un producto de matrices elementales.

Demostración. (1) ⇒ (2) : Suponga que A es invertible. Sea B una matriz


escalonada reducida por renglones equivalente a A. Tenemos que existe una
matriz C que es producto de matrices elementales, tales que B = CA. Como
toda matriz elemental es invertible, su producto C también es invertible, por
lo que CA = B también es invertible. Como B es una matriz escalonada
reducida invertible, no puede tener renglones nulos y debe ser igual a la
matriz identidad I.
(2) ⇒ (3) : Suponga que A es equivalente por renglones a la matriz
identidad In . Tenemos que existe una matriz C que es producto de matrices
elementales, tales que I = CA. Como dijimos antes, C es invertible y mul-
tiplicando por C −1 por la izquierda nos queda C −1 = A. Pero el inverso de
un producto es el producto de los inversos en el orden contrario, y como el
inverso de una matriz elemental es otra matriz elemental, tenemos que A es
producto de matrices elementales.
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 15

(2) ⇒ (3) : Se sigue de que las matrices elementales son invertibles y


producto de invertibles es invertible. 
Corolario 1.46. Sea A una matriz invertible de n × n. Si una sucesión de
operaciones elementales de renglón nos lleva de A a I, la misma sucesión
de operaciones elementales nos lleva de I a A−1 .

Demostración. Como A es equivalente por renglones a la matriz identidad


In , tenemos que existe una matriz C que es producto de matrices elementa-
les, tales que I = CA. Entonces A−1 = C, de donde A−1 = C = CI. 
Corolario 1.47. Sean A y B matrices de n × n. Entonces B es equivalente
por renglones a A si y sólo si existe una matriz invertible C tal que B = CA.

Demostración. Para que B sea equivalente por renglones a A necesitamos


que exista una matriz C que sea producto de matrices elementales y tal que
B = CA. El resto se sigue de que una matriz es invertible si y sólo si es
producto de matrices elementales. 

1.1.8. Definición, propiedades y cálculo de la inversa de una ma-


triz. Comencemos calculando el producto de las siguientes matrices:
   
2 −4 −3 −1 2 9
A =  −3 7 3 ,B =  0 1 3 
1 −2 −1 −1 0 2
Observemos que AB = I3 = BA. Este fenómeno motiva la siguiente defini-
ción.
Definición 1.48. Sean A, B ∈ Mn (K). Se dice que B es la matriz inversa
de A si AB = In y BA = In y decimos que A es invertible.

La pregunta que nos hacemos ahora es: La matriz inversa es úinca? La


respuesta afortunadamente es afirmativa y esto lo mostramos en el siguiente
teorema.
Teorema 1.49. Sean A, B, C ∈ Mn (K) tales que AB = BA = In y AC =
CA = In . Entonces B = C.

Demostración. Usando el Teorema A.12, calculamos el producto BAC de


dos diferentes maneras. Por un lado,
BAC = B(AC) = B(In ) = B.
Por otro lado,
BAC = (BA)C = (In )C = C.
Entonces B = C. 
16 1. Sistemas de ecuaciones lineales

El Teorema 1.49 muestra que la matriz inversa, si existe, es única. La


matriz inversa a la matriz A se denota A−1 .
Ejemplo 1.50. Un ejemplo trivial de una matriz no invertible es la matriz
nula 0n .
Ejemplo 1.51. Sea  
1 0
A= .
0 0
Entonces para cualquier matriz
 
b1,1 b1,2
B= .
b2,1 b2,2
tenemos que:  
b1,1 b1,2
AB = 6= I2 .
0 0
Por lo tanto, la matriz A es no invertible.

Má adelante, daremos condiciones para determinar si una matriz es in-


vertible o no de una manera rápida y eficiente. Mientras tanto,
Proposición 1.52. Sea A ∈ Mn (K) una matriz cuadrada. Supongamos que
(por lo menos) una fila de A es nula, digamos, Ai,∗ = 0 para i ∈ {1, . . . , n}.
Entonces A no es invertible.

Demostración. Supongamos que B ∈ Mn (K), AB = I, BA = I. Entonces.


en particular, (AB)i,∗ = Ai,∗ B 6= Ii,∗ . Una contradicción. 
Problema 1.53. Enuncia y demuestra la versión para columnas nulas de
la Proposición 1.52

La proposición 1.52 y el Ejercicio ?? implican que todas las filas y todas


las columnas de una matriz invertible son no nulas. Esta condición es ne-
cesaria para la invisibilidad de una matriz pero en general no es suficiente.
Existen matrices que no contienen ninguna fila (y ninguna columna) nula,
pero no son invertibles.
Problema 1.54. Usando únicamente la definción, muestre que la matriz
 
b1,1 b1,2
6= I2 .
0 0
Proposición 1.55. La inversa posee las siguientes propiedades:
In es invertible. Más aún, In−1 = In .
Si A, B ∈ Mn (K) son invertibles, entonces la matriz AB también es
invertible, y
(AB)−1 = B −1 A−1 .
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 17

Si A ∈ Mn (K) es invertible, entonces la matriz A−1 también es


invertible, y

(A−1 )−1 = A.
Si A ∈ Mn (K) es invertible, entonces la matriz AT también es in-
vertible, y

(AT )−1 = (A−1 )T .

Problema 1.56. Demuestra la Proposición 1.55.

El Corolario 25 (cf. Matrices elementales y cálculo de la inversa) nos dá


un algoritmo para calcular numéricamente la inversa de una matriz. Ob-
viamente, este método es conocido como el método de Gauss-Jordan para
calcular la inversa.
Es posible realizar operaciones con renglones sobre A e I simultáneamen-
te al construir una “matriz superaumentada” (A | I), ya que A es equivalente
a I, podemos realizarle a la matriz (A | I) operaciones por renglón (esto nos
asegurarı́a que, las mismas operaciones y en el mismo orden, son hechas tan-
to a A como a I) y llevar la parte izquierda de la matriz a la identidad, lo
que obtendremos en la parte derecha es, como esperariamos, la matriz A−1 .
En sı́mbolos:

(A | I) → · · · → I | A−1 .


Si A no puede ser llevada a I, entonces A no es invertible.


El uso de la eliminación de Gauss-Jordan se ilustra con algunos ejemplos.

Ejemplo 1.57. Encuentra la inversa de

 
1 2 −1
A= 2 2 4 
1 3 −3

si existe.
18 1. Sistemas de ecuaciones lineales

Solución: La eliminación de
Gauss-Jordan produce
 
1 2 −1 1 0 0

(A | I) =  2 2 4 0 1 0 

1 3 −3 0 0 1
 
1 2 −1 1 0 0
R2 ↔ (−2)R1 +R2 
0 −2 6 −2 1 0 
R3 ↔ (−1)R1 +R3
−−−−−−−−−−−−−−→ 0 1 −2 −1 0 1

 
1 2 −1 1 0 0
R2 ↔ (−2)R  0 1 −3 1 − 21 0 
−−−−−−−−−→2 0 1 −2 −1 0 1
 
1 0 5 −1 1 0
R1 ↔ (−2)R2 +R1 
0 1 −3 1 − 21 0 
R3 ↔ (−1)R2 +R3 −2 1 1
−−−−−−−−−−−−−−→ 0 0 1 2
3
 
1 0 0 9 − 2 −5

R1 ↔ (−5)R3 +R1 
0 1 0 −5 1 3 
R2 ↔ (3)R3 +R2 1
−−−−−−−−−−−−−−→ 0 0 1 −2 2 1

De aquı́,
9 − 32
 
−5
A−1 =  −5 1 3 .
−2 21 1
Ejemplo 1.58. Encuentra la inversa de
 
2 1 −4
A =  −4 −1 6 
−2 2 −2
si existe.
Solución: La eliminación de Gauss-Jordan produce
 
2 1 −4 1 0 0
(A | I) =  −4 −1 6 0 1 0 
−2 2 −2 0 0 1
 
2 1 −4 1 0 0
R2 ↔ (2)R1 +R2 
0 1 −2 2 1 0 
R3 ↔ (1)R1 +R3
−−−−−−−−−−−−−→ 0 3 −6 1 0 1

 
2 1 −4 1 0 0
R3 ↔ (−3)R2 +R3  0 1 −2 2 1 0 
−−−−−−−−−−−−−→ 0 0 0 −5 −3 1
En este punto se ve que no es posible reducir A a I, pues existe un renglón
de ceros en el lado izquierdo de la matriz aumentada. De aquı́, A no es
invertible.
1.1. Sistemas de ecuaciones lineales y la inversa de una matriz 19

Problema 1.59. Use el método de Gauss-Jordan para encontrar la inversa


de la matriz dada (si existe).
 
1 2
1. .
3 4
 
−2 4
2. .
3 −1
 
3 −4
3. .
−6 8
 
1 a
4. .
−a 1
 
2 0 −1
5.  1 5 1 .
2 3 0
 
1 −1 2
6.  3 1 2 .
2 3 −1
 
1 1 0
7.  1 1 1 .
0 1 1
 
a 0 0
8.  1 a 0 .
0 1 a
 
0 a 0
9.  b 0 c .
0 d 0
 
0 −1 1 0
 2 1 0 2 
 1 −1 3 0 .
10.  

0 1 1 −1
 √ √ 
2
√ √ 0 2 2 0
 −4 2 2 0 0 
11.  .
 0 0 1 0 
0 0 3 1
 
1 0 0 0
 0 1 0 0 
12. 
 0 0 1 0 .

a b c d
20 1. Sistemas de ecuaciones lineales

1.2. Rango y consistencia


Definición 1.60. Sea A una matriz de orden m × n y sean R1 , R2 , . . . , Rm
sus m vectores-fila, llamamos rango por filas de la matriz A al número máxi-
mo de vectores linealmente independientes.
Definición 1.61. Sea A una matriz de orden m × n y sean C1 , C2 , . . . , Cn
sus n vectores-columna, llamamos rango por columnas de la matriz A al
número máximo de vectores linealmente independientes.

Ahora, ¿cuando el rango por filas y el rango por columnas coinciden? La


respuesta, sorprendentemente, es siempre.
Teorema 1.62. [Teorema del Rango] En cualquier matriz el rango por filas
es igual al rango por columnas.

Del Teorema 1.62, podemos reescribir la definición del rando en términos


de los pivotes:
Definimos el rango de una matriz.
Definición 1.63. Sea A ∈ Mn×m (K) y sea E su forma escalonada reducida.
El rango de A se define:
rango(A) = número de pivotes de E.
= número de renglones distintos de cero de E.
Las columnas básicas de A (o también llamadas columnas base) son las
columnas de A que contienen los pivotes.
Ejemplo 1.64. Sea
 
−2 −5 8 0 −17
1 3 −5 1 5 
A=
 3 11 −19 7

1 
1 7 −13 5 −3
Usando operaciones gaussiandas llevamos a A a su forma escalonada redu-
cida:  
1 0 1 0 1
0 1 −2 0 3 
A= 0 0 0 1 −5

0 0 0 0 0
Es claro que las columnas 1,2 y 4 son las pivotales y por lo tanto, las columnas
básicas de A son:      

 −2 −5 0 
     
 1  ,  3  , 1

  3   11  7
 
1 7 5
 
1.2. Rango y consistencia 21

Algunas propiedades de los determinantes tienen un impacto importante


en el rango de la matriz, por ejemplo, las operaciones del Tipo I,II y III
conservan el rango, al igual que suprimir las filas (columnas) de ceros o
intercambiar dos filas (columnas).
Sea A ∈ Mn×m (K). El sistema homogéneo asociado a A se denota como
AX = 0
donde X ∈ Mm×1 (K), es decir, es un vector columna, y sus entradas son
las variables del sistema de ecuaciones y 0 consiste del vector columna nulo.
Una solución X0 ∈ Mm×1 (K) del sistema es un vector columna que cumple
la ecuación matricial
AX0 = 0
Ya que el vector nulo 0 siempre es una solución del sistema homogéneo,
decimos que ésta es la solución trivial del sistema homogéneo.

Teorema 1.65. Sean A y B matrices equivalentes por renglones. Entonces


los sistemas homogéneos de ecuaciones lineales asociados a A y B tienen las
mismas soluciones.

Demostración. Este es un caso particular del Teorema general. 

Definición 1.66. Sea A una matriz escalonada reducida por renglones.


Decimos que una variable xi es libre si la i-ésima columna de A no contiene
ningún pivote.

Lema 1.67. Sea A ∈ Mn×m (K) escalonada reducida por renglones. Enton-
ces
1. Si xi no es una variable libre, entonces xi aparece una única vez con
coeficiente no nulo en el sistema AX = 0, y dicho coeficiente es un
pivote de A.
2. Todas las soluciones del sistema homogéneo AX = 0 se obtienen
asignando valores arbitrarios a las variables libres y luego encon-
trando los valores (que estarán determinados de forma única) de las
variables no libres.
3. El sistema AX = 0 tiene al menos una solución no trivial si y sólo
si A tiene al menos una variable libre.

Demostración. 1. Si xi no es libre, entonces la i -ésima columna tiene


un pivote, por lo que en esa columna la única entrada no nula es uno.
2. Si uno asigna valores arbitrarios a las variables libres, existe una
única forma de asignar valores a las variables no libres para satisfacer
22 1. Sistemas de ecuaciones lineales

el sistema, pues cada ecuación no nula del sistema es de la forma


m
X
xi + Ai,k xk = 0
k=i+1

donde xi es una variable no libre y todas las demás variables o son


libres,o tienen coeficientes nulos. Inversamente, cualquier solución
del sistema se obtuvo asignando valores a las variables libres y de-
terminando los valores de las variables no libres.
3. Si al menos hay una variable libre, se puede asignar a todas ellas el
valor 1 (o cualquier valor distinto de cero) y obtener una solución no
trivial. Si no hay variables libres, todas las variables están en una
ecuación de la forma xi = 0, y por lo tanto la única solución del
sistema es la trivial.

Teorema 1.68. Sea A ∈ Mn×m con n < m (es decir, A tiene estrictamente
más columnas que renglones). Entonces el sistema homogéneo (el cual tiene
más variables que ecuaciones) AX = 0 tiene al menos una solución no
trivial.

Demostración. Por el Teorema 1.65, podemos suponer sin pérdida de ge-


neralidad que A es una matriz escalonada reducida por renglones. Note que
el número de pivotes de A es menor o igual a n; por hipótesis n < m, y m
es el número de indeterminadas. Ası́, A debe tener variables libres. 
Proposición 1.69. Sea A ∈ Mn×m (K). Entonces A es equivalente por
renglones a la matriz identidad si y sólo si el sistema de ecuaciones AX = 0
tiene solamente la solución trivial.

Demostración. Si A es equivalente por renglones a la matriz identidad I,


entonces AX = 0 y IX = 0 tienen el mismo conjunto de soluciones. Pero
la única solución del sistema IX = 0 es la trivial, pues el sistema es xi = 0
para toda i , ası́ que el sistema de ecuaciones AX = 0 tiene solamente la
solución trivial.
Recı́procamente, suponga ahora que la única solución del sistema AX =
0 es la trivial, es decir, X = 0. Sea B una matriz escalonada reducida por
renglones equivalente (por renglones) a A. Tenemos que la única solución
del sistema BX = 0 también es la trivial. Sea m el número de pivotes
de B. Por el Lema 1.67, B no puede tener variables libres, es decir, toda
variable xi tiene un pivote en la columna i-ésima, y al menos debe haber
n pivotes (puesto que hay n variables), es decir, m ≥ n. Por otro lado, no
puede haber más pivotes que renglones, por lo que m ≤ n. Juntando ambas
desigualdades obtenemos que m = n. Esto significa que el número de pivotes
1.2. Rango y consistencia 23

de B es igual al número de columnas de B. Como la matriz B es cuadrada, la


única posibilidad es que el i-ésimo pivote aparezca en la i-ésima columna, ya
que de lo contrario nos sobrarı́an pivotes si dejáramos columnas sin pivote.
El resultado de esto es que B es la matriz identidad. 

Notación. Un sistema no homogéneo de ecuaciones linealmente usual-


mente se denota
AX = Y
donde X es el vector columna de indeterminadas, y Y es el vector columna
de constantes.
Teorema 1.70. Sea A ∈ Mn (K). Las siguientes afirmaciones son equiva-
lentes:
1. A es invertible.
2. El sistema homogéneo AX = 0 tiene solamente la solución trivial
X = 0.
3. Para todo vector columna Y de n×1, el sistema de ecuaciones AX =
Y tiene una única solución, a saber, X = A−1 Y .

Demostración. (3) ⇒ (2) : Es el caso particular cuando Y = 0.


(2) ⇒ (1) : Si el sistema homogéneo AX = 0 tiene solamente la solución
trivial, entonces A es equivalente por renglones a la matriz identidad, por lo
que A es invertible.
(1) ⇒ (3) : Como A es invertible, tenemos que A−1 está bien defi-
nida. El vector columna A−1 Y es solución del sistema AX = Y , puesto
que A A−1 Y = AA−1 Y = IY = Y . Por otro lado, si X es solución


del sistema AX = Y , multiplicando por A−1 por la izquierda tenemos


que A−1 (AX) = A−1 Y , y después de unas simplificaciones llegamos a que
X = A−1 Y , por lo que la solución propuesta es única. 
Lema 1.71. Considere un sistema no homogéneo de ecuaciones lineales
AX = Y.
Sea B una matriz invertible tal que el producto BA está bien definido. En-
tonces el sistema AX = Y y el sistema (BA)X = BY tienen las mismas
soluciones.

Demostración. Si X es solución de AX = Y , multiplicando por la izquier-


da por B tenemos que B(AX) = BY . Ya que el producto de matrices es
asociativo, esto último nos queda (BA)X = BY , es decir, X es solución del
sistema (BA)X = BY . El regreso se obtiene aplicando el mismo argumento,
ahora multiplicando por la matriz inversa B −1 . 
24 1. Sistemas de ecuaciones lineales

Teorema 1.72. Considere un sistema no homogéneo de ecuaciones lineales


AX = Y
Suponga que la matriz A es escalonada reducida por renglones. Entonces
el sistema es consistente si y sólo si no hay ninguna ecuación de la forma
0 = ci con ci 6= 0, es decir, si todos los renglones nulos de A están igualados
a cero en el sistema de ecuaciones. En este caso, todas las soluciones del
sistema no homogéneo AX = Y se obtienen asignando valores arbitrarios a
las variables libres y luego encontrando los valores (que estarán determinados
de forma única) de las variables no libres.

Demostración. Si un renglón nulo de A está igualado a algo diferente de


cero, no hay manera de satisfacer esa ecuación, y el sistema es inconsistente.
Supongamos que todos los renglones nulos de A están igualados a cero, por
lo que los podemos ignorar. Si uno asigna valores arbitrarios a las variables
libres de A, existe una única forma de asignar valores a las variables no libres
para satisfacer el sistema, pues cada ecuación no nula del sistema es de la
forma
Xm
xi + Ai,k xk,j = cji
k=i+1
donde xi es una variable no libre y todas las demás variables o son libres,
o tienen coeficientes nulos. Inversamente, cualquier solución del sistema se
obtuvo asignando valores a las variables libres y determinando los valores
de las variables no libres. 
Proposición 1.73. Considere un sistema no homogéneo de ecuaciones li-
neales
AX = Y
Sea X0 un vector columna que es solución de dicho sistema. Entonces todas
las soluciones de este sistema son precisamente los vectores de la forma
X0 + X1 donde X1 es una solución arbitraria del sistema homogéneo AX1 =
0.

Demostración. Note primero que todo vector columna de la forma X0 +X1


es solución del sistema no homogéneo, puesto que
A(X0 + X1 ) = AX0 + AX1 = Y + 0 = Y.
Inversamente, si X2 es solución del sistema no homogéneo, entonces podemos
escribir X2 como X2 = X0 + (X2 − X0 ), donde (X2 − X0 ) es solución del
sistema homogéneo, pues
A(X2 − X0 ) = AX2 − AX0 = Y − Y = 0.

1.3. Uso de la factorización P A = LU para resolver el sistema Ax = b 25

1.3. Uso de la factorización P A = LU para resolver el


sistema Ax = b
Ası́ como es natural factorizar un número natural en un producto de
otros números naturales, por ejemplo, 30 = 2 · 3 · 5, frecuentemente también
es útil factorizar matrices como productos de otras matrices. Cualquier re-
presentación de una matriz como el producto de dos o más matrices se llama
factorización de matrices. Por ejemplo,
    
3 −1 1 0 3 −1
=
9 −5 3 1 0 −2
es una factorización de una matriz.
No es necesario decir que algunas factorizaciones son más útiles que
otras. En esta sección se presenta una factorización matricial que surge en
la solución de sistemas de ecuaciones lineales mediante eliminación gaussiana
y es particularmente adecuada para su implementación en computadora.
Considere un sistema de ecuaciones de la forma AX = b donde A es una
matriz de n × n. La meta es mostrar que la eliminación gaussiana implı́ci-
tamente factoriza A como el producto de matrices que permiten resolver
fácilmente el sistema dado (y cualquier otro sistema con la misma matriz
asociada A).
El siguiente ejemplo ilustra la idea básica de la factorización LU.
Ejemplo 1.74. Sea  
2 1 3
A =  4 −1 3 
−2 5 5
La reducción por renglones de A se realiza del modo siguiente:
   
2 1 3 2 1 3
R ↔ (−2)R1 +R2 
A =  4 −1 3  2 0 −3 −3 
R3 ↔ R1 +R3
−2 5 5 −−−−−−−−−−−−−−→ 0 6 8
 
2 1 3
R3 ↔ (2)R2 +R3  0 −3 −3  = U
−−−−−−−−−−−→ 0 0 2
Las tres matrices elementales E1 , E2 , E3 que logran esta reducción de A a
la forma escalonada U son (en orden):
     
1 0 0 1 0 0 1 0 0
E1 =  −2 1 0  , E2 =  0 1 0  , E3 =  0 1 0 .
0 0 1 1 0 1 0 2 1
Por lo tanto,
E1 E2 E3 A = U
26 1. Sistemas de ecuaciones lineales

Al despejar A obtenemos:
A = E3−1 E2−1 E1−1 U
y por el Teorema 22 (de las notas sobre Matrices Elementales), tenemos
     
1 0 0 1 0 0 1 0 0
−1 −1
E1 =  2 1 0 , E2 =
  0 1 0  , E3 =  0 1 0 
0 0 1 −1 0 1 0 −2 1
Por lo tanto,  
1 0 0
E3−1 E2−1 E1−1 = 2 1 0  = L.
−1 −2 1
Y por lo tanto:
    
2 1 3 1 0 0 2 1 3
A =  4 −1 3  =  2 1 0   0 −3 −3  = LU.
−2 5 5 −1 −2 1 0 0 2

Observe que el Ejemplo anterior muestra que A puede factorizarse como


A = LU
donde U es una matriz triangular superior (cf. Ejercicio 2 de la Lista
05) y L es una matriz triangular inferior unitaria. Esto es, L tiene la forma
 
1 0 ··· 0
 ∗ 1 ··· 0 
 
 .. .. . . . 
 . . . .. 
∗ ∗ ··· 1
con ceros arriba y 1’s en la diagonal principal.
El ejemplo anterior motiva a la siguiente definición:
Definición 1.75. Sea A una matriz cuadrada. Una factorización de A como
A = LU , donde L es triangular inferior unitaria y U es triangular superior,
se llama factorización LU de A.

Aunque nuestra definición está enunciada a únicamente matrices cua-


dradas, la factorización LU puede generalizarse a matrices no cuadradas
(ver Lista 06). Otra observación sobre nuestra definición es el requerimien-
to “unitaria”, en algunos textos, la definición omite esta palabra y sola-
mente escribe: “Sea A una matriz cuadrada. Una factorización de A como
A = LU , donde L es triangular inferior y U es triangular superior, se llama
f actorización LU de A.” Otra pregunta que surge de manerar natural es
¿cuales matrices se pueden factorizar de la forma LU ? El siguiente teorema
(sin demostración) nos aclara este tema.
1.3. Uso de la factorización P A = LU para resolver el sistema Ax = b 27

Teorema 1.76. Si A es una matriz cuadrada que puede reducirse a su


forma escalonada sin usar intercambios de renglón, entonces A tiene una
factorización LU.

Una forma sencilla de encontrar factorizaciones LU . En el Ejemplo anterior


se calculó la matriz L como un producto de matrices elementales. Por for-
tuna, L puede calcularse directamente a partir del proceso de Gauss sin la
necesidad de calcular las matrices elementales, invertirlas, etc. Partimos de
que A puede reducirse a su forma escalonada por renglones sin usar inter-
cambio de renglón. Tenemos la siguiente definción:
Definición 1.77. En la operación elemental de renglón Ri ↔ (−k) Rj + Ri ,
el escalar k se denominará el multiplicador de la entrada (i, j).

En el Ejemplo anterior, las operaciones elementales que se usaron fueron:

R2 ↔ (−2)R1 + R2 multiplicador de la entrada (2, 1) es k = 2


R3 ↔ R1 + R3 multiplicador de la entrada (3, 1) es k = −1
R3 ↔ (2)R2 + R3 multiplicador de la entrada (3, 2) es k = −2
¡Los multiplicadores de la entrada (i, j) son precisamente los elementos de
la entrada (i, j)! De hecho,
 
1 0 0
L= 2 1 0 
−1 −2 1
como habiamos encontrado antes.
Problema 1.78. Encuentre una factorización LU de la matriz
 
3 1 3 −4
 6 4 8 −10 
A= .
 3 2 5 −1 
−9 5 −2 −4

Para ver porqué es útil la factorización LU , considere un sistema lineal


AX = b, donde la matriz de coeficientes tiene una factorización LU , A = LU .
El sistema AX = b puede reescribirse como LU X = b ó L (U X) = b. Si
ahora se define Y = U X, entonces es posible resolver para X en dos etapas:
1. Resolver LY = b para Y mediante sustitución hacia adelante.
2. Resolver U X = Y para X mediante sustitución hacia atrás.
Cada uno de dichos sistemas lineales tiene solución directa porque las
matrices coeficientes L y U son ambas triangulares. El siguiente ejemplo
ilustra el método.
28 1. Sistemas de ecuaciones lineales

 
2 1 3
Ejemplo 1.79. Use una factorización LU de A =  4 −1 3  para
−2 5 5
 
1
resolver el sistema AX = b donde b =  −4 .
9

Solución: En el Ejemplo anterior hallamos que


  
1 0 0 2 1 3
A= 2 1 0   0 −3 −3  = LU.
−1 −2 1 0 0 2

Para 
resolver
 el sistema AX = b primero resolvemos el sistema LY = b para
y1
Y =  y2  . Este es justamente sistema de ecuaciones lineales:
y3

y1 = 1
2y1 + y2 = −4
−y1 − 2y2 + y3 = 9

La sustitución hacia adelante (esto es, trabajamos de arriba para abajo)


produce:

y1 = 1,
y2 = −4 − 2y1 = −4 − 2 = −6,
y3 = 9 + y1 + 2y2 = 9 + 1 + 2 (−6) = −2.

Por lo tanto,
 
1
y =  −6  .
−2

Y
 ahora,
 resolvemos el sistema de ecuaciones lineales U X = Y para X =
x1
 x2 . Este sistema de ecuaciones lineales es
x3

2x1 + x2 + 3x3 = 1
−3x2 − 3x3 = −6
2x3 = −2
1.3. Uso de la factorización P A = LU para resolver el sistema Ax = b 29

y la sustitución hacia atrás (esto es, trabajamos de abajo para arriba) pro-
duce:

x3 = −1,
−6 + 3x3 −6 + 3 (−1) −9
x2 = = = = 3,
−3 −3 −3
1 − x2 − 3x3 1 − (3) − 3 (−1) 1
x1 = = = .
2 2 2
Por lo tanto, la solución del sistema de ecuaciones lineales dado es
 1 
2
X =  3 .
1

Teorema 1.80. Si A es una matriz invertible que tiene una factorización


LU , entonces L y U son únicas.

Demostración. Suponga que A = LU y A = L1 U1 son dos factorizaciones


LU de A. Entonces LU = L1 U1 donde L y L1 son triangulares inferiores
unitarias y U y U1 son triangulares superiores. De hecho, U y U1 son dos
formas escalonadas por renglones (posiblemente diferentes) de A. Entonces
L1 es invertible (Ver Lista 06). Dado que A es invertible, entonces su forma
escalonada reducida por renglones es la identidad. Por lo tanto, U se reduce
por renglones a I (¿porqué?) y en consecuencia U también es invertible. Por
lo cual,

L−1
1 (LU ) U
−1
= L−1
1 (L1 U1 ) U
−1
,
−1 −1 −1 −1
 
L1 L U U = L1 L1 U1 U ,
L−1
1 L = U1 U
−1
.

Pero L−11 L es triangular inferior unitaria (Ver Lista 06) y U1 U


−1 es trian-
−1 −1
gular superior (¿porqué?). Se tiene que L1 L = U1 U es tanto triangular
unitaria como triangular superior. La única matriz de esta forma es la ma-
triz identidad, de modo que L−11 L = I y U1 U
−1 = I. Se tiene que L = L y
1
U = U1 , de modo que la factorización es única. 

Ahora se explorará el problema de adaptar la factorización LU para


menejar casos donde son necesarios los intercambios de renglón durante la
eliminación gaussiana. Por ejemplo, considere la matriz:
 
1 2 −1
A =  3 6 2 .
−1 1 4
30 1. Sistemas de ecuaciones lineales

Una reducción por renglón directa produce


 
1 2 −1
A→B= 0 0 5 
0 3 3
que no es una matriz triangular superior. Sin embargo, esto se puede con-
vertir fácilmente en forma triangular superior al intercambiar los renglones
2 y 3 de B para obtener
 
1 2 −1
U =  0 3 3 .
0 0 5
Alternativamente, primero puede intercambiar los renglones 2 y 3 de A. Para
este fin, sea P la matriz elemental
 
1 0 0
 0 0 1 
0 1 0
que corresponde a intercambiar los renglones 2 y 3, y sea E el producto
de las matrices elementales que entonces reduce P A a U (de modo que
E −1 = L es triangular inferior unitaria). Por tanto, EP A = U de modo que
A = (EP )−1 U = P −1 E −1 U = P −1 LU.
Ahora, esto sólo maneja el caso de un solo intercambio de renglón. En
general, P será el producto P = Pk · · · P2 P1 de todas las matrices que inter-
cambian renglón P1 , P2 , . . . , Pk (donde P1 se realiza primero, etc) Tal matriz
P se llama una matriz permutación. Observe que una matriz permutación
surge de permutar los renglones de una matriz identidad en cierto orden. Por
ejemplo, las siguientes matrices son todas matrices permutación:
 
  0 1 0 0
  0 0 1
0 1  0 0 0 1 
, 1 0 0 ,  1 0 0 0 .

1 0
0 1 0
0 0 1 0
Por fortuna, el inverso de una matriz permutación es fácil de calcular (Lista
06) y lo establecemos en el siguiente
Teorema 1.81. Si P es una matriz permutación, entonces P −1 = P T .

Por tanto, en general, puede factorizar una matriz cuadrada A como


A = P −1 LU = P T LU .
Definición 1.82. Sea A una matriz cuadrada. Una factorización de A como
A = P T LU , donde P es una matriz permutación, L es triangular inferior
unitaria y U es triangular superior, se llama factorización PT LU de A.
1.3. Uso de la factorización P A = LU para resolver el sistema Ax = b 31

Ejemplo 1.83. Encuentre una factorización P T LU de la matriz


 
0 0 6
A =  1 2 3 .
2 1 4

Solución: Primero reduzca A a forma escalonada por renglones. Clara-


mente, es necesario al menos un intercambio de renglón.
     
0 0 6 1 2 3 1 2 3
 1 2 3  R1 ↔ R2  0 0 6  R3 ↔ (−2)R +R3  0 0 6 
−−−−−→ 1
2 1 4 2 1 4 −−−−−−−−−−−−−→ 0 −3 −2
 
1 2 3
R2 ↔ R3  0 −3 −2  .
−−−−−→
0 0 6
Se usaron dos intercambios de renglón (R1 ↔ R2 y luego R2 ↔ R3 ), de mo-
do que la matriz permutación requerida es
    
1 0 0 0 1 0 0 1 0
P =  0 0 1  1 0 0  =  0 0 1 .
0 1 0 0 0 1 1 0 0
Ahora se encuentra una factorización LU de P A.
  
0 1 0 0 0 6
PA =  0 0 1  1 2 3 
1 0 0 2 1 4
   
1 2 3 1 2 3
=  2 1 4  R2 ↔ (−2)R1 +R2  0 −3 −2  = U
0 0 6 −−−−−−−−−−−−−→ 0 0 6
Por lo tanto,
   
0 0 1 1 0 0 1 2 3
A =  1 0 0   2 1 0   0 −3 −2  .
0 1 0 0 0 1 0 0 6

La discusión anterior justifica el siguiente teorema (el cual no demostra-


remos).
Teorema 1.84. Toda matriz cuadrada tiene una factorización P T LU.
Problema 1.85. Encuentre una factorización P T LU de la matriz
 
0 −1 1 3
 −1 1 1 2 
A= .
 0 1 −1 1 
0 0 1 1
32 1. Sistemas de ecuaciones lineales

1.4. Exercises
1.1 Calcule el conjunto solución de cada uno de los siguientes sistemas
de ecuaciones lineales usando números reales (es decir, el campo es
K = R):
a) 
 x + 2y − 3z = 4
x + 3y + z = 11
2x + 5y − 4z = 13

b) 
 x1 + x2 − 2x3 + x4 = 0
3x1 − 2x2 + x3 + 5x4 = 0
x1 − x2 + x3 + 2x4 = 0

c)
{x + 2y − 3z = 4
d) 
x + 2y − 3z = 4
x + 3y + z = 11
1.2 Dado el sistema:

 2x1 − x2 + x3 = a
3x1 + x2 + 4x3 = b
−x1 + 3x2 + 2x3 = c

Determinar los valores de a, b, c ∈ R para los cuales el sistema es


consistente.
1.3 Sea a1 , a2 , . . . , an una sucesión arbitraria de nú meros reales. En-
cuentre un sistema sobre R de n ecuaciones con n incógnitas cuyo
conjunto solución sea el conjunto {a1 , a2 , . . . , an } .
1.4 Determina si los siguientes enunciados son verdadero o falso.
a) Todo sistema inconsistente tiene al menos dos incógnitas.
b) Todo sistema inconsistente tiene al menos dos ecuaciones.
1.5 Demuestre que todo sistema con una única ecuación y al menos una
variable es consistente.
1.6 Se dice que un sistema de m ecuaciones lineales con n variables es
homogéneo si todas las constantes son cero, i.e.,
a1,1 x1 + a1,2 x2 + · · · + a1,n xn = 0
a2,1 x1 + a2,2 x2 + · · · + a2,n xn = 0
..
.
am,1 x1 + am,2 x2 + · · · + am,n xn = 0
Demuestre que todo sistema homogéneo es consistente.
1.4. Exercises 33

1.7 Sea A ∈Matn×m (K) y λ, µ ∈ K. Demuestre que (λµ) A = λ (µA) .


1.8 Dé un ejemplo de matrices A, B, C ∈Matn×m (K) tales que

AC + CB 6= (A + B)C.

1.9 Calcule el siguiente producto. Simplifique el resultado usando fórmu-


las trigonométricas:
  
cos (α) −sen (α) cos (β) −sen (β)
.
sen (α) cos (α) sen (β) cos (β)
1.10 Demuestre dos de las siguientes tres propiedades acerca de matrices
simétricas y antisimétricas:
a) Todos los elementos diagonales de una matriz antisimétrica son
iguales a cero.
b) La suma y el producto por escalar de matrices simétricas tam-
bién son matrices simétricas. Enuncie y demuestre la propiedad
análoga para matrices antisimétricas.
c) Sea A ∈Matn×m (K) una matriz simétrica y antisimétrica. De-
muestre que A es nula.
1.11 Muestre que para cada matriz cuadrada A ∈Matn×m (K) existe un
único par de matrices (B, C) tal que A = B + C, B es simétrica y C
es antisimétrica. En otras palabras, cada matriz cuadrada se puede
representar de manera unica como suma de una matriz simétrica y
una matriz antisimétrica.
1.12 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) Si dos sistemas de ecuaciones tienen la misma matriz asociada,
entonces los dos sistemas son iguales.
b) Sean A y B matrices. Si existe un sistema de ecuaciones tal que
tanto A como B son matrices asociadas a dicho sistema, entonces
A = B.
c) Sea A una matriz con entradas en un campo. Entonces A2 está
definida si y sólo si A es una matriz cuadrada.
d ) Sea A una matriz de 2 × 2 con entradas en Q tal que A2 = I.
Entonces A = I.
e) No existe una matriz A de 2 × 2 con entradas en Q tal que
A2 = −I.
f ) Si dos sistemas homogéneos de ecuaciones tienen la misma ma-
triz asociada, entonces los dos sistemas son iguales.
1.13 Sea A ∈Matn×m (K) una matriz escalar, esto es, A = λIn para
algún λ ∈ K. Demuestre que A conmuta con todas las matrices de
Matn×m (K).
34 1. Sistemas de ecuaciones lineales

1.14 Dado un entero positivo p, construya una matriz cuadrada A tal que
Ap−1 6= 0 y Ap = 0.
1.15 Usando solamente la definición, demuestre que la matriz
 
α β
A=
0 γ

es invertible si y solamente si α 6= 0 y γ 6= 0. Calcule la matriz


inversa.
1.16 Calcule An
 
λ 1 0
A =  0 λ 1 .
0 0 λ

La parte no trivial consiste en obtener la fórmula correcta para la


(1, 3)-ésima entrada de An .
1.17 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) Sea A, B ∈ Mn (K), entonces (AB)n = An B n para cualquien
n ∈ N.
b) La matriz cuadrada cero es invertible.
c) Sea A una matriz invertible tal que A es su propia inversa. En-
tonces A es la matriz identidad.
d ) Sea A una matriz invertible. Entonces An es invertible para todo
entero positivo n.
e) Sea A una matriz cuadrada tal que A2 es invertible. Entonces A
es invertible.
1.18 Sea A ∈ Mn (K). Supongamos que (por lo menos) una fila de A es
nula, es decir, A posee (al menos) una fila de puros ceros. Demuestre
que A no es invertible.
1.19 Sea A ∈ Mn (R) una matriz tal que A7 = 4In . Demuestre que A es
invertible y exprese A−1 en términos de A.
1.20 Sea A ∈ Mn (R) una matriz tal que A5 es invertible, esto es, existe
una matriz B ∈ Mn (R) tal que A5 B = BA5 = In . Demuestre que
la matriz A es invertible y halle una fórmula para A−1 en términos
de A y B.
1.21 Una matriz cuadrada A ∈ Mn (K) se llama diagonal si todos los
elementos fuera de la diagonal principal son cero, es decir, ∀i, j ∈
{1, 2, . . . , n} con i 6= j se tiene que Aij = 0. Una matriz diagonal
1.4. Exercises 35

con elementos diagonales a1 , . . . , an se denota por diag (a1 , . . . , an ) :


 
a1 0 0 · · · 0
 0 a2 0 · · · 0 
 
diag (a1 , . . . , an ) =  0 0 a3 · · · 0 .

 .. .. .. . . .. 
 . . . . . 
0 0 0 ··· an

Note que los elementos de la diagonal principal de una matriz dia-


gonal pueden ser iguales o cero. Por ejemplo, la matriz identidad,
la matriz cero o una matriz escalar (cf. Ejercicio 7 de la Lista 2 )
son diagonales. Muestre entonces las siguientes propiedades sobre
matrices diagonales:
a) diag (a1 , . . . , an )+diag (b1 , . . . , bn ) = diag (a1 + b1 , . . . , an + bn ) .
b) λdiag (a1 , . . . , an ) = diag (λa1 , . . . , λan ) .
1.22 Sea A ∈ Mn (K) una matriz diagonal, esto es, A = diag (a1 , . . . , an ).
Entonces las siguientes condiciones son equivalentes:
a) A es invertible;
b) Todos los elementos diagonales de A son distintos de cero, esto
es, a1 6= 0, . . . , an 6= 0.
1.23 Haga una búsqueda exhaustiva de todas las matrices elementales de
1 × 1 sobre un campo K y diga de que tipo son cada una.
1.24 Para cada una de las siguientes matrices sobre Q, halle una matriz
equivalente por renglones que sea escalonada reducida:
       
1 −2 1 −2 2 −3 1 0 0 −5
, , , .
0 1 5 3 1 0 7 0 2 1

1.25 Para cada una de las siguientes matrices, diga si es o no invertible.


En caso de ser no-invertible, dé una justificación de porqué no lo es
y en caso de ser invertible, halle su inversa de manera explı́cita.
   
  2 4 6 2 4 6
2 4 6
,  0 −1 −3  ,  0 −1 −3  .
0 −1 −3
0 0 0 0 0 4

1.26 Determina si los siguientes enunciados son verdadero o falso. (Justifi-


que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) La identidad es una matriz elemental.
b) Toda matriz escalonada reducida por renglones es una matriz
escalonada por renglones.
c) Toda matriz escalonada por renglones es escalonada reducida
por renglones.
36 1. Sistemas de ecuaciones lineales

d ) Sean A y B matrices de la misma dimensión. Si A y B son equi-


valentes por renglones y ambas son escalonadas por renglones,
entonces A = B.
e) Sea A una matriz. Realice primero una operación elemental de
renglones a A para obtener una matriz B, y luego realice otra
operación elemental de renglones a B para obtener una matriz C.
Entonces C se puede obtener de A haciendo una única operación
elemental de renglones.
1.27 Demuestre que una matriz elemental no puede ser de dos tipos dife-
rentes.
1.28 Sea A ∈ Mn×m (K), y sea 0 la matriz cero de n × m con entradas
en un campo K. Demuestre que A es equivalente por renglones a 0
si y sólo si A = 0.
1.29 Demuestra el siguiente teorema (que fue discutido previamente en
clase): Toda matriz elemental R es invertible, y su inversa es una
matriz elemental del mismo tipo.
1.30 Sean A, B ∈ M2 (K). Demuestre que si A y B son equivalentes por
renglones y ambas son escalonadas reducidas por renglones, entonces
A = B.
1.31 Sean A, B ∈ Mn (K) tales que BA = I.
a) Sea C una matriz en su forma escalonada reducida por renglones
equivalente por renglones a B. Demuestre que todos los renglones
de C son no nulos.Concluya que C = I.
b) Demuestre que B es invertible.
c) Demuestre que A es invertible.
1.32 Para cada uno de los siguientes sistemas homogéneos sobre Q, en-
cuentre
 el conjunto solución:
 5x + 15y + 30z = 0
a) 2y + 6z = 0
4z = 0


 5x + 15y + 30z = 20
b) 2y + 6z = 2
4z = 0


 3x + 5y + 3z = 0
c) 3x − 5y + 3z = 0
9x + 5y + 9z = 0


 3x + 5y + 3z = 5
d) 3x − 5y + 3z = −5
9x + 5y + 9z = 5

1.4. Exercises 37


 3x + 5y + 3z =0
e) 3x − 5y + 3z =0
3x + 5y + 3z =0


 3x + 5y + 3z =3
f) 3x − 5y + 3z =3
3x + 5y + 3z =3

1.33 Una matriz cuadrada se llama matriz triangular superior si todas


las entradas abajo de la diagonal principal son cero. Por lo tanto, la
forma de una matriz triangular superior es
 
∗ ∗ ··· ∗ ∗
 0 ∗ ··· ∗ ∗ 
 
 . . .
. .
. 
 0 0
 . . . 
 .. .. 
 . . ∗ ∗ 
0 0 ··· 0 ∗
donde las entradas marcadas ∗ son arbitrarias. Una definición más
formal de tal matriz A = [Ai,j ] es que Ai,j = 0 si i > j.
a) Demuestra que el producto de dos matrices triangulares supe-
riores de n × n es triangular superior.
b) Escribe la definición de matriz triangular inferior.
1.34 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) Todo sistema de ecuaciones con más variables que ecuaciones es
consistente.
b) Todo sistema de ecuaciones con más ecuaciones que variables es
inconsistente.
c) Todo sistema consistente de ecuaciones con el mismo número de
ecuaciones que de incógnitas tiene una única solución.
d ) El producto de dos matrices triangulares inferiores de n × n es
triangular inferior.
e) El producto de una matriz triangular superior y una matriz
triangular superior es una matriz diagonal.
1.35 Considere un sistema no homogéneo de ecuaciones lineales

AX = Y

Sea A la matriz aumentada de dicho sistema, y sea B una matriz


tal que el producto BA está bien definido. Demuestre que la matriz
aumentada del sistema (BA)X = BY es BA.
1.36 Sean A, B ∈ Mn×m (K) dos matrices escalonadas reducidas por ren-
glones. Suponga que A y B son equivalentes por renglones.
38 1. Sistemas de ecuaciones lineales

a) Demuestre que si Xi fuera variable libre de A pero no de B, las


matrices A y B no tendrı́an las mismas soluciones, contradicien-
do el hecho de que son equivalentes por renglones. Concluya que
A y B tienen las mismas variables libres.
b) Demuestre que las matrices A y B tienen el mismo número de
pivotes y en las mismas columnas.
c) Demuestre que A = B.
d ) Demuestre que toda matriz de Mn×m (K) es equivalente por
renglones a una única matriz escalonada reducida por renglones,
llamada su forma escalonada reducida por renglones.

1.37 Encuentre
 la factorización
 LU de la matriz dada.
2 2 −1
a)  4 0 4 
3 4 4
 
2 2 2 1
 −2 4 −1 2 
b) 
 4 4 7 3 

6 9 5 8

1.38 Encuentre
 una factorización
 P T LU de la de la matriz dada.
0 1 4
a)  −1 2 1 
1 3 3
 
0 0 1 2
 −1 1 3 2 
b) 
 0

2 1 1 
1 1 −1 0

1.39 Resuelva los siguientes sistemas usando la factorización LU o P T LU


(según
 sea el caso).
 2x − 4y = 2
a) 3x − y + 4z = 0
−x + 2y + 2z = −5


 y−z =1
b) 2x + 3y + 2z = 1
x+y−z =5


 8x + 3y − 5z = 16
c) 4x + y + 2z = −4
4x + 3z = 4

1.40 Generalize la definición de factorización LU a matrices no cuadradas


al simplemente requerir que U sea una matriz en forma escalonada
por renglones. Con esta modificación, encuentre una factorización
1.4. Exercises 39

LU de la siguiente matriz:
 
1 2 0 −1 1
 −2 −7 3 8 −2 
 .
 1 1 3 5 2 
0 3 −3 −6 0
1.41 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) El producto de matrices triangulares inferiores unitarias es una
matriz triangular inferior unitaria.
b) Toda matriz triangular inferior unitaria es invertible.
c) Existen n! matrices permutación de n × n.
1.42 Sea P es una matriz permutación. Demuestre que P −1 = P T .
1.43 Resuelve los siguientes sistemas de ecuaciones lineales reduciendo la
matriz aumentada en su forma escalonada reducida:
 
 x1 + x2 − x3 + 2x4 = 10  −3x1 + x2 + x3 + x4 = 0

a) 3x1 − x2 + 7x3 + 4x4 = 1 x1 − 3x2 + x3 + x4 = 0

c)
−5x1 + 3x2 − 15x3 − 6x4 = 9  x + x2 − 3x3 + x4 = 0

 1

x2 + x3 − 3x4 = 0.

 3x − y + 7z = 0 x 1 +
1

2x − y + 4z = 2

b)

 x−y+z =1
6x − 4y + 10z = 3

1.44 Sea F4 = {0, 1, a, b} consistiendo de 4 elementos. Defina la suma y


la multiplicación en F4 por medio de las siguientes tablas:
+ 0 1 a b + 0 1 a b
0 0 1 a b 0 0 0 0 0
1 1 0 b a 1 0 1 a b
a a b 0 1 a 0 a b 1
b b a 1 0 b 0 b 1 a
F4 es llamado el campo finito de cuatro elementos. Halla la forma
escalonada reducida de la siguiente matriz sobre F4 :
 
1 a b a
A= a b b 1 
1 1 1 a
1.45 Use el método de Gauss-Jordan para encontrar la inversa de la ma-
triz dada (si existe).
40 1. Sistemas de ecuaciones lineales

   
3 −4 0 a 0
a)
−6 8 d)  b 0 c 
 
1 a 0 d 0
b)  √ √ 
−a 1 √2 √0 2 2 0
   −4 2
1 1 0 2 0 0 
e)  
c)  1 1 1   0 0 1 0 
0 1 1 0 0 3 1

1.46 Encuentre los valores de α para los cuales las siguientes ecuaciones
tienen solución, y encuentre las soluciones

 x − 3y + 2z = 4
2x + y − z = 1
3x − 2y + z = α

1.47 La matriz que se muestra abajo es la matriz aumentada para cierto


sistema de ecuaciones. Encuentre los valores del parámetro k para el
cual el sistema no tiene solución, tiene una solución, y tiene infini-
tas soluciones; cuando tiene infinitas soluciones, encuentre la forma
general de la solución en términos de las variables libres, también
determinar la solución cuando sea única.

 1 −2 3 1

2 k 6 6

−1 3 k − 3 0

1.48 Para qué valores de α el siguiente sistema no tiene soluci on? Exac-
tamente una solución? Infinidad de soluciones?

 x + 2y − 3z = 4
3x − y + 5z = 2 
4x + y + α2 − 14 z = α + 2

1.49 Para qué valor(es) de λ el siguiente sistema de ecuaciones tiene so-


luciones no triviales?

(λ − 3) x + y = 0
x + (λ − 3) y = 0
1.50 Determina los valores de k tales que el sistema

2x + 3y = −k
kx − 6y = 2k
a) tenga solución unica y halla la solución.
b) tenga infinidad de soluciones y encuentrala.
c) no tenga solución.
1.4. Exercises 41

1.51 Halla los valores de t para los cuales el siguiente sistema es consis-
tente y resuelve el sistema para estos valores de t.

 x+y =1
tx + y = t
(1 + t) x + 2y = 3

1.52 Para cuales números racionales λ, el siguiente sistema homogeneo



x + (λ − 3)y = 0
(λ − 3)x + y = 0
tiene solución no-trivial?
1.53 Determina los valores de a tales que el sistema

 x + 2y − 3z = 4
3x − y + 5z = 2
4x + y + (a2 − 14)z = a + 2

a) tenga solución unica.


b) tenga infinidad de soluciones y encuentrala.
c) no tenga solución.
1.54 Demuestre que si un sistema de ecuaciones lineales sobre R tiene al
menos dos soluciones diferentes, entonces tiene infinidad de solucio-
nes. (Sugerencia: Considere x1 + k(x1 − x2 ) para k ∈ R no nula.)
Capı́tulo 2

Determinantes

Históricamente, los determinantes precedı́an a las matrices, un hecho cu-


rioso a la luz de la forma como se enseña el álgebra lineal en la actualidad,
con las matrices antes de los determinantes. No obstante, los determinantes
surgen independientemente de las matrices en la solución de muchos pro-
blemas prácticos, y la teorı́a de los determinantes estaba bien desarrollada
casi dos siglos antes de que a las matrices se les otorgara un valor de estudio
como tal.
En este capı́tulo haremos un estudio de tal objeto matemático. El resul-
tado principal relativo a los determinantes es que ellos codifican la propiedad
de inversabilidad de una matriz cuadrada.
En la Lista 03 mostramos que si A ∈ Mn (K) es una matriz diagonal, esto
es, A = diag(a1 , . . . , an ), entonces A es invertible si y solamente si todos los
elementos diagonales de A son distintos de cero, es decir, a1 6= 0, . . . , an 6= 0.
Este resultado es un caso particular del siguiente:
Teorema 2.1. Si  
a b
A= ,
c d
entonces A es invertible, si ad − bc 6= 0, en cuyo caso
 
−1 1 d −b
A = .
ad − bc −c a
Si ad − bc = 0, entonces A no es invertible.

Prueba: Suponga que ad − bc 6= 0 y por cálculo directo:


      
a b d −b ad − bc 0 1 0
= = (ad − bc) .
c d −c a 0 ad − bc 0 1

43
44 2. Determinantes

De igual modo,
    
d −b a b 1 0
= (ad − bc) .
−c a c d 0 1
Dado que ad − bc 6= 0, podemos multiplicar ambos lados de la ecuación por
1
ad−bc , de donde se sigue el primer enunciado. Por el contrario, suponga que
ad − bc = 0. Consideraremos dos casos, cuando a 6= 0 y cuando a = 0. Si
a 6= 0, entonces d = bc
a , de modo que la matriz A se puede escribir
       
a b a b a b a b
A= = = =
c d c bc
a
ac
a
bc
a ka kb
donde k = ac . En otras palabras, el segundo renglón de A es un múltiplo del
primero y se sigue que A no es invertible. Si a = 0, entonces ad − bc = 0
implica que bc = 0, y por lo tanto b = 0 o c = 0. En consecuencia A es de la
forma    
0 0 0 b
o .
c d 0 d
Y por el Ejercicio de la Lista 03 (discutido lineas arriba) la matriz no es
invertible y se sigue el resultado completo.
Observe que el Teorema 2.1 nos dá una fórmula explı́cita para el cálculo
de inversas de 2 × 2.
   
1 2 12 −15
Problema 2.2. Halle las inversas de A = yB= .
3 4 4 −5
Problema 2.3. Resuelva el siguiente sistema lineal
x + 2y = 3
3x + 4y = −2

La expresión ad − bc del Teorema 2.1 se llama el determinante


 de A  y
a b
se denota por det A. Por lo tanto, la fórmula de la inversa de
c d
 
d −b
(cuando existe) es det1 A . Y el Teorema se puede reescribir de
−c a
la siguiente forma:
Teorema 2.4. Una matriz de 2×2 es invertible si y solamente si det A 6= 0.
Problema 2.5. ¿Como definirı́a el determinante de una matriz de 1 × 1?

2.1. Definición y propiedades


Empezaremos esta sección estudiando una regla práctica para el cálculo
de determinantes de una matriz de 3×3 y pasaremos a la resolución de deter-
minantes de órdenes superiores. Posteriormente, estudiaremos el rango y la
2.1. Definición y propiedades 45

inversión de matrices, transformaciones elementales para el cálculo del rango


y de la matriz inversa, y, por último, el concepto de matrices equivalentes.
Aunque la definición de determinante se puede hacer en contextos mu-
chos más generales por medio del uso de permutaciones, y demostrando que
la función determinante es única, esto no será hecho aquı́.
Por ahora, es suficiente con saber que un determinante es una función
que, a cada matriz le asigna un elemento del campo, especı́ficamente,

det : Mn (K) −→ K.

Aunque esta función parece trivial, no lo es. Como vimos en la sección pre-
via, el determinante de una matriz de 2 × 2 codifica el número de pivotes, el
intercambio de filas y por supuesto, la inversibilidad de la matriz. Curiosa-
mente, esto es también es cierto para matrices más generales, por ejemplo,
de n × n.
Existen distintas formas de calcular el determinante de una matriz de
tamaño n (como discutiremos más adelante). Sin embargo, para matrices de
tamaño 3 tenemos la llamada regla de Sarrus.
Por ejemplo, para calcular el determinante de una matriz de 3 × 3, te-
nemos la siguiente fórmula nemotécnica es la siguiente:

productos positivos (diagonales hacia la derecha) −productos negativos (dia-


gonales hacia la izquierda), es decir,
 
a11 a12 a13
det  a21 a22 a23  = a11 a22 a33 + a21 a32 a13 + a12 a23 a31
a31 a32 a33
−a13 a22 a31 − a12 a21 a33 − a11 a23 a32 .

Ejemplo 2.6. El determinante de


 
5 −3 2
A= 1 0 2 
2 −1 3
46 2. Determinantes

se puede calcular usando la regla de Sarrus:


det A = (5) (0) (3) + (1) (−1) (2) + (−3) (2) (2) − (2) (0) (2) − (−3) (1) (3) − (5) (2) (−1)
= 0 + (−2) + (−12) − 0 − (−9) − (−10)
= −2 − 12 + 9 + 10
= 5.
Problema 2.7. Halle el determinante de la matriz
 
3 3 4
A =  6 8 7 .
−3 5 −9
La regla de Sarrus puede extenderse de manera natural a matrices de
n × n. Sin embargo, la notación no serı́a la mas amigable. Para esto, re-
escribamos la Regla de Sarrus usando el determinante de matrices de 2 × 2.
Sea  
a11 a12 a13
A =  a21 a22 a23  ,
a31 a32 a33
por la regla de Sarrus tenemos que
det A = a11 a22 a33 + a21 a32 a13 + a12 a23 a31 − a13 a22 a31 − a12 a21 a33 − a11 a23 a32
= (a11 a22 a33 − a11 a23 a32 ) + (a21 a32 a13 − a12 a21 a33 ) + (a12 a23 a31 − a13 a22 a31 )
= a11 (a22 a33 − a23 a32 ) + a12 (a23 a31 − a21 a33 ) + a13 (a21 a32 − a22 a31 )
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
     
a22 a23 a21 a23 a21 a22
= a11 det − a12 det + a13 det .
a32 a33 a31 a33 a31 a32
Note que cada uno de los determinantes de 2 × 2 se obtiene al “borrar” el
renglón y la columna de A que contienen la entrada por la que se multiplica
el determinante. Por ejemplo, el primer sumando es a11 multiplicado por el
determinante de la submatriz obtenida al “borrar” el renglón 1 y la columna
1. Note también que los signos más y menos se alternan.
Denotemos por A (i, j) la submatriz de una matriz A obtenida al “bo-
rrar” el renglón i y la columna j, entonces la regla de Sarrus se puede
reescribir de la forma:
det (A) = a11 det A (1, 1) − a12 det A (1, 2) + a13 det A (1, 3) .
Para cualquier matriz cuadrada A, det A (i, j) se llama menor-(i, j) de A.
Ejemplo 2.8. El determinante de
 
5 −3 2
A= 1 0 2 
2 −1 3
2.2. Cálculo de determinantes 47

es
     
0 2 1 2 1 0
det A = 5 det − (−3) det + 2 det
−1 3 2 3 2 −1
= 5 (0 − (−2)) + 3 (3 − 4) + 2 (−1 − 0)
= 5 (2) + 3 (−1) + 2 (−1) = 5.

2.2. Cálculo de determinantes


La definición de determinante de una matriz de 3 × 3
Definición 2.9. Sea A = (Aij ) una matriz de n × n, donde n ≥ 2. Entonces
el determinante de A es el escalar
det A = a11 det A (1, 1) − a12 det A (1, 2) + · · · + (−1)1+j a1n det A (1, n)
Xn
= (−1)1+j a1j det A (1, j) .
j=1

Es conveniente combinar un menor con su signo. Para este fin, se define


el cofactor-(i, j) de A como
C (i, j) = (−1)i+j det A (i, j)
con esta notación, la definición de determinante se convierte en
Xn
det A = a1j C (1, j) .
j=1
Esta expresión es llamada expansión por cofactores a lo largo del primer
renglón. Es un hecho impresionante que el determinante no cambie si expan-
demos a lo largo de cualquier renglón o columna. Este resultado se resume
como teorema.
Teorema 2.10 (Teorema de expansión de Laplace). El determinante de
una matriz A de n × n, donde n ≥ 2, puede calcularse como
det A = ai1 C (i, 1) + ai2 C (i, 2) + · · · + ain C (i, n)
Xn
= aij C (i, j)
j=1

(que es la expansión por cofactores a lo largo del i−ésimo renglón) y también


como
det A = a1j C (1, j) + a2j C (2, j) + · · · + anj C (n, j)
Xn
= aij C (i, j)
i=1
(que es la expansión por cofactores a lo largo de la j−ésima columna).
48 2. Determinantes

Dado que C (i, j) = (−1)i+j det A (i, j) cada cofactor es más o menos
el correspondiente menor, donde (−1)i+j proporciona el signo correcto. Una
forma rápida de determinar si el signo es + o − es recordar que los signos
forman un patrón de “tablero de ajedrez”:
 
+ − + − ···
 − + − + ··· 
 
 + − + − ··· 
 
 − + − + ··· 
 
.. .. .. .. . .
. . . . .
Ejemplo 2.11. Calcule el determinante de la matriz
 
2 −3 0 1
 5 4 2 0 
A=  1 −1
.
0 3 
−2 1 0 0
Notemos que el Teorema de expansión de Laplace nos permite calcular el
determinante usando cualquier renglón o columna. ¿Que renglón o columna
nos reduce los cálculos? Observe que la tercera columna sólo tiene una en-
trada distinta de cero; por lo tanto, es deseable que expandamos a lo largo
de dicha columna. Esto es,
det A = a13 C (1, 3) + a23 C (2, 3) + a33 C (3, 3) + a43 C (4, 3)
= 0 · C (1, 3) + 2 · C (2, 3) + 0 · C (3, 3) + 0 · C (4, 3)
Ası́ que solo es necesario calcular el cofactor-(2, 3) de A. Por definición:
C (2, 3) = (−1)2+3 det A (2, 3)
 
2 −3 1
= (−1)5 det  1 −1 3 
−2 1 0
 
2 −3 1
Ahora, para hallar el det 1 −1 3  podemos usar la Regla de Sarrus
−2 1 0
pero si usamos el Teorema de expansión de Laplace a lo largo de tercer
renglón (o columna) reducimos los cálculos, ası́
 
2 −3 1    
−3 1 2 1
det  1 −1 3  = −2 det −det = −2 (−8)−(5) = 11
−1 3 1 3
−2 1 0
De aquı́,
C (2, 3) = −11
y
det A = −22.
2.2. Cálculo de determinantes 49

La expansión de Laplace es particularmente útil cuando la matriz es


triangular (superior o inferior).
Ejemplo 2.12. Calcule el determinante de
 
2 −3 1 0 4
 0 3 2 5 7 
 
A=  0 0 1 6 0 .

 0 0 0 5 2 
0 0 0 0 −1
Expandamos a lo largo de la primera columna para obtener
 
3 2 5 7
 0 1 6 0 
det A = 2 · det  0 0 5 2 

0 0 0 −1
(se omitieron todos los cofactores correspondientes a las entradas cero.) Aho-
ra expanda nuevamente a lo largo de la primera columna:
 
1 6 0
det A = 2 · 3 · det  0 5 2 
0 0 −1
Al seguir expandiendo a lo largo de la primera columna, se completa el
cálculo:
 
5 2
det A = 2 · 3 · 13 · det
0 −1
= 2 · 3 · 13 · (5 (−1) − 2 (0))
= 2 · 3 · 13 · 5 · (−1) = −30

El Ejemplo 2.12 debe convencerlo de que el determinante de una matriz


triangular es el producto de sus entradas diagonales. ¿Puede exhibir una
prueba? El resultado se registra como teorema.
Teorema 2.13. El determinante de una matriz triangular es el producto de
las entradas en su diagonal principal. Especı́ficamente, si A = diag (a11 , a22 , . . . , ann ),
entonces
det A = a11 a22 · · · ann .

En general, a menos que la matriz sea triangular o tenga una forma


especial), calcular un determinante mediante expansión por cofactores no es
eficiente. Por ejemplo, el determinante de una matriz de 3 × 3 tiene 6 = 3!
sumandos, y cada uno requiere dos multiplicaciones, y luego se necesitan
cinco sumas y restas para terminar los cálculos. Para una matriz de n × n
50 2. Determinantes

habrá n! sumandos, cada uno con n−1 multiplicaciones, y luego n!−1 sumas
y restas. El número total de operaciones es por lo tanto
T (n) = (n − 1) n! + n! − 1 > n!
Incluso la más rápida de las supercomputadoras no puede calcular el deter-
minante de una matriz moderadamente grante con el uso de la expansión
por cofactores. Para ilustrar: suponga que necesita calcular un determinante
de 50 × 50 (matrices mucho más grandes que 50 × 50 se usan para almacenar
los datos de las imágenes digitales como las que se transmiten en internet o
las que se toman con una cámara digital.) Calcular el determinante direc-
tamente requerirı́a, en general, más de 50! operaciones y 50! ≈ 3 × 1064 . Si
tuviera una computadora capaz de realizar 1012 operaciones por segundo,
tardarı́a aproximadamente 3 × 1052 segundos o casi 1045 años en terminar
los cálculos. Para poner esto en perspectiva, considere que los astrónomos
estiman la edad del universo en al menos 10 mil millones de años. Por ende,
incluso en una supercomputadora muy rápida, ¡calcular el determinante de
una matriz de 50 × 50 mediante expansión por cofactores tardarı́a mas de
1030 veces la edad del universo!
Por fortuna, existen métodos mejores y más efectivos para calcular de-
terminantes.

2.3. Matrices invertibles y determinantes. Regla de Cramer


1. El determinante de una matriz A y el de su traspuesta AT son igua-
les,
det A = det AT .
2. Sea A una matriz. Entonces
a) Si R1 es una matriz elemental del Tipo I, es decir, R1 = I −
E rr − E ss + E rs + E sr , con r 6= s, entonces
det R1 A = − det A.
En otras palabras, si se intercambian dos filas o dos columnas
de un determinante, éste cambia de signo.
b) Si R2 es una matriz elemental del Tipo II, es decir, R2 = I −
E rr + aE rr para algún a ∈ K, a 6= 0, entonces
det R2 A = det A.
En otras palabras, si todos los elementos de una fila (columna)
contienen un factor común, éste puede sacarse fuera del deter-
minante.
c) Si R3 es una matriz elemental del Tipo III, es decir, R3 =
I + aE rs con a ∈ K, a 6= 0 y i 6= j, entonces
det R3 A = det A.
2.3. Matrices invertibles y determinantes. Regla de Cramer 51

Si en un determinante, se añade a una fila (columna) una com-


binación lineal de las otras filas (columnas) el valor del determi-
nante no varı́a.
3. Si un determinante tiene dos filas (o dos columnas) iguales, es igual
a cero.
4. (La fórmula de Cauchy) El determinante del producto de dos matri-
ces cuadradas del mismo orden es igual al producto de los determi-
nantes:
det AB = det A det B.
5. Si A tiene un renglón (columna) cero, entonces

det A = 0

Ejemplo 2.14. Calcule


 
2 3 −1
det  0 5 3 
−4 −6 2

Usando la operación del Tipo III el determinante no cambia, luego


   
2 3 −1 2 3 −1
det  0 5 3  = det 0
 5 3 
−4 −6 2 0 0 0

(la operación que se hace es R3 ↔ R3 + 2R1 ) y por la propiedad 5:


 
2 3 −1
det  0 5 3  = 0
0 0 0

Por lo tanto,
 
2 3 −1
det  0 5 3  = 0.
−4 −6 2

Ejemplo 2.15. Calcule


 
0 2 −4 5
 3 0 −3 6 
det 
 2 4

5 7 
5 −1 −3 1
52 2. Determinantes

Reducimos la matriz a su forma escalonada (exiten otras formas posibles de


hacer esto):
   
0 2 −4 5 3 0 −3 6
 3 0 −3 6 
 =  0 2 −4 5 
det  − det  
 2 4 5 7  R2 ↔ R1  2 4 5 7 
5 −1 −3 1 −−−−−−−→ 5 −1 −3 1
 
1 0 −1 2
=  0 2 −4 5 
− 3 det  
R1 ↔ 31 R1  2 4 5 7 
−−−−−−−−→ 5 −1 −3 1
 
1 0 −1 2
=  0 2 −4 5 
R3 ↔ R3 −2R1 − 3 det   0 4

7 3 
R4 ↔ R4 −5R1
−−−−−−−−−−−→ 0 −1 2 −9
 
1 0 −1 2
=  0 −1 2 −9 
− (−3) det  
R2 ↔ R4  0 4 7 3 
−−−−−−−→ 0 2 −4 5
 
1 0 −1 2
=  0 −1 2 −9 
R3 ↔ R3 +4R2 − (−3) det   0 0 15 −33 

R4 ↔ R4 +2R2
−−−−−−−−−−−→ 0 0 0 −13

Entonces
   
0 2 −4 5 1 0 −1 2
 3 0 −3 6   0 −1 2 −9 
det 
 2 4
 = 3 det 
 0 0 15 −33

5 7  
5 −1 −3 1 0 0 0 −13
= 3 (1) (−1) (15) (−13) = 585.

Observe que por las propiedades de los determinantes también puede


usar operaciones elementales con columnas en el proceso de calcular deter-
minantes, incluso puede “mezclar y combinar” operaciones elementales en
renglones y columnas. Por ejemplo, en el Ejemplo 2.14, podrı́a comenzar
con la suma de la columna 3 a la columna 1 para crear un 1 como pivote
en la esquina superior izquierda. De hecho, el método que se utilizó fue más
rápido, pero en otros ejemplos las operaciones por columna pueden acelerar
los cálculos. Tenga esto en mente cuando calcule determinante a mano.
El Teorema principal de esta sección es una generalización del Teorema
2.1:
2.3. Matrices invertibles y determinantes. Regla de Cramer 53

Teorema 2.16. Una matriz cuadrada es invertible si y solamente si det


A 6= 0.

Demostración. Sea A una matriz de n × n y sea R la forma escalonada


reducida por renglones de A. Primero se demostrará que det A 6= 0 si y solo
si R 6= 0. Sean E1 , E2 , . . . , Er las matrices elementales correspondientes a
las operaciones elementales con renglones que reducen A a R. Entonces
Er · · · E2 E1 A = R.
Al sacar determinantes de ambos lados y aplicar repetidamente la propiedad
4, se obtiene
(det Er ) · · · (det E2 ) (det E1 ) (det A) = (det R) .
Ahora, ¿cual es valor de det Er para r = 1, . . . , r? Observe que:
1. Si E es una matriz del tipo I, entonces a In le realizamos una ope-
ración del Tipo I . Y por la Propiedad 3a :
det E = − det In = −1.
¿Le es claro que det In = 1? Pienselo un momento (Sugerencia:
recuerde el Teorema 2.13.)
2. Si E es una matriz del tipo II, entonces a In le realizamos una
operación del Tipo II, suponga que multiplicamos una fila por α 6= 0,
entonces por la propiedad 2a :
det E = k.
3. Si E es una matriz del tipo III, entonces a In le realizamos una
operación del Tipo III. Y por la propiedad 3c :
det E = 1.
Regresando a nuestro cálculo original, (det Er ) · · · (det E2 ) (det E1 ) (det A) =
(det R) , los determinantes de las matrices elementales son distintos de cero.
Se concluye que det A 6= 0 si y solamente si det R 6= 0.
⇒: Ahora suponga que A es invertible. Entonces R = In (¿porqué?). De
modo tal que det R 6= 0 (de nuevo, ¿porqué?). En consecuencia, también
det A 6= 0.
⇐: Si det A 6= 0, entonces det R 6= 0, de modo que R no puede contener
un renglón cero. Se tiene que R debe ser In (¿porqué?), de modo que A es
invertible (de nuevo, ¿porqué?). 

Ahora se tratará de determinar qué relación, si la hay, existe entre los


determinantes y algunas de las operaciones matriciales básicas. Especı́fi-
camente, se quieren encontrar fórmulas para det (kA), det (A + B) y det
A−1 .

54 2. Determinantes

Teorema 2.17. Si A es una matriz de n × n, entonces

det (kA) = k n det A.

Problema 2.18. Dar una demostración del Teorema 2.17.

Por desgracia, no hay una fórmula simple para det(A + B) y, en general

det (A + B) = det A + det B.

(¿Puede encontrar dos matrices de 2 × 2 que verifiquen lo anterior?).


El siguiente teorema ofrece una amigable relación entre el determinante
de una matriz invertible y el determinante de su inversa.

Teorema 2.19. Si A es una matriz invertible,


1
det A−1 =

.
det A

Demostración. Puesto que A es invertible, existe A−1 tal que AA−1 = In ,


por la Fórmula de Cauchy

1 = det In = det AA−1 = (det A) det A−1


 

y como det A 6= 0 (¿porqué?) el resultado se sigue inmediatamente (de


nuevo, ¿porqué?). 

La regla de Cramer ofrece una fórmula para describir la solución de


ciertos sistemas de n ecuaciones lineales con n variables completamente en
términos de determinantes (recuerde la notación matricial del sistema lineal:
AX = b). Aunque este resultado es de poco uso práctico más alla de sistemas
de 2 × 2, es de gran importancia teórica.
Se necesitará una nueva notación para este resultado. Para una matriz
A de n × n y un vector b ∈ Rn , sea Ai (b) que denota la matriz obtenida al
sustituir la i−ésima columna de A por b. Esto es:
Ai (b) = ( a1 · · · b ··· an ).

columna i

Teorema 2.20. (La Regla de Cramer) Sea A una matriz de n × n invertible


y sea b un vector en Rn . Entonces la solución única X del sistema AX = b
está dada por:
det Ai (b)
xi =
det A
para i = 1, . . . , n.
2.4. Exercises 55

Ejemplo 2.21. Use la Regla de Cramer para resolver el sistema


x1 + 2x2 = 2
−x1 + 4x2 = 1
En forma matricial,
     
1 2 x1 2
=
−1 4 x2 1
| {z } | {z } | {z }
A X b
Entonces
 
1 2
det A = det = 6,
−1 4
 
2 2
det A1 (b) = det = 6,
1 4
 
1 2
det A2 (b) = det = 3.
−1 1
Por el Teorema 2.20,
det A1 (b) 6
x1 = = = 1,
det A 6
det A2 (b) 3 1
x2 = = = .
det A 6 2
Como se hizo notar anteriormente, la regla de Cramer es computacio-
nalmente ineficiente para todos los sistemas de ecuaciones lineales, excepto
para los pequeños, pues involucra el cálculo de muchos determinantes. El es-
fuerzo que se realiza para calcular sólo uno de dichos determinantes, usando
incluso el método más eficiente, se emplearı́a mejor al usar la eliminación
gaussiana para resolver directamente el sistema.

2.4. Exercises
2.1 Si  
a b c
det  d e f  = 4.
g h i
Hallar:  
2a 2b 2c
a) det d e f .
g h i
 
a b c
b) det 2d − 3g 2e − 3h 2f − 3i 
g h i
56 2. Determinantes

2.2 Halle todos los valores de k para los cuales la siguiente matriz es
invertible  
k −k 3
 0 k+1 1 
k −8 k − 1
2.3 a) Si B es invertible, demuestre que det B −1 AB = det(A) .


b) Si A = A2 , encuentre todos los valores posibles de det(A).


Definición 2.22. La matriz de cofactores de A es la matriz cuya
entrada (i, j) es el cofactor (i, j) de A. La matriz adjunta de A,
denotada adj(A), es la transpuesta de la matriz de cofactores de A.
2.4 Sea A la matriz  
2 −8
−4 −1
Calcule la matriz adjunta de A.
2.5 Sea A la matriz  
2 −8 7
 −4 5 −1 
6 3 −9
Calcule la matriz adjunta de A.
2.6 Sea A una matriz de n × n con entradas en un campo.
a) Demuestre que A(adj(A)) = det(A)I = (adj(A))A.
b) Demuestre que si A es invertible, entonces A−1 = (det(A))−1 adj(A).
Capı́tulo 3

Espacios Vectoriales

En diversos conjuntos conocidos, por ejemplo los de vectores en el plano


2 3
o en el espacio R yR , o también el de los polinomios (R[X]), sabemos
sumar sus elementos y multiplicarlos por números. Todos estos conjuntos
comparten una cierta estructura, que está dada por esa suma y ese pro-
ducto por números, a la que llamaremos espacio vectorial. En este capı́tulo
presentaremos la noción de espacio vectorial y estudiaremos algunas propie-
dades básicas que poseen los conjuntos con dicha estructura.

3.1. Espacios vectoriales


La noción de espacio vectorial requiere de dos conjuntos: un conjunto
K (los escalares) y otro conjunto V (los vectores). Estos dos conjuntos de-
ben satisfacer ciertas propiedades, que esencialmente se refieren a que los
elementos de V se puedan sumar entre sı́ y multiplicar por elementos de K.

Definición 3.1. Sea K un campo. Un espacio vectorial sobre K, o también


llamado un K-espacio vectorial, consta de lo siguiente:
1. Un conjunto V , cuyos elementos se llaman vectores.
2. Una operación binaria en V , llamada adición de vectores (o suma de
vectores), denotada por +, y que cumple lo siguiente:
La suma es conmutativa, es decir, para todos v y u en V se tiene

v + u = u + v.

La suma es asociativa, es decir, para todos v, u y w en V se tiene

(v + u) + w = v + (u + w).

57
58 3. Espacios Vectoriales

Existe un único vector 0 ∈ V tal que


v+0=v
para todo v ∈ V . A 0 se le llama el vector cero de V , o también
el vector nulo de V .
Para todo v ∈ V existe un único vector −v, llamado el inverso
aditivo de v, tal que
v + (−v) = 0.
3. Una operación binaria de K × V en V , llamada la multiplicación
escalar, que a cada escalar a ∈ K y cada vector v ∈ V les asocia
otro vector av ∈ V , y que cumple:
Para todo v ∈ V ,
(1K ) v = v.
Para cualesquiera a, b ∈ K, y cualquier v ∈ V ,
(ab)v = a(bv).
4. Además, pedimos que se cumplan las dos leyes distributivas:
Para todo a ∈ K, y para cualesquiera v y u en V ,
a(v + u) = av + au.
Para cualesquiera a, b en K, y cualquier v ∈ V ,
(a + b)v = av + bv.
Comentario 3.2. Usando inducción es posible generalizar varias de las
propiedades anteriores a un número finito de vectores y/o escalares.
Comentario 3.3. En lo sucesivo, K denotará un campo y V un K-espacio
vectorial, a menos que se diga lo contrario explı́citamente. Además, escribi-
remos v − u en lugar de v + (−u).
Ejemplo 3.4. El campo K es un espacio vectorial sobre sı́ mismo, donde
la suma y la multiplicación escalar son la suma y el producto usuales de K.
El vector cero es en este caso el cero de K, y los inversos aditivos de los
vectores son los inversos aditivos usuales en K.
Ejemplo 3.5. Sea K un campo arbitrario y considere el producto cartesiano
K 2 = K × K de K consigo mismo. Defina en K 2 la suma de dos parejas
ordenadas coordenada a coordenada, es decir,
(a, b) + (c, d) = (a + c, b + d).
Con esta suma, K2 satisface las primeras propiedades de un espacio vectorial
(el vector cero es (0, 0), y el inverso aditivo de (a, b) es (−a, −b). Defina la
multiplicación escalar en K 2 por medio de
a(b, c) = (ab, ac).
3.1. Espacios vectoriales 59

Con esta suma y multiplicación escalar, K 2 es un K-espacio vectorial.

Ejemplo 3.6. El ejemplo anterior se puede generalizar al conjunto K n de


n-adas de elementos de K, es decir, el producto cartesiano de n copias del
campo K, donde n es un entero positivo. Nuevamente la suma se define
coordenada a coordenada, y la multiplicación escalar se define de forma
análoga a como se hizo arriba, es decir,

(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ),


a(b1 , ..., bn ) = (ab1 , ..., abn ).

Con esta suma y multiplicación escalar, K n es un K-espacio vectorial.

Ejemplo 3.7. Sean K un campo arbitrario, y sea Mn×m (K) el conjunto de


todas las matrices de n×m con entradas en el campo K. Entonces Mn×m (K)
es un K-espacio vectorial, donde la suma y la multiplicación por escalares
son la suma usual de matrices y la multiplicación usual de un escalar por
una matriz.

Ejemplo 3.8. Sean K un campo arbitrario, y sea K [x] el conjunto de todos


los polinomios con coeficientes en K, es decir, las expresiones de la forma

a0 + a1 x + · · · + an xn ,

donde la x es una indeterminada. La suma es la suma usual de polinomios,


y la multiplicación por escalares también es la usual, es decir, la suma es

(a0 + a1 x + · · · + an xn )+(b0 + b1 x + · · · + bm xm ) = (a0 + b0 )+(a1 +b1 )x+· · ·+(at + bt ) xt ,

donde t es el mayor entre n y m, y “rellenamos con ceros” los términos


faltantes. La multiplicación por escalar es

a(b0 + b1 x + · · · + bn xn ) = ab0 + ab1 x + · · · + abn xn .

Ejemplo 3.9. Sean K un campo y C un conjunto, y sea K C el conjunto de


funciones de C en K. Definimos en K C la suma de funciones puntualmente,
es decir, si f y g son funciones de C en K, definimos su suma f + g como la
función de C en K cuyo valor en x es f (x) + g (x). La multiplicación de un
escalar a ∈ K por una función f de C en K es la función de C en K cuyo
valor en x es af (x). Con estas operaciones, K C es un K-espacio vectorial.

Ejemplo 3.10. Un caso particular interesante de la construcción anterior


es K N , donde N es el conjunto de los enteros positivos. El espacio vectorial
resultante consta de las sucesiones de elementos de K, donde la suma se
define entrada por entrada, y la multiplicación de un escalar por una sucesión
es en todas las entradas.
60 3. Espacios Vectoriales

Ejemplo 3.11. Sea K un campo arbitrario, y sea V un conjunto cualquiera


con un único elemento, llamémoslo v. La única operación binaria que se
puede definir en V es
v + v = v,
y la única multiplicación escalar es
av = v
para cualquier a ∈ K. Con estas operaciones, el conjunto V es un K-espacio
vectorial, llamado el espacio cero (o el espacio trivial, o el espacio nulo). El
único vector v de V es el vector cero, por lo que al espacio cero usualmente
lo denotamos V = {0} o simplemente V = 0.
Proposición 3.12. Sea V un conjunto en donde se define una operación +
binaria conmutativa. Suponga que 0 y 00 son elementos de V tales que para
cualquier v ∈ V tenemos que v + 0 = v = v + 00 . Entonces 0 = 00. En otras
palabras, en la definición de espacio vectorial basta pedir la existencia de un
vector cero, y la unicidad se sigue de las otras propiedades.

Demostración. Tenemos que


00 = 00 + 0 = 0 + 00 = 0.

Proposición 3.13. Sea V un conjunto en donde se define una operación
+ binaria conmutativa y asociativa. Sea 0 un elemento de V tal que para
cualquier v ∈ V se tenga que v + 0 = v. Suponga que v, u y w son tales que
v + u = 0 = v + w. Entonces u = w. Es decir, en la definición de espacio
vectorial basta pedir la existencia de inversos aditivos, y la unicidad se sigue
de las otras propiedades.

Demostración. Tenemos que


w = w+0 = w+(v +u) = (w+v)+u = u+(w+v) = u+(v +w) = u+0 = u.
Observación. En la Proposición anterior no es necesario pedir que la
operación binaria sea conmutativa, pero la demostración se vuelve más larga.
Sin embargo, es muy importante en este caso que tanto el elemento neutro
como los inversos sean del mismo lado (en nuestro caso, del lado derecho).

Teorema 3.14. Sea V un K-espacio vectorial, y sea v un vector en V .
Tenemos que
1. 0v = 0. (compare con la Lista 07)
2. (−1) v = −v.
3. − (−v) = v.
3.2. Subespacios Vectoriales 61

Demostración. 1. 0v = (0 + 0) v = 0v + 0v. Sumando el inverso adi-


tivo de 0v a ambos lados obtenemos
0 = 0v + (−0v) = (0v + 0v) + (−0v) = 0v + [0v + (−0v)] = 0v + 0 = 0v.
2. Basta demostrar que v + (−1) v = 0. Tenemos que
v + (−1)v = 1v + (−1)v = [1 + − (1)] v = 0v = 0.
3. Note que
− (−v) = (−1) (−v) = (−1) [(−1) v] = [(−1) (−1)] v = 1v = v.


3.2. Subespacios Vectoriales


Definición 3.15. Sea V un K-espacio vectorial, y sean v1 , . . . , vn vectores
en V . Una combinación lineal de los vectores v1 , . . . , vn sobre el campo K
es un vector de la forma ni=1 ai vi , donde a1 , . . . , an son escalares en K. Si
P
n = 1, llamamos al vector av un múltiplo escalar del vector v. Por definición,
la combinación lineal vacı́a (es decir, de una familia de vectores) es el vector
cero.
Ejemplo 3.16. El vector (2, −5) de Q2 es combinación lineal de los vectores
(1, 0) y (0, 1) sobre Q, pues
(2, −5) = 2 (1, 0) + (−5) (0, 1) .
Ejemplo 3.17. El vector (0, 0, 1) de R3 no es combinación lineal sobre R
de los vectores (1, 0, 0) y (0, 1, 0), pues
a (1, 0, 0) + b (0, 1, 0) = (a, b, 0) 6= (0, 0, 1)
para toda a, b ∈ R.
Ejemplo 3.18. El vector (2i, 4) de C2 es combinación lineal de los vectores
(1, 0) y (0, 1) sobre C, pero no sobre R.
Ejemplo 3.19. El vector cero es combinación lineal de cualesquiera vectores
v1 , . . . , vn , pues siempre se pueden escoger escalares nulos, es decir,
Xn
0= 0 · vi .
i=1
Definición 3.20. Sea V un K-espacio vectorial, y sea C un subconjunto
de V . Decimos que C es cerrado bajo sumas si para cualesquiera v, u ∈ C,
se tiene que v + u también es un vector de C. Decimos que C es cerrado
bajo múltiplos escalares sobre K si para cualquier vector v ∈ C y cualquier
escalar a ∈ K, el vector av también está en C. Decimos que C es cerrado bajo
combinaciones lineales sobre K si cualquier combinación lineal de vectores
en C con escalares arbitrarios de K está en C.
62 3. Espacios Vectoriales

Ejemplo 3.21. Sean V = K = Q. Entonces el subconjunto Z de los en-


teros es un subconjunto de V cerrado bajo sumas, pero no es cerrado bajo
múltiplos escalares sobre Q, pues 1 ∈ Z, 21 ∈ Q, y su producto escalar
1 1

2 1 = 2 ∈ / Z. Como Z no es cerrado bajo múltiplos escalares sobre Q, en
particular no es cerrado bajo combinaciones lineales sobre Q.
Ejemplo 3.22. Sean K = R, V = R2 , y sea C el subconjunto de R2 que
consta de la unión de los ejes de las x y de las y, es decir,
C = {(a, b) ∈ V | a = 0 o b = 0} .
Entonces C es cerrado bajo múltiplos escalares sobre R, pero no es cerrado
bajo sumas. En particular, C tampoco es cerrado bajo combinaciones lineales
sobre R.
Definición 3.23. Sea V un K-espacio vectorial, y sea S un subconjunto de
V . Decimos que S es un subespacio vectorial de V sobre K (o simplemente
un subespacio de V ) si S 6= ∅ y para cualquiera v, u ∈ S y a ∈ K, tenemos
que av + u ∈ S. A veces denotamos que S es un subespacio de V por S ≤ V ,
y si queremos indicar que el campo es K, escribimos S ≤K V .
Ejemplo 3.24. Sean K un campo arbitrario, V = K 2 y S = {(a, 0) | a ∈ K}.
Afirmamos que S ≤K V , pues S 6= ∅ y para cualquier a ∈ K = K y cuales-
quiera vectores (b, 0) , (c, 0) ∈ S, tenemos que
a (b, 0) + (c, 0) = (ab + c, 0) ∈ S.
Ejemplo 3.25. Sean K un campo arbitrario, V = K 2 , y S = {(a, a) | a ∈ K}.
Afirmamos que S ≤K V , pues S 6= ∅ y para cualesquiera escalar a ∈ K y
cualesquiera vectores (b, b) , (c, c) ∈ S, tenemos que
a (b, b) + (c, c) = (ab + c, ab + c) ∈ S.
Ejemplo 3.26. Sean K un campo arbitrario y V un K-espacio vectorial.
Entonces V ≤K V , pues V es no vacı́o (porque contiene al menos al vector
cero) y es cerrado bajo sumas y múltiplos escalares. A V se le llama el
subespacio total de V .
Ejemplo 3.27. Sean K un campo arbitrario y V un K-espacio vectorial.
Sea O = {0}, es decir, O es el subconjunto de V que consta únicamente
del vector cero. Entonces O ≤K V , pues O es no vacı́o y para cualesquiera
a ∈ K se tiene
a0 + 0 = 0.
A O se le llama el subespacio trivial (o el subespacio cero, o el subespacio
nulo) de V .
Ejemplo 3.28. Sean K un campo arbitrario y A ∈ Mn×m (K). El conjunto
de soluciones del sistema homogéneo AX = 0 es un subespacio de K m sobre
3.2. Subespacios Vectoriales 63

K, pues es no vacı́o y si X1 y X2 son soluciones de dicho sistema, entonces


aX1 + X2 también es solución para cualquier a ∈ K, pues
A (aX1 + X2 ) = aAX1 + AX2 = 0 + 0 = 0.
A este subespacio se le llama el espacio solución del sistema de ecuaciones
AX = 0, o también el subespacio nulo de la matriz A.
Teorema 3.29. Sea V un K-espacio vectorial, y sea S un subconjunto no
vacı́o de V . Las siguientes afirmaciones son equivalentes:
1. S ≤K V .
2. S es cerrado bajo sumas y múltiplos escalares sobre K.
3. S es cerrado bajo combinaciones lineales sobre K.
4. S junto con la suma y la multiplicación escalar que hereda de V es
un K-espacio vectorial.

Demostración. (1) ⇒ (2): Dados v, u ∈ S, su suma se puede escribir como


v + u = 1 · v + u, y por tanto está en V . De forma similar av = av + 0v
también está en V .
(2) ⇒ (3): Toda combinación lineal se puede descomponer en sumas y
multiplicación por escalares.
(3) ⇒ (4): Como S es cerrado bajo combinaciones lineales, tanto la
suma como la multiplicación por escalares de K en S están bien definidas.
La conmutatividad y la asociatividad de la suma, el comportamiento del
uno de K en los vectores de S, la asociatividad mixta de la multiplicación
escalar, y las dos leyes distributivas se cumplen en S porque se cumplı́an en
V . El vector cero de V está en S, pues S es no vacı́o y 0 = v − v, donde
v es cualquier vector de S; además, el vector cero de V es también vector
cero de S. Finalmente, los inversos aditivos existen en S, pues −v = (−1) v,
y son los mismos que en V .
(4) ⇒ (1): Como S es un K-espacio vectorial con la suma y la multipli-
cación escalar heredadas de V , en particular V debe ser cerrado bajo sumas
y multiplicación por escalares, por lo que dados v, u ∈ S y a ∈ K, tenemos
que av + u debe también estar en S. 
Proposición 3.30. Sean K un campo y V un K-espacio vectorial. Sea
{Si | i ∈ I} una familia de subespacios de V sobre K. Entonces la intersec-
ción ∩i∈I Si es un subespacio de V sobre K.

Demostración. Escribamos S = ∩i∈I Si . Sean v, u ∈ S y a ∈ K. Debemos


demostrar que av + u ∈ S. Como v, u ∈ S, se sigue que v, u ∈ Si para toda
i ∈ I, y como cada Si ≤K V , tenemos que av + u ∈ Si para toda i ∈ I, por
lo que av + u está en la intersección S. 
64 3. Espacios Vectoriales

Definición 3.31. Sean V un K-espacio vectorial y C un subconjunto cual-


quiera de V . El subespacio generado por C sobre K es la intersección de
todos los subespacios de V que contienen a C. Dicho subespacio se deno-
ta usualmente hCi. Si C = {v1 , . . . , vn }, escribimos hv1 , . . . , vn i en lugar
de h{v1 , . . . , vn }i , y lo llamamos el subespacio generado por los vectores
v1 , . . . , vn . Note que al menos V es un subespacio de V que contiene a C,
por lo que la intersección se toma sobre una familia no vacı́a y por tanto
siempre está bien definida.
Ejemplo 3.32. hV i = V.
Ejemplo 3.33. h∅i = O.
Ejemplo 3.34. V = Q2 , h1, 0i = {(a, 0) | a ∈ Q}.
Proposición 3.35. Sean V un K-espacio vectorial y C un subconjunto no
vacı́o de V . Entonces hCi es el menor subespacio de V que contiene a C, es
decir, hCi es el único subespacio de V que contiene a C y que está contenido
en cualquier otro subespacio de V que contenga a C. También tenemos que
hCi es precisamente el conjunto de todas las combinaciones lineales sobre K
de los vectores de C.

Demostración. Como hCi es la intersección de todos los subespacios de V


que contienen a C, hCi es un subespacio de V y hCi contiene a C. Sea S
otro subespacio de V que contiene a C. Entonces S es uno de los subespacios
que se intersectaron para construir hCi, por lo que hCi está contenido en S.
Sólo puede haber un subespacio de V con esta propiedad (de ser el menor
subespacio de V que contiene a C), pues si hubiera dos, deberı́an contenerse
mutuamente.
Sea R el conjunto de todas las combinaciones lineales sobre K de los
vectores de C. Demostraremos que R es un subespacio de V que contiene
a C, y que R está contenido en cualquier otro espacio de V que contiene a
C. Todo elemento de C está en R, pues es combinación lineal de sı́ mismo
con el coeficiente uno. Se sigue que R es no vacı́o, pues al menos contiene
a C, que es no vacı́o. Además, la suma de dos combinaciones lineales de
vectores de C es otra combinación lineal de vectores de C, y todo múltiplo
escalar de una combinación lineal de vectores de C es combinación lineal de
vectores de C, por lo que R es un subespacio de V. Finalmente, si Q es otro
subespacio de V que contiene a C, Q debe ser cerrado bajo combinaciones
lineales, por lo que Q debe contener a R. 
Comentario 3.36. El resultado anterior también es válido para el subcon-
junto vacı́o, pero hay que lidiar con tecnicismos. Por una parte, el menor
subespacio de V que contiene al subconjunto vacı́o es el subespacio nulo,
que también es la intersección de todos los subespacios de V (pues todos
3.3. Dependencia lineal 65

contienen al vacı́o). El problema surge al argumentar que el subespacio nulo


es el conjunto de todas las combinaciones lineales de vectores en el conjunto
vacı́o. La única combinación lineal posible es la combinación vacı́a, que por
definición es el vector cero.
Comentario 3.37. A menos que se especifique lo contrario, la palabra
sucesión significa sucesión finita.
Definición 3.38. Sean V un K-espacio vectorial y v1 , . . . , vn una sucesión
de vectores en V tales que hv1 , . . . , vn i = V . Decimos que v1 , . . . , vn son
un conjunto (o sistema) de generadores de V , o que v1 , . . . , vn generan a
V sobre el campo K. Decimos que el espacio vectorial V es finitamente
generado sobre el campo K si existe un subconjunto finito de V que genera
a V.
Ejemplo 3.39. Los vectores (1, 0) y (0, 1) generan a Q2 , pues todo vector
en Q2 es combinación lineal sobre Q del (1, 0) y el (0, 1). Por lo tanto, Q2
es finitamente generado sobre Q.

3.3. Dependencia lineal


Una cuestión que surge al considerar un sistema de generadores de un
K-espacio vectorial es la de hallar sistemas de generadores que sean mini-
males respecto de la inclusión, es decir, tal que ningún subconjunto propio
sea también un sistema de generadores de V . Los siguientes resultados ca-
racterizan a los conjuntos con esta propiedad.
Proposición 3.40. Sean V un K-espacio vectorial, S ≤K V y v1 , . . . , vn
vectores en V . Entonces hv1 , . . . , vn i ⊆ S si y solamente si vi ∈ S para toda
1 ≤ i ≤ n.

Demostración. (⇒) Para cada 1 ≤ i ≤ n,


vi = 0 · v1 + · · · + 0 · vi−1 + 1 · vi + 0 · vi+1 + · · · + 0 · vn ∈ hv1 , . . . , vn i ⊆ S
de donde vi ∈ S.
(⇐) Como v1 , . . . , vn ∈ S y S es un subespacio, entonces ni=1 ai vi ∈ S
P
para cualquier ai ∈ K y 1 ≤ i ≤ n. Por lo tanto, hv1 , . . . , vn i ⊆ S. 
Corolario 3.41. Sea V un K-espacio vectorial, y sean v1 , . . . , vn , vn+1 vec-
tores en V . Entonces hv1 , . . . , vn i = hv1 , . . . , vn , vn+1 i si y solamente si
vn+1 ∈ hv1 , . . . , vn i.

Demostración. (⇒) hv1 , . . . , vn , vn+1 i ⊆ hv1 , . . . , vn i, por la proosición an-


terior, vn+1 ∈ hv1 , . . . , vn i .
(⇐) Supongamos que vn+1 ∈ hv1 , . . . , vn i. Además, vi ∈ hv1 , . . . , vn i
para 1 ≤ i ≤ n. Entonces hv1 , . . . , vn , vn+1 i ⊆ hv1 , . . . , vn i. Por otro lado,
66 3. Espacios Vectoriales

vi ∈ hv1 , . . . , vn+1 i para 1 ≤ i ≤ n, lo cual implica que hv1 , . . . , vn i ⊆


hv1 , . . . , vn+1 i 

Introducimos ahora la noción de dependencia e independencia lineal.


Definición 3.42. Sea V un K-espacio vectorial, y sea C ⊆ V . Decimos que
C es linealmente dependiente (o simplemente dependiente sobre el campo K
si existen vectores distintos v1 , . . . , vn (con n un entero positivo) en C y
escalares a1 , . . . , an en K tales que no todos los ai son cero, pero a1 v1 +
a2 v2 + · · · + an vn es igual al vector cero de V . Si C no es linealmente
dependiente sobre K, decimos que C es linealmente independiente sobre K.
Una sucesión (o familia) finita v1 , . . . , vn de vectores en V es una sucesión
(o familia) linealmente independiente si todos los vectores son diferentes
y el conjunto {v1 , . . . , vn } es linealmente independiente. Si la sucesión (o
familia) no es linealmente independiente, se dice que es una sucesión (o
familia) linealmente dependiente.
Ejemplo 3.43. Sea V un K-espacio vectorial cualquiera, con K un campo
arbitrario. Entonces el conjunto {0} es linealmente dependiente sobre K,
pues 1 · 0 = 0 y el escalar que se usó fue 1 6= 0.
Ejemplo 3.44. Sea V un K-espacio vectorial cualquiera, con K un campo
arbitrario. Entonces el conjunto {1} es linealmente independiente sobre K,
pues si tuviéramos un escalar a en K tal que a · 1 = 0, se seguirı́a que el
escalar a = 0.
Ejemplo 3.45. Sea V = R2 . El conjunto {(1, 0) , (0, 1) , (2, −3)} es lineal-
mente dependiente sobre R, pues tenemos la siguiente combinación lineal
con escalares reales no todos nulos que da el vector cero:
−2 · (1, 0) + 3 · (0, 1) + 1 · (2, −3) = (0, 0) .
Ejemplo 3.46. Sea V = R2 . El conjunto {(1, 0) , (0, 1)} es linealmente
independiente sobre R, pues dados cualesquiera escalares reales a y b, si
(0, 0) = a (1, 0) + b (0, 1) = (a, b), se seguirı́a que a = 0 y b = 0, es decir, los
escalares son todos nulos.
Ejemplo 3.47. Sea V un K-espacio vectorial y v un vector no nulo en
V . Entonces el conjunto {v} es linealmente independiente sobre K, pues si
a · v = 0 se debe seguir por fuerza que a es el escalar cero.
Comentario 3.48. Sean V un K-espacio vectorial y v un vector no nulo en
V . Entonces la sucesión v1 , v2 con v1 = v = v2 es linealmente dependiente,
pues los vectores no son todos diferentes. Sin embargo, vista como conjunto
las multiplicidades no cuentan, y el conjunto {v1 , v2 } = {v} es linealmente
independiente. Es decir, al hablar de la independencia lineal de los vectores
v1 , . . . , vn es importante distinguir si es como conjunto o como sucesión. Esto
3.3. Dependencia lineal 67

normalmente queda implı́cito cuando se dice “el conjunto es linealmente


independiente” o “la sucesión es linealmente independiente”.
Proposición 3.49. Sea V un K-espacio vectorial. Entonces:
1. {v1 , . . . , vi , . . . , vj , . . . , vn } ⊆ V es linealmente independiente ⇐⇒
{v1 , . . . , vj , . . . , vi , . . . , vn } ⊆ V es linealmente independiente.
2. {v1 , . . . , vi , . . . , vn } ⊆ V es linealmente independiente ⇐⇒ {v1 , . . . λvi , . . . , vn } ⊆
V es linealmente independiente para λ ∈ K \ {0}.
3. {v1 , . . . , vi , . . . , vj , . . . , vn } ⊆ V es linealmente independiente ⇐⇒
{v1 , . . . , vi + λvj , . . . , vj , . . . , vn } ⊆ V es linealmente independiente
para λ ∈ K.

Demostración. (1). Se deduce del hecho que en un conjunto no interesa el


orden de sus elementos.
(2). Supongamos que {v1 , . . . , vi , . . . , vn } es linealmente independiente.
Sean a1 , . . . , an ∈ K tales que a1 v1 + · · · + ai (λvi ) + · · · + an vn = 0. Entonces
se tiene que aj = 0 para cada j 6= i y que ai λ = 0. Puesto que λ 6= 0, resulta
que también ai = 0. Luego, {v1 , . . . , vj , . . . , vi , . . . , vn } ⊆ V es linealmente
independiente. Esto prueba la equivalencia, puesto que para demostrar la
otra implicación basta multiplicar el i-ésimo vector del conjunto por λ1 .
(3). Supongamos que {v1 , . . . , vi , . . . , vj , . . . , vn } ⊆ V es linealmente in-
dependiente. Sean a1 , . . . , an ∈ K tales que
0 = a1 v1 + · · · + ai (vi + λvj ) + · · · + aj vj + · · · + an vn
= a1 v1 + · · · + ai vi + · · · + (aj + λai ) vj + · · · + an vn
La independencia lineal de {v1 , . . . , vi , . . . , vj , . . . , vn } implica que
a1 = · · · = ai = · · · = aj + λai = · · · = an
de donde ak = 0 para toda 1 ≤ k ≤ n. La otra implicación se deduce de ésta
observando que el conjunto {v1 , . . . , vn } se obtiene de {v1 , . . . , vi + λvj , . . . , vj , . . . , vn }
cambiando el i-ésimo vector vi + λvj por (vi + λvj ) + (−λ) vj = vi . 

Como consecuencia de la proposición anterior, para decidir si un subcon-


junto de vectores {v1 , . . . , vn } de K n es linealmente independiente podemos
proceder como sigue:
Algoritmo 3.50. Considerar la matriz A cuyas columnas son los
vectores v1 , . . . , vr .
Triangular la matriz usando el método de Gauss.
Si la matriz obtenida tiene alguna fila nula, el conjunto es linealmente
dependiente. De lo contrario, es linealmente independiente.
68 3. Espacios Vectoriales

Demostración. (del Algoritmo 3.50)En efecto, en cada paso del algortimo


de Gauss, lo que se hace es cambiar el conjunto de vectores por otro conjunto
como en (1) , (2) y (3) de la proposición anterior. Luego, el nuevo conjunto de
vectores será linealmente independiente si y sólo si el anterior era linealmente
independiente. Si alguna fila de la matriz obtenida es nula, es decir, uno
de los vectores del conjunto de vectores obtenido es el 0, es claro que el
conjunto es linealmente dependiente. Por otro lado, si ninguna fila de la
matriz triangular superior es nula, es fácil ver que el conjunto de vectores
obtenido es linealmente independiente. 
Ejemplo 3.51. Determine si el siguiente conjunto es linealmente indepen-
diente:
{(1, 2, 0) , (1, 1, 1) , (1, 4, 2)}
Para esto, usamos el algoritmo dado antes, formamos la matriz A cuyas filas
son los vectores dados:  
1 1 1
 2 1 4 
0 1 2
aplicamos la eliminación gaussiana y obtenemos la matriz
 
1 1 1
 0 −1 2 
0 0 4
Los vectores {(1, 2, 0) , (1, 1, 1) , (1, 4, 2)} son linealmente independientes.
Ejemplo 3.52. Determine si el siguiente conjunto es linealmente indepen-
diente:
{(1, −1, 2, 4) , (0, 1, −3, 1) , (3, −5, 12, 10) , (1, 1, 0, 0)} .
Fomamos la matriz A:
 
1 0 3 1
 −1 1 −5 1 
 
 2 −3 12 0 
4 1 10 0
y la eliminación gaussiana produce:
 
1 0 3 1
 0 1 −2 2 
 .
 0 0 0 4 
0 0 0 0
Los vectores dados son linealmente dependiente.
Teorema 3.53. [Criterio de un sistema linealmente dependiente] Sea {a1 , · · · , am }
un sistema de vectores. Entonces las siguientes son equivalentes:
3.3. Dependencia lineal 69

1. {a1 , · · · , am } es linealmente dependiente;


2. alguno de los vectores del sistema es combinación lineal de los demás:
existe p ∈ {1, · · · , m} tal que ap ∈ ha1 , . . . , an i con 1 ≤ k ≤ m,
k 6= p;
3. alguno de los vectores del sistema es combinación lineal de los ante-
riores: existe p ∈ {1, · · · , m} tal que ap ∈ ha1 , . . . , an i con 1 6= k 6=
p − 1;
4. alguno de los vectores del sistema es combinación lineal de los pos-
teriores: existe p ∈ {1, · · · , m} tal que ap ∈ ha1 , . . . , an i con p + 1 6=
k 6= m.

Demostración. Esquema de la demostración:


(1)
. &
(3) ↑ (4)
& .
(2)
(1) ⇒ (3) Suponemos que λ1 , . . . , λm ∈ K, no todos los λk son nulos,
λ1 a1 + · · · + λm am = 0.
Denotemos por p el último ı́ndice k tal que λk 6= 0:
p := max{k ∈ {1, . . . , m} : ak 6= 0}.
Por la hipótesis, entre los coeficientes ak hay no nulos, y la definición de p es
correcta. Como los coeficientes ak con k > p son nulos, podemos reescribir
la igualdad anterior de la siguiente manera:
λ1 a1 + · · · + λp−1 + λp ap = 0.
De esta igualdad podemos despejar ap como combinación lineal de los vec-
tores a1 , . . . , ap−1 :
λ1 λp−1
ap = − a1 − · · · − ap−1 .
λp λp
(3) ⇒ (2) Si ap es una combinación lineal de los a1 , . . . , ap−1 :
p−1
X
ap = µ k ak ,
k=1
entonces ap es una combinación lineal de los a1 , . . . , ap−1 , ap+1 , . . . , am :
p−1
X m
X
ap = µk ak + 0ak ,
k=1 k=p+1
70 3. Espacios Vectoriales

(2) ⇒ (1) Sea el vector ap una combinación lineal de los demás:


X
ap = µk ak ,
 

1≤k≤m 
k 6= p
Entonces X
−ap + µk ak = 0
 

1≤k≤m 
k 6= p
esto es, con λk = µk si k 6= p y λ = −1,
m
X
λk ak = 0,
k=1
Aquı́ no todos los coeficientes λk son nulos: λp 6= −1. 
Problema 3.54. Demuestre las demas implicaciones del Teorema 3.53.
Teorema 3.55. Sea V un K-espacio vectorial, y sea C un subconjunto de
V . Las siguientes afirmaciones son equivalentes:
1. C es linealmente independiente sobre K.
2. Para cualesquiera n vectores distintos v1 , . . . , vn en C (con n un
entero positivo), y cualesquiera n escalares a1 , . . . , an en K, si a1 v1 +
· · · + an vn es el vector cero de V , entonces todos los escalares ai
son iguales a cero. Es decir, la única forma de escribir al vector
cero como combinación lineal de vectores distintos en C es poniendo
todos los escalares iguales a cero.
3. Ningún vector v de C se puede escribir como combinación lineal de
otros vectores de C diferentes de v.

Demostración. (1) ⇒ (2) : Si (2) no se cumpliera, existirı́an n vectores


distintos v1 , . . . , vn en C (con n un entero positivo), y n escalares a1 , . . . , an
en K, tales que a1 v1 + · · · + an vn es el vector cero de V , y no todos los
escalares ai son iguales a cero, por lo que C serı́a linealmente dependiente
sobre K.
(2) ⇒ (3) : Si (3) no se cumpliera, existirı́a un vector v en C que se
puede escribir como combinación lineal de n vectores v1 , . . . , vn de C, con
vi 6= v para toda i. Sin pérdida de generalidad, se puede suponer que todos
los vi son distintos entre sı́ (además de ser distintos a v), pues de lo contrario
se pueden agrupar los que sean iguales y sumar sus respectivos escalares. Es
decir, existirı́an v1 , . . . , vn vectores distintos (y distintos a v), y escalares
a1 , . . . , an en K tales que v = a1 v1 + · · · + an vn . Restando v nos queda
3.3. Dependencia lineal 71

0 = a1 v1 + · · · + an vn − v, contradiciendo (2), pues al menos el vector v


tiene un escalar distinto de cero.
(3) ⇒ (1) : Si C no fuera linealmente independiente, existirı́an vectores
distintos v1 , . . . , vn (con n un entero positivo) en C y escalares a1 , . . . , an
en K tales que no todos los ai son cero, pero a1 v1 + · · · + an vn es igual al
vector cero de V . Si n = 1, tendrı́amos que el vector cero está en C, y se
puede escribir como combinación lineal (vacı́a) de otros vectores distintos en
C. Suponga ahora que n > 1. Sin pérdida de generalidad podemos suponer
que el escalar an es diferente de cero. Despejando a vn nos queda vn =
− aan1 v1 − · · · − an−1
an vn−1 , contradiciendo (3). 

El Teorema 3.56 hace un resumen de todas las propiedades de los siste-


mas linealmente dependientes y linealmente independientes.

Teorema 3.56. 1. Si el sistema de vectores {v1 , . . . , vn } es linealmente


dependiente y {τ1 , . . . , τn } es una lista de los números {1, . . . , n}
escritos en otro orden, entonces el sistema {vτ1 , . . . , vτn } también es
linealmente dependiente.
2. Si un sistema de vectores contiene al vector cero, entonces es lineal-
mente dependiente.
3. Todos los elementos de un sistema linealmente independiente son no
nulos.
4. Si un sistema de vectores contiene dos vectores iguales, entonces es
linealmente dependiente.
5. Todos los elementos de un sistema linealmente independiente son
diferentes entre sı́.
6. El sistema de un vector a es linealmente dependiente si y solamente
si a = 0.
7. El sistema vacı́o es linealmente independiente.
8. Si un subsistema de un sistema de vectores es linealmente depen-
diente, entonces todo el sistema es linealmente dependiente.
9. Si un sistema de vectores es linealmente independiente, entonces todo
subsistema también es linelmente independiente.
10. Si {v1 , . . . , vn } es linealmente independiente y {v1 , . . . , vn+1 } es li-
nealmente dependiente, entonces vn+1 ∈ hv1 , . . . , vn i.

Problema 3.57. Demuestra el Teorema 3.56.

Teorema 3.58. [Teorema principal sobre la dependencia lineal] Sea V un


K-espacio vectorial, u1 , . . . , um ∈ V , v1 , . . . , vn ∈ hu1 , . . . , um i, n > m.
Entonces el sistema {v1 , . . . , vn } es linealmente dependiente.
72 3. Espacios Vectoriales

Antes de dar la demostración del Teorema 3.58, explicamos la idea de la


prueba con un ejemplo.
Ejemplo 3.59. Sea V un espacio vectorial real, u1 , u2 ∈ V ,
v1 = 3u1 + 5u2 , v2 = −u1 + 2u2 , v3 = 4u1 − 6u2 .
En este ejemplo dos vectores u1 , u2 generan tres vectores v1 , v2 , v3 , es de-
cir, m = 2, n = 3. Queremos mostrar que los vectores v1 , v2 , v3 forman un
sistema linealmente dependiente, esto es, queremos encontrar coeficientes
λ1 , λ2 , λ3 ∈ R, no todos iguales a cero, tales que
λ1 v1 + λ2 v2 + λ3 v3 = 0.
Podemos reescribir la última igualdad de la siguiente manera:
λ1 (3u1 + 5u2 ) + λ2 (−u1 + 2u2 ) + λ3 (4u1 − 6u2 ) = 0.
Reagrupando los sumandos:
(3λ1 − λ2 + 4λ3 )u1 + (5λ1 + 2λ2 − 6λ3 )u2 = 0.
No sabemos nada de los vectores u1 y u2 . Por eso, la única manera de garan-
tizar la igualdad es anular los coeficientes de u1 y u2 . Busquemos λ1 , λ2 , λ3
como una solución no trivial del sistema de ecuaciones homogéneas:
3λ1 − λ2 + 4λ3 = 05λ1 + 2λ2 − 6λ3 = 0.
El número de incógnitas es mayor que el número de ecuaciones. De esto, ya
podemos concluir que el sistema tiene soluciones no triviales, y los vectores
v1 , v2 , v3 forman un sistema linealmente dependiente.
Problema 3.60. Concluya el Ejemplo 3.59 hallando una solución no tri-
vial (numérica) del sistema y compruebe, para esa solución que los vectores
v1 , v2 , v3 son linealmente dependientes.
Problema 3.61. Sea V un espacio vectorial real, u1 , u2 ∈ V ,
v1 = 3u1 − 4u2 , v2 = 5u1 + 3u2 , v3 = 2u1 + u2 , v4 = 4u1 + 3u2 .
Muestre de manera explı́cita que el conjunto {v1 , v2 , v3 , v4 } es linealmente
dependiente.

Del Teorema 3.58. Como v1 , . . . , vm ∈ hu1 , . . . , um i, existen ai,j ∈ K tales


que
X m
vj = ai,j ui .
i=1
Denotemos por A a la matriz formada por los ai,j . Queremos demostrar que
existen escalares λ1 , . . . , λn ∈ K no todos cero, tales que
Xn
λj vj = 0.
j=1
3.4. Base y dimensión 73

Sustituyendo vj por sus correspondientes expresiones y usando las propie-


dades de operaciones lineales en V , podemos reescribir la ecuación anterior
de la siguiente manera:
 
Xm Xn
 ai,j λj  ui = 0.
i=1 j=1

Para garantizar la igualdad anterior es suficiente pedir que


n
X
ai,j λj = 0.
j=1

para i = 1, . . . , m, esto es, {λ1 , . . . , λn } sea una solución del sistema de


ecuaciones lineales homogéneas
AX = 0.
Pero A ∈ Mm×n (K) con m < n. Por lo tanto, el sistema de ecuaciones
lineales tiene una solución no nula. 
Corolario 3.62. Sean A y B dos sistemas de vectores de un K-espacio
vectorial V . Supongamos que A ∈ hBi y A es linealmente independiente.
Entonces | A |≤| B |.

3.4. Base y dimensión


Introducimos ahora el concepto de base de un espacio vectorial.
Definición 3.63. Sea V un K-espacio vectorial, y sea B un subconjun-
to de V . Decimos que B es una base de V sobre K si B es linealmente
independiente sobre K y B genera a V sobre K.
Ejemplo 3.64. Sea K un campo cualquiera y sea V = K. Una base de V
sobre K es el conjunto {1}, pues ya se vio que es linealmente independiente
sobre K y genera a V sobre K.
Ejemplo 3.65. Sea K un campo arbitrario y sea V = K 2 . Una base de V
sobre K es el conjunto {(1, 0) , (0, 1)}. En efecto, el conjunto {(1, 0) , (0, 1)}
genera a K 2 , pues todo vector (a, b) ∈ K 2 es de la forma a (1, 0) + b (0, 1).
Además, el conjunto {(1, 0) , (0, 1)} es linealmente independiente sobre K,
pues si a y b son escalares en K tales que a (1, 0) + b (0, 1) es el vector cero,
se sigue que (a, b) = (0, 0), es decir, a = 0 = b.
Ejemplo 3.66. Sea K un campo arbitrario y sea V el K-espacio vectorial
nulo, es decir, V = {0}. El conjunto vacı́o es una base de {0}, pues es
linealmente independiente (por vacuidad) y genera a {0}.
74 3. Espacios Vectoriales

Ejemplo 3.67. Sea K un campo arbitrario, y sea A ∈ Mn (K). Si A es


invertible, entonces las columnas de A forman una base de Mn×1 (K) (el
espacio de vectores columna de n entradas sobre K). Sea Yi la columna
i-ésima de A. Las columnas de A generan a Mn×1 (K), pues dada Y ∈
Mn×1 (K) arbitraria, el sistema AX = Y tiene una solución (de hecho única),
digamos (b1 , . . . , bn ), de donde se tiene que b1 Y1 + · · · + bn Yn = Y . Para
demostrar que las columnas de A son linealmente independiente sobre K,
suponga que los escalares b1 , . . . , bn ∈ K son tales que b1 Y1 + · · · bn Yn son
el vector columna cero. Entonces el vector columna X1 = (b1 , . . . , bn ) es
solución del sistema homogéneo AX1 = 0. Pero A es invertible, por lo que
la única solución de dicho sistema es la trivial, es decir, bi = 0 para toda i.

Dos sistemas de generadores cualesquiera de un K-espacio vectorial V


pueden tener distinta cantidad de elementos. Esto no sucede en el caso de dos
bases y lo demostraremos para espacios vectoriales finitamente generados,
lo que nos permitirá definir la dimensión de un espacio vectorial finitamente
generado como la cantidad de elementos de una base cualquiera.
El Lema 3.68 es una reescritura del Teorem 3.58 para conjuntos lineal-
mente independientes.

Lema 3.68. Sea V un K-espacio vectorial. Suponga que V es finitamente


generado sobre K, es decir, existe una sucesión finita v1 , . . . , vn de n vecto-
res de V que generan a V sobre K. Entonces todo subconjunto linealmente
independiente de vectores de V es finito y tiene a lo más n elementos.

Demostración. Basta demostrar que todo subconjunto de V con al menos


n+1 elementos es linealmente dependiente sobre K. Sea C = {u1 , . . . , un , un+1 }
un conjunto de n+1 vectores distintos. Debemos encontrar escalares c1 , . . . , cn
y cn+1 no todos cero, tales que c1 u1 + · · · + cn un + cn+1 un+1 es el vector cero
de V . Como v1 , . . . , vn generan a V , para cada ui existen escalares bj,i en K
tales que

n
X
ui = bj,i vj
j=1

Los coeficientes bj,i determinan una matriz A de n × (n + 1). Sabemos que


entonces el sistema homogéneo AX = 0 tiene al menos una solución no
trivial, digamos (c1 , . . . , cn+1 ), donde no todos los ci son cero. Observe que
como (c1 , . . . , cn+1 ) es solución de AX = 0, se tiene que para toda j, la suma
Pn+1
i=1 bj,i ci es igual a cero. Afirmamos que c1 u1 + · · · cn un + cn+1 un+1 es el
3.4. Base y dimensión 75

vector cero de V . Tenemos que


n+1
X
c1 u1 + · · · + cn un + cn+1 un+1 = ci ui
i=1
 
n+1
X Xn
= ci  bj,i vj 
i=1 j=1
n+1
XX n
= ci bj,i vj
i=1 j=1
n n+1
X X
= ci bj,i vj
j=1 i=1
n n+1
!
X X
= ci bj,i vj
j=1 i=1
n
X
= 0 · vj
j=1
= 0.

Corolario 3.69. Sea V un K-espacio vectorial finitamente generado so-
bre K. Entonces dos bases cualesquiera de V tienen el mismo número de
elementos.

Demostración. El Lema 3.68 dice que todo conjunto finito de generadores


de V tiene igual o más elementos que todo subconjunto linealmente inde-
pendiente de V . En particular, todas las bases de V son finitas. Más aún,
como toda base es a la vez un conjunto finito de generadores y un conjunto
linealmente independiente, intercambiando roles en dicho Lema vemos que
dos bases cualesquiera deben tener igual número de elementos. 
Corolario 3.70. Sea V un K-espacio vectorial. Suponga que V tiene una
base con n elementos. Entonces cualquier subconjunto de V con más de n
vectores es linealmente dependiente, y ningún subconjunto de V con menos
de n vectores puede generar a V.

Demostración. Si hubiera un conjunto linealmente independiente con más


de n vectores, éste tendrı́a más elementos que la base, que es un conjunto
finito de generadores, contradiciendo el Lema 3.68. Si V tuviera un conjunto
de generadores con menos de n elementos, éste tendrı́a menos elementos que
la base, que es un conjunto linealmente independiente, contradiciendo el
Lema 3.68. 
76 3. Espacios Vectoriales

Lema 3.71. Sea V un K-espacio vectorial y sea C un conjunto que gene-


ra a V . Sea v un vector en C que es combinación lineal de otros vectores
v1 , . . . , vn ∈ C. Entonces el conjunto que se obtiene quitando el vector v a
C genera a V .

Demostración. Sea u ∈ V . Como C genera a V , u se puede escribir como


combinación lineal de algunos vectores en C: si ninguno de estos vectores es
v, ya generamos a u como deseábamos; si no, en dicha combinación lineal
apareció el vector v con un escalar a. Reemplacemos av por una combinación
lineal de v1 , . . . , vn . 
Lema 3.72. Sea V un K-espacio vectorial, y sea C un subconjunto de V que
genera a V . Si C es linealmente dependiente, entonces existe un subconjunto
propio de C que genera a V .

Demostración. Como C es linealmente dependiente, existe un vector v ∈


C que es combinación lineal de otros vectores v1 , . . . , vn en C. Por el Le-
ma 3.68, si le quitamos v al conjunto C seguimos teniendo un conjunto de
generadores de V . Este es un subconjunto propio de C. 
Teorema 3.73. Sea V un K-espacio vectorial finitamente generado, y sea
C un conjunto finito que genera a V sobre K. Entonces V tiene una base
sobre K contenida en C (que por lo tanto es una base finita).

Demostración. Usaremos inducción sobre la cardinalidad del conjunto C


que genera a V . Si C tiene cardinalidad cero (es decir, C es el conjunto
vacı́o), entonces V es el espacio cero, y el vacı́o es una base de V . Suponga
ahora que el resultado es válido para todos los espacios vectoriales que tienen
un conjunto de generadores con menos elementos que C. Si C es linealmente
independiente sobre K, ya es una base sobre K. Si C es linealmente depen-
diente, por el Lema 3.72, C tiene un subconjunto propio C2 que genera a V .
Por inducción, V tiene un subconjunto de C2 (y por lo tanto, subconjunto
de C) que es una base de V sobre K. 
Corolario 3.74. Sea V un K-espacio vectorial. Entonces V está finitamente
generado sobre K si y solamente si V tiene una base finita sobre K.

Demostración. Si V está finitamente generado sobre K, por el Teorema


3.73, V tiene una base finita sobre K. Por otro lado, si V tiene una base
finita sobre K, entonces dicha base es un conjunto finito que genera a V
sobre K, y por lo tanto V está finitamente generado sobre K. 
Definición 3.75. Sea V un K-espacio vectorial finitamente generado sobre
K. La dimensión de V sobre K es la cardinalidad de cualquier base de V
sobre K. Denotamos a la dimensión de V sobre K como dimK (V ).
3.4. Base y dimensión 77

Comentario 3.76. Por convención, la dimensión de {0} es 0.

Comentario 3.77. También es posible definir la dimensión de un espacio


vectorial que no está finitamente generado; de hecho, se define como la car-
dinalidad de cualquier base del espacio, pero en este caso, se trata de un
número cardinal, no de un número entero. Para estos espacios se debe de-
mostrar la existencia de bases y que cualesquiera dos bases tienen el mismo
número de elementos, y las demostraciones usan herramientas poderosas de
teorı́a de conjuntos, como el Lema de Zorn.

Una propiedad de las bases es que cualquier vector del espacio vectorial
considerado se puede expresar como combinación lineal de los elementos
de la base de manera única. Como veremos más adelante, aplicando esta
propiedad se trabajará en un K-espacio vectorial de dimensión n arbitrario
como si fuese K n .

Proposición 3.78. Sea V un K-espacio vectorial de dimensión finita. Sea


{v1 , . . . , vn } una base de V . P
Entonces para cada x ∈ V existen únicos
α1 , . . . , αn ∈ K tales que x = ni=1 αi vi .

Demostración. La existencia se deduce de que, por ser una P base de V ,


n
{v
P1n , . . . , v n } es un sistema
Pn de generadores de V . Supongamos que i=1 αi vi =
β
i=1 i i x , entonces i=1 (α i − βi ) x i = 0. Como {v1 , . . . , v n } es un conjun-
to linealmente independiente, αi − βi = 0 para toda i = 1, . . . , n. Luego,
αi = βi para toda i = 1, . . . , n, lo cual prueba la unicidad. 

Lema 3.79. Sea V un K-espacio vectorial, y sean v1 , . . . , vn una sucesión


de vectores linealmente independientes sobre K. Suponga que v ∈ V que no
es combinación lineal de v1 , . . . , vn sobre K. Entonces v1 , . . . , vn , v es una
sucesión de vectores linealmente independiente sobre K.

Demostración. Note primero que v no puede ser ninguno de los vecto-


res v1 , . . . , vn . Supongamos que v1 , . . . , vn , v no fueran linealmente inde-
pendientes sobre K. Entonces existen escalares a1 , . . . , an , a ∈ K tales que
a1 v1 + · · · + an vn + av = 0. Si a = 0, tendrı́amos que los v1 , . . . , vn son lineal-
mente dependientes sobre K, lo que es imposible, por lo que a 6= 0. Entonces
podemos despejar a v y escribirlo como combinación lineal de v1 , . . . , vn , lo
cual también es una contradicción. 

El siguiente teorema muestra cómo hallar una base de un K-espacio


vectorial de dimensión finita V a partir de cualquier sistema de generadores
finito de V y cómo completar un subconjunto linealmente independiente
arbitrario de V a una base.
78 3. Espacios Vectoriales

Teorema 3.80. Sea V un K-espacio vectorial de dimensión finita, y sea C


un conjunto linealmente independiente sobre K. Entonces existe una base
de V sobre K que contiene a C.

Demostración. Si C genera a V sobre K, entonces C es una base de V


sobre K. Si no, por el Lema 3.79 se le puede agregar un vector al conjunto
C y obtener un conjunto linealmente independiente sobre K. Este proceso
debe detenerse al llegar a la cardinalidad de una base de V , pues por el
Corolario 3.70, si C tiene más elementos que una base de V sobre K, C no
es liealmente independiente sobre K. 
Comentario 3.81. (Continuación de la Observación 3.77) El Teorema 3.80
dice que todo subconjunto linealmente independiente de V puede extenderse
a una base de V si V es de dimensión finita. Este resultado también es válido
para dimensión infinita.
Ejemplo 3.82. Extraer una base de S = h(1, −1, 7, 3) , (2, 1 − 1, 0) , (3, 1, 1, 1)i
del sistema de generadores dado.
Solución. Observamos que el sistema de generadores dado es linealmente
dependiente. En efecto,
     
1 −1 7 3 1 −1 7 3 1 −1 7 3
 2 1 −1 0  →  0 3 −15 −6  →  0 3 −15 −6  .
3 1 1 1 0 4 −20 −8 0 0 0 0
Como por la triangulación anterior se ve simultáneamente que {(1, −1, 7, 3) , (2, 1 − 1, 0)}
es un conjunto linealmente independiente, y que {(1, −1, 7, 3) , (2, 1 − 1, 0) , (3, 1, 1, 1)}
es un conjunto linealmente dependiente, resulta que (3, 1, 1, 1) ∈ h(1, −1, 7, 3) , (2, 1 − 1, 0)i.
Luego, {(1, −1, 7, 3) , (2, 1 − 1, 0)} es un sistema de generadores de S. Como
además es linealmente independiente, es una base de S.
Ejemplo 3.83. Extender el conjunto linealmente independiente {(1, 1, 0, 0) , (1, −1, 1, 0)}
a una base de R4 .
Solución. Consideremos la base canónica de R4 ,
E = {(1, 0, 0, 0) , (0, 1, 0, 0) , (0, 0, 1, 0) , (0, 0, 0, 1)} .
Ahora, sea G1 := {(1, 1, 0, 0) , (1, −1, 1, 0) , (1, 0, 0, 0)} que es linealmente in-
dependiente. Ahora, (0, 1, 0, 0) ∈ hG1 i, puesto que (0, 1, 0, 0) = (1, 1, 0, 0) −
(1, 0, 0, 0) y entonces G2 := G1 . El conjunto G2 ∪ {(0, 0, 1, 0)} es linealmente
independiente. Consideramos entonces G3 := G2 ∪ {(0, 0, 1, 0)}. Este con-
junto, formado por cuatro vectores linealmente independientes de R4 , debe
poder extenderse a una base de R4 , que tendrá cuatro elementos puesto que
dim R4 = 4; luego, ya es una base de R4 .

Como consecuencia de la proposición anterior, se obtienen los siguientes


resultados sobre subespacios de un K-espacio vectorial de dimensión finita.
3.4. Base y dimensión 79

Comentario 3.84. Si V es un K-espacio vectorial de dimensión finita y


S ⊆ V , entonces S es de dimensión finita.
Proposición 3.85. Sean S y T subespacios de un K-espacio vectorial V de
dimensión finita. Entonces:
1. Si S ⊆ T , entonces dim S ≤ dim T.
2. Si S ⊆ T y dim S = dim T , entonces S = T.

Demostración. 1. Sea {s1 , . . . , sr } una base de S y sea n = dim T.


Como S ⊆ T , se tiene que {s1 , . . . , sr } ⊆ T , y además es un conjunto
linealmente independiente. Luego, puede extenderse a una base de
T , y en consecuencia, dim S = r ≤ n = dim T.
2. Siguiendo el razonamiento de la demostración de (1), al extender
una base {s1 , . . . , sr } de S a una de T , como dim S = dim T , no se
agrega ningún vector. Luego S = hs1 , . . . , sr i = T .


Observar que el ı́tem (2) de la proposición anterior nos facilita la verifi-


cación de la igualdad entre dos subespacios.
Ejemplo 3.86. Sean S y T los subespacios de R3 :
S = 1, −k 2 + 1, 2 , (k + 1, 1 − k, −2)



y
T = x ∈ R3 | x1 + x2 + x3 = 0 .


Hallar todos los vectores de k ∈ R para los cuales S = T .


Solución. En primer lugar, veamos para qué valores de k ∈ R se tiene que
S ⊆ T:
1, −k 2 + 1, 2 ∈ T ⇐⇒ 1 + −k 2 + 1 + 2 = 0 ⇐⇒ k = ±2.
 

(k + 1, 1 − k, −2) ∈ T para toda k ∈ R.


Luego, S ⊆ T si y sólo si k = −2 o k = 2. Finalmente, para cada uno
de estos valores de k, basta ver si dim S = dim T . Observar que dim T = 2
(una base de T es {(−1, 1, 0) , (−1, 0, 1)}.
Si k = −2, S = h(1, −3, 2), (−1, 3, −2)i = h(1, −3, 2)i, de donde dim
S = 1.
Si k = 2, S = h(1, −3, 2), (3, −1, −2)i y, como {(1, −3, 2) , (3, −1, −2)}
es linealmente independiente y por lo tanto una base de S, se tiene
que dim S = 2.
Concluimos que S = T si y sólo si k = 2.
80 3. Espacios Vectoriales

3.5. Espacios fundamentales de una matriz


Dada una matriz A ∈ Mn×m (K), cada una de sus columnas puede ser
interpretada como un vector de K n . Entonces, si denominamos Ai a la i-
ésima columna de A, tenemos que Ai ∈ K n y que

A = A1 A2 · · · An .
     
1 2 1 2
Ejemplo 3.87. Si A = 1 1, sus columnas son A1 = 1 y A2 = 1.
1 0 1 0

Similarmente, cada fila de A puede ser interpretada como un vector de


K m transpuesto y, si denominamos Ri al vector columna que se obtiene
transponiendo la i-ésima fila de A, podemos escribir
 T
R1
 .. 
A= . 
RnT
Ejemplo
  3.88. Las
 filas transpuestas
  de la matriz A del ejemplo 3.87 son
1 1 1
R1 = , R2 = y R3 = .
2 1 0

Con esta última notación, el producto de la matriz A por un vector


x ∈ K m puede escribirse en la forma
 T  T 
R1 R1 x
 ..   .. 
Ax =  .  x =  .  ,
RnT RnT x
que no expresa otra cosa que la regla usual de multiplicación de una matriz
por un vector: la i-ésima componente del producto es el producto de la
i-ésima fila de A por el vector x.
A cada matriz A ∈ Mn×m (K) podemos asociarle dos subespacios, de-
nominados, respectivamente, espacio columna y espacio fila. El espacio co-
lumna es el subespacio de K n generado por las columnas de A y se denota
Col(A). En otras palabras,
Col(A) = hA1 , . . . , Am i ⊆ K n .
En forma análoga se define el espacio fila, que es el subespacio de K m gene-
rado por las filas transpuestas de A y se denota F il(A), es decir,
F il(A) = hR1 , . . . , Rm i ⊆ K m .
Dado que transponiendo las filas de A obtenemos las columnas de AT ,
tenemos que el espacio fila de A no es otro que el espacio columna de AT ,
3.5. Espacios fundamentales de una matriz 81

es decir,
Col(AT ) = F il(A).
Vamos ahora a dar una interpretación del subespacio Col(A) que es útil tener
en cuenta. Para ello necesitamos la siguiente definición -que es equivalente a
T
la usual- del producto de una matriz por un vector: si x = x1 x2 · · · xm ∈
K m , el producto de A por x es igual a la siguiente combinación lineal de las
columnas de A:
 
x1
 x2 

Ax = A1 A2 · · · Am  .  = x1 A1 + x2 A2 + · · · + xm Am .
 .. 
xm
T
Ejemplo 3.89. Si A es la matriz del ejemplo 3.87 y 1 −2 ,
       
1 2   1 2 −3
1
Ax = 1 1 = 1 1 + (−2) 1 = −1
−2
1 0 1 0 1
lo cual coincide, por supuesto, con el producto calculado empleando la regla
usual para la multiplicación de matrices.

Entonces, de acuerdo con lo anterior, tenemos que el producto de una


matriz por un vector no es otra cosa que combinar linealmente las columnas
de la matriz empleando como escalares las componentes del vector. Recı́pro-
camente, toda combinación lineal de las columnas de A puede expresarse en
la forma Ax con x ∈ K m . En efecto, si y = α1 A1 + · · · + αm Am , entonces
 T
y = Ax con x = α1 · · · αm . En consecuencia, cada vez que multiplica-
mos A por un vector x obtenemos un elemento de Col(A) y, por otra parte,
cada elemento de Col(A) puede expresarse en la forma Ax, luego, vale la
igualdad:
Col(A) = {y ∈ K n | y = Ax, x ∈ K m }.
Problema 3.90. Una interpretación similar puede dársele al subespacio
F il(A). Demuestre que
F il(A) = {x ∈ K m | x = AT y, y ∈ K n }.

Ahora vamos a vincular los subespacios Col(A) y F il(A) con el rango


de A. Recordemos que el rango de A, denotado rango(A), es tanto el núme-
ro máximo de columnas linealmente independientes de A como el número
máximo de filas linealmente independientes de A. Entonces, de la primera
afirmación, tenemos que rango(A) es el número de columnas de A que que-
dan luego de eliminar aquellas que son linealmente dependientes del resto.
82 3. Espacios Vectoriales

Pero, como luego de eliminar las columnas que son linealmente dependientes
del resto lo que obtenemos es una base de Col(A), tenemos que
rango(A) = dim (Col(A)) .
Por otra parte, como rango(A) tambin es el número de filas de A que quedan
luego de eliminar aquellas que son linealmente dependientes del resto, por
los mismos motivos que antes, también resulta
rango(A) = dim (F il(A)) .
Otro subespacio que puede asociarse a la matriz A es el espacio nulo de A,
denotado N ul(A), y definido por
N ul(A) = {x ∈ K m | Ax = 0}.
Los subespacios N ul(A) y Col(A) están ı́ntimamente relacionados con la
ecuación lineal
Ax = b,
donde A ∈ Mn×m (K), b ∈ K n y x ∈ K m .
En efecto, N ul(A) es el conjunto de soluciones de la ecuación lineal
homogénea Ax = 0. Por otra parte, teniendo en cuenta la interpretación de
Col(A) como conjunto formado por todos los posibles productos Ax,
Ax = b tiene solución si y solamente si b ∈ Col(A).
De esto último se desprende que la ecuación Ax = b tiene solución para b
arbitrario si y sólo si Col(A) = K n :
Ax = b tiene solución para toda b ∈ K n si y solamente si Col(A) = K n
si y solamente si rango(A) = n.

Respecto de la unicidad de las soluciones de Ax = b, sabemos que es


equivalente a que la ecuación lineal homogénea tenga solución única, es
decir, equivalente a que N ul(A) = {0}.
Por otro lado, la ecuación Ax = 0 tiene solución única x = 0 si y
solamente si la única combinación de las columnas de A que da por resultado
el vector nulo es aquella en la que todos los escalares son nulos, en otras
palabras, si y solamente si las columnas de A son linealmente independientes.
En consecuencia, la solución de la ecuación Ax = b, en caso de existir, es
única si y sólo si las columnas de A son linealmente independientes. Pero
esto último es equivalente a que dim(Col(A)) = rango(A) = m. En resumen,
Ax = b tiene a lo sumo una solución si y solamente si N ul(A) = {o}
si y solamente si dim (Col(A)) = m
si y solamente si rango(A) = m.
3.5. Espacios fundamentales de una matriz 83

Por último, teniendo en cuenta la fórmula que vincula la dimensión del


subespacio solución de la ecuación Ax = 0, el rango de A y el número de
incógnitas de la ecuación,
dim ({x ∈ K m | Ax = 0}) = número de incógnitas − rango(A).
deducimos la siguiente relación entre las dimensiones de N ul(A) y Col(A):
dim (N ul(A)) = m − dim (Col(A)) .
Teniendo en cuenta que F il (A) = Col AT y lo anterior, también tenemos


la relación
dim N ul(AT ) = n − dim (F il(A)) .


A los cuatro subespacios asociados a la matriz A: Col(A), F il(A), N ul(A)


y N ul(AT ), se les denomina los espacios fundamentales de A y juegan un
rol muy importante en el Álgebra Lineal Numérica.
Ejemplo 3.91. Sea A la matriz del Ejemplo 1.64. Halle bases para los
espacios fundamentales de A: Col(A), F il(A), N ul(A) y N ul(AT ) Recuerde
la forma escalonada reducida de la matriz A
 
1 0 1 0 1
0 1 −2 0 3 
A= 0 0 0 1 −5

0 0 0 0 0
Una base del espacio Col(A) es:
     

 −2 −5 0 
     
 1  ,  3  , 1 .

  3   11  7
 
1 7 5
 

Para hallar una base de N ul(A), resolvemos el sistema Ax = 0:


   

 −s − t 



 −3s + 2t 


 
x=  t 
 ; s, t ∈ R ,


  5s  


 
s
 

entonces una base es:     



 1 −1  


 2  −3  
    
1 ,  0  , .
    


 0  5   
 
0 1
 

Para hallar las restantes bases, transponemos A, la llevamos a su forma


escalonada reducida y repetimos lo anterior para esta matriz.
84 3. Espacios Vectoriales

Una base para F il(A) es:


     

 −2 1 1 

 −5   3   7 

 
     
 8  , −5 , −13 .
     


  0   1   5  

 
−17 5 −3
 

Y una base paraN ul(AT ) es:


 
 −1 
 
−7
  .
 1 
 
1
 

Problema 3.92. Sea


 
1 1 3 1 6
 2 −1 0 1 −1
A=
−3 2 1 −2 1  .

4 1 6 1 3
Helle bases para cada uno de los espacios fundamentales de A: Col(A),
F il(A), N ul(A) y N ul(AT ).

El Lema 3.93 es un resultado conocido, pero vale la pena establecerlo


como un lema y escribir una demostración del mismo.
Lema 3.93. Sea V un K-espacio vectorial y sean v1 , . . . , vn vectores en V .
Sea a un escalar no nulo en K, y sean i 6= j iındices menores o iguales a n.
Tenemos que
hv1 , . . . , vn i = hv1 , . . . vi−1 , vj , vi+1 , . . . vj−1 , vi , vj+1 , . . . , vn i
= hv1 , . . . , vi−1 , avi , vi+1 , . . . , vn i
= hv1 , . . . , vi−1 , vi + avj , vi+1 , . . . , vn i .

Demostración. En el primer caso se intercambiaron dos vectores, y el con-


junto de generadores es el mismo. En el segundo caso, note que avi es múlti-
plo escalar de vi y viceversa. En el último caso, note que vi + avj es combi-
nación lineal de vi y vj , y que vi es combinación lineal de vi + av j y vj . 
Corolario 3.94. Sea K un campo, y sea A ∈ Mn×m (K). Sea BA ∈ Mn (K)
invertible. Entonces A y BA tienen el mismo espacio de renglones.

Demostración. Como toda matriz invertible es producto de matrices ele-


mentales, sin pérdida de generalidad podemos suponer que B es una matriz
elemental. El resto se sigue del Lema 3.93 aplicado a los renglones de A. 
3.6. Sumas directas 85

Teorema 3.95. Sean n y m enteros positivos, y sea K un campo. Sea S


un subespacio de K n de dimensión menor o igual a m. Entonces existe una
única matriz de m × n escalonada reducida por renglones sobre K que tiene
a S como su espacio de renglones.

Demostración. Como S es de dimensión menor o igual a m, uno puede


escribir m generadores de S como renglones de una matriz, y luego llevarla
a su forma escalonada reducida por renglones, sin cambiar el espacio de
renglones.
Supongamos ahora que dos matrices escalonadas reducidas por renglo-
nes tienen el mismo espacio de renglones S. Note que todo vector no nulo
de S tiene su primera entrada no nula en alguna columna donde hay un
pivote de su(s) matriz(ces), por lo que las dos matrices escalonadas redu-
cidas tienen pivotes en las mismas columnas. Para que un renglón de una
de estas matrices se escriba como combinación lineal de los renglones de la
otra matriz, se necesita que el pivote correspondiente aparezca con un uno,
y los demás pivotes con cero, por lo que las dos matrices tienen los mismos
renglones, y son por tanto iguales. 
Corolario 3.96. Toda matriz de m × n con coeficientes en un campo K es
equivalente a una única matriz escalonada reducida por renglones.

Demostración. Este hecho se conocı́a desde antes, pero es consecuencia de


que un subespacio tiene una única matriz escalonada reducida por renglones
que lo tiene como espacio de renglones. 

3.6. Sumas directas


Dados dos subespacios S y T de un K-espacio vectorial V la unión S ∪ T
en general no es un subespacio de V , porque no contiene necesariamente a
todos los elementos de la forma s + t con s ∈ S y t ∈ T , y un subespacio que
contenga a S y a T debe contener a todos estos elementos. Esto da lugar a
la noción de suma de subespacios.
Subespacio suma
Definición 3.97. Sea V un K-espacio vectorial, y sean S y T subespacios
de V . Se llama suma de S y T al conjunto
S+T = {v ∈ V | ∃x ∈ S; y ∈ T tales que v = x + y} = {x + y | x ∈ S; y ∈ T } .

La siguiente proposición muestra que la suma de dos subespacios es,


en efecto, un subespacio que contiene a ambos, y da una caracterización
de este conjunto en términos de sistemas de generadores de los subespacios
considerados.
86 3. Espacios Vectoriales

Proposición 3.98. Sea V un K-espacio vectorial, y sean S y T subespacios


de V . Entonces:
1. S + T es un subespacio de V .
2. S + T es el menor subespacio (con respecto a la inclusión) que con-
tiene a S ∪ T .
3. Si {vi }i∈I es un sistema de generadores de S y {wi }j∈J es un sistema
de generadores de T , {vi }i∈I ∪ {wi }j∈J es un sistema de generadores
de S + T .

Demostración. 1. 0 = 0 + 0 ∈ S + T , pues 0 ∈ S, 0 ∈ T . Sean


v, v 0 ∈ S + T . Existen x, x0 ∈ S, y, y 0 ∈ T tales que v = x + y,
v 0 = x0 +y 0 . Entonces v+v 0 = (x + y)+(x0 + y 0 ) = (x + x0 )+(y + y 0 ),
y como S y T son subespacios x + x0 ∈ S y y + y 0 ∈ T . Luego
.v + v 0 ∈ S + T . Sea v ∈ S + T y λ ∈ K. Existen x ∈ S, y ∈ T tales
que v = x + y. Entonces , λv = λ (x + y) = λx + λy. Como λ ∈ K,
x ∈ S y S es un subespacio, resulta que λx ∈ S. Análogamente,
λy ∈ T . Luego λv ∈ S + T . En consecuencia, S + T es un subespacio
de V .
2. Sea W un subespacio de V tal que S ∪ T ⊆ W . Sea v ∈ S + T .
Entonces v = x + y con x ∈ S, y ∈ T . Como S ⊆ S ∪ T ⊆ W ,
entonces x ∈ W ; y como T ⊆ S ∪ T ⊆ W , entonces y ∈ W . En
consecuencia v = x + y ∈ W , puesto que W es un subespacio. Luego,
S + T ⊆ W.
3. Sea v ∈ S + T, v = x + y con x ∈ S, y ∈ T . Dado que {vi }i∈I es un
sistema de generadores de S, existenPαi ∈ K (i ∈ I) , con αi = 0 salvo
para finitos i ∈ I, tales que x = i∈I αi vi . De la misma manera,
P βj ∈ K (j ∈ J), con βj = 0 salvo para finitos j ∈ J, tales que
existen
y = j∈J βj wj . Luego
X X
v= αi vi + βj wj
i∈I j∈J

resulta una combinación lineal de {vi }i∈I ∪ {wi }j∈J ⊆ S + T .




Ejemplo 3.99. Sean S y T los subespacios de R4

S = h(1, 1, 0, 1) , (2, 3, 1, 1)i y T = h(0, 0, 1, 1) , (1, 2, 2, 1)i .

Hallar una base de S + T.


Solución. Por la proposición anterior, podemos obtener un sistema de
generadores de S + T mediante la unión de un sistema de generadores de S
3.6. Sumas directas 87

y un sistema de generadores de T . Entonces

S + T = h(1, 1, 0, 1) , (2, 3, 1, 1) , (0, 0, 1, 1) , (1, 2, 2, 1)i .

Ahora, extraemos una base del sistema de generadores hallado. Al aplicar


eliminación gaussiana, se tiene:
   
1 1 0 1 1 1 0 1
 2 3 1 1   0 1 1 −1 
 0 0 1 1  → ··· → 
   .
0 0 1 1 
1 2 2 1 0 0 0 0

Esto muestra que el conjunto {(1, 1, 0, 1) , (2, 3, 1, 1) , (0, 0, 1, 1) , (1, 2, 2, 1)}


es linealmente dependiente y que el conjunto {(1, 1, 0, 1) , (2, 3, 1, 1) , (0, 0, 1, 1)}
es linealmente independiente. Por lo tanto, (1, 2, 2, 1) ∈ h(1, 1, 0, 1) , (2, 3, 1, 1) , (0, 0, 1, 1)i
y {(1, 1, 0, 1) , (2, 3, 1, 1) , (0, 0, 1, 1)} es una base de S + T .

Si S y T son dos subespacios de dimensión finita de un K-espacio vec-


torial V , el siguiente teorema relaciona las dimensiones de los subespacios
S, T, S ∩ T y S + T .

Teorema 3.100. (Teorema de la dimensión para la suma de subespacios.)


Sea V un K-espacio vectorial. Sean S y T subespacios de V de dimensión
finita. Entonces

dim(S + T ) + dim (S ∩ T ) = dim S + dim T.

Demostración. Sean s =dim S, t = dim T y r = dim (S ∩ T ). Si s = 0,


o sea S = {0}, se tiene que S + T = T y S ∩ T = {0} y la igualdad
vale. Análogamente se ve que vale si t = 0. Sea {v1 , . . . , vr } una base
de S ∩ T (si r = 0, consideramos simplemente el conjunto vacı́o). Sean
wr+1 , . . . , ws tales que {v1 , . . . , vr , wr+1 , . . . , ws } es una base de S, y sean
ur+1 , . . . , ut tales que {v1 , . . . , vr , ur+1 , . . . , ut } es una base de T . Veamos
que {v1 , . . . , vr , wr+1 , . . . , ws , ur+1 , . . . , ut } es una base de S + T : Es claro
que es un sistema de generadores de S + T . Veamos que es un conjunto
linealmente independiente. Supongamos que
r
X s
X t
X
αi vi + β j wj + γk uk = 0.
i=1 j=r+1 k=r+1
Pr Ps Pt
Entonces i=1 αi vi + j=r+1 βj wj =− k=r+1 γk uk . Además,
r
X s
X t
X
αi vi + β j wj ∈ S + T y − γk uk ∈ T,
i=1 j=r+1 k=r+1
88 3. Espacios Vectoriales

Pt
de donde − k=r+1 γk uk ∈ S ∩ T . Luego, existen δ1 , . . . , δr ∈ K tales que
t
X r
X
− γk uk = δl vl
k=r+1 l=1

o, equivalentemente,
t
X r
X
γk uk + δl vl = 0.
k=r+1 l=1

Pero {v1 , . . . , vr , ur+1 , . . . , ut } es una base de T , en particular, un conjunto


linealmente independiente. Luego, γk = 0 para r + 1 ≤ k ≤ t y δl = 0 para
1 ≤ l ≤ r. Entonces
X r Xs
αi vi + βj wj = 0
i=1 j=r+1

y como {v1 , . . . , vr , wr+1 , . . . , ws } es una base de S, resulta que αi = 0 para


toda 1 ≤ i ≤ r y βj = 0 para toda r + 1 ≤ j ≤ s. Luego,
dim (S +T ) = r+(s − r)+(t − r) = s+t−r = dim S + dim T −dim (S ∩T ).


Suma directa
Un caso de especial importancia de suma de subespacios se presenta
cuando S ∩ T = {0} .
Definición 3.101. Sea V un K-espacio vectorial, y sean S y T subespacios
de V . Se dice que V es suma directa de S y T , y se denota V = S ⊕ T , si:
1. V = S + T ,
2. S ∩ T = {0} .
Ejemplo 3.102. Sean S = x ∈ R3 | x1 + x2 + x3 = 0 y T = h(1, 1, 1)i. Se


tiene que dim S = 2, dim T = 1 y S ∩ T = {0}. Entonces dim (S + T ) = 3,


de donde S + T = R3 . Luego, R3 = S ⊕ T .
Proposición 3.103. Sea V un K-espacio vectorial. Sean S y T subespacios
de V tales que V = S ⊕ T . Entonces, para cada v ∈ V , existen únicos x ∈ S
y y ∈ T tales que v = x + y.

Demostración. Existencia: Como V = S + T , para cada v ∈ V existen


x ∈ S y y ∈ T tales que v = x + y. Unicidad: Supongamos que v = x + y
y v = x0 + y 0 , con x, x0 ∈ S y y, y 0 ∈ T . Entonces x − x0 = y − y 0 y
x − x0 ∈ S, y − y 0 ∈ T , luego x − x0 , y − y 0 ∈ S ∩ T = {0}. En consecuencia,
x − x0 = y − y 0 = 0, de donde x = x0 , y = y 0 . 
3.6. Sumas directas 89

La Proposición 3.100 establece que dados dos subespacios S y T de un


espacio vectorial, la unión de un sistema de generadores de S y un sistema
de generadores de T es un sistema de generadores de S + T . Esto no vale
en el caso de dos bases: la unión de una base de S y una de T puede ser un
conjunto linealmente dependiente. Sin embargo, la propiedad es válida en el
caso en que los subespacios estén en suma directa:
Proposición 3.104. Sea V un K-espacio vectorial. Sean S y T subespa-
cios de V . Sean βS y βT bases de S y T respectivamente. Las siguientes
afirmaciones son equivalentes:
1. V = S ⊕ T.
2. β = βS ∪ βT es una base de V .
Observamos que en la condición (2), β es la familia obtenida mediante
la unión de las familias βS y βT .

Demostración. Supongamos que βS = {vi }i∈I y βT = {wj }j∈J .


(1) =⇒ (2) : Dado que βS y βT son sistemas de generadores de S y
T respectivamente, entonces β = βS ∪ βT es un sistema de generadores de
V = S ⊕ T . Por otro lado, si
X X
αi vi + βj wj = 0,
i∈I j∈J
| {z } | {z }
∈S ∈T
como también
P se tieneP0 = 0 + 0 con 0 ∈ S y 0 ∈ T , por la proposición
anterior i∈I αi vi = j∈J βj wj = 0. La independencia lineal de βS y βT
implica que αi = 0 para toda i ∈ I y βj = 0 para toda j ∈ J. Luego, β es
linealmente independiente.
(2) =⇒ (1) : Como β = βS ∪ βT es una base de V , para cada v ∈ V
existen
P αi ∈PK, i ∈ I y βj ∈ K, j ∈ J, casi todos nulos, P tales que v =
vi + j∈J βj wj y por lo tanto v = x + y con x = i∈I αi vi ∈ S
i∈I αiP
e y = β wj ∈ T . Luego V = S + T . Si v ∈ S ∩ T , se tiene que
P j∈J j P P P
v = i∈I αi vi = j∈J βj wj de donde i∈I αi vi + j∈J (−βj ) wj = 0, y por
la independencia lineal de β, resulta que αi = 0 para toda i ∈ I y βj = 0
para toda j ∈ J, de donde v = 0 y S ∩ T = {0}. 
Definición 3.105. Sea V un K-espacio vectorial y sea S ⊆ V un subespacio
de V . Diremos que T es un complemento de S si S ⊕ T = V .
Ejemplo 3.106. Hallar un complemento de Rn [X] en R [X].
Solución. Buscamos un subespacio S de R [X] tal que R [X] = Rn [X]⊕S,
es decir, R [X] = Rn [X] + S y Rn [X]
∩ S = {0}. Se tiene
que Rn [X] =
h1, X, . . . , X n i . Consideremos S = X n+1 , . . . , X j , . . . = X i i≥n+1 . Es
90 3. Espacios Vectoriales

claro que Rn [X] + S = R [X]. Si f ∈ Rn [X] ∩ S, entonces f = 0 o el


grado f ≤ n, y además f = hi=n+1 ai X i con ai ∈ R. Luego f = 0. En
P
consecuencia, R [X] = Rn [X] ⊕ S.

3.7. Rango de un producto de matrices


Teorema 3.107 (Rango de un producto de matrices). Si A ∈ Mm×n y
B ∈ Mn×p , entonces:
rango(AB) = rango(B) − rango(N ul(A) ∩ F il(B))

Demostración. Sea RS = {x1 , . . . , xs } una base para N ul(A) ∩ F il(B).


Claramente, N ul(A) F il(B) ⊆ F il(B). Supongamos que dim F il(B) =
s + t y extendamos la base S a una base de F il(B), digamos:
S 0 = {x1 , . . . , xs , z1 , . . . , zt }
Demostraremos que dim R(AB) = t, mostrando que T = {Az1 , . . . , Azt } es
una base para F il(A). En efecto, si b ∈ F il(AB), entonces b = ABy para
algún y. Pero By ∈ F il(B) implica que By = si=1 ci xi + ti=1 di zi para
P P
algunos escalares ci , di . Luego
s t s t t
!
X X X X X
b=A ci xi + di zi = ci Axi + di Azi = di Azi ,
i=1 i=1 i=1 i=1 i=1

ya que S ⊂ N ul(A) ∩ F il(B) ⊆ F il(A). Ası́, T genera a F il(AB).


Supongamos ahora que existen escalares α1 , . . . , αt tales que:
t t
!
X X
0= αi Azi = A αi zi .
i=1 i=1
Pt
Entonces i=1 αi ziP∈ N ul(A) P
∩ F il(B), de modo que existen escalares
β1 , . . . , βs tales que ti=1 αi zi = sj=1 βj xj , es decir, ti=1 αi zi − sj=1 βj xj =
P P

0. Como S 0 es un conjunto linealmente independiente, resulta que αi = 0


y βj = 0 para todo i = 1, . . . , t y todo j = 1, . . . , s. Ası́, T es linealmen-
te independiente. Por lo tanto, T es una base para F il(AB), de modo que
t = dim F il(AB) = rango(AB) y de aquı́ se obtiene que:
rango(AB) = dim F il(B) = s + t = dim (N ul(A) ∩ F il(B)) + rango(AB).


Teorema 3.108. [Teorema de Kronecker-Capelli] Un sistema de ecuaciones
lineales Ax = b es consistente si y sólo si el rango de la matriz del sistema
es igual al rango de la matriz aumentada.

La prueba del Teorema 3.108 será hecha en Sección 3.5.


3.8. Exercises 91

Corolario 3.109. Un sistema de ecuaciones lineales es consistente deter-


minado (tiene una solución única) si y sólo si son iguales los siguientes
números: el rango de la matriz del sistema, el rango de la matriz aumentada
y el número de las incógnitas.

Demostración. Suponemos que el sistema es consistente, i.e. el rango de


la matriz del sistema es igual al rango de la matriz aumentada. Haciendo
operaciones lineales de filas, reducimos la matriz del sistema a una forma
escalonada reducida. Como los rangos son iguales, la matriz aumentada tam-
bién será de forma escalonada reducida. Ahora el sistema tiene una solución
única si y solamente si no hay incógnitas libres si y solamente si el número
de las incógnitas es igual al número de elementos pivotes = número de las
filas no nulas = rango de la matriz. 
Problema 3.110. Consideremos el caso cuando m < n (el número de
las ecuaciones es menor que el número de las incógnitas). En este caso
rango(A) ≤ m < n, y el sistema no puede ser consistente determinado.
Son posibles dos casos: A puede ser consistente indeterminado o puede ser
inconsistente. Dar ejemplos de ambos casos.

Terminamos esta sección dando una demostración del Teorema de Kronecker-


Capelli.

Prueba del Teorema 3.108. Para abreviar, usemos la notación aj := A∗,j .


Tenemos una cadena de condiciones equivalentes: el sistema de ecuaciones
lineales Ax = b es consistente si y solamente si existe x = (x1 , . . . , xn ) ∈ K n
tal que x1 a1 + · · · + xn an = b si y solamente si b ∈ ha1 , . . . , an i si y sola-
mente si ha1 , . . . , an i = ha1 , . . . , an , bi si y solamente si dimha1 , . . . , an i =
dim ha1 , . . . , an , bi si y solamente si rango(a1 , . . . , an ) = rango (a1 , . . . , an , b).


3.8. Exercises
3.1 Sea V un Q-espacio vectorial donde Q es el campo de racionales. Sea
v ∈ V . Calcule lo siguiente:
a) v + v
b) v − v + 3v − 12v
c) 1 − 3 + 25 + 0 v − 34 v
3.2 Cuál es el vector cero en K n ? En Mn×m (K)? En K [x]? En K C ? En
K N?
3.3 Sean V = Q2 y S = 2a, − 13 a | a ∈ Q . Demuestre que S es un
 

subespacio de V sobre Q.
3.4 En cada caso, diga si el conjunto de vectores dado genera a Q3 sobre
Q:
92 3. Espacios Vectoriales

a) (1, 0, 0) y (0, 1, 0) .
b) (1, 0, 0), (1, 0, 0) y (0, 0, 1).
c) (1, 0, 0), (0, 0, 1) y (0, 1, 0).
d) (1, 1, 0), (0, 0, 1) y (0, 1, 0) .
e) (2, 0, 0), (0, 0, 3) y (0, 4, 0).
f) (1, 2, 3), (−2, 4, 6) y (4, 5, 6) .
3.5 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) R es un Q-espacio vectorial.
b) M3×2 (C) es un Q-espacio vectorial.
c) Q [x] es un R-espacio vectorial.
d ) Sea V un K-EV y sea v ∈ V . Si v + v = 0, entonces v = 0.
e) Para cualquier v ∈ V , 0 − v = −v.
f ) El conjunto vacı́o es un subespacio de cualquier espacio vectorial,
pues es vacuamente cerrado bajo sumas y bajo multiplicación
por escalares de cualquier campo.
g) Sean v1 , . . . , v vectores en un espacio vectorial V . Entonces cada
uno de los vi es una combinación lineal de v1 , . . . , vn .
h) Considere a C como Q-espacio vectorial. Entonces R es un subes-
pacio vectorial de C sobre Q.
3.6 Sea a un escalar cualquiera y 0 el vector cero. Demuestre que a0 = 0.
3.7 Sea V un K-espacio vectorial, y sean v ∈ V, a ∈ K. Demuestre que
si av = 0, entonces a = 0 o v = 0.
3.8 Sean K un campo, V un K-espacio vectorial, y v ∈ V un vector no
nulo. Demuestre que son equivalentes las siguientes afirmaciones:
a) El campo K es tal que 1 + 1 = 0 en K.
b) 1 = −1.
c) v + v = 0.
d ) −v = v.
3.9 Sea V un K-espacio vectorial, y sea v ∈ V . Sea S = {av | a ∈ K},
es decir, S es el conjunto de todos los múltiplos escalares del vector
v. Demuestre que S es un subespacio de V . Usualmente denotamos
a este subespacio Kv, y lo llamamos el subespacio generado por el
vector v .
3.10 Sea K un campo y considere a K como un espacio vectorial sobre sı́
mismo. Demuestre que los únicos subespacios de K sobre sı́ mismo
son el subespacio cero y el subespacio total.
3.11 *Sean V un K-espacio vectorial y C1 , . . . , Cn una familia de sub-
conjuntos no vacı́os de V . Definimos la suma de los subconjuntos
3.8. Exercises 93

Pn
C1 , . . . , Cn denotada C1 + · · · + Cn o i=1 Ci , como el conjunto
C1 + · · · + Cn = {x1 + · · · + xn | xi ∈ Ci } .
Demuestre que si S1 , . . . , Sn son subespacios de V , entonces su suma
S1 + · · · + Sn es un subespacio de V .
3.12 Sea A una matriz de n × m con entradas en un campo K. Demuestre
que las columnas de la matriz A generan a K n si y sólo si para todo
vector columna Y en K n el sistema AX = Y es consistente.
3.13 En cada caso, determine si el subconjunto de R3 dado es linealmente
independiente sobre R o no.
a) {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)}
b) {(1, 0, 0) , (0, 1, 0) , (0, 0, 1) , (1, 2, 3)}
c) {(1, 0, 0) , (0, 1, 0)}
d ) {(1, 1, 0) , (2, 2, 0)}
e) {(1, −2, 3) , (4, 5, −1) , (6, 1, 5)}
f ) {(1, −2, 3) , (4, 5, −1) , (6, 1, 6)}
3.14 Sea K un campo arbitrario, y sea V = 0 el K espacio vectorial nulo.
Calcule todos los subconjuntos de V que sean linealmente indepen-
dientes.
3.15 Sea K un campo arbitrario, y sea V = K. Calcule todos los subcon-
juntos de V que sean linealmente independientes.
3.16 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) Sea V un K-espacio vectorial. Entonces el conjunto vacı́o es un
subconjunto linealmente independiente de V .
b) Sea V un K-espacio vectorial. Entonces V es un subconjunto
linealmente independiente de V .
c) Sea V un K-espacio vectorial, y sea C un subconjunto finito de
V . Entonces C es linealmente independiente sobre K.
3.17 Sea V un K-espacio vectorial, y sea C un subconjunto de V que
contiene al vector cero. Demuestre que C es linealmente dependiente.
3.18 Sea C = {1, i} subconjunto de C. Demuestre que C es linealmente
dependiente sobre C, pero que C es linealmente independiente sobre
R.
3.19 Sea V un K-espacio vectorial, y sean C un subconjunto de V y D
un subconjunto de C.
a) Demuestre que si D es linealmente dependiente sobre K, enton-
ces C es linealmente dependiente sobre K.
b) Demuestre que si C es linealmente independiente sobre K, en-
tonces D es linealmente independiente sobre K.
94 3. Espacios Vectoriales

3.20 Probar en cada caso que el conjunto V con la suma y el producto


por escalares definidos
 es un espacio vectorial sobre K.
a) V = K = (ai )i∈N = (a1 , a2 , . . . , an , . . .) : ai ∈ K para toda i ∈ N ,
N

el conjunto de todas las sucesiones de elementos de K (donde K


es un cuerpo cualquiera). Con las operaciones definidas por:
(ai )i∈N + (bi )i∈N = (ai + bi )i∈N ,
k · (ai )i∈N = (kai )i∈N con k ∈ K.
b) V = R>0 , K = Q.
a ⊕ b = a · b,
m √
⊗ a = n am .
n
3.21 Probar que R2 es un R-espacio vectorial con la suma +(2,1) y el
producto por escalares ◦(2,1) definidos de la siguiente forma:

(x, y) +(2,1) x0 , y 0 = x + x0 − 2, y + y 0 − 1
 

r ◦(2,1) (x, y) = r (x − 2, y − 1) + (2, 1)

(Este espacio se denota como R2(2,1) para distinguirlo de R2 con la


suma y el producto usual. La notación se basa en que el (2, 1) resulta
ser el neutro de la suma +(2,1) ).
3.22 Encontrar un subconjunto no vacı́o de R2 que sea cerrado para la
suma y para la resta pero no para la multiplicación por escalares.
¿Puede encontrar un subconjunto no vacı́o de R2 que sea cerrado
para la multiplicación por escalares pero no para la suma.
3.23 Para cada uno de los siguientes subconjuntos de R2 cheque si este
conjuntoes un subespacio vectorial de R2 o no:
2

a) S = (x1 , x2 ) ∈ R : x1 = c donde c es un número real fijo.
2
b) S = (x1 , x2) ∈ R : x1 + x2 ≥ 0 .
c) S = Q2 = (x1 , x2 ) ∈ R2 : x1 , x2 ∈ Q , esto es, el conjunto de
todos los pares con componentes racionales.
d ) S = (x1 , x2 ) ∈ R2 : x1 = x2 .

e) S = (x1 , x2 ) ∈ R2 : |x1 | = |x2 | .


f ) S = (x1 , x2 ) ∈ R2 : x2 = x1 + 5 .
3.24 Para cada uno de los siguientes subconjuntos de C2 cheque si este
conjuntoes un subespacio vectorial de C2 :
a) S = (z1 , z2 ) ∈ C2 : Re (z1 ) = Im (z2 ) .
b) S = (z1 , z2 ) ∈ C2 : Re (z1 ) = Re (z2 ) .
3.25 Sean S y T subespacios de un K-espacio vectorial V . Probar que
S ∪ T es un subespacio de V si y solamente si S ⊂ T ó T ⊂ S.
3.8. Exercises 95

3.26 Sean a1 , a2 , a3 , b1 , b2 los siguientes vectores de R3 :


         
3 1 −6 −1 1
a1 =  2  , a2 =  −2  , a3 =  4  , b1 =  −6  , b2 =  −4 
3 0 −3 −3 −3

Cheque si b1 ∈ ha1 , a2 , a3 i. Cheque si b2 ∈ ha1 , a2 , a3 i.


3.27 Halle todos los valores del parámetro λ tales que b ∈ ha1 , a2 , a3 i,
donde
       
1 1 2 1
a1 =  −1 , a2 =
  2 , a3 =
  1  ,b =  5 .
1 2 λ 1

3.28 Decidir cuáles de las siguientes afirmaciones son verdaderas y cuáles


falsas.
a) Sea V un K-espacio vectorial y sean v, w ∈ V , k ∈ K. Entonces
hv, wi = hv, w + kvi
b) Sean v1 , v2 , v3 , v4 , w ∈ R7 tales que hv1 , v2 , wi = hv3 , v4 , wi. En-
tonces hv1 , v2 i = hv3 , v4 i.
c) Sea V un R-espacio vectorial y sean v1 , v2 , v3 ∈ V . Probar que
si v1 + 3v2 − v3 = 0 = 2v1 − v2 − v3 entonces hv1 , v2 , v3 i = hv3 i.
3.29 Sean A, B conjuntos finitos de vectores de un K-espacio vectorial V .
Suponga que B ⊂ hAi y c ∈ hBi. Demuestre que c ∈ hAi.
3.30 Encontrar un conjunto de generadores para los siguientes espacios
vectoriales sobre K.
a) S1 = (x, y, z) ∈ R3 : x + y − z = 0, x − y = 0 , K = R.

b) S2 = {A ∈ M3 (Q) : Aij = −Aji para toda i, j} , K = R.


c) S3 = {f ∈ C ∞ (R) : f 000 = 0} , K = R.
3.31 Determinar si v ∈ S en cada uno de los siguientes casos:
a) v = (1, 2, −1) , S = h(1, 3, 2) , (2, 0, 1) , (1, 1, 1)i ⊂ R3 .
b) v = (1, 0, −1, 3), S = h(1, 0, 1, 0) , (2, 1, 0, 1) , (0, 1, 0 − 2)i ⊂ R4 .
3.32 Sea h(1, −1, 2, 1) , (3, 1, 0, −1) , (1, 1, −1, −1)i ⊂ R4 .
a) Determinar si (2,  1, 3, 5) ∈ S.
b) Determinar si x ∈R4 : x1 − x2 − x3 = 0 ⊂ S.

c) Determinar si S ⊂ x ∈ R4 : x1 − x2 − x3 = 0 .

3.33 Hallar un sistema de generadores para S ∩ T como subespacio de V


en cada uno de los siguientes casos:
a) V = R3 , S = {(x, y, z) : 3x − 2y + z = 0} , T = {(x, y, z) : x + z = 0} .
b) V = R3 , S = {(x, y, z) : 3x − 2y + z = 0} , T = h(1, 1, 0) , (5, 7, 3)i .
c) V = R3 , S = h(1, 1, 3) , (1, 3, 5) , (6, 12, 24)i , T = h(1, 1, 0) , (3, 2, 1)i .
d ) V ∈ M3 (R) , S = {(xij ) : xij = xji para toda i, j} , T = {(xij ) : x11 + x12 + x13 = 0} .
96 3. Espacios Vectoriales

3.34 Sean S1 y S2 subespacios de un K-espacio vectorial V , generados


por conjuntos finitos β1 y β2 respectivamente, i.e.,
S1 = hβ1 i y S2 = hβ2 i .
Entonces
S1 + S2 = S1 = hβ1 ∪ β2 i .
3.35 En clase mostramos que si S1 y S2 son subespacios de un K-espacio
vectorial V , entonces S1 ∩ S2 es un subespacio de V . De un ejemplo
de conjuntos finitos de vectores β1 , β2 ⊂ R3 tales que
hβ1 i ∩ hβ2 i =
6 hβ1 ∩ β2 i
3.36 Sea K un campo. Considere el espacio de las matrices de n × n sobre
un campo K, i.e., V = Mn (K). Sea S1 el espacio de las matrices
triangulares superiores y S2 el espacio de las matrices triangulares
inferiores. Halle explı́citamente S1 + S2 y S1 ∩ S2 . ¿Puede encontrar
un conjunto de vectores que generen a S1 ? ¿y a S2 ?
3.37 En clase estudiamos el “Criterio de un sistema independiente” y nos
faltaron demostrar algunas implicaciones. Demuestra las implicacio-
nes faltantes, es decir, (a) ⇒ (d) y (d) ⇒ (b).
3.38 Determine si el siguiente sistema en R3 es linealmente dependiente
o no:
a = (1, −1, 2) , b = (1, 2, −2) , c = (3, 1, 1) .
3.39 Hallar todos los k ∈ R para los cuales {v1 , v2 , v3 } ⊂ V es un conjunto
linealmente independiente en los siguientes casos:
a) {(1, 2, k) , (1, 1, 1) , (0, 1, 1 − k)} ⊂ R3 .
b) {(k, 3.
 1, 0) , (3,−1,  2) , (k, 2,−2)}
 ⊂ R 
1 k k 1 0 0
c) , , ⊂ M2 (R) .
−1 2 0 2k 1 0
3.40 Sean v1 , v2 , . . . , vn ∈ Rn . Probar que {v1 , v2 , . . . , vn } son linealmente
independientes sobre R si y solamente si {v1 , v2 , . . . , vn } son lineal-
mente independientes sobre C.
3.41 Sea A ∈ Mm×n (K) con K un campo. El conjunto de las colum-
nas de A es linealmente dependiente si y solamente si el sistema de
ecuaciones lineales homogéneas Ax = 0 tiene una solución no trivial.
3.42 Determine si el siguiente sistema en R4 es linealmente dependiente
o no:
a1 = (−1, 2, 1, 3) , a2 = (3, 1, −2, 2) , a3 = (1, 5, 0, 8) .
3.43 Demuestre que el sistema de polinomios f0 (x) = 1, f1 (x) = x, f2 (x) =
x2 es linealmente independiente en el espacio de polinomios con co-
eficientes reales.
3.8. Exercises 97

3.44 Determine si el siguiente conjunto en el espacio de polinomios con


coeficientes reales es linealmente dependiente o no:
f1 (x) = −x2 + 2x + 3, f2 (x) = x2 − x + 2; f3 (x) = 2x2 + 3x + 1.
3.45 En el espacio C[0, 1] de las funciones continuas en el intervalo [0, 1]
consideremos dos elementos:
f (t) = et y g(t) = e3t .
¿El conjunto {f (t) , g (t)} es linealmente independiente?
3.46 Sean V un R-espacio vectorial y u1 , u2 ∈ V,
v1 = 3u1 − 4u2 , v2 = 5u1 + 3u2 , v3 = 2u1 + u2 , v4 = 4u1 + 3u2 .
Muestre de manera explı́cita que el conjunto de vectores {v1 , v2 , v3 , v4 }
es linealmente dependiente, esto es, encuentre coeficientes λ1 , λ2 , λ3 , λ4
no todos iguales a cero tales que
λ1 v1 + λ2 v2 + λ3 v3 + λ4 v4 = 0.
3.47 Considere las bases β = {(1, 2) , (3, 1)} y γ = {(4, 5) , (2, 8)} de R2 .
Calcule el vector de coordenadas de cada elemento de γ con respecto
a la base β, y el vector de coordenadas de cada elemento de β con
respecto a la base de γ.
3.48 Considere las bases β = {(1, 0, 0) , (0, 1, 0) , (0, 0, 1)} y γ = {(1, 0, 2) , (2, 0, 3) , (0, 4, 0)}
de R2 . Calcule el vector de coordenadas de cada elemento de γ con
respecto a la base β, y el vector de coordenadas de cada elemento
de β con respecto a la base de γ.
3.49 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) Dos bases ordenadas finitas del mismo espacio vectorial siempre
tienen los mismos elementos.
b) Si dos bases ordenadas finitas constan de los mismos vectores
pero en desorden, entonces los vectores coordenada con respecto
a dichas bases tienen las mismas entradas, pero en desorden.
3.50 Sea β una base ordenada de un espacio vectorial V , y sea v un vector
en V . Demuestre que v es un elemento de la base ordenada β si y sólo
si el vector de coordenadas de v con respecto a β tiene una entrada
igual a uno y las demás iguales a cero.
3.51 Sea β una base ordenada de un espacio vectorial V , sean v1 , . . . , vm
vectores en V , y sean a1 , . . . , am escalares en K. Demuestre que
[a1 v1 + · · · + am vm ]β = a1 [v1 ]β + · · · + am [vm ]β .
Es decir, el vector de coordenadas de una combinación lineal es la
correspondiente combinación lineal de los vectores de coordenadas.
98 3. Espacios Vectoriales

3.52 Demuestre que un vector v tiene vector de coordenadas cero en una


base ordenada β si y sólo si v es el vector cero.
3.53 Determina si los siguientes enunciados son verdadero o falso. (Justifi-
que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) R es de dimensión finita como Q-espacio vectorial.
b) C es de dimensión finita como Q-espacio vectorial.
c) C es de dimensión finita como R-espacio vectorial.
d ) Todo subconjunto linealmente independiente de V es base de V .
e) Todo subconjunto linealmente dependiente de V genera a V .
f ) Todo subconjunto que genera a V es linealmente dependiente.
g) Todo subconjunto linealmente independiente de V está conteni-
do en cualquier conjunto que genera a V .
3.54 Considere la matriz escalonada reducida sobre Q
 
1 2 0 −5
A= .
0 0 1 −7
Demuestre que el conjunto solución del sistema homogéneo AX = 0
es
{(5s − 2t, t, 7s, s) | t, s ∈ Q} .
Note también que (5s − 2t, t, 7s, s) = s (5, 0, 7, 1) + t (−2, 1, 0, 0). De-
muestre que {(5, 0, 7, 1) , (−2, 1, 0, 0)} es una base del conjunto solu-
ción sobre Q.
3.55 Sea K un campo y A ∈ Mn×m (K). Demuestre que la dimensión del
espacio solución del sistema homogéneo AX = 0 es igual al número
de variables libres de la forma escalonada reducida de la matriz A.
Diga cómo construir una base explı́cita de dicho espacio solución.
3.56 Sea V un K-espacio vectorial de dimensión finita, y sea S un subes-
pacio de V .
a) Demuestre que toda base de S se puede extender a una base de
V.
b) Demuestre que la dimensión de S es menor o igual a la dimensión
de V .
c) Demuestre que la dimensión de S es igual a la dimensión de V
si y sólo si S = V .
3.57 Sea A ∈ Mn×m (K) con K un campo. Sea S el subespacio de K m
generado por los renglones de A. Demuestre que si se realiza una
operación elemental de renglón a A, los renglones de la nueva matriz
siguen generando a S.
3.58 Sea A ∈ Mn×m (K) con K un campo. Suponga que los renglones de
A son linealmente independientes sobre K (vistos como un conjunto
3.8. Exercises 99

de vectores en K m ). Demuestre que si se realiza una operación ele-


mental de renglón a A, los renglones de la nueva matriz siguen siendo
un conjunto de vectores de K m linealmente independientes sobre K.
Concluya que si A es cuadrada y sus renglones son un conjunto de
vectores de K n linealmente independiente sobre K, entonces A es
invertible.
3.59 Sea V un K-espacio vectorial de dimensión finita, y sean S y R
subespacios de V . Demuestre que S + R y S ∩ R son subespacios de
V de dimensión finita, y
dimK (S + R) + dimK (S ∩ R) = dimK (S) + dimK (R).
Capı́tulo 4

Transformaciones
Lineales

Las transformaciones lineales son las funciones con las que trabajaremos
en Álgebra Lineal. Se trata de funciones entre K-espacios vectoriales que son
compatibles con la estructura (es decir, con la operación y la multiplicación)
de estos espacios.

4.1. Transformaciones Lineales


En esta sección introduciremos la noción de transformación lineal, ası́
como también ciertas nociones básicas asociadas a estas funciones. En lo que
sigue, K es un campo de escalares.

Definición 4.1. Sean V y W dos espacios vectoriales sobre K y sea f :


V → W una función. Entonces f es llamado una transformación lineal o
transformación lineal si satisface las siguientes dos condiciones:
para todos los vectores v1 , v2 ∈ V,
f (v1 + v2 ) = f (v1 ) + f (v2 ) .
Coloquialmente decimos que la transformación “abre sumas”.
para todos los vectores v ∈ V y escalares t ∈ K,
f (tv) = tf (v) .
Coloquialmente decimos que la transformación “saca escalares”.
Estas dos condiciones juntas son equivalentes a la siguiente única solu-
ción

101
102 4. Transformaciones Lineales

para todos los vectores v1 , v2 ∈ V, y escalares s, t ∈ K


f (sv1 + tv2 ) = sf (v1 ) + tf (v2 ) .
Si V = W entonces la transformación lineal recibe el nombre de operador
lineal.
Ejemplo 4.2. La función 0 : V −→ W definida por 0f (v) = 0W que mapea
todos los elementos del espacio vectorial V al elemento cero del espacio
W , es claramente una transformación lineal, llamada por razones obvias la
transformación cero.
Ejemplo 4.3. La función 1V : V −→ V definida por 1V (v) = v para toda
v ∈ V es un operador lineal denominado operador identidad sobre V .
Ejemplo 4.4. f : R2 −→ R2 dada por f (x, y) = (y, x) es un operador lineal
en R2 .
Ejemplo 4.5. La aplicación T : R2 −→ R2 definida por
T (x1 , x2 ) = (x21 , x2 )
no es una transformación lineal. Mostremos con un ejemplo concreto que no
saca escalares:
T (2 · (1, 0)) = T (2, 0) = (4, 0),
2T (1, 0) = 2 · (1, 0),
y por lo tanto,
T (2 · (1, 0)) 6= 2 · T (1, 0).
Ejemplo 4.6. La multiplicación por la izquierda por una matriz fija A ∈
Mn×m es una transformación lineal de Mm×t (K) en Mn×t (K), que manda
a B en AB.
Ejemplo 4.7. La multiplicación por la derecha por una matriz fija A ∈
Mn×m es una transformación lineal de Mm×t (K) en Mm×n (K), que manda
a B en BA.
Ejemplo 4.8. Observe que si A es una matriz de tamaño n, entonces la
transformación lineal del Ejemplo 4.19 es un operador lineal.
Problema 4.9. Muestre que la siguiente función es lineal:
T : Mn −→ Mn
T (A) = AT
Problema 4.10. Sea D el conjunto de todas las funciones diferenciables y F
el conjunto de todas las funciones reales de variable real. Defina la siguiente
4.1. Transformaciones Lineales 103

función:
D : D −→ F
D (f ) = f 0
Muestre que D es lineal.
Problema 4.11. Sea C [a, b] el espacio de las funciones continuas sobre el
intervalo [a, b]. Defina
S : C [a, b] −→ R
Z b
S (f ) : f (x) dx
a
Demuestre que S es lineal.

4.1.1. La transformación lineal vector de coordenadas. Se definen


las bases ordenadas y el vector de coordenadas.
Definición 4.12. Sea V un K-espacio vectorial de dimensión finita. Una
base ordenada de V es una sucesión de vectores β1 , . . . , βn de V que es
linealmente independiente y genera a V .
Comentario 4.13. La diferencia entre una base y una base ordenada es
que en la base ordenada establecemos un orden en los vectores de la base.
Ejemplo 4.14. Una base ordenada de K 2 es (1, 0) y (0, 1). Una base orde-
nada distinta es (0, 1) y (1, 0). Note que estas dos bases ordenadas forman
el mismo conjunto.
Ejemplo 4.15. La base ordenada canónica de K n es e1 , . . . , en en ese orden,
donde ei es el vector que tiene un uno en el lugar i y cero en las demás
entradas.
Ejemplo 4.16. Otra posible base ordenada de R2 es (1, 1) y (2, 3). Como
R2 es de dimensión 2, basta demostrar que dichos vectores generan a R2 ,
para lo que basta demostrar que generan a la base canónica. Note que
(1, 0) = 3 (1, 1) − (2, 3) ,
(0, 1) = (2, 3) − 2 (1, 1) .
Proposición 4.17. Sea V un K-espacio vectorial de dimensión finita, y sea
β = {β1 , . . . , βn } una base ordenada de V . Entonces para cualquier vector
v ∈ V , existen escalares únicos a1 , . . . , an ∈ K tales que v = a1 β1 + · · · +
an βn . El escalar ai se llama la i-ésima coordenada con respecto a la base
ordenada β. El vector (a1 , . . . , an ) se llama el vector de coordenadas de v con
respecto a la base β1 , . . . , βn y se denota [v]β . Dicho vector de coordenadas
se considera usualmente como un vector columna, aunque comúnmente se
denote (a1 , . . . , an ).
104 4. Transformaciones Lineales

Demostración. La existencia de los escalares a1 , . . . , an se sigue de que


β es una base y por lo tanto, genera a V . La unicidad es consecuencia P de
que
P dichos vectores sean linealmenteP independientes. En efecto, si ai βi =
bi βi , restando nos queda que (ai − bi ) βi es el vector cero; como β es
una base, en particular, sus vectores son linealmente independientes, se sigue
que ai − bi = 0 para toda i. 
Ejemplo 4.18. En el Ejercicio 5 de la Lista 10 mostramos que el vector
de coordenadas en una base ordenada β de un K−espacio vectorial V de
dimensión n es una transformación lineal de
[?]β : V −→ K n .
De hecho, se puede decir más: [?]β es biyectiva (¿porqué?).

4.1.2. La transformación lineal asociada a una matriz. El próximo


ejemplo introduce un importante tipo de transformación lineal asociado a
una matriz.
Ejemplo 4.19. Si A ∈ Mm×n es una matriz de m × n. Defina fA : K n −→
K m por la regla
fA (x) = Ax.
Entonces para s, t ∈ K y u, v ∈ K n ,
fA (su + tv) = A (su + tv) = sAu + tAv = sfA (u) + tfA (v) .
De aquı́, fA es lineal. Y llamamos a fA la transformación lineal inducido por
A.
Observe que los vectores de la base canónica e1 , . . . , en (vistos como
vectores columna) satisfacen
fA (ej ) = j − ésima columna de A,
de aquı́,
A = (fA (e1 ) | fA (e2 ) | · · · | fA (en )) = [Ae1 , Ae2 , . . . , Aen ] .
Ahora, fácilmente se sigue que fA (e1 ) , fA (e2 ) , . . . , fA (en ) generan Im fA
dado que cada elemento del último es una combinación lineal de fA (e1 ) , fA (e2 ) , . . . , fA (en ).

4.1.3. El espacio vectorial de las transformaciones lineales. Sean


V y W dos K−espacios vectoriales. El conjunto de todas las transformacio-
nes lineales f : V −→ W será denotado por HomK (V, W ) (en la literatura,
también es denotado por L (V, W )).
Teorema 4.20. HomK (V, W ) es un K−espacio vectorial con las operacio-
nes definidas de la siguiente manera:
+ : HomK (V, W ) ×HomK (V, W ) −→ HomK (V, W )
(f, g) 7→ f +g
4.1. Transformaciones Lineales 105

donde f + g ∈HomK (V, W ) es tal que f + g : V −→ W, (f + g) (v) 7→


f (v) + g (v) para v ∈ V . Y
· : K × L (V, W ) −→ HomK (V, W )
(s, f ) 7→ sf
donde sf ∈HomK (V, W ) es tal que sf : V −→ W, (sf ) (v) = sf (v).

Demostración. f + g abre sumas: sean v, u ∈ V . Tenemos que


(f + g)(v + u) = f (v + u) + g(v + u)
= [f (v) + f (u)] + [g(v) + g(u)]
= f (v) + g(v) + f (u) + g(u)
= (f + g)(v) + (f + g)(u).
f + g saca escalares:
(f + g)(av) = f (av) + g(av) = af (v) + ag(v)
= a[f (v) + g(v)] = a[(f + g)(v)];
por lo tanto, f + g es una transformación lineal. Hagamos lo mismo con sf .
sf abre sumas: sean v, u ∈ V . Tenemos que:
(sf )(v + u) = s[f (v + u)] = s[f (v) + f (u)]
= sf (v) + sf (u) = (sf )(v) + (sf )(u).
sf saca escalares:
(sf )(bv) = s[f (bv)] = s[bf (v)] = [sb]f (v)
= [bs]f (v) = b[sf (v)] = b[(sf )(v)];
por lo tanto, sf es una transformación lineal. Finalmente, el hecho de que
con estas operaciones de suma y multiplicación por escalares HomK (V, W )
sea un K-espacio vectorial, se sigue de que las propiedades necesarias para
HomK (V, W ) se heredan de V y W . Por ejemplo, f + g = g + f porque
f (v) + g(v) = g(v) + f (v). 

4.1.4. Composición de transformaciones lineales. La composición


de funciones usual puede realizarse, en particular, entre dos funciones linea-
les. El resultado es, en este caso, una nueva transformación lineal.
Teorema 4.21. Sea f : V −→ W y g : U −→ V dos transformación lineales
entre los K-espacios vectorial U, V, W . Entonces la composición f ◦g : U −→
W es también una transformación lineal.

Demostración. Para s, t ∈ K y u1 , u2 ∈ U tenemos que mostrar que


(f ◦ g) (su1 + tu2 ) = s (f ◦ g) (u1 ) + t (f ◦ g) (u2 ) .
106 4. Transformaciones Lineales

Usando el hecho que f y g son lineales tenemos


(f ◦ g) (su1 + tu2 ) = f (g (su1 + tu2 ))
= f (sg (u1 ) + tg (u2 ))
= sf (g (u1 )) + tf (g (u2 ))
= s (f ◦ g) (u1 ) + t (f ◦ g) (u2 ) .


4.2. Propiedades básicas


La linealidad de las funciones que estudiamos en Álgebra Lineal tiene la
siguiente propiedad:

Teorema 4.22. Si f : V → W es una transformación lineal, entonces


f (0V ) = 0W .

Demostración. Tenemos que:


0W + f (0V ) = f (0V ) = f (0V + 0V ) = f (0V ) + f (0V )
Y se sigue entonces que f (0V ) = 0W . 

Si f : V → W es una transformación lineal, ingenueamente podemos


pensar que f (−v) = −f (v) se satisface trivialmente al “sacar ”el (−1).
Pienselo un momento y Ádese cuenta de su error! Sin embargo, la afirmación
es cierta y lo mostramos a continuación.

Teorema 4.23. Si f : V → W es una transformación lineal, entonces


f (−v) = −f (v) .

Demostración. Para cada v ∈ V existe −v ∈ V tal que v + (−v) = 0.


Luego,
0 = f (0) = f (v + (−v)) = f (v) + f (−v) ,
Por lo tanto, f (−v) = −f (v). 

De la Definición 4.1 se deduce inmediatamente que una transformación


lineal preserva combinaciones lineales.

Teorema 4.24. f : V −→ W es una transformación lineal si y solamente


si f “preserva combinaciones lineales”, esto es,
n n
!
X X
f ai vi = ai f (vi )
i=1 i=1
4.3. Construcción de transformaciones lineales 107

4.3. Construcción de transformaciones lineales


El Teorema 4.25 nos permite construir transformaciones lineales sobre
espacios vectoriales de dimensión finita.
Teorema 4.25. (Propiedad universal de las bases) Sean V y W espacios
vectoriales sobre un campo K. Suponga que V es de dimensión finita y que
β = {v1 , . . . , vn } es una base de V . Sean w1 , . . . , wn vectores arbitrarios de
W . Entonces existe una única transformación lineal f : V −→ W tal que
f (vi ) = wi para i = 1, . . . , n.

Demostración. Dado v ∈ V , sea [v]β = (x1 , . . . , xn )T ∈ K n . Definimos


n
X
f (v) = x i wi .
i=1

Es fácil verificar que f es lineal y satisface las condiciones pedidas (se deja
como ejercicio al lector). Supongamos ahora que g : V −→ W es P una trans-
formación lineal tal que g (vi ) = wi para i = 1, . . . , n. Como v = xi vi y g
es lineal, tenemos que
n n n
!
X X X
g (v) = g xi vi = xi g (vi ) = xi wi = f (v) .
i=1 i=1 i=1

Como el vector v fue arbitrario, concluimos que f = g. 

En particular, el Teorema 4.25 nos dice que una transformación lineal


queda unı́vocamente determinada por los valores que toma en los elementos
de una base cualquiera de su dominio.
Ejemplo 4.26. Calcule la única transformación lineal de1
f : R [t]2 −→ R2
tal que f (v1 ) = −e1 , f (v2 ) = 2e1 + e2 y f (v3 ) = e1 + 3e2 donde v1 = 1, v2 =
1 + t y v3 = 1 + t + t 2 .
Como el conjunto β = {v1 , v2 , v3 } es una base para R [t]2 (¿porqué?), se
puede aplicar el Teorema 4.25. Sea v = a + bt + ct2 ∈ R [t]2 . El primer paso
consiste en calcular [v]β . Al hacerlo se obtiene que:
 
a−b
[v]β =  b − c  .
c

1Recuerde que R [t] es el conjunto de polinomios de grado a lo más 2.


2
108 4. Transformaciones Lineales

Entonces la función pedida se define como:


     
2
 −1 2 1
f a + bt + ct = (a − b) + (b − c) +c
0 1 3
 
−a + 3b − c
= .
c + 2c
Problema 4.27. Hallar, si es posible, una transformación lineal f : R2 −→
R2 tal que        
1 0 1 2
f = yf = .
1 1 0 3

4.4. Núcleo e imagen de una transformación lineal


A una transformación lineal f : V −→ W podemos asociarle un subes-
pacio de V , llamado su núcleo. En particular, conocer este subespacio nos
permitirá determinar si f es inyectiva.
Definición 4.28. Sea f : V −→ W una transformación lineal. Entonces
El kernel (o núcleo o espacio nulo) de f es el subconjunto de V :
ker (f ) = {v ∈ V | f (v) = 0}
La imagen de f es el subconjunto de W :
Im (f ) = {w ∈ W | existe v ∈ V, w = f (v)}
= {f (v) | v ∈ V } .
Teorema 4.29. Sea f : V −→ W una transformación lineal. Entonces
1. ker(f ) 6K V,
2. Im(f ) 6K W.

Demostración. (1) Sean s1 , s2 ∈ K y v1 , v2 ∈ ker(f ). Debemos mostrar


que s1 v1 + s2 v2 ∈ ker(f ), es decir, que f (s1 v1 + s2 v2 ) = 0. Dado que f es
una transformación lineal y f (v1 ) = f (v2 ) = 0, tenemos
f (s1 v1 + s2 v2 ) = s1 f (v1 ) + s2 f (v2 )
= s1 · 0 + s2 · 0
= 0,
de aquı́, s1 v1 + s2 v2 ∈ ker(f ). De aquı́, ker(f ) es un subespacio de V .
(2) Ejercicio. 
Ejemplo 4.30. Calcule el núcleo y la imagen de la función f : R [t]2 −→ R2
dado por  
2
 −a + 3b − c
f a + bt + ct = .
b + 2c
4.5. Teorema de la dimensión 109

Usando la Definición 4.28:


    
2
−a + 3b − c 0
ker (f ) = a + bt + ct ∈ R [t]2
=
b + 2c 0
= a + bt + ct2 ∈ R [t]2 |−a + 3b − c = 0 y b + 2c = 0


= a + bt + ct2 ∈ R [t]2 |a = −7c y b = −2c




= −7c − 2ct + ct2 ∈ R [t]2 |c ∈ R




−7c − 2ct + ct2 .




=
Ejemplo 4.31. Si A ∈ Mm×n y fA es la transformación lineal inducido por
A, entonces
ker (fA ) = N (A) y Im (fA ) = R (A) .
Es decir, los subespacios núcleo e imagen de la transformación lineal inducido
por A son los espacios nulo y columna de A, respectivamente.

4.5. Teorema de la dimensión


Definición 4.32. Sea f : V −→ W una transformación lineal. Entonces el
rango de f es
rango (f ) = dim Im (f ) ,
y la nulidad de f es
nulidad (f ) = dim ker (f ) .
Ejemplo 4.33. Sea T : K 2 −→ K 2 dada por T (x, y) = (x, 0). El núucleo
de T es {(0, y) | y ∈ K}. La nulidad de T es uno. La imagen de T es
{(x, 0) | x ∈ K}. El rango de T es uno.
Ejemplo 4.34. Sea T : K 3 −→ K 3 dada por T (x, y, z) = (z, 0, 0). El núcleo
de T es {(x, y, 0) | x, y ∈ K}. La nulidad de T es dos. La imagen de T es
{(x, 0, 0) | x ∈ K}. El rango de T es uno.
Ejemplo 4.35. Sea T : K 3 −→ K 3 dada por T (x, y, z) = (z, x, y). El núcleo
de T es {(0, 0, 0)}. La nulidad de T es cero. La imagen de T es K 3 . El rango
de T es tres.

Observe que en los Ejemplos , y , siempre se tiene que la suma del rango
y la nulidad es igual a la dimensión del dominio. Este es un fenómeno que
siempre ocurre y que se conoce como el teorema del rango-nulidad2.
Teorema 4.36. (El teorema del rango-nulidad) Sea f : V −→ W una
transformación lineal con V de dimensión finita. Entonces
dim V = rango (f ) + nulidad (f ) .
2También conocido como El Teorema de la dimensión o la Regla de la dimensión.
110 4. Transformaciones Lineales

Demostración. Escojamos una base del ker(f ), digamos {u1 , . . . , uk }. Note


que nulidad(f ) = k. Extendemos la base del ker(f ) a una base de V , diga-
mos, {u1 , . . . , uk , uk+1 , . . . , un } donde n = dim V. Ahora, para s1 , . . . , sn ∈
K,
f (s1 u1 + s2 u2 + · · · + sn un ) = s1 f (u1 ) + s2 f (u2 ) + · · · + sn f (un )
= s1 · 0 + · · · + sk · 0 + sk+1 f (uk+1 ) + · · · + sn f (un )
= sk+1 f (uk+1 ) + · · · + sn f (un )
Esto muestra que Im(f ) es generado por los vectores f (uk+1 ) , . . . , f (un ).
De hecho, esta última expresion es únicamente cero cuando s1 u1 + s2 u2 +
· · · + sn un ∈ ker(f ) lo cual pasa si sk+1 = · · · = sn = 0. De aquı́, los vectores
f (uk+1 ) , . . . , f (un ) son linealmente independientes y de aquı́, forman una
base para Im(f ). De aquı́, rango(f ) = n − k y el resultado se sigue. 
Ejemplo 4.37. Hallemos el rango y la nulidad de la transformación lineal
f : R [t]2 −→ R [t]3 dado por
f (p (t)) = t · p (t) .
En otras palabras,
f a + bt + ct2 = at + bt2 + ct3 .


Usando la Definición 4.28:


ker (f ) = a + bt + ct2 f a + bt + ct2 = 0
 

= a + bt + ct2 at + bt2 + ct3 = 0




= at + bt2 + ct3 |a = b = c = 0


= {0} .
Esto es, el ker(f ) es el espacio cero y de aquı́, nulidad(f ) = 0. Por el Teorema
del rango-nulidad, tenemos que rango(f ) = dim R [t]2 − dim nulidad(f ) =
3 − 0 = 3. Observe quetambién pudimos haber calculado primero rango(f ),
es claro (¿lo es?) que t, t2 , t3 es una base para Im(f ) y por lo tanto, el
rango(f ) = 3 y la nulidad(f ) = 0 por el Teorema rango-nulidad.

4.6. Transformaciones lineales inyectivas y suprayectivas


Recordemos la definición de funciones invectivas y suprayectivas (ver
Apéndice B para más detalles).
Definición 4.38. Una función f : X → Y es:
inyectiva (o una inyección o uno-a-uno) si para x1 , x2 ∈ X,
f (x1 ) = f (x2 ) implica que x1 = x2 ,
4.6. Transformaciones lineales inyectivas y suprayectivas 111

suprayectiva (o una suprayección o sobre) si para cada y ∈ Y existe


una x ∈ X para la cual y = f (x).

Para transformaciones lineales, podemos decidir de una mejor manera


cuando una transformación es invectiva o suprayectiva.
Teorema 4.39. Sea f : V −→ W una transformación lineal.
1. f es inyectiva si y solamente si ker f = {0}.
2. f es suprayectiva si y solamente si Im f = W .

Demostración. 1. Note que f (0) = 0. De aquı́, si f es inyectiva en-


tonces f (v) = 0 implica que v = 0, es decir, ker f = {0}.
Recı́procamente, supongamos que ker f = {0}, v1 , v2 ∈ V y
f (v1 ) = f (v2 ). Dado que f es lineal,
f (v1 − v2 ) = f (v1 + (−1) v2 )
= f (v1 ) + (−1) f (v2 )
= f (v1 ) − f (v2 )
= 0
de aquı́, f (v1 − v2 ) = 0 y de aquı́, v1 − v2 = 0, i.e. v1 = v2 . Esto
muestra que f es inyectiva.
2. Es inmediato de la definición de suprayectividad.


Usando Teorema 4.39, podemos reescribir el Teorema de la dimensión:


Teorema 4.40. Sea f : V −→ W una transformación lineal.
1. f es inyectiva sy solamente si nulidad(f ) = 0.
2. f es suprayectiva si y solamente si rango (f ) = dim W .
Corolario 4.41. Sea f : V −→ W una transformación lineal con V y W
espacios vectoriales sobre K de dimensión finita. Entonces:
1. si f es una inyectiva, entonces dimK V ≤ dimK W ;
2. si f es suprayectiva, entonces dimK V ≥ dimK W.

Demostración. Usamos el Teorema de la dimensión y el Teorema 4.39.


1. Dado que Im f es un subespacio de W , tenemos dim Im f ≤ dim
W , de aquı́, si f es inyectiva,
dim V = rango (f ) ≤ dim W.
2. Si f es suprayectiva tenemos
dim V > rango (f ) = dimW.
112 4. Transformaciones Lineales

Más aún,

Corolario 4.42. Sea dim V = dim W = n. Entonces, una transformación


lineal f : V −→ W es inyectiva si y solamente si es suprayectiva.

Demostración. f es inyectiva si y sólo si nulidad(f ) = 0 si y solamente si


n = rango (f ) si y solamente si Im f = W si y solamente si f es suprayectiva.


Ahora mostramos que las transformaciones lineales inyectivas conservan


independencia lineal.

Corolario 4.43. Sea f : V −→ W una transformación lineal inyectiva. Si


S = {v1 , . . . , vk } es un conjunto linealmente independiente en V , entonces

f (S) = {f (v1 ) , . . . , f (vk )}

es un conjunto linealmente independiente en W .

Demostración. Sean λ1 , . . . , λk escalares tales que

λ1 f (v1 ) + · · · + λk f (vk ) = 0.

Entonces, de la linealidad de f tenemos

f (λ1 v1 + · · · + λf vk ) = 0

De aquı́, λ1 v1 + · · · + λf vk ∈ ker f , y por la inyectividad de f se sigue


que λ1 v1 + · · · + λf vk = 0. Ya que {v1 , . . . , vk } es un conjunto linealmen-
te independiente, ci = 0 para toda i. Por lo tanto, f (S) es linealmente
independiente. 

Problema 4.44. Bajo la notación del Corolario 4.43, muestre que f (S)
genera a Im f.

Corolario 4.45. Sea dim V = dim W = n. Entonces una transformación


lineal inyectiva f : V −→ W mapea una base para V en una base para
W . En otras palabras, si S = {v1 , . . . , vn } es una base para V , entonces
f (S) = {f (v1 ) , . . . , f (vn )} es una base para W.

Demostración. Si S = {v1 , . . . , vn } es es linealmente independiente en V ,


por el Corolario 4.43, f (S) = {f (v1 ) , . . . , f (vn )} es es linealmente indepen-
diente en W . Solo resta probar que f (S) genera a W. Ya que f es inyectiva,
entonces f es suprayectiva y del Ejercicio 4.44 se sigue el resultado. 
4.7. Exercises 113

4.7. Exercises
4.1 Para cada fi : R2 −→ R2 , diga si es o no una transformación lineal
sobre R. (Entrega solamente los 3 incisos que escojas).
a) f1 (x, y) = (x, 0)
b) f2 (x, y) = (0, y)
c) f3 (x, y) = (y, 0)
d ) f4 (x, y) = (y, x)
e) f5 (x, y) = (ax + by,  cx + dy) con a, b, c, d ∈ R constantes.
f ) f6 (x, y) = x2 , y 2
g) f7 (x, y) = (x, 1)
h) f8 (x, y) = (xy, 0)
i ) f9 (x, y) = (1, 0)

4.2 Sea T : R −→ R dada por T (x) = 2x + 3. Determine si T es una


transformación lineal sobre R o no.

4.3 Calcule el kernel, la nulidad, la imagen y el rango de las siguientes


transformaciones lineales sobre R:
a) T : R2 −→ R2 , T (x, y) = (x − y, 0)
b) T : R3 −→ R2 , T (x, y, z) = (x − y, z)

4.4 Dé un ejemplo de dos transformaciones lineales de R3 en R3 que


tengan el mismo kernel y la misma imagen pero que sean funciones
diferentes.

4.5 Determina si los siguientes enunciados son verdadero o falso. (Justifi-


que su respuesta exhibiendo una prueba o dando un contraejemplo.)
a) Si f : V −→ W es tal que f (0) = 0 entonces f es una transfor-
mación lineal.
b) Si f : V −→ W es una transformación lineal y f (v) = 0, enton-
ces v = 0.
c) Si f : K −→ K es una transformación lineal sobre K distinta de
la transformación cero, entonces f es suprayectiva.
d ) Si f : K −→ K es una transformación lineal sobre K distinta de
la transformación cero, entonces f es inyectiva.
e) Sea f : V −→ W una transformación lineal con V de dimen-
sión finita. Si la dimensión de W es igual a la dimensión de V ,
entonces el rango de f es igual a su nulidad.
f ) Sea f : V −→ W una transformación lineal con V de dimensión
finita. Son equivalentes:
1) f es la transformación cero.
2) El rango de f es igual a cero.
3) La dimensión de V es igual a la nulidad de f .
114 4. Transformaciones Lineales

g) Sea f : V −→ W una transformación lineal con V de dimensión


finita. Si la nulidad de f es cero, entonces el rango de f es igual
a la dimensión de V .
h) Sea f : V −→ W una transformación lineal con V de dimensión
finita. Si el rango de f es igual a la dimensión de V , entonces la
nulidad de f es cero.
i ) Sea f : V −→ W una transformación lineal con V de dimensión
finita impar. Entonces la nulidad de f es distinta al rango de f .
4.6 Sea f : K −→ K una trasformación lineal sobre K. Demuestre que
existe a ∈ K tal que f (v) = av para todo v ∈ K.
4.7 Sean f : V −→ W y g : W −→ Z transformaciones lineales. De-
muestre que la composición g ◦ f es cero si y sólo si la imagen de f
está contenida en el kernel de g.
Apéndice A

Matrices

Hacemos un breve repaso de matrices.

A.1. Definición formal


Definición A.1. Sea K un campo y sean n, m enteros positivos. Una matriz
con n renglones y m columnas es una colección de nm elementos de K,
llamados las entradas (o elementos o coeficientes) de la matriz, en donde
cada uno de los nm elementos se identifica por medio de dos indices. El
primer indice indica el número del rengón y el segundo, el número de la
columna. Al número n × m se le llama la dimensión (o el tamaño) de la
matriz. Al conjunto de matrices de tamaño n × m sobre un campo K lo
denotamos por Mn×m (K) o K n×m .

Comúmente, usamos letras mayúsculas A, B, C, . . . para denotar matri-


ces, Ai,j , Bi,j , . . . para denotar las posiciones y ai,j , bi,j , . . . para denotar sus
elementos. Existe una manera más formal de definir las matrices. Esto se
muestra en la definición A.2.
Definición A.2. Una matriz de tamño n × m con elementos en un campo
K es una función {1, 2, . . . , n} × {1, 2, . . . , m} −→ K.

Observe que dos matrices A y B son iguales si y solamente si sus dimen-


siones coinciden y además ai,j = bi,j para toda i, j.

A.2. Operaciones con matrices


Sean A = (ai,j ) y B = (bi,j ) dos matrices del mismo tamaño. Sea λ ∈ K.
Entonces

115
116 A. Matrices

(A + B)i,j = ai,j + bi,j .


(λA)i,j = λai,j .
Observe que la suma de matrices está bien definida si y solamente si sus
dimensiones coinciden.
Teorema A.3. La suma de matrices es conmutativa, es decir, si A, B ∈
Mn×m (K), entonces A + B y B + A están bien definidas y además A + B =
B + A.

Demostración. La igualdad en las dimensiones nos asegura que A + B y


B + A están bien definidas. Ahora,
(A + B)i,j = ai,j + bi,j = bi,j + ai,j = (B + A)i,j .

Teorema A.4. Sean n y m enteros positivos y sea K un campo. Tenemos
que el conjunto de matrices Mn×m (K) tiene un neutro único y cada matriz
tiene un inverso aditivo.

Demostración. Definamos 0i,j = 0K , entonces


(A + 0)i,j = ai,j + 0i,j = ai,j + 0K = ai,j = Ai,j .
Supongamos que existe una matriz C tal que A + C = C + A = A para toda
A ∈ Mn×m (K). En particular,
0+C =C +0=0
De aquı́, C = 0. Y por lo tanto, el inverso es único. 
Problema A.5. Concluye la prueba del Teorema A.4.

Sean A ∈ Mn×m (K) y B ∈ Mm×t (K). Definimos la multiplicación de


matrices está dada por la siguiente fórmula:
(AB)i,j = m
P
k=1 ai,k bk,j .
Observe como trabajan las dimensiones de las matrices a multiplicar y la
dimensión del producto resultante.
Ejemplo A.6.     
1 2 5 6 19 22
=
3 4 7 8 43 50
Ejemplo A.7.
   
1 0   0 1 2 3
0 1 2 3
 0 2  =  0 −2 2 0 
0 −1 1 0
−1 1 0 −2 −1 −3
A.2. Operaciones con matrices 117

La multiplicación de matrices no es conmutativa. De hecho, pudiera ni


siquiera estar definida en algunos casos. Por ejemplo, sea A ∈ M5×3 (K) y
B ∈ M3×2 (K). Entonces el producto AB está bien definido, pero BA no
está definido (no existe).
Problema A.8. Calcule AB y BA si
 
3 −4  
5 2 −3
A =  1 5 ,B =
−5 1 4
1 −2
Problema A.9. Sean A y B matrices tales que existen ambos productos
AB y BA, ¿Qué podemos concluir sobre las dimensiones de A y B? ¿Tienen
que ser cuadradas estas matrices o no necesariamente?
Proposición A.10. Sean A ∈ Mn×m (K) y B, C ∈ Mm×t (K). Entonces
A (B + C) = AB + AC.

Demostración. Las dimensiones de las matrices nos asegura que los pro-
ductos y sumas están definidas. Ahora,
Xm
[A(B + C)]i,j = ai,k (B + C)k,j
k=1
Xm
= ai,k (bk,j + ck,j )
k=1
m
X
= (ai,k bk,j + ai,k ck,j )
k=1
m
X m
X
= ai,k bk,j + ai,k ck,j
k=1 k=1
= (AB)i,j + (AC)i,j
= (AB + AC)i,j .


A la proposición A.10 se le conoce como la ley distributiva por la derecha.


Problema A.11. Enuncia y demuestra la ley distributiva por la izquierda.
(Sugerencia: Sé cuidadoso con las dimensiones.)

Demostremos que, bajo las condiciones de dimensión apropiadas, la mul-


tiplicación de matrices es asociativa:
Teorema A.12. Sean A ∈ Mn×m (K), B ∈ Mm×t (K) y C ∈ Mt×s (K).
Entonces
A (BC) = (AB) C.
118 A. Matrices

Demostración. Las dimensiones aseguran que todos los productos están


bien definidos. Además,
m
X
[A (BC)]i,j = ai,k (BC)k,j
k=1
m t
!
X X
= ai,k bk,l cl,j
k=1 l=1
Xm X t
= ai,k bk,l cl,j
k=1 l=1
Xt X m
= ai,k bk,l cl,j
l=1 k=1
t m
!
X X
= ai,k bk,l cl,j
l=1 k=1
Xt
= (AB)i,l cl,j
l=1
= [(AB) C]i,j .


Una matriz se dice que es una matriz cuadrada si su número de filas es


igual a su número de columnas. Una consecuencia trivial de este hecho, es
que el producto matrices cuadradas del mismo tamaño siempre está definido.
De lo anterior, deducimos entonces que las potencias de una matriz cuadrada
siempre están definidas y escribimos: A2 = AA y recursivamente An+1 =
An A y por completez, A1 = A. Decimos que una matriz cuadrada A es
nilpotente si existe una k ∈ N tal que Ak = 0. Decimos que una matriz
cuadrada A es idempotente si A2 = A.
Ejemplo A.13. La matriz
 
0 −1 3 2
 0 0 3 5 
 0 0 0 −4  .
A= 

0 0 0 0
es nipotente, ya que A4 = 0. Por otro lado, la matriz
 
0 1
.
1 0
es idempotente.
A.2. Operaciones con matrices 119

Problema A.14. Si
 
1 1
A= .
1 1
Demuestre que, para k > 0

2k−1 2k−1
 
Ak = .
2k−1 2k−1

Sea A una matriz cuadrada: A ∈ Mn (K). La traza de A se define me-


diante la fórmula:
n
X
tr(A) = Ak,k .
k=1

Problema A.15. Demuestre las siguientes propiedades de la traza:


tr(A + B) = tr(A) + tr(B).
tr(αA) = αtr(A) para α ∈ K.
tr(AB) = tr(BA).

Sea A ∈ Mm×n (K). Entonces la matriz transpuesta de A, que denotamos


por AT , se define mediante la regla

AT = (Aj,i )

con 1 ≤ i ≤ n, 1 ≤ j ≤ m. Esto es, AT ∈ Mn×m (K) y (AT )i,j = Aj,i .

Problema A.16. Demuestre las siguientes propiedades de la transpuesta:


(AT )T = A para toda A ∈ Mm×n (K).
(A + B)T = AT + B T para toda A, B ∈ Mm×n (K) .
(λA)T = λAT para toda A ∈ Mm×n (K) y λ ∈ K.
(AB)T = B T AT para toda A ∈ Mm×n (K) y B ∈ Mn×p (K).

Una matriz cuadrada A ∈ Mn (K) se dice simétrica si AT = A y se dice


antisimétrica si AT = −A.

Problema A.17. Determine si las siguientes matrices son simétricas o an-


tisimétricas:
   
  3 −5 1 0 −2 7    
7 3 3 0 0 0
, 5 8 2 ,  2 0 0 ,
 , .
3 1 0 −5 0 0
−1 −2 4 −7 0 0
120 A. Matrices

A.3. Multiplicación de matrices por vectores


Es cómodo identificar los elementos de K n con los elementos de Mn×1 :
un vector aritmético x con componentes x1 , . . . , xn corresponde a la matriz
tamaño n×1 cuyo (i, 1)-ésima entrada es xi . En otras palabras, los elementos
de K n se consideran habitualmente como vectores-columnas.
Definición A.18. Sean A ∈ Mm×n (K), x ∈ K n . Consideramos x como una
matriz de n × 1. Entonces el producto Ax está bien definido, es una matriz
de tamaño m × 1, y su (i, 1)-ésima entrada es
Xn
(Ax)i,1 = Ai,k xk,1 .
k=1
Al escribir xk en vez de xk,1 y (Ax)i en vez de (Ax)i,1 , obtenemos la siguiente
fórmula:
Xn
(Ax)i = Ai,k xk .
k=1
Problema A.19. Calcule los siguientes productos:
 
  3 5
  1  
2 3 −1   1 −7  5
−2  , 
 4 8  −4 ,

4 −1 5
5
0 2
Definición A.20. Sean x ∈ K m y A ∈ Mm×n (K). Entonces x se identifica
como una matriz de m × 1 y xT es una matriz de 1 × m que se llama vector-
renglón (o vector-fila). El producto xT A se define según la regla general como
una matriz de tamaño 1 × n, y su (1, j)-ésima entrada es
Xn Xn
T T
(x A)1,j = (x )1,k Ak,j = xk,1 Ak,j .
k=1 k=1

Al escribir xk en vez de xk,1 y (xT A)j en vez de (xT A)1,j , obtenemos la


siguiente fórmula:
n
X
(xT A)j = xk Ak,j .
k=1
Problema A.21. Calcule los siguientes productos:
 
 1 5 
 4 5 −6

3 −5 1  3 2 , 2 −1
 ,
3 2 0
−4 3
Sean A ∈ Mm×n (K), i ∈ {1, . . . , m}. Denotemos por Ai,∗ al i-ésimo
renglón de la matriz A. Formalmente, Ai,∗ ∈ M1×n (K) y
(Ai,∗ )j = Ai,j .
A.3. Multiplicación de matrices por vectores 121

Sean A ∈ Mm×n (K), j ∈ {1, . . . , n}. Denotemos por A∗,j a la j-ésima co-
lumna de la matriz A. Formalmente, A∗,j ∈ Mm×1 (K) y
(A∗,j )i = Ai,j .
Definición A.22. Sean A ∈ Mm×n (K) y B ∈ Mn×p (K). Consideremos la
fórmula del producto AB:
m
X
(AB)i,j = ai,k bk,j .
k=1
Si dejamos fijo el renglón i obtenemos una fórmula muy conveniente para el
i-ésimo renglón del producto, a saber,
(AB)i,∗ = Ai,∗ B.
Si dejamos fijo la columna j obtenemos una fórmula muy conveniente para
el j-ésima columna del producto, a saber,
(AB)∗,j = AB∗,j .
Apéndice B

Funciones

Sean X, Y, Z conjuntos.

Definición B.1. Una función (o mapeo) f : X → Y de X a Y es una regla


(de asignación) la cual asocia a cada x ∈ X a un único elemento f (x) ∈ Y . El
conjunto X es llamado el dominio de f , y es denotado por dom(f ), mientras
que Y es llamado el codominio de f , denotado codom(f ). Algunas veces la
regla es indicada al escribir x 7→ f (x).

Dadas funciones f : X → Y y g : Y → Z podemos formar su composición


g ◦ f : X → Z la cual tiene la regla
(g ◦ f ) (x) = g (f (x)) .
Note el orden de composición aquı́! Si X, Y, Z son distintos entonces no es
posible definir f ◦ g dado que dom(f ) = X el cual es distinto al codom(g) =
Z.

Ejemplo B.2. Para cualquier conjunto X, la función identidad IdX : X →


X tiene la regla
IdX (x) = x.

Ejemplo B.3. Sea X = Y = R. Entonces las siguientes reglas definen


funciones R → R:
1 3
x 7→ x + 1, x 7→ x2 , x 7→ 2 , x 7→ sen x, x 7→ e5x .
x +1
Ejemplo B.4. Sea X = Y = R+ , el conjunto de los números reales positi-
vos. Entonces las siguientes reglas definen dos funciones R+ → R+ :
√ √
x 7→ x, x 7→ − x.

123
124 B. Funciones

Ejemplo B.5. Sean X y Y conjuntos y suponga que w ∈ Y es un elemento.


La función constante cw : X → Y tomando el valor de w tiene la regla
x 7→ cw (x) = w.
Por ejemplo, si X = Y = R entonces c0 es la función la cual regresa el valor
c0 (x) = 0 para cada número real x ∈ R.
Definición B.6. Una función f : X → Y es:
inyectiva (o una inyección o uno-a-uno) si para x1 , x2 ∈ X,
f (x1 ) = f (x2 ) implica que x1 = x2 ,
suprayectiva (o una suprayección o sobre) si para cada y ∈ Y existe
una x ∈ X para la cual y = f (x).
biyectiva (o una biyección o una correspondecia uno-a-uno) si es
inyectiva y suprayectiva.

Tenemos el siguiente hecho básico:


Proposición B.7. La función f : X → Y es una biyección si y solamente
si existe una función inversa Y → X la cual es la única función h : Y → X
que satisface
h ◦ f = IdX , f ◦ h = IdY .
Si tal inversa existe es usual denotarla por f −1 : Y → X, y entonces tenemos
f −1 ◦ f = IdX , f ◦ f −1 = IdY .

Después veremos ejemplos de todas estas notaciones en el contexto de


espacios vectoriales.

También podría gustarte