Espacios Vectoriales

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 19

Capítulo 4.

Espacios Vectoriales

Capítulo 4

ESPACIOS VECTORIALES
Quizá esta sección sea una de las de carácter más abstracto en el curso, en ella
formalizaremos la idea de espacio vectorial. Los modelos o ejemplos más cercanos a la
intuición de este tipo de estructuras los proporcionan el espacio bidimensional (el plano)
y el espacio tridimensional (el espacio físico con el que habitualmente trabajamos en
otras asignaturas).

4.1. Definiciones básicas y propiedades

Definición. Un conjunto V admite estructura de espacio vectorial sobre el cuerpo K (en


general, consideraremos R o C) si se satisfacen las siguientes condiciones:

a) (V, +) es un grupo abeliano.


b) Existe una ley de composición externa con cuerpo de escalares K
( ⋅ :V x K → V ) tal que:

e j
b.1) λ ⋅ x + y = λ ⋅ x + λ ⋅ y

b g
b.2) λ + µ ⋅ x = λ ⋅ x + λ ⋅ x
b.3) bλ µ g ⋅ x = λ e µ ⋅ x j
b.4) 1⋅ x = x

para cualesquiera λ , µ ∈K y cualesquiera x , y ∈V , donde 1 es el elemento


unidad de K.

Ejemplos.

1. Como ejemplo más elemental se tiene a:

Rn = mb x , x ,…, x g / x ∈ R, i ∈l1, 2,…, nqr


1 2 n i

dotado de las operaciones suma y producto por un escalar real, dadas por:

b x , x ,… , x g + b y , y ,… , y g = b x + y , x + y ,… , x + y g
1 2 n 1 2 n 1 1 2 2 n n

λ ⋅ b x , x ,… , x g = bλ ⋅ x , λ ⋅ x ,… , λ ⋅ x g .
1 2 n 1 2 n

Así c R b Rg, + , ⋅h es un espacio vectorial que suele representarse como c R , + , ⋅h ,


n n

entendiendo que el cuerpo de escalares es R. Como casos más conocidos tenemos


aquellos en que n = 2 ó n = 3, esto es, el plano o el espacio tridimensional.

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

2. Otro ejemplo de espacio vectorial viene dado por el conjunto de las matrices
rectangulares de orden m x n con elementos reales, es decir, por M mxn R , + , ⋅ c bg h
dotado con las operaciones suma de matrices y producto de una matriz por un
escalar real.

3. Un ejemplo menos trivial viene dado por el conjunto de los polinomios de grado
menor o igual a n con coeficientes reales, que se denota por:

Rn
R n
x = S∑ a x = a + a x + i 1
l qUVW
+ an −1 x n −1 + an x n / ai ∈ R, i ∈ 1, 2,… , n
T i =0
i 0 1

bg bg
n n
donde si p x = ∑ ai x i , q x = ∑ bi x i ∈ R x , se define la suma de ambos y el
i =0 i =0
producto de p(x) por un escalar real λ como:

b g
n
p( x ) + q ( x ) = ∑ ai + bi x i
i =0

λ ⋅ p( x ) = ∑ b λ a g x
n
i
i
i =0

c h
obteniéndose que Rn x , + , ⋅ es un espacio vectorial.

4. Finalmente, otro ejemplo viene dado por el conjunto de funciones reales de una
variable real:
RR = f / f : R → R l q
en el que se definen las operaciones:

b f + ggb xg = f b xg + gb xg
( λ ⋅ f )( x ) = λ ⋅ f b x g, λ ∈ R.

Es fácil comprobar que c R , + , ⋅h es un espacio vectorial.


R

En adelante consideraremos que los espacios vectoriales que tratemos son reales, es
decir, tales que el cuerpo K = R, salvo que indiquemos otra cosa.

Propiedades elementales de un espacio vectorial

Para cualesquiera vectores x , y de un espacio vectorial V y escalares λ , µ se tiene que:


i. 0 ⋅ x = 0 , λ ⋅ 0 = 0.
R|bλ − µ g ⋅ x = λ ⋅ x − µ ⋅ x
ii. S|λ ⋅ e x − yj = λ ⋅ x − λ ⋅ y
T
iii. λ ⋅ x = 0⇒ λ = 0 ∨ x = 0

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

Demostración:
i. b g
0⋅ x = 0 + 0 ⋅ x = 0⋅ x + 0⋅ x ⇒ 0⋅ x = 0
λ ⋅ 0 = λ ⋅ e0 + 0j = λ ⋅ 0 + λ ⋅ 0 ⇒ λ ⋅ 0 = 0

ii. bλ − µ g ⋅ x = cλ + b− µ gh ⋅ x = λ ⋅ x + b− µ g ⋅ x = λ ⋅ x − µ ⋅ x
λ ⋅ e x − y j = λ ⋅ FH x + e− y jIK = λ ⋅ x + λ ⋅ e − y j = λ ⋅ x − λ ⋅ y

iii. Si λ ⋅ x = 0 y suponemos que λ ≠ 0 , entonces dado que λ es un escalar del


1
cuerpo K (pensemos en un número real) existe su inverso λ−1 = , por lo que
λ
podemos hacer el siguiente razonamiento:

λ⋅x = 0U| 1 1 F1 I
1 V ⇒ 0 = ⋅ 0 = ⋅ eλ ⋅ x j = G λ J ⋅ x = 1 ⋅ x = x ⇒ x = 0
0 = ⋅ 0|
λ W
λ λ Hλ K
Así, si λ ≠ 0 entonces x = 0 .

De igual forma, si λ ⋅ x = 0 y suponemos que x ≠ 0 se deduce que λ = 0 , pues si


fuese λ ≠ 0 podríamos razonar como antes y llegaríamos a que x = 0 , lo cual
contradice la hipótesis de que x ≠ 0 . ■

4.2. Subespacios Vectoriales

Si W es un subconjunto del espacio vectorial V diremos que W es un subespacio


vectorial de V si se cumple:
a) ∀ x , y ∈W : x + y ∈W
b) ∀ x ∈W , ∀ λ ∈ K ⇒ λ ⋅ x ∈W

Ambas condiciones equivalen a decir que W tiene estructura de espacio vectorial al


restringir en él la suma de vectores de V y el producto por escalares.

Por otra parte, las condiciones dadas pueden sintetizarse en una única expresión que
caracteriza a los subespacios vectoriales:

W ⊆ V es un subespacio vectorial ⇔ ∀ x , y ∈W , ∀ λ , µ ∈ K : λ x + µ y ∈W e j
Ejemplos.

1. Los denominados subespacios triviales (o impropios) del espacio vectorial V:


{}
W= 0 y W = V.
2. W = R 2 x es un subespacio vectorial del espacio vectorial V = R3 x .

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

3. Puede comprobarse, sin más que aplicar la definición de subespacio vectorial dada
más arriba, que el subconjunto de matrices:

W=
RSFG a b 0 IJ bg
∈ M 2 x 3 R / a , b , c, d ∈R
UV
TH 0 c d K W
es un subespacio vectorial del espacio vectorial M 2 x 3 R . bg
4. Otro ejemplo de subespacio vectorial es el formado por el conjunto de soluciones de
un sistema de ecuaciones lineales homogéneo A X = 0 , donde A ∈ M mxn R . En este bg
caso se tiene que dicho conjunto de soluciones es un subespacio vectorial del
espacio vectorial R n .

Observación. Cualquier subespacio vectorial de cualquier espacio vectorial contiene


siempre al vector nulo 0 .

4.2.1. Operaciones entre subespacios vectoriales

Seguidamente analizamos las diversas operaciones que pueden realizarse con los
subespacios vectoriales de un espacio vectorial V. En concreto nos ocuparemos de la
intersección y suma de subespacios vectoriales.

Intersección de subespacios vectoriales.

l q
Si Wi
n
i =1
es una familia de subespacios vectoriales del espacio vectorial V, entonces
n
W = ∩ Wi es también un subespacio vectorial.
i =1

Demostración. En primer lugar aclarar que Wi l q = lW ,W ,…,W q , y que W ≠ φ pues


n
i =1 1 2 n

{0} ∈W , por pertenecer el vector nulo a cada uno de los subespacios W i

( i ∈l1,2,… , nq ). Veamos seguidamente que W es un subespacio vectorial:

R|x, y ∈W , ∀i ∈l1,2,…, nqU| ⇒


∀ x , y ∈W y ∀ λ , µ ∈ K ⇒ S
|T λ , µ ∈ K
i
V|
W
⇒ λ x + µ y ∈W , ∀i ∈l1,2,… , nq ⇒ λ x + µ y ∈W ⇒ W es subespacio vectorial de V. ■
i

Ejemplo. Consideremos en R 2 los subespacios vectoriales:

l
W1 = ( x , 2 x ) / x ∈ R q l
y W2 = ( x , 3x ) / x ∈ R . q
Para ellos se tiene que la intersección W = W1 ∩ W2 = 0 , pues si: {}

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

w = (a , b) ∈W = W1 ∩ W2 ⇒
|RSw ∈W ⇒ b = 2a |UV ⇒ 2a = 3a ⇒ a = 0 ⇒ w = 0
1

|Tw ∈W ⇒ b = 3a |W
2

Suma de subespacios vectoriales.

Del ejemplo que acabamos de plantear se deduce que la unión de subespacios


vectoriales no es, en general, un subespacio vectorial. Basta observar que:
b g
1, 2 ∈W1 ⊂ W1 ∪ W2
b g
1, 3 ∈W2 ⊂ W1 ∪ W2
Sin embargo, al sumar estos dos vectores de W1 ∪ W2 se tiene que:

b1, 2g + b1, 3g = b2, 5g ∉W ∪W ,


1 2

pues (2, 5) no está en ninguno de los dos subespacios de partida.

Definición (Suma de subespacios vectoriales).- Si W1 , W2 son subespacios vectoriales


del espacio vectorial V, se denomina suma de ambos subespacios a:

{
W1 + W2 = w = x + y / x ∈W1 ∧ y ∈W2 . }
Es inmediato comprobar que W1 + W2 es un subespacio vectorial de V y que es, además,
el más pequeño de los subespacios vectoriales de V que contiene al subconjunto
W1 ∪ W2 .

Definición (Suma directa).- Si W1 ,W2 son subespacios vectoriales del espacio vectorial

{}
V tales que W1 ∩ W2 = 0 y W = W1 + W2 , se dice que W es suma directa de W1 y W2 y
se escribe W = W1 ⊕ W2 .

Ejemplo. Consideremos en R 3 los subespacios vectoriales:

l
W1 = ( x , 0, 0) / x ∈ Rq l q
y W2 = ( y , y , 2 y ) / y ∈ R .

La suma de estos subespacios es:

W =W1 + W2 = mb x + y, y, 2 yg / x, y ∈ Rr siendo W ∩W = {0} .


1 2

Así, se tiene que W es suma directa de W1 y W2 y escribimos W = W1 ⊕ W2 .

Teorema. Si W = W1 ⊕ W2 entonces todo elemento x ∈W se expresa de forma única


como x = x 1 + x 2 , siendo x 1 ∈W1 y x 2 ∈W2 .

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

Demostración. Si suponemos que existen dos formas distintas de expresar cada x ∈W ,


pongamos:
x = x 1 + x 2 , con x 1 ∈W1 y x 2 ∈W2 .
x = y 1 + y 2 , con y 1 ∈W1 y y 2 ∈W2 .
Entonces:
R|x − y = y − x U|
1 1 2 2

⇒ S x − y ∈W
|| y − x ∈W V|| e j e j {}
x1 + x 2 = y1 + y 2 1 1 ⇒ x −y , y
1 1 1 2 − x 2 ∈ W1 ∩ W2 = 0

T2 2
W 2

Por tanto:
x1 = y1 ∧ x 2 = y 2

resultado que contradice nuestra suposición de que existían dos maneras de expresar un
mismo vector. Así queda probado que sólo existirá una única forma de expresar cada
vector de W. ■

Finalmente, cabe decir que las definiciones de suma y suma directa se extienden de
forma natural para cualquier familia finita de subespacios vectoriales.

4.3. Subespacio generado por un conjunto de vectores

Comenzamos esta sección definiendo la noción de combinación lineal de un conjunto


de vectores.

Definición. Si V es un espacio vectorial y {x , x ,…, x } ∈V ,


1 2 k se denomina
combinación lineal de los vectores dados a toda expresión de la forma:

α 1 x1 + α 2 x 2 + + α k xk

l
donde α i son escalares para todo i ∈ 1, 2,… , k . q
Tras definir la noción de combinación lineal, introducimos el concepto de subespacio
generado por un conjunto de vectores.

{ }
Definición. Si S = x 1 , x 2 ,… , x k es un conjunto de vectores del espacio vectorial V, se
denomina subespacio generado por S a:

{
S = α 1 x1 + α 2 x 2 + + α k x k / α i ∈ R, ∀ i ∈ 1, 2,… , kl q}
Observaciones.
1. En la definición se ha considerado que α i son números reales. Deberían haberse
considerado como escalares de un cuerpo cualquiera K. No obstante, al comenzar el

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

tema conveníamos que, salvo que se dijese lo contrario, siempre trabajaríamos con
espacios vectoriales sobre el cuerpo de los números reales, de ahí la restricción.

2. La definición dada asigna la categoría de subespacio a S , puesto que en realidad


se trata de un subespacio vectorial. Veámoslo:

Si y 1 = α 1 x 1 + α 2 x 2 + + α k x k y y 2 = β 1 x1 + β 2 x 2 + + β k x k ∈ S , entonces:

e
λ y1 + µ y 2 = λ α 1 x1 + α 2 x 2 + j e + α k x k + µ β 1 x1 + β 2 x 2 + j
+ β k xk =

= bλα + µβ g x + bλα + µβ g x + + bλα


1 1 1 2 2 2 k g
+ µβ k x k ∈ S

3. El conjunto S, formado por vectores del espacio vectorial V, generará a todo V si


cada vector de V se puede expresar como combinación lineal de los vectores de S, es
decir, si V = S .

Ejemplo. En el espacio vectorial R 3 consideremos el conjunto de vectores:


mb g b
S = 1, 2, 1 , 1, 0, 2 , 1,1, 0 g b gr
y analicemos si S = R 3 .
En primer lugar se tiene que:

mb g b g b g
S = α 1,2,1 + β 1,0,2 + γ 11 r mb
, ,0 / α , β , γ ∈ R = α + β + γ , 2α + γ , α + 2β / α , β , γ ∈ R g r
Por otro lado:

{ b g
R 3 = v = a , b, c / a , b, c ∈ R }
Por tanto, comprobar que S = R3 se reduce a comprobar que cualquier
b g
v = a , b, c ∈ R 3 verifica que:

ba,b, cg = bα + β + γ , 2α + γ ,α + 2β g
lo cual se traduce en términos de un sistema de ecuaciones lineales como:

α + β +γ = a
2α + γ = b
α + 2β = c

sistema que tiene como solución:

−2a + 2b + c a −b+c 4a − b − 2c
α= ; β= ; γ =
3 3 3

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

es decir:
ba,b, cg = FGH −2a +32b + c IJK b1,2,1g + FGH a − 3b + c IJK b1,0,2g + FGH 4a − 3b − 2c IJK b11, ,0g
Por tanto, S = R 3 .

4.4. Dependencia e independencia lineal

{
Dado un espacio vectorial V y un conjunto de vectores x1 , x 2 ,… , x k ∈V , se dice que: }
1. {x , x ,…, x } son vectores linealmente independientes (L.I.) o libres si:
1 2 k

α 1 x1 + α 2 x 2 + + α k xk = 0 ⇒ α1 = α 2 = = αk = 0.

2. {x , x ,…, x } son vectores linealmente dependientes (L.D) si existen escalares


1 2 k

α 1 , α 2 ,… , α k no todos nulos tales que:


α 1 x1 + α 2 x 2 + + α k xk = 0 .

Ejemplo. Si retomamos el ejemplo anterior, podremos plantearnos la dependencia o


independencia lineal de los vectores del conjunto:
mb g b
S = 1, 2, 1 , 1, 0, 2 , 1,1, 0 g b gr
Para ello consideramos una combinación lineal de ellos igualada al vector nulo:
b g b g b g
α 1,2,1 + β 1,0,2 + γ 11
, ,0 = 0

la cual conduce al sistema homogéneo:


α + β +γ = 0
2α + γ = 0
α + 2β = 0

Si este sistema lineal tiene únicamente solución trivial (0,0,0) esto significaría que los
vectores de S son libres, caso contrario se trataría de vectores L.D.. Por tanto podemos
proceder de distintas maneras: por un lado, podría utilizarse el método de eliminación
de Gauss o Gauss-Jordan para resolver el sistema (a la vista de las soluciones
decidiríamos la dependencia o independencia lineal de los vectores dados); por otro, al
ser el sistema anterior homogéneo éste tendrá solución trivial sólo cuando el rango de la
matriz de los coeficientes es 3, y dicho rango puede calcularse mediante determinantes
(el rango es el orden del mayor menor no nulo):

F1 1 1 I 1 1 1 F I
det G 2 JJ GG JJ
0 1 = 3 ≠ 0 ⇒ rang 2 0 1 = 3 ⇒ la única solución es (0,0,0)
GH 1 2 0K H1 2 0K

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

por tanto, los vectores dados son libres.

Observación. Cualquier conjunto de vectores que contenga al vector nulo es


linealmente dependiente.

Intuitivamente se tiene que dos vectores en el espacio vectorial R 2 son linealmente


dependientes, si y sólo si, uno de ellos es múltiplo del otro. Dicho de otro modo, si y
sólo si ambos se sitúan sobre la misma recta (que pasa por el origen). Evidentemente,
serán linealmente independientes si no se sitúan sobre una misma recta.

{
Análogamente, si x 1 , x 2 , x 3 } es un conjunto de vectores linealmente dependientes de
R 3 , entonces podremos escribir:
α 1 x1 + α 2 x 2 + α 3 x 3 = 0

donde α 1 , α 2 , α 3 no se anulan simultáneamente. Así, si α 2 ≠ 0 entonces:

x2 = −
FG α1 IJ α FG IJ
x1 + − 3 x 3 ⇒ x 2 ∈ x1 , x 3
H α2 K α2 H K
Recíprocamente, si uno de los vectores está en el subespacio generado por los dos
restantes, entonces existirán escalares tales que, por ejemplo:

{ }
x 3 = λ x 1 + µ x 2 ⇒ 1 x 3 − λ x1 − µ x 2 = 0 ⇒ x 1 , x 2 , x 3 son L.D.

Esto significa que en R 3 tres vectores son linealmente dependientes si y sólo si alguno
de ellos es combinación lineal de los restantes. Este resultado se generaliza en el
siguiente teorema, cuya demostración es inmediata a la vista del planteamiento que
acabamos de hacer anteriormente.

{
Teorema. Si S = x 1 , x 2 ,… , x k } es un conjunto de vectores no nulos del espacio
vectorial V, entonces S es linealmente dependiente si y sólo si uno de los vectores de S
es combinación lineal de los restantes.

Proposición. Si S1 y S2 son subconjuntos finitos de un espacio vectorial V y S1 ⊂ S2 ,


entonces:
a) Si S2 es L.I., también lo es S1 .
b) Si S1 es L.D., también lo es S2 .

Demostración. a) Dado que todos los vectores de S1 pertenecen a S2 , es evidente que


S1 es L.I..
Para demostrar el apartado b) partimos de que S1 es L.D. y supongamos que S2 es
L.I., entonces de a) se deduce que S1 es L.I., lo cual es absurdo. Por tanto, queda
probado b). ■

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

4.5. Bases y dimensión

{
Definición.- Se dice que un conjunto de vectores S = x 1 , x 2 ,… , x n , de un espacio }
vectorial V , es una base de V si genera todo V y es linealmente independiente. Es decir:

S es base de V ⇔ S = V ∧ S es L. I .

Observación: Teniendo en cuenta que cualquier conjunto de vectores que contenga al


vector nulo es linealmente dependiente, es obvio que el vector nulo no puede formar
parte de ninguna base. Además, en un espacio vectorial existirán tantas bases como
subconjuntos de vectores que sean simultáneamente generadores y linealmente
independientes.

Tal y como se irá descifrando en esta sección, cabe adelantar que cada base de un
espacio vectorial V proporciona un conjunto de vectores que describe completamente a
V. En este sentido, se tiene que cualquier vector de V se podrá determinar en función de
los vectores de la base, como se recoge en el siguiente teorema.

{ }
Teorema. Si S = x 1 , x 2 ,… , x n es una base del espacio vectorial V, entonces cualquier

vector v ∈V se expresa de forma única como combinación lineal de los vectores de la


base:
v = v1 x 1 + v2 x 2 + …+ vn x n
b
siendo los coeficientes v1 , v2 ,… , vn únicos. Ag bv , v , … , v g
1 2 n se les denomina
coordenadas del vector v respecto de la base dada.

Demostración: Dado que S es una base de V será un sistema generador de V, por tanto,
para cualquier vector v ∈V existirán ciertos escalares reales v1 , v2 ,… , vn , tales que:
v = v1 x 1 + v2 x 2 + …+ vn x n .

Nos interesa probar que dichos escalares son únicos. Para ello, supongamos que existen
otros n escalares α 1 , α 2 ,… , α n tales que:
v = α 1 x 1 + α 2 x 2 + …+ α n x n
Entonces:
α 1 x 1 + α 2 x 2 + …+ α n x n = v1 x1 + v2 x 2 + …+ vn x n ⇒
⇒ (α 1 − v1 ) x 1 + (α 2 − v2 ) x 2 + …+ (α n − vn ) x n = 0 ⇒
l q
⇒ (α i − vi ) = 0, ∀ i ∈ 1,2,… , n ⇒ α i = vi , ∀ i ∈ 1,2,… , n
S es L . I .
l q
quedando así probado que sólo existe una única forma de expresar el vector v respecto
de la base dada. —

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

Sistemas de vectores

En cualquier espacio vectorial V, denominaremos sistema de vectores a cualquier


subconjunto de vectores de V.

Teniendo en cuenta que todo vector de un espacio vectorial V queda determinado por
sus coordenadas respecto de una base fijada, podemos hablar de la matriz asociada a un
sistema de vectores como aquella matriz en la que cada columna viene dada por las
coordenadas de uno de los vectores del sistema, respecto de la base dada.

Finalmente, se denomina rango de un sistema de vectores al rango de la matriz


asociada al sistema. El rango de un sistema de vectores representa el número máximo de
vectores libres de dicho sistema, y nos proporciona una nueva herramienta para
determinar la independencia lineal del mismo.

Dimensión de un espacio vectorial

Una vez vista la posibilidad de expresar, de forma única, cualquier vector de un espacio
vectorial V como combinación lineal de los elementos de una base de V, la pregunta que
surge es: ¿pueden existir bases de V con distinto número de elementos?. La respuesta a
esta cuestión la obtendremos como consecuencia del siguiente teorema, denominado
teorema de Steinitz o teorema fundamental de la independencia lineal.

Teorema fundamental de la independencia lineal (Teorema de Steinitz)


{
Si S = x 1 , x 2 ,… , x p } es un sistema de vectores linealmente independientes de un

{
espacio vectorial V, y G = y 1 , y 2 ,… , y m } es un sistema generador de V, entonces
p ≤ m.

Demostración: Sea x 1 = α 1 y 1 + α 2 y 2 + …+ α m y m con algún α i ≠ 0 . Téngase en cuenta


l q
que no puede darse que α i = 0, ∀ i ∈ 1,2,… , m , pues si fuera así se tendría que x 1 = 0
y S no sería linealmente independiente.

Sin perdida de generalidad podemos suponer que es α 1 ≠ 0 , por lo que en tal caso:
1 α α
y1 = x 1 − 2 y 2 − …− m y m
α1 α1 α1

{ }
Así, se obtiene que G1 = x 1 , y 2 ,… , y m es un sistema generador de V, respecto del cual

se puede expresar x 2 como:


x 1 = β 1 x 1 + β 2 y 2 + …+ β m y m , con algún β i ≠ 0 .

{
Razonando igual que antes, y suponiendo β 2 ≠ 0 se llega a que G2 = x 1 , x 2 , y 3 ,… , y m }
es un sistema generador de V. Así, sucesivamente se llegaría a que:

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

{
G p = x 1 , x 2 ,… , x p , y p +1 , y p + 2 ,… , y m }
es un sistema generador de V. Ahora bien, en G p es imposible que p>m, pues si así

fuera se tendría que los vectores {x , x ,…, x } de S podrían expresarse como


m +1 m+ 2 p

combinación lineal de los vectores {x , x ,… , x } , lo cual es absurdo por ser S un


1 2 m

conjunto de vectores linealmente independientes. Luego concluimos que p ≤ m . —

En otras palabras, el teorema fundamental de la independencia lineal viene a decirnos


que, en un espacio vectorial V el cardinal (es decir, el número de elementos) de
cualquier sistema de vectores linealmente independientes siempre es menor, o a lo
sumo igual, que el cardinal de cualquier sistema generador de V.

Una de las consecuencias más importantes del teorema anterior es la siguiente.

{
Teorema. Si B1 = x 1 , x 2 ,… , x p } y B = {y , y ,…, y } son bases del mismo espacio
2 1 2 m

vectorial V, entonces m = p.

Demostración: Atendiendo al teorema fundamental de la independencia lineal se sigue


que:
Por ser B1 L.I. y B2 sistema generador ⇒ p ≤ m
Por ser B2 L.I. y B1 sistema generador ⇒ m ≤ p

Por tanto, concluimos que necesariamente ha de ser m = p. —

Lo que viene a indicar este último teorema es que, en un espacio vectorial todas las
bases que podamos encontrar tienen una característica común: el número de elementos.
Esta propiedad sugiere la siguiente definición.

Definición (dimensión de un espacio vectorial). Se llama dimensión de un espacio


vectorial V al número de elementos que contiene una base cualquiera de V, y se
representa mediante dim(V).

Observaciones. Por convenio se establece que para el subespacio vectorial nulo:


FH { }IK = 0 .
dim 0

Por otra parte, es necesario hacer hincapié en que trabajaremos con espacios
vectoriales en los que existen bases con un número finito de elementos (a los que se
suele denominar espacios vectoriales finito dimensionales), pero que existen espacios
vectoriales (algunos muy conocidos por nosotros) cuyas bases contienen un número
infinito de elementos: por ejemplo el espacio vectorial de los polinomios en una
variable con coeficientes reales o el espacio vectorial de las funciones continuas.

En lo que resta de sección se establecerán diversas propiedades relacionadas con la


dimensión de un espacio vectorial. Como primera propiedad se tiene la siguiente.

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

Proposición. Si W es un subespacio vectorial del espacio vectorial finito dimensional V,


b g
entonces dim W ≤ dim V . bg
Demostración: Para probar este resultado volvemos a utilizar el teorema de Steinitz.
Si B es base de W ⇒ B es L.I. en W ⇒ B es L.I. en V.
Si B’ es base de V ⇒ B’ es sistema generador de V.

Por tanto, según el teorema de Steinitz, se tiene que dim W ≤ dim V . —b g bg


Seguidamente, establecemos un resultado que nos permite asegurar que partiendo de un
conjunto de vectores linealmente independientes se puede ir completando el mismo
hasta obtener una base: el teorema de la base incompleta. Obviaremos la demostración
de dicho teorema, limitándonos a ilustrar mediante un ejemplo el modo de proceder para
encontrar la base buscada. Cabe decir que la búsqueda de la base que se plantea imita
por completo a lo que sería la demostración del teorema.

Teorema de la base incompleta.


Si S es un sistema de vectores libres de un espacio vectorial V finito dimensional,
entonces existe una base de V que contiene a S.

Dicho de otro modo, el teorema de la base incompleta afirma que el sistema S puede ser
ampliado hasta formar una base de V.

Ejemplo. Supongamos que en el espacio vectorial R 4 consideramos los vectores


linealmente independientes:
{x = b1,0,1,0g, x = b−11, ,−1,0g}
1 2

y que queremos encontrar una base de R 4 que contenga a x 1 y x 2 . Para ello, tomamos
la base canónica de R 4 :
{e = b1,0,0,0g, e = b0,1,0,0g, e = b0,0,1,0g, e = b0,0,0,1g}
1 2 3 4

y formamos el conjunto de vectores:


{ }
S = x 1 , x 2 , e1 , e 2 , e 3 , e 4 .

Así, se tiene que S es un sistema generador de R 4 , pues S contiene a la base canónica de


R 4 . Por tanto, sólo resta buscar en S dos vectores de la base canónica que sean L.I. de
x 1 y x 2 . Si fuésemos capaces de encontrarlos habremos completado una base de R 4 que
contiene a x 1 y x 2 .

Para encontrar la base buscada y siempre que tratemos con R n podremos proceder
como se indica a continuación:

1. Formamos el sistema homogéneo:


α x 1 + β x 2 + γ e1 + δ e 2 + ε e 3 + φ e 4 = 0
2. Reducimos el sistema obtenido a forma escalonada reducida por filas.

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

3. Las columnas donde se sitúan los pivotes indican las posiciones donde se ubican los
vectores libres (entre los que se van a encontrar los vectores x 1 y x 2 , que habremos
situado en las dos primeras columnas del sistema de partida).

Así, según el procedimiento descrito, en nuestro ejemplo la matriz de los coeficientes


del sistema homogéneo formado será:
F1 −1 1 0 0 0 I
1 −1 1 0 0 0 F I
GG 0 1 0 1 0 0J
J f 3 − f1 → f 3

GG 0 1 0 1 0 0J
J≈
GG 1 −1 0 0 1 0J
J GG 0 0 −1 0 1 0J
J
H0 0 0 0 0 1K H0 0 0 0 0 1K
F1 0 1 1 0 0I F1 0 0 1 1 I
0
f 2 + f1 → f1

GG 0 1 0 1 0 0JJ f 3 + f1 → f1

GG 0 1 0 1 0 JJ
0
GG 0 0 −1 0 1 0 JJ GG 0 0 −1 0 1 0JJ
H0 0 0 0 0 1 K H0 0 0 0 0 1 K
En la última matriz obtenida, equivalente a la de partida, se observa que multiplicando
por (-1) la tercera fila se tiene que los pivotes se sitúan en las columnas primera,
segunda, tercera y sexta. Por tanto, en la matriz de partida los vectores libres se sitúan
en esas mismas columnas, es decir, los vectores x 1 , x 2 , e1 , e 4 son L.I.. Luego una base
de R 4 que contiene a los vectores de partida es:

{
B = x 1 , x 2 , e1 , e 4 . }
Seguidamente tratamos algunos resultados relacionados con la dimensión de un espacio
vectorial. En primer lugar, sabemos que si B es una base de un espacio vectorial V,
entonces B es un sistema libre y además B = V . Sin embargo, vamos a ver que cuando
conocemos la dimensión de V sólo basta comprobar una sola de las condiciones para
afirmar que B es una base de V.

Teorema. Sea V un espacio vectorial con dim(V) = n, y S = x 1 , x 2 ,… , x n un sistema { }


de vectores de V. Entonces:

(a) Si S es libre ⇒ S es base de V.


(b) Si S = V ⇒ S es base de V.
Demostración:
(a) Si S es libre y suponemos que S no es base de V, se podría completar una base de V
que contuviese a S. En tal caso sería dim(V) > n, lo cual es absurdo pues por
hipótesis dim(V) = n. Por tanto, si S es libre y dim(V) = n se tiene que S es base de
V.

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

(b) Si S = V y suponemos que S no es base de V, entonces S contiene a una base de V,


por lo que dim(V) < n, lo cual es absurdo por ser dim(V) = n. Por tanto, si S = V y
dim(V) = n se tiene que S es base de V. —

Por otra parte, otro resultado relacionado con la dimensión de un espacio vectorial es la
denominada fórmula de las dimensiones o de Grassmann.

Teorema (fórmula de las dimensiones).


Si W1 y W2 son subespacios vectoriales del espacio vectorial V, entonces:
b g b g
dim W1 + dim W2 = dim W1 + W2 + dim W1 ∩ W2 b g b g
b g
Demostración: Llamando p = dim W1 ∩ W2 , r = dim W1 , s = dim W2 y si e1 , e 2 ,… , e p b g b g { }
es una base de W1 ∩ W2 , entonces ampliando adecuadamente la base anterior pueden
conseguirse bases de W1 y W2 . De esta manera, sean:

{e , e ,…, e , u
1 2 p p +1 }
,… , u r base de W1 , y

{e , e ,…, e , v
1 2 p p +1 ,… , v } base de W .
s 2

Nuestro interés ahora es comprobar que:


{
B = e1 , e 2 , … , e p , u p +1 , … , u r , v p + 1 , … , v s }
es base de W1 + W2 , pues en tal caso se tiene que:
b g
dim W1 + W2 = p + r − p + s − p = r + s − p b g b g
con lo que quedaría probado el teorema. Veamos pues que B es base de W1 + W2 .

• B = W1 + W2 , pues para cualquier vector w = w1 + w 2 ∈W1 + W2 se tiene que:

{
w1 ∈ e1 , e 2 ,… , e p , u p +1 ,… , u r } U| ⇒ w ∈ B
∈ {e , e ,… , e , v ,… , v } |
V
w2 1 2 p p +1 s
W
• B es L.I. Para comprobarlo suponemos que B es L.D., en cuyo caso se tiene que
existe una combinación lineal con escalares no todos nulos tales que :
eλ e + λ e
1 1 2 2 + j e
+ λ p e p + µ p +1 u p +1 + j
+ µ r u r = α p +1 v p +1 + + α s vs

En particular se tiene que α p+1 ,… , α s no pueden ser todos nulos, pues de serlo se

tendría que {e , e ,…, e , u


1 2 p p +1 ,… , u r } sería un conjunto de vectores L.D., resultado
absurdo por tratarse de una base de W1 . Así, se deduce que a ambos lados de la igualdad
anterior se tiene el mismo vector no nulo que, expresado en el primer miembro aparece

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

como vector de W1 , mientras que visto en el segundo miembro aparece como vector de
W2 . Luego se trata de un vector de W1 ∩ W2 , y por tanto:
α p +1 v p +1 + + α s v s ∈ e1 , … , e p

pero este resultado también es absurdo pues significaría que existe algún v k de
{e , e ,…, e , v
1 2 p p +1 }
,… , v s (la base de W2 considerada) que puede expresarse como
combinación lineal de los restantes vectores de esa base (lo cual contradice la
independencia lineal de dicha base).

En definitiva, queda probado que B no puede ser L.D., por lo que concluimos que B es
base de W1 + W2 y queda probado el teorema. —

4.6. Coordenadas y cambios de base

Tal y como se estableció en la sección anterior, dada una base de un espacio vectorial V,
existe una única forma de expresar cualquier vector v ∈V. Así, si dim(V) = n y una base
{
de V viene dada por B = x1 , x 2 ,… , x n , entonces: }
v = v1 x 1 + v2 x 2 + + vn x n

b g
A los únicos escalares v1 , v2 ,… , vn que permiten expresar v como combinación lineal
de los vectores de la base B, se les denomina coordenadas de v respecto de B.

En esta sección nos planteamos estudiar qué relación existe entre las coordenadas de un
mismo vector v respecto de bases diferentes.

Supongamos que V es un espacio vectorial de dimensión n y que B = y 1 , y 2 ,… , y n { }y


{ } son dos bases diferentes de V. Si v es un vector de V que tiene por
B ' = x 1 , x 2 ,… , x n
coordenadas respecto de B a bv , v ,… , v g , es decir:
1 2 n
n
v = v1 y 1 + v2 y 2 + + vn y n = ∑ v j y j
j =1

nos interesa determinar las coordenadas de v respecto de B’, a las que vamos a
c h
representar por v1' , v2' ,… , vn' . Para ello partimos del supuesto de que conocemos las
coordenadas de los vectores de B respecto de B’, es decir, suponemos que:
n
y j = a1 j x1 + a2 j x 2 + + anj x n = ∑a
i =1
ij x i

Así:

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

n n Fn I n
v = v1 y1 + v2 y 2 + + vn y n = ∑ vj y j = ∑ vj GG ∑ aij xi JJ = ∑ v j aij xi =
j =1 j =1 H i =1 K i, j =1
Fn I Fn I Fn I
= GG ∑ v j a1 j JJ x1 + GG ∑ v j a2 j JJ x 2 + + G ∑ v j anj J x n
GGH j =1 JJK
GH j =1 JK GH j =1 JK
de donde se deduce que las coordenadas de v respecto de B’ son:

c
F
h GH ∑ v a
n n n I
v1' , v2' ,… , vn' =
j =1
j 1 j , ∑ v j a2 j ,… , ∑ v j anj
j =1 j =1
JK
Para hacer más manejable la interpretación de estas coordenadas, vamos a expresar
matricialmente la relación obtenida. Se tiene que las coordenadas de v respecto de B’
son:
Fn n n I
v = ∑ v j a1 j , ∑ v j a2 j ,…, ∑ v j anj J =
G
GGH j =1 j =1 j =1
JJK

= ( v1a11 + v2 a12 + + vn a1n , v1a21 + v2 a22 + + vn a2 n ,…… , v1an1 + v2 an 2 + + vn ann ) =

F a11 a12 a1n I F v1 I


G a21 JJ GG v2 JJ
=G
a22 a2 n
GG JJ ⋅ GG JJ
H an1 an2 ann K H vn K

Así, llamando P a la matriz de orden nxn que aparece en la última relación se deduce
que:
Fv I Fv I
'

GG v JJ G v J
1 1

GG JJ = P ⋅ GGG JJJ
'
2 2

Hv K Hv K
'
n n

A P se le denomina matriz de transición o matriz de cambio de base de B a B’.


Obsérvese que las columnas de P no son más que las coordenadas de los vectores de la
base B expresados respecto de la base B’.

Ejemplo. Consideremos el espacio vectorial R 3 y en él las dos bases siguientes:


mb g b g b gr
B = 6,3,3 , 4,−1,3 , 5,5,2 y B ' = 2,0,1 , 1,2,0 , 111 ,, . mb g b g b gr
Se pide:
(a) Calcular la matriz de transición P de B a B’.
(b) Calcular las coordenadas de v B = 4,−9,5 b g en la base B’, donde v B
representa al vector v expresado respecto de la base B.

Juan Rocha Martín y Kishin Sadarangani


Álgebra Lineal. Curso 2005/06

Solución

(a) Para calcular la matriz de transición pedida deberíamos determinar las


coordenadas de los vectores de la base B expresadas respecto de B’. Para ello bastaría
con resolver tres sistemas de ecuaciones, los dados por:
F 2 1 1 α 6 IF I F I
b g b g b g b g GG
6,3,3 = α 2,0,1 + β 1,2,0 + γ 111
,, ⇔ 0 2 1 β = 3 JJ GG JJ GG JJ
H1 0 1K H γ K H 3K
F 2 1 1I Fα I F 4 I
, , g ⇔ G 0 2 1J G β J = G −1J
1

b4,−1,3g = α b2,0,1g + β b1,2,0g + γ b111


1 1
GH 1 0 1JK GH γ JK GH 3 JK
1 1

F 2 1 1I Fα I F 5I
, , g ⇔ G 0 2 1J G β J = G 5J
2

b5,5,1g = α b2,0,1g + β b1,2,0g + γ b111


2 2
GH 1 0 1JK GH γ JK GH 2JK
2 2

Teniendo en cuenta que la matriz de los coeficientes de los tres sistemas coinciden,
podemos convenir en resolver los tres sistemas simultáneamente y utilizando el método
de eliminación de Gauss-Jordan. Para ello escribimos una matriz estructurada en
cuatro partes: la primera es la matriz de los coeficientes de los distintos sistemas, la
segunda, tercera y cuarta se corresponden con las columnas de términos
independientes del primer, segundo y tercer sistema respectivamente. Tras realizar la
eliminación de Gauss-Jordan, siempre que sea posible, las tres últimas columnas de la
matriz proporcionarán directamente las soluciones de los tres sistemas tratados. En
efecto:

F2 1 1 6 4 5 I f1 ↔ f 3
F1 0 1 3 3 2 I
GG 0 2 1 3 −1 5 JJ f 3 − 2 xf 1 → f 3
≈ GG 0 2 1 3 −1 5 ≈ JJ
GH 1 0 1 3 3 2 JK GH 0 1 −1 0 −2 1 JK
1
xf 3 → f 3
f2 ↔ f3
F1 0 1 3 3 2 I 3
f1 − f 3 → f1
F1 0 0 2 2 1 I
f 3 − 2 xf 2 → f 3
≈ GG 0 1 −1 0 −2 1 JJ f2 + f3→ f2
≈ GG 0 1 0 1 −1 2 . JJ
GH 0 0 3 3 3 3JK GH 0 0 1 1 1 1 JK
b
Así, α , β , γ = 2,11 g b gb
, ; α 1 , β 1 , γ 1 = 2,−11
, g b g y bα , β ,γ g = b1,2,1g , siendo la matriz
2 2 2

de transición de B a B’:
2 2 1 F I
P = 1 −1 2 . GG JJ
H1 1 1K

(b) Una vez conocemos la matriz de transición P de B a B’, se tiene que:


v B' = P ⋅ v B
Así:

Juan Rocha Martín y Kishin Sadarangani


Capítulo 4. Espacios Vectoriales

F2 2 1 4IF I −5 F I
= G1 JJ GG JJ
−1 2 −9 = 23 . GG JJ
v B'
GH 1 1 1K H 5 K H 0K
Seguidamente probamos que toda matriz de transición es no singular.

Teorema.- Sean B y B’ dos bases del espacio vectorial V de dimensión n. Si P es la


matriz de transición de B a B’, entonces P es no singular y P-1 es la matriz de transición
de B’ a B.

Demostración: Para probar que P es no singular centramos nuestra atención en el


sistema homogéneo:
P⋅ XB = 0 (1)

Si representamos por X B al vector X cuando lo expresamos respecto de la base B, y por


X B ' a las coordenadas de X cuando se expresa respecto de B’, sabemos que la matriz P
determina la siguiente relación entre ambos sistemas de coordenadas:
X B' = P ⋅ X B

Por tanto, el sistema homogéneo dado en la relación (1) nos indica que, en ese caso en
F n)
I
H K
particular, X B ' = 0,0,…, 0 . Es decir, estamos considerando que X B ' es el vector nulo.

Ahora bien, el vector nulo del espacio vectorial V siempre tendrá por coordenadas,
F n)
I
H K
respecto de cualquier base que se quiera, a 0,0,…, 0 . Esto se traduce en que el sistema

homogéneo (1) admite únicamente solución trivial, por lo que el rango de P es máximo
y det(P) ≠ 0 . En definitiva se concluye que P es una matriz invertible.

Además:
X B ' = P ⋅ X B ⇒ X B = P −1 ⋅ X B ' ⇒ P −1 es matriz de transición de B’ a B. —

Ejercicio. En el ejemplo anterior, determinar la matriz de transición de la base B’ a la


base B directamente, y luego comprobar que efectivamente coincide con P −1 .

Juan Rocha Martín y Kishin Sadarangani

También podría gustarte