Espacios Vectoriales
Espacios Vectoriales
Espacios Vectoriales
Espacios Vectoriales
Capítulo 4
ESPACIOS VECTORIALES
Quizá esta sección sea una de las de carácter más abstracto en el curso, en ella
formalizaremos la idea de espacio vectorial. Los modelos o ejemplos más cercanos a la
intuición de este tipo de estructuras los proporcionan el espacio bidimensional (el plano)
y el espacio tridimensional (el espacio físico con el que habitualmente trabajamos en
otras asignaturas).
e j
b.1) λ ⋅ x + y = λ ⋅ x + λ ⋅ y
b g
b.2) λ + µ ⋅ x = λ ⋅ x + λ ⋅ x
b.3) bλ µ g ⋅ x = λ e µ ⋅ x j
b.4) 1⋅ x = x
Ejemplos.
dotado de las operaciones suma y producto por un escalar real, dadas por:
b x , x ,… , x g + b y , y ,… , y g = b x + y , x + y ,… , x + y g
1 2 n 1 2 n 1 1 2 2 n n
λ ⋅ b x , x ,… , x g = bλ ⋅ x , λ ⋅ x ,… , λ ⋅ x g .
1 2 n 1 2 n
2. Otro ejemplo de espacio vectorial viene dado por el conjunto de las matrices
rectangulares de orden m x n con elementos reales, es decir, por M mxn R , + , ⋅ c bg h
dotado con las operaciones suma de matrices y producto de una matriz por un
escalar real.
3. Un ejemplo menos trivial viene dado por el conjunto de los polinomios de grado
menor o igual a n con coeficientes reales, que se denota por:
Rn
R n
x = S∑ a x = a + a x + i 1
l qUVW
+ an −1 x n −1 + an x n / ai ∈ R, i ∈ 1, 2,… , n
T i =0
i 0 1
bg bg
n n
donde si p x = ∑ ai x i , q x = ∑ bi x i ∈ R x , se define la suma de ambos y el
i =0 i =0
producto de p(x) por un escalar real λ como:
b g
n
p( x ) + q ( x ) = ∑ ai + bi x i
i =0
λ ⋅ p( x ) = ∑ b λ a g x
n
i
i
i =0
c h
obteniéndose que Rn x , + , ⋅ es un espacio vectorial.
4. Finalmente, otro ejemplo viene dado por el conjunto de funciones reales de una
variable real:
RR = f / f : R → R l q
en el que se definen las operaciones:
b f + ggb xg = f b xg + gb xg
( λ ⋅ f )( x ) = λ ⋅ f b x g, λ ∈ R.
En adelante consideraremos que los espacios vectoriales que tratemos son reales, es
decir, tales que el cuerpo K = R, salvo que indiquemos otra cosa.
Demostración:
i. b g
0⋅ x = 0 + 0 ⋅ x = 0⋅ x + 0⋅ x ⇒ 0⋅ x = 0
λ ⋅ 0 = λ ⋅ e0 + 0j = λ ⋅ 0 + λ ⋅ 0 ⇒ λ ⋅ 0 = 0
ii. bλ − µ g ⋅ x = cλ + b− µ gh ⋅ x = λ ⋅ x + b− µ g ⋅ x = λ ⋅ x − µ ⋅ x
λ ⋅ e x − y j = λ ⋅ FH x + e− y jIK = λ ⋅ x + λ ⋅ e − y j = λ ⋅ x − λ ⋅ y
λ⋅x = 0U| 1 1 F1 I
1 V ⇒ 0 = ⋅ 0 = ⋅ eλ ⋅ x j = G λ J ⋅ x = 1 ⋅ x = x ⇒ x = 0
0 = ⋅ 0|
λ W
λ λ Hλ K
Así, si λ ≠ 0 entonces x = 0 .
Por otra parte, las condiciones dadas pueden sintetizarse en una única expresión que
caracteriza a los subespacios vectoriales:
W ⊆ V es un subespacio vectorial ⇔ ∀ x , y ∈W , ∀ λ , µ ∈ K : λ x + µ y ∈W e j
Ejemplos.
3. Puede comprobarse, sin más que aplicar la definición de subespacio vectorial dada
más arriba, que el subconjunto de matrices:
W=
RSFG a b 0 IJ bg
∈ M 2 x 3 R / a , b , c, d ∈R
UV
TH 0 c d K W
es un subespacio vectorial del espacio vectorial M 2 x 3 R . bg
4. Otro ejemplo de subespacio vectorial es el formado por el conjunto de soluciones de
un sistema de ecuaciones lineales homogéneo A X = 0 , donde A ∈ M mxn R . En este bg
caso se tiene que dicho conjunto de soluciones es un subespacio vectorial del
espacio vectorial R n .
Seguidamente analizamos las diversas operaciones que pueden realizarse con los
subespacios vectoriales de un espacio vectorial V. En concreto nos ocuparemos de la
intersección y suma de subespacios vectoriales.
l q
Si Wi
n
i =1
es una familia de subespacios vectoriales del espacio vectorial V, entonces
n
W = ∩ Wi es también un subespacio vectorial.
i =1
l
W1 = ( x , 2 x ) / x ∈ R q l
y W2 = ( x , 3x ) / x ∈ R . q
Para ellos se tiene que la intersección W = W1 ∩ W2 = 0 , pues si: {}
w = (a , b) ∈W = W1 ∩ W2 ⇒
|RSw ∈W ⇒ b = 2a |UV ⇒ 2a = 3a ⇒ a = 0 ⇒ w = 0
1
|Tw ∈W ⇒ b = 3a |W
2
{
W1 + W2 = w = x + y / x ∈W1 ∧ y ∈W2 . }
Es inmediato comprobar que W1 + W2 es un subespacio vectorial de V y que es, además,
el más pequeño de los subespacios vectoriales de V que contiene al subconjunto
W1 ∪ W2 .
Definición (Suma directa).- Si W1 ,W2 son subespacios vectoriales del espacio vectorial
{}
V tales que W1 ∩ W2 = 0 y W = W1 + W2 , se dice que W es suma directa de W1 y W2 y
se escribe W = W1 ⊕ W2 .
l
W1 = ( x , 0, 0) / x ∈ Rq l q
y W2 = ( y , y , 2 y ) / y ∈ R .
⇒ S x − y ∈W
|| y − x ∈W V|| e j e j {}
x1 + x 2 = y1 + y 2 1 1 ⇒ x −y , y
1 1 1 2 − x 2 ∈ W1 ∩ W2 = 0
T2 2
W 2
Por tanto:
x1 = y1 ∧ x 2 = y 2
resultado que contradice nuestra suposición de que existían dos maneras de expresar un
mismo vector. Así queda probado que sólo existirá una única forma de expresar cada
vector de W. ■
Finalmente, cabe decir que las definiciones de suma y suma directa se extienden de
forma natural para cualquier familia finita de subespacios vectoriales.
α 1 x1 + α 2 x 2 + + α k xk
l
donde α i son escalares para todo i ∈ 1, 2,… , k . q
Tras definir la noción de combinación lineal, introducimos el concepto de subespacio
generado por un conjunto de vectores.
{ }
Definición. Si S = x 1 , x 2 ,… , x k es un conjunto de vectores del espacio vectorial V, se
denomina subespacio generado por S a:
{
S = α 1 x1 + α 2 x 2 + + α k x k / α i ∈ R, ∀ i ∈ 1, 2,… , kl q}
Observaciones.
1. En la definición se ha considerado que α i son números reales. Deberían haberse
considerado como escalares de un cuerpo cualquiera K. No obstante, al comenzar el
tema conveníamos que, salvo que se dijese lo contrario, siempre trabajaríamos con
espacios vectoriales sobre el cuerpo de los números reales, de ahí la restricción.
Si y 1 = α 1 x 1 + α 2 x 2 + + α k x k y y 2 = β 1 x1 + β 2 x 2 + + β k x k ∈ S , entonces:
e
λ y1 + µ y 2 = λ α 1 x1 + α 2 x 2 + j e + α k x k + µ β 1 x1 + β 2 x 2 + j
+ β k xk =
mb g b g b g
S = α 1,2,1 + β 1,0,2 + γ 11 r mb
, ,0 / α , β , γ ∈ R = α + β + γ , 2α + γ , α + 2β / α , β , γ ∈ R g r
Por otro lado:
{ b g
R 3 = v = a , b, c / a , b, c ∈ R }
Por tanto, comprobar que S = R3 se reduce a comprobar que cualquier
b g
v = a , b, c ∈ R 3 verifica que:
ba,b, cg = bα + β + γ , 2α + γ ,α + 2β g
lo cual se traduce en términos de un sistema de ecuaciones lineales como:
α + β +γ = a
2α + γ = b
α + 2β = c
−2a + 2b + c a −b+c 4a − b − 2c
α= ; β= ; γ =
3 3 3
es decir:
ba,b, cg = FGH −2a +32b + c IJK b1,2,1g + FGH a − 3b + c IJK b1,0,2g + FGH 4a − 3b − 2c IJK b11, ,0g
Por tanto, S = R 3 .
{
Dado un espacio vectorial V y un conjunto de vectores x1 , x 2 ,… , x k ∈V , se dice que: }
1. {x , x ,…, x } son vectores linealmente independientes (L.I.) o libres si:
1 2 k
α 1 x1 + α 2 x 2 + + α k xk = 0 ⇒ α1 = α 2 = = αk = 0.
Si este sistema lineal tiene únicamente solución trivial (0,0,0) esto significaría que los
vectores de S son libres, caso contrario se trataría de vectores L.D.. Por tanto podemos
proceder de distintas maneras: por un lado, podría utilizarse el método de eliminación
de Gauss o Gauss-Jordan para resolver el sistema (a la vista de las soluciones
decidiríamos la dependencia o independencia lineal de los vectores dados); por otro, al
ser el sistema anterior homogéneo éste tendrá solución trivial sólo cuando el rango de la
matriz de los coeficientes es 3, y dicho rango puede calcularse mediante determinantes
(el rango es el orden del mayor menor no nulo):
F1 1 1 I 1 1 1 F I
det G 2 JJ GG JJ
0 1 = 3 ≠ 0 ⇒ rang 2 0 1 = 3 ⇒ la única solución es (0,0,0)
GH 1 2 0K H1 2 0K
{
Análogamente, si x 1 , x 2 , x 3 } es un conjunto de vectores linealmente dependientes de
R 3 , entonces podremos escribir:
α 1 x1 + α 2 x 2 + α 3 x 3 = 0
x2 = −
FG α1 IJ α FG IJ
x1 + − 3 x 3 ⇒ x 2 ∈ x1 , x 3
H α2 K α2 H K
Recíprocamente, si uno de los vectores está en el subespacio generado por los dos
restantes, entonces existirán escalares tales que, por ejemplo:
{ }
x 3 = λ x 1 + µ x 2 ⇒ 1 x 3 − λ x1 − µ x 2 = 0 ⇒ x 1 , x 2 , x 3 son L.D.
Esto significa que en R 3 tres vectores son linealmente dependientes si y sólo si alguno
de ellos es combinación lineal de los restantes. Este resultado se generaliza en el
siguiente teorema, cuya demostración es inmediata a la vista del planteamiento que
acabamos de hacer anteriormente.
{
Teorema. Si S = x 1 , x 2 ,… , x k } es un conjunto de vectores no nulos del espacio
vectorial V, entonces S es linealmente dependiente si y sólo si uno de los vectores de S
es combinación lineal de los restantes.
{
Definición.- Se dice que un conjunto de vectores S = x 1 , x 2 ,… , x n , de un espacio }
vectorial V , es una base de V si genera todo V y es linealmente independiente. Es decir:
S es base de V ⇔ S = V ∧ S es L. I .
Tal y como se irá descifrando en esta sección, cabe adelantar que cada base de un
espacio vectorial V proporciona un conjunto de vectores que describe completamente a
V. En este sentido, se tiene que cualquier vector de V se podrá determinar en función de
los vectores de la base, como se recoge en el siguiente teorema.
{ }
Teorema. Si S = x 1 , x 2 ,… , x n es una base del espacio vectorial V, entonces cualquier
Demostración: Dado que S es una base de V será un sistema generador de V, por tanto,
para cualquier vector v ∈V existirán ciertos escalares reales v1 , v2 ,… , vn , tales que:
v = v1 x 1 + v2 x 2 + …+ vn x n .
Nos interesa probar que dichos escalares son únicos. Para ello, supongamos que existen
otros n escalares α 1 , α 2 ,… , α n tales que:
v = α 1 x 1 + α 2 x 2 + …+ α n x n
Entonces:
α 1 x 1 + α 2 x 2 + …+ α n x n = v1 x1 + v2 x 2 + …+ vn x n ⇒
⇒ (α 1 − v1 ) x 1 + (α 2 − v2 ) x 2 + …+ (α n − vn ) x n = 0 ⇒
l q
⇒ (α i − vi ) = 0, ∀ i ∈ 1,2,… , n ⇒ α i = vi , ∀ i ∈ 1,2,… , n
S es L . I .
l q
quedando así probado que sólo existe una única forma de expresar el vector v respecto
de la base dada.
Sistemas de vectores
Teniendo en cuenta que todo vector de un espacio vectorial V queda determinado por
sus coordenadas respecto de una base fijada, podemos hablar de la matriz asociada a un
sistema de vectores como aquella matriz en la que cada columna viene dada por las
coordenadas de uno de los vectores del sistema, respecto de la base dada.
Una vez vista la posibilidad de expresar, de forma única, cualquier vector de un espacio
vectorial V como combinación lineal de los elementos de una base de V, la pregunta que
surge es: ¿pueden existir bases de V con distinto número de elementos?. La respuesta a
esta cuestión la obtendremos como consecuencia del siguiente teorema, denominado
teorema de Steinitz o teorema fundamental de la independencia lineal.
{
espacio vectorial V, y G = y 1 , y 2 ,… , y m } es un sistema generador de V, entonces
p ≤ m.
Sin perdida de generalidad podemos suponer que es α 1 ≠ 0 , por lo que en tal caso:
1 α α
y1 = x 1 − 2 y 2 − …− m y m
α1 α1 α1
{ }
Así, se obtiene que G1 = x 1 , y 2 ,… , y m es un sistema generador de V, respecto del cual
{
Razonando igual que antes, y suponiendo β 2 ≠ 0 se llega a que G2 = x 1 , x 2 , y 3 ,… , y m }
es un sistema generador de V. Así, sucesivamente se llegaría a que:
{
G p = x 1 , x 2 ,… , x p , y p +1 , y p + 2 ,… , y m }
es un sistema generador de V. Ahora bien, en G p es imposible que p>m, pues si así
{
Teorema. Si B1 = x 1 , x 2 ,… , x p } y B = {y , y ,…, y } son bases del mismo espacio
2 1 2 m
vectorial V, entonces m = p.
Lo que viene a indicar este último teorema es que, en un espacio vectorial todas las
bases que podamos encontrar tienen una característica común: el número de elementos.
Esta propiedad sugiere la siguiente definición.
Por otra parte, es necesario hacer hincapié en que trabajaremos con espacios
vectoriales en los que existen bases con un número finito de elementos (a los que se
suele denominar espacios vectoriales finito dimensionales), pero que existen espacios
vectoriales (algunos muy conocidos por nosotros) cuyas bases contienen un número
infinito de elementos: por ejemplo el espacio vectorial de los polinomios en una
variable con coeficientes reales o el espacio vectorial de las funciones continuas.
Dicho de otro modo, el teorema de la base incompleta afirma que el sistema S puede ser
ampliado hasta formar una base de V.
y que queremos encontrar una base de R 4 que contenga a x 1 y x 2 . Para ello, tomamos
la base canónica de R 4 :
{e = b1,0,0,0g, e = b0,1,0,0g, e = b0,0,1,0g, e = b0,0,0,1g}
1 2 3 4
Para encontrar la base buscada y siempre que tratemos con R n podremos proceder
como se indica a continuación:
3. Las columnas donde se sitúan los pivotes indican las posiciones donde se ubican los
vectores libres (entre los que se van a encontrar los vectores x 1 y x 2 , que habremos
situado en las dos primeras columnas del sistema de partida).
{
B = x 1 , x 2 , e1 , e 4 . }
Seguidamente tratamos algunos resultados relacionados con la dimensión de un espacio
vectorial. En primer lugar, sabemos que si B es una base de un espacio vectorial V,
entonces B es un sistema libre y además B = V . Sin embargo, vamos a ver que cuando
conocemos la dimensión de V sólo basta comprobar una sola de las condiciones para
afirmar que B es una base de V.
Por otra parte, otro resultado relacionado con la dimensión de un espacio vectorial es la
denominada fórmula de las dimensiones o de Grassmann.
{e , e ,…, e , u
1 2 p p +1 }
,… , u r base de W1 , y
{e , e ,…, e , v
1 2 p p +1 ,… , v } base de W .
s 2
{
w1 ∈ e1 , e 2 ,… , e p , u p +1 ,… , u r } U| ⇒ w ∈ B
∈ {e , e ,… , e , v ,… , v } |
V
w2 1 2 p p +1 s
W
• B es L.I. Para comprobarlo suponemos que B es L.D., en cuyo caso se tiene que
existe una combinación lineal con escalares no todos nulos tales que :
eλ e + λ e
1 1 2 2 + j e
+ λ p e p + µ p +1 u p +1 + j
+ µ r u r = α p +1 v p +1 + + α s vs
En particular se tiene que α p+1 ,… , α s no pueden ser todos nulos, pues de serlo se
como vector de W1 , mientras que visto en el segundo miembro aparece como vector de
W2 . Luego se trata de un vector de W1 ∩ W2 , y por tanto:
α p +1 v p +1 + + α s v s ∈ e1 , … , e p
pero este resultado también es absurdo pues significaría que existe algún v k de
{e , e ,…, e , v
1 2 p p +1 }
,… , v s (la base de W2 considerada) que puede expresarse como
combinación lineal de los restantes vectores de esa base (lo cual contradice la
independencia lineal de dicha base).
En definitiva, queda probado que B no puede ser L.D., por lo que concluimos que B es
base de W1 + W2 y queda probado el teorema.
Tal y como se estableció en la sección anterior, dada una base de un espacio vectorial V,
existe una única forma de expresar cualquier vector v ∈V. Así, si dim(V) = n y una base
{
de V viene dada por B = x1 , x 2 ,… , x n , entonces: }
v = v1 x 1 + v2 x 2 + + vn x n
b g
A los únicos escalares v1 , v2 ,… , vn que permiten expresar v como combinación lineal
de los vectores de la base B, se les denomina coordenadas de v respecto de B.
En esta sección nos planteamos estudiar qué relación existe entre las coordenadas de un
mismo vector v respecto de bases diferentes.
nos interesa determinar las coordenadas de v respecto de B’, a las que vamos a
c h
representar por v1' , v2' ,… , vn' . Para ello partimos del supuesto de que conocemos las
coordenadas de los vectores de B respecto de B’, es decir, suponemos que:
n
y j = a1 j x1 + a2 j x 2 + + anj x n = ∑a
i =1
ij x i
Así:
n n Fn I n
v = v1 y1 + v2 y 2 + + vn y n = ∑ vj y j = ∑ vj GG ∑ aij xi JJ = ∑ v j aij xi =
j =1 j =1 H i =1 K i, j =1
Fn I Fn I Fn I
= GG ∑ v j a1 j JJ x1 + GG ∑ v j a2 j JJ x 2 + + G ∑ v j anj J x n
GGH j =1 JJK
GH j =1 JK GH j =1 JK
de donde se deduce que las coordenadas de v respecto de B’ son:
c
F
h GH ∑ v a
n n n I
v1' , v2' ,… , vn' =
j =1
j 1 j , ∑ v j a2 j ,… , ∑ v j anj
j =1 j =1
JK
Para hacer más manejable la interpretación de estas coordenadas, vamos a expresar
matricialmente la relación obtenida. Se tiene que las coordenadas de v respecto de B’
son:
Fn n n I
v = ∑ v j a1 j , ∑ v j a2 j ,…, ∑ v j anj J =
G
GGH j =1 j =1 j =1
JJK
Así, llamando P a la matriz de orden nxn que aparece en la última relación se deduce
que:
Fv I Fv I
'
GG v JJ G v J
1 1
GG JJ = P ⋅ GGG JJJ
'
2 2
Hv K Hv K
'
n n
Solución
F 2 1 1I Fα I F 5I
, , g ⇔ G 0 2 1J G β J = G 5J
2
Teniendo en cuenta que la matriz de los coeficientes de los tres sistemas coinciden,
podemos convenir en resolver los tres sistemas simultáneamente y utilizando el método
de eliminación de Gauss-Jordan. Para ello escribimos una matriz estructurada en
cuatro partes: la primera es la matriz de los coeficientes de los distintos sistemas, la
segunda, tercera y cuarta se corresponden con las columnas de términos
independientes del primer, segundo y tercer sistema respectivamente. Tras realizar la
eliminación de Gauss-Jordan, siempre que sea posible, las tres últimas columnas de la
matriz proporcionarán directamente las soluciones de los tres sistemas tratados. En
efecto:
F2 1 1 6 4 5 I f1 ↔ f 3
F1 0 1 3 3 2 I
GG 0 2 1 3 −1 5 JJ f 3 − 2 xf 1 → f 3
≈ GG 0 2 1 3 −1 5 ≈ JJ
GH 1 0 1 3 3 2 JK GH 0 1 −1 0 −2 1 JK
1
xf 3 → f 3
f2 ↔ f3
F1 0 1 3 3 2 I 3
f1 − f 3 → f1
F1 0 0 2 2 1 I
f 3 − 2 xf 2 → f 3
≈ GG 0 1 −1 0 −2 1 JJ f2 + f3→ f2
≈ GG 0 1 0 1 −1 2 . JJ
GH 0 0 3 3 3 3JK GH 0 0 1 1 1 1 JK
b
Así, α , β , γ = 2,11 g b gb
, ; α 1 , β 1 , γ 1 = 2,−11
, g b g y bα , β ,γ g = b1,2,1g , siendo la matriz
2 2 2
de transición de B a B’:
2 2 1 F I
P = 1 −1 2 . GG JJ
H1 1 1K
F2 2 1 4IF I −5 F I
= G1 JJ GG JJ
−1 2 −9 = 23 . GG JJ
v B'
GH 1 1 1K H 5 K H 0K
Seguidamente probamos que toda matriz de transición es no singular.
Por tanto, el sistema homogéneo dado en la relación (1) nos indica que, en ese caso en
F n)
I
H K
particular, X B ' = 0,0,…, 0 . Es decir, estamos considerando que X B ' es el vector nulo.
Ahora bien, el vector nulo del espacio vectorial V siempre tendrá por coordenadas,
F n)
I
H K
respecto de cualquier base que se quiera, a 0,0,…, 0 . Esto se traduce en que el sistema
homogéneo (1) admite únicamente solución trivial, por lo que el rango de P es máximo
y det(P) ≠ 0 . En definitiva se concluye que P es una matriz invertible.
Además:
X B ' = P ⋅ X B ⇒ X B = P −1 ⋅ X B ' ⇒ P −1 es matriz de transición de B’ a B.