Algebra Lineal

Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1de 49

Álgebra lineal

Ir a la navegaciónIr a la búsqueda

El espacio euclídeo tridimensional R3 es un espacio vectorial y las líneas y los planos que pasan por
el origen son subespacios vectoriales de R3.

El álgebra lineal es una rama de las matemáticas que estudia conceptos tales


como vectores, matrices, espacio dual, sistemas de ecuaciones lineales y en su
enfoque de manera más formal, espacios vectoriales y sus transformaciones lineales.
Dicho de otra forma, el Álgebra lineal es la rama de las matemáticas que se ocupa de
las ecuaciones lineales como:
y aplicaciones lineales tales como:
y sus representaciones en espacios vectoriales y a
través de matrices.123
El álgebra lineal es fundamental en casi todas las áreas
de las matemáticas. Por ejemplo, el álgebra lineal es
fundamental en las presentaciones modernas de
la geometría, incluso para definir objetos básicos
como líneas, planos y rotaciones. Además, el análisis
funcional, una rama del análisis matemático, puede
considerarse básicamente como la aplicación del
álgebra lineal al espacios de funciones.
El álgebra lineal también se utiliza en la mayoría de las
ciencias y campos de la ingeniería, porque
permite modelar muchos fenómenos naturales, y
computar eficientemente con dichos modelos. Para
los sistemas no lineales, que no pueden ser modelados
con el álgebra lineal, se utiliza a menudo para tratar
la aproximaciones de primer orden, utilizando el hecho
de que la diferencial de una 'función multivariante' en
un punto es el mapa lineal que mejor aproxima la
función cerca de ese punto así como el análisis
funcional, las ecuaciones diferenciales, la investigación
de operaciones, las gráficas por computadora,
la ingeniería entre otras más.
La historia del álgebra lineal moderna se remonta
a 1843, cuando William Rowan Hamilton (de quien
proviene el uso del término vector) creó
los cuaterniones inspirado en los números complejos;4
y a 1844, cuando Hermann Grassmann publicó su
libro Die lineare Ausdehnungslehre (La teoría lineal de
extensión).

Índice

 1Historia
 2Contexto general
 3Espacios vectoriales
o 3.1Antecedentes
o 3.2Algunas operaciones básicas
o 3.3Aplicaciones lineales
o 3.4Subespacios, intervalo y base
 4Matrices
 5Sistemas lineales
 6Endomorfismos y matrices cuadradas
o 6.1Determinantes
o 6.2Valores propios y vectores propios
 7Dualidad
o 7.1Mapa lineal de un espacio vectorial a su campo de
escalares
o 7.2Mapa dual
 8Espacios vectoriales de uso común
o 8.1Vectores en Rn
o 8.2Espacio vectorial de polinomios en una misma variable
 9Generalización y temas relacionados
 10Relación con la geometría
 11Utilización y aplicaciones
o 11.1Geometría del espacio ambiental
o 11.2Análisis funcional
o 11.3Estudio de sistemas complejos
o 11.4Cálculo científico
 12Véase también
 13Referencias
 14Fuentes principales
 15Bibliografía
o 15.1Historia
o 15.2Libros de texto introductorios
o 15.3Libros de texto avanzados
 16Enlaces externos

Historia[editar]
El procedimiento para resolver ecuaciones lineales
simultáneas que ahora se denomina eliminación
gaussiana aparece en el antiguo texto matemático
chino Cálculo de barras#Sistema de ecuaciones
lineales; Capítulo octavo: Matrices
rectangulares de Los nueve capítulos sobre el arte
matemático. Su uso se ilustra en dieciocho problemas,
con dos a cinco ecuaciones.5
Los Sistemas de ecuaciones lineales surgieron en
Europa con la introducción en 1637 por René
Descartes de las coordenadas en la geometría. De
hecho, en esta nueva geometría, ahora
llamada geometría cartesiana, las líneas y los planos
están representados por ecuaciones lineales, y calcular
sus intersecciones equivale a resolver sistemas de
ecuaciones lineales.
Los primeros métodos sistemáticos para resolver
sistemas lineales utilizaban determinantes,
considerados por primera vez por Leibniz en 1693. En
1750, Gabriel Cramer los utilizó para dar soluciones
explícitas de sistemas lineales, lo que ahora se
llama regla de Cramer. Más tarde, Gauss describió aún
más el método de eliminación, que inicialmente fue
catalogado como un avance en geodesia.6
En 1844 Hermann Grassmann publicó su "Teoría de la
Extensión" que incluía nuevos temas fundacionales de
lo que hoy se llama álgebra lineal. En 1848, James
Joseph Sylvester introdujo el término matriz, que en
latín significa vientre.
El álgebra lineal creció con las ideas anotadas en
el plano complejo. Por ejemplo, dos números w y z en
ℂ tienen una diferencia w - z, y los segmentos de
línea  y  tienen la misma longitud y dirección. Los
segmentos son equipolentes. El sistema
cuatridimensional ℍ de cuaterniones se inició en 1843.
El término vector fue introducido como v = x i + y j + z k
representando un punto en el espacio. La diferencia de
cuaterniones p - q también produce un segmento
equipolente a la  Otros sistemas de números
hipercomplejos también utilizaron la idea de un espacio
lineal con una base.
Arthur Cayley introdujo la multiplicación matricial y
la matriz inversa en 1856, haciendo posible el grupo
lineal general. El mecanismo de representación de
grupo se hizo disponible para describir los números
complejos e hipercomplejos. Fundamentalmente,
Cayley utilizó una sola letra para denotar una matriz,
tratando así una matriz como un objeto agregado.
También se dio cuenta de la conexión entre las
matrices y los determinantes, y escribió "Habría
muchas cosas que decir sobre esta teoría de las
matrices que deberían, me parece, preceder a la teoría
de los determinantes".6
Benjamin Peirce publicó su Álgebra lineal
asociativa (1872), y su hijo Charles Sanders
Peirce amplió el trabajo posteriormente.7
El telégrafo requería un sistema explicativo, y la
publicación en 1873 de A Treatise on Electricity and
Magnetism instituyó una teoría de campos de fuerzas y
requirió la geometría diferencial para su expresión. El
álgebra lineal es geometría diferencial plana y sirve en
los espacios tangentes a los colectores. Las simetrías
electromagnéticas del espaciotiempo se expresan
mediante las transformaciones de Lorentzs, y gran
parte de la historia del álgebra lineal es la historia de
las transformaciones de Lorentz.
La primera definición moderna y más precisa de un
espacio vectorial fue introducida por Peano en 1888;6
en 1900 había surgido una teoría de las
transformaciones lineales de los espacios vectoriales
de dimensión finita. El álgebra lineal tomó su forma
moderna en la primera mitad del siglo XX, cuando
muchas ideas y métodos de siglos anteriores se
generalizaron como álgebra abstracta. El desarrollo de
los ordenadores hizo que aumentara la investigación
de algoritmos eficientes para la eliminación gaussiana y
las descomposiciones matriciales, y el álgebra lineal se
convirtió en una herramienta esencial para la
modelización y las simulaciones.6

Contexto general[editar]
De manera más formal, el álgebra lineal estudia
conjuntos denominados espacios vectoriales, los
cuales constan de un conjunto de vectores y un
conjunto de escalares que tiene estructura de campo,
con una operación de suma de vectores y otra de
producto entre escalares y vectores que satisfacen
ciertas propiedades (por ejemplo, que la suma es
conmutativa).
Estudia también transformaciones lineales, que son
funciones entre espacios vectoriales que satisfacen las
condiciones de linealidad:
A diferencia del ejemplo desarrollado en la sección
anterior, los vectores no necesariamente son n-adas de
escalares, sino que pueden ser elementos de un
conjunto cualquiera (de hecho, a partir de todo conjunto
puede construirse un espacio vectorial sobre
un campo fijo).
Finalmente, el álgebra lineal estudia también las
propiedades que aparecen cuando se impone
estructura adicional sobre los espacios vectoriales,
siendo una de las más frecuentes la existencia de
un producto interno (una especie de producto entre dos
vectores) que permite introducir nociones como
longitud de vectores y ángulo entre un par de los
mismos.

Espacios vectoriales[editar]
Artículo principal: Espacio vectorial
Antecedentes[editar]
Hasta el siglo XIX, el álgebra lineal se presentaba a
través de sistemas de ecuaciones lineales y matrices.
En la matemática moderna, se prefiere generalmente la
presentación a través de espacios vectoriales, ya que
es más sintética, más general (no se limita al caso de
dimensión finita) y conceptualmente más sencilla,
aunque más abstracta.
Algunas operaciones básicas[editar]
Un espacio vectorial sobre un campo F, con frecuencia
el campo de los números reales, es
un Conjunto V dotado de dos operaciones binarias que
satisfacen los siguientes axiomass.
Los elementos de V se llaman vectores, y los
elementos de F se llaman escalares.
La primera operación, la suma de vectores, se expresa
de la siguiente manera: tómese dos vectores
cualesquiera v y w; la suma tiene como resultado un
tercer vector v + w.
La segunda operación, multiplicación escalar, se
expresa de la siguiente manera: tómese cualquier
escalar a y cualquier vector v y produce un
nuevo vector av. Los axiomas que deben satisfacer la
suma y la multiplicación escalar son los siguientes,
siendo en la lista siguiente, u, v y w elementos
arbitrarios de V; y a y b son escalares arbitrarios en el
campo F.8
Axioma Significación
Asociativa de adición u + (v + w) = (u + v) + w
Conmutativa de adición u + v = v + u
Existe un elemento 0 en V, llamado el vector cero, o simplrmen
Elemento neutro de adición
que v + 0 = v se cumple para todo v del conjunto V.
Para todo v en V, existe un elemento −v in V, llamado el aditivo
Elemento simétrico se adición
que v + (−v) = 0
Distributividad de la multiplicación escalar con
a(u + v) = au + av
respecto a la suma vectorial  
Distributividad de la multiplicación escalar con
(a + b)v = av + bv
respecto a la suma de campos
Compatibilidad de la multiplicación escalar con la
a(bv) = (ab)v 9
multiplicación de campos
Elemento de identidad de la multiplicación escalar 1v = v, donde 1 indica el elemento neutro de F.
Aplicaciones lineales[editar]
Artículo principal: Aplicación lineal
Las aplicaciones lineales son mapeos entre espacios
vectoriales que preservan la estructura del espacio
vectorial. Dados dos espacios vectoriales V y W sobre
un campo F, un mapa lineal, también llamado en
algunos contextos, transformación lineal o mapeo
lineal, es un mapa o aplicación
que es compatible con la suma y la multiplicación
escalar, es decir
para los vectores u,v in V y escaleres a en F.
Esto implica que para cualquier
vector u, v en V y escalares a, b en F, se tiene
Donde V = W son el mismo espacio
vectorial, un mapa lineal  también se conoce
como un operador lineal en V.
Un mapa lineal biyectivo entre dos espacios
vectoriales, es decir, cada vector del
segundo espacio se asocia exactamente con
uno en el primero, es un isomorfismo. Dado
que un isomorfismo preserva la estructura
lineal, dos espacios vectoriales isomorfos
son "esencialmente iguales" desde el punto
de vista del álgebra lineal, en el sentido de
que no pueden distinguirse utilizando las
propiedades del espacio vectorial. Una
cuestión esencial en el álgebra lineal es
probar si un mapa lineal es un isomorfismo o
no, y, si no es un isomorfismo, encontrar
su rango (o imagen) y el conjunto de
elementos que son mapeados al vector cero,
llamado el núcleo del mapa. Todas estas
cuestiones pueden resolverse mediante el
uso de la eliminación gaussiana o alguna
variante de este algoritmo.
Subespacios, intervalo y
base[editar]
Artículos principales: Subespacio
vectorial,  Sistema generador y  Base
(álgebra).
El estudio de aquellos subconjuntos de
espacios vectoriales que son en sí mismos
espacios vectoriales bajo las operaciones
inducidas es fundamental, al igual que para
muchas estructuras matemáticas. Estos
subconjuntos se denominan subespacios
lineales. Más precisamente, un subespacio
lineal de un espacio vectorial V sobre un
campo F es un subconjunto de W of V tal
que u + v y au están en W, para
todo u, v en W, y todo a in F. Estas
condiciones son suficientes para implicar
que W es un espacio vectorial.
Por ejemplo, dado un campo lineal ,
la imagen T(V) de V, y la imagen
inversa T−1(0) de 0, llamada núcleo o kernel,
son subespacios lineales de W y V,
respectivamente.
Otra forma importante de formar un
subespacio es considerar las combinaciones
lineales de un conjunto S de vectores: el
conjunto de todas las sumas
donde v1, v2, …, vk están en S,
y a1, a2, ..., ak están en F forman un
subespacio lineal llamado Sistema
generador de S. El sistema generador
de S es también la intersección de todos
los subespacios lineales que contienen
a S. En otras palabras, es el subespacio
lineal, más pequeño para la relación de
inclusión, que contiene a S.
Un conjunto de vectores es linealmente
independiente si ninguno está en el
intervalo de los demás. De manera
equivalente, un conjunto S de vectores
es linealmente independiente si la única
forma de expresar el vector cero como
una combinación lineal de elementos
de S es tomar cero para cada
coeficiente 
Un conjunto de vectores que abarca un
espacio vectorial se denomina conjunto
de expansión o sistema generador. Si un
conjunto generador S es linealmente
dependiente (que no es linealmente
independiente), entonces algún
elemento w de S es en el lapso de los
otros elementos de S , y el lapso
seguiría siendo el mismo si uno
remove w de S. Se puede continuar
eliminando elementos de S hasta
obtener un conjunto de
expansión linealmente independiente. Un
conjunto linealmente independiente que
abarca un espacio vectorial V se llama
base de V. La importancia de las bases
radica en el hecho de que hay juntos
grupos electrógenos mínimos y grupos
independientes máximos. Más
precisamente, si S es un conjunto
linealmente independiente y T es un
conjunto de expansión tal que , entonces
hay una base B tal que 
Si dos bases cualesquiera de un espacio
vectorial V tienen la
misma cardinalidad que se
llama dimensión; este es el Teorema de
la dimensión de espacios vectoriales.
Además, dos espacios vectoriales sobre
el mismo campo F son isomorfos si y
solo si tienen la misma dimensión. 10
Si alguna base de V (y por lo tanto cada
base) tiene un número finito de
elementos, V es un espacio vectorial de
dimensión finita. Si U es un subespacio
de V, entonces dim U ≤ dim V. En el
caso en el que V es de dimensión finita,
la igualdad de las dimensiones implica
que U = V.
Si U1 y U2 son subespacios de V ,
entonces
donde  denota el lapso de 11

Matrices[editar]
Artículo principal: Matriz (matemáticas)
La matriz es una disposición
rectangular de números, símbolos o
expresiones, cuyas dimensiones son
descritas en las cantidades de filas
(usualmente m) por las de columnas
(n) que poseen. Las disposiciones
matriciales son particularmente
estudiados por el álgebra lineal y son
bastante usados en ciencias e
ingeniería.
Las matrices permiten la
manipulación explícita de espacios
vectoriales de dimensión finita y
mapas lineales . Por tanto, su teoría
es una parte esencial del álgebra
lineal.
Sea V un espacio vectorial de
dimensión finita sobre un campo F,
y (v1, v2, …, vm) es una base de V,
por lo tanto m es ladimensión de V).
Por definición, de una base, el mapa
es una biyección de  el conjunto
de
las secuencias de m elementos
de V , sobre la V. Este es
un isomorfismo de espacios
vectoriales, si  está equipado con
su estructura estándar de espacio
vectorial, donde la suma de
vectores y la multiplicación
escalar se realizan componente
por componente.
Este isomorfismo permite
representar un vector por
su imagen inversa bajo este
isomorfismo, es decir por
las componentes de un vector de
coordenadas {\ Displaystyle (a_
{1}, \ ldots, a_ {m})}{\ Displaystyle
(a_ {1}, \ ldots, a_ {m})}o por la
matriz de columnas  o mediante
la matriz vertical
Si W es otro espacio vectorial
de dimensión finita
(posiblemente el mismo), con
una base , un mapa
lineal f de W a V está bien
definido por sus valores en los
elementos base, es decir {\
Displaystyle (f (\ mathbf {w} _
{1}), \ ldots, f (\ mathbf {w} _
{n})).}{\ Displaystyle (f (\
mathbf {w} _ {1}), \ ldots, f (\
mathbf {w} _ {n})).}Por tanto, f
está bien representada por la
lista de las matrices de
columna correspondientes. Es
decir, si
con j = 1, ..., n,
entonces f viene
representada por una
matriz:
con m filas
y n columnas.
La multiplicación de
matrices se define de
forma que el producto
de dos matrices es la
matriz de
la composición de los
mapas lineales
correspondientes, y el
producto de una matriz
y una matriz columna
es la matriz columna
que representa el
resultado de aplicar el
mapa lineal
representado al vector
representado. Se
deduce que la teoría
de los espacios
vectoriales de
dimensión finita y la
teoría de las matrices
son dos lenguajes
diferentes para
expresar exactamente
los mismos conceptos.
Dos matrices que
codifican la misma
transformación lineal
en bases diferentes se
llaman matrices
similares. Se puede
demostrar que dos
matrices son similares
si y sólo si se puede
transformar una en la
otra
mediante operaciones
elementales de filas y
columnas. Para una
matriz que representa
un mapa lineal
de W a V, las
operaciones de fila
corresponden a
cambio de bases
en V y las operaciones
de columna
corresponden a
cambio de bases
en W. Toda matriz es
similar a una matriz
identidad bordeada por
filas y columnas nulas.
En términos de
espacios vectoriales,
esto significa que, para
cualquier mapa lineal
de W a V, hay bases
tales que una parte de
la base de W se
mapea biyectivamente
en una parte de la
base de V, y que los
elementos restantes de
la base de W, si los
hay, se mapean a
cero. La eliminación
gaussiana es el
algoritmo básico para
encontrar estas
operaciones
elementales y
demostrar estos
resultados.

Sistemas
lineales[editar]
Artículo principal: Sistema
de ecuaciones lineales
Un conjunto finito de
ecuaciones lineales en
un conjunto finito de
variables, por
ejemplo  or  se
llama sistema de
ecuaciones
lineales o sistema
lineal .1213141516
Los sistemas de
ecuaciones lineales
constituyen una parte
fundamental del
álgebra lineal.
Históricamente, el
álgebra lineal y la
teoría de matrices se
han desarrollado para
resolver dichos
sistemas. En la
presentación moderna
del álgebra lineal
mediante espacios
vectoriales y matrices,
muchos problemas
pueden interpretarse
en términos de
sistemas lineales.
Por ejemplo,
(
 
 

 
S
)
es un sistema lineal.
A dicho sistema se le
puede asociar su
matriz
y su vector de
miembro derecho
Sea T la
transformación
lineal asociada
a la matriz M.
Una solución
del sistema (S)
es un vector
tal que
que es
un
element
o de la
imagen
inversa
de v por 
T.
Sea (S')
el sistem
a
homogé
neo aso
ciado,
donde
los lados
derecho
s de las
ecuacio
nes se
ponen a
cero:

(
 
 
S
'
 

)
Las
solucion
es de
(S') son
exactam
ente los
element
os
del núcl
eo de T 
o,
equivale
ntement
e, M.
La elimi
nación
gaussia
na consi
ste en
realizar 
operacio
nes
element
ales de
filas en
la matriz
aumenta
da.
para
pone
rlo
en fo
rma
escal
onad
a
redu
cida.
Esta
s
oper
acion
es
de
fila
no
cam
bian
el
conju
nto
de
soluc
iones
del
siste
ma
de
ecua
cione
s. En
el
ejem
plo,
la
form
a
escal
onad
a
redu
cida
es
m
o
st
r
a
n
d
o
D
e
e
st
a
in
te
rp
re
ta
ci
ó
n
m
at
ri
ci
al
d
e
lo
s
si
st
e
m
a
s
li
n
e
al
e
s
s
e
d
e
d
u
c
e
q
u
e
lo
s
m
is
m
o
s
m
ét
o
d
o
s
p
u
e
d
e
n
a
pl
ic
ar
s
e
p
ar
a
re
s
ol
v
er
si
st
e
m
a
s
li
n
e
al
e
s
y
p
ar
a
m
u
c
h
a
s
o
p
er
a
ci
o
n
e
s
s
o
br
e
m
at
ri
c
e
s
y
tr
a
n
sf
or
m
a
ci
o
n
e
s
li
n
e
al
e
s,
q
u
e
in
cl
u
y
e
n
el
c
ál
c
ul
o
d
el 
ra
n
g
o
s, 
n
ú
cl
e
o
s,

m
at
ri
z
in
v
er
s

q
u
e
el
si
st
e
m
a
(
S
)
ti
e
n
e
la
s
ol
u
ci
ó
n
ú
ni
c
a
De
esta
interp
retaci
ón
matri
cial
de
los
siste
mas
lineal
es se
dedu
ce
que
los
mism
os
méto
dos
pued
en
aplic
arse
para
resol
ver
siste
mas
lineal
es y
para
much
as
opera
cione
s
sobre
matri
ces y
transf
orma
cione
s
lineal
es,
que
incluy
en el
cálcul
o
del ra
ngos, 
núcle
os y 
matri
z
inver
sa.

En
do
mo
rfis
mo
sy
ma
tric
es
cua
dra
das[
editar
]
Artícul
o
princip
al: Ma
triz
cuadr
ada
Un e
ndom
orfis
mo li
neal
es un
mapa
lineal
que
mape
a un
espa
cio
vecto
rial V 
a sí
mism
o.
Si V t
iene
una
base
de n 
elem
entos
, tal
endo
morfi
smo
se
repre
senta
medi
ante
una
matri
z
cuadr
ada
de
tama
ño n.
Con
respe
cto a
los
mapa
s
lineal
es
gener
ales,
los
endo
morfi
smos
lineal
es y
las
matri
ces
cuadr
adas
tiene
n
algun
as
propi
edad
es
espe
cífica
s que
hace
n que
su
estud
io
sea
una
parte
impor
tante
del
álgeb
ra
lineal
, que
se
usa
en
much
as
parte
s de
las
mate
mátic
as,
inclui
das
las tr
ansfo
rmaci
ones
geom
étrica
s ,
los c
ambi
os de
coord
enad
as,
las fo
rmas
cuadr
ática
s y
much
as
otras.
de
las
mate
mátic
as.
Det
ermi
nant
es[e
ditar]
Artícul
o
princip
al: De
termi
nante
(mate
mátic
a)
El
deter
mina
nte
de
una
matri
z
cuadr
ada 
A se
defin
e
como
17

donde
  es
el gru
po de
todas
las
perm
utacio
nes d
e n el
ement
os,
  es
una
perm
utació
ny
 y 
 
la pari
dad d
e la
perm
utació
n.
Una
matriz
es inverti
ble si y
sólo si el
determin
ante es
invertible
(es decir,
distinto
de cero
si los
escalare
s
pertenec
en a un
campo).
La regla
de
Cramer e
s
una expr
esión de
forma
cerrada,
en
términos
de
determin
antes, de
la
solución
de
un siste
ma
de n ecu
aciones
lineales
en n incó
gnitas.
La regla
de
Cramer
es útil
para
razonar
sobre la
solución,
pero,
excepto
para n =
2 o 3,
rara vez
se utiliza
para
calcular
una
solución,
ya que
la elimin
ación
gaussian
a es un
algoritmo
más
rápido.
El deter
minante
de un
endomor
fismo es
el
determin
ante de
la matriz
que
represen
ta el
endomor
fismo en
términos
de
alguna
base
ordenad
a. Esta
definició
n tiene
sentido,
ya que
este
determin
ante es
independ
iente de
la
elección
de la
base.
Valore
s
propio
sy
vector
es
propio
s[editar]
Artículo
principal: V
ector
propio y
valor
propio
Si f es
un
endomor
fismo
lineal de
un
espacio
vectorial 
V sobre
un
campo F
,
un vecto
r
propio de 
f es un
vector v 
de V no
nulo tal
que f(v)
= av par
a algún
escalar 
a en F.
Este
escalar 
a es
un valor
propio de 
f.
Si la
dimensió
n
de V es
finita, y
se ha
elegido
una
base, f y 
v pueden
represen
tarse,
respectiv
amente,
por una
matriz
cuadrada 
M y una
matriz de
columna
s z; la
ecuación
que
define
los
vectores
y valores
propios
se
convierte
en
Utilizando
la matriz
identidad I,
cuyas
entradas son
todas cero,
excepto las
de la
diagonal
principal,
que son
iguales a
uno, esto
puede
reescribirse
Como se
supone que z 
distinto de cer
esto significa
que M - aI es
una matriz
singular, y por
tanto que su
determinante 
 es igual a cer
Los valores
propios son,
pues,
la raíces del p
nomio
Si V es de
dimensión n, s
trata de
un polinomio
mónico de gra
llamado polino
característico 
matriz (o del
endomorfismo
hay, como
máximo, n val
propios.
Si existe una b
que consiste s
en vectores
propios, la ma
de f en esta ba
tiene una estru
muy simple: e
una matriz
diagonal tal qu
entradas en
la diagonal
principal son
valores propio
las otras entra
son cero. En e
caso, se dice
endomorfismo
matriz
son diagonaliz
De forma más
general, un
endomorfismo
una matriz tam
se dicen
diagonalizable
se convierten
diagonalizable
después
de extender e
campo de
escalares. En
sentido extend
si el polinomio
característico
es square-free
entonces la m
es diagonaliza
Una matriz
simétrica es
siempre
diagonalizable
Existen matric
diagonalizable
siendo la más
sencilla
(no puede ser
diagonalizable
su cuadrado e
la matriz cero,
cuadrado de u
diagonal no nu
es cero).
Cuando un
endomorfismo
diagonalizable
bases en las q
una forma sim
aunque no tan
como la forma
diagonal. La fo
normal de Fro
necesita exten
campo de esc
hace que el po
característico
inmediatamen
sobre la matriz
La forma norm
Jordan requie
extender el ca
escalares para
contener todo
valores propio
difiere de la fo
diagonal sólo
algunas entrad
están justo en
la diagonal pri
son iguales a

Dualidad[
Artículo principal: 
dual
Una forma line
mapa lineal de
espacio vecto
un campo  al c
escalares , vis
un espacio ve
sobre sí mism
Equipadas po
adición puntua
multiplicación
escalar, las fo
lineales forma
espacio vecto
llamado espac
dual de , y us
denotado (Kat
Katznelson y 2
37 §2.1.3) o .(
1974, p. 20, §
y 2015, p. 101
Mapa linea
espacio ve
a su campo
escalares[e
Si  es una bas
de  (esto impli
que V es de d
finita), entonce
puede definir,
1, . .., n, un m
lineal  tal que 
Estos mapas l
forman una ba
de  llamada la
dual de  (Si V 
dimensión fini
los  pueden de
de forma simil
linealmente
independiente
no forman una
Para  en , el m
es una forma
en  Esto defin
lineal canónico
dual de  llama
el bidual of . E
canónico es
un isomorfism
dimensional, y
identificar  con
Existe, pues, u
completa entre
vectorial de di
finita y su dua
el uso frecuen
contexto, de la
bra-ket
 para denotar .
Mapa dual[
Dejemos que
sea un mapa l
forma lineal h 
compuesta h ∘
lineal sobre V
mapa lineal
entre los espa
llama el dual o
la transposic
Si  son de dim
matriz de f en
bases ordenad
de  sobre las b
la transposició
intercambiand
Si los element
vectoriales y s
representan m
columna, esta
expresarse en
ket mediante
Para resaltar e
miembros de e
veces

Espacios
común[edi
Dentro de los
dimensión fini
tipos siguiente
Vectores e
Este espacio v
conjunto de ve
decir con n nú
Podemos enc
los vectores R
representar la
(2,3), (3,4),...
Espacio ve
en una mis
Un ejemplo de
por todos los p
menor o igual
sobre una var
Ejemplos de ta
La suma de do
excede a 2 es
excede a 2:
El campo de e
los números re
un número po
donde el resul
polinomio (es
Un ejemplo de
operador deriv
polinomio el re
El operador de
condiciones d
posible demos
ilustramos con
condición de l
y por otro lado
Cualquier esp
representación
cual se obtien
una base (álge
especial de ve
recurrentes en
de bases apro
de coordenad
representan la
tengan formas
específicas.

Generaliz
relaciona
Puesto que el
muy exitosa, s
por otras área
de módulos, q
escalares por
multilineal, un
en un problem
cada número
dirige al conce
ámbito de la p
la indexación
métodos del á
espectro de lo
matrices de di
el análisis mat
es puramente
casos las dific
más grandes.

Relación
Existe una fue
lineal y la geo
introducción p
de las coorden
nueva (en ese
llamada geom
representan m
cartesianas, q
números reale
tridimensional
de la geometr
los planos se
ecuaciones lin
intersecciones
resolver sistem
Esta fue una d
para desarroll
La mayoría de
geométricas, c
las traslacione
mientos
rígidos, isome
n líneas en lín
pueden definir
términos de m
el caso de las
las transforma
consideran co
un espacio pro
Hasta finales d
geométricos s
mediante axio
líneas y plano
Alrededor de e
también se pu
geométricos m
implican espa
ejemplo, Espa
Se ha demost
esencialmente
geometría clás
implicados son
los reales, per
extenderse a e
cualquier cam
geometría sob
incluyendo ca
Actualmente,
texto introduce
desde el álgeb
presenta a me
un subcampo

Utilizació
El álgebra line
áreas de las m
relevante en c
científicos que
Estas aplicaci
categorías am
Geometría
ambiental[e
El modelo del
la geometría.
este espacio u
geometría. Es
la robótica, pa
cuerpos rígido
la forma de la
artificial y los g
describir la rel
representación
dominios cien
En todas esta
sintética suele
generales y un
el estudio de s
calcular con c
uso intensivo
Análisis fu
El Análisis fun
funciones. Est
con estructura
de Hilbert. El á
parte fundame
aplicaciones, q
la mecánica c
Estudio de
complejos[
La mayoría de
modelan medi
parciales. Par
descomponer
las soluciones
interactúan en
lineales esta in
lineal. Para sis
interacción su
funciones line
intervenir matr
típico es la pre
que toda la atm
en celdas de,
y 100 m de alt
Cálculo cie
Casi todos los
álgebra lineal.
algoritmos de
altamente opti
Los BLAS y LA
implementacio
mejorar la efic
configuran los
en tiempo de e
especificidade
(cache tamaño
de núcleos dis
Algunos proce
procesamiento
diseñados con
optimizar las o

Véase tam
  Portal:M
relacionad

Referenci
1. ↑ Banerjee, S
and Matrix An
Science (1st e
1420095388.
2. ↑ Strang, Gilb
Applications (
010567-8.
3. ↑ Weisstein, E
Wolfram Web
2012.
4. ↑ Vázquez, G
álgebra». rev
2019.
5. ↑ Hart, Roger
lineal. JHU Pr
6. ↑ Saltar a:a b c d V
lineal y de la
Archivado
desde uorego
original el 10
julio de 2014.
7. ↑ Benjamin P
litografía, nue
trabajo añadid
hijo Charles S
Journal of Ma
Hopkins, pp. 
Van Nostrand
8. ↑ Roman (200
9. ↑ Este axioma
operación, ya
multiplicación
campos: ab.
10. ↑ (Axler, 2015
11. ↑ (Axler, 2015
12. ↑ Anton (1987
13. ↑ Beauregard
14. ↑ Burden y Fa
15. ↑ Golub y Van
16. ↑ Harper (197
17. ↑ Katznelson,
18. ↑ «SIAM (Soc
Mathematics)
Consultado e
19. ↑ Emil Artin (1
Publishers
20. ↑ Esto puede
algunas soluc

Fuentes p
 Anton, How
Algebra (5
York: Wiley
 Axler, She
Done Righ
Mathemati
Publishing
 Beauregar
B. (1973), 
Algebra: w
Groups, Ri
Boston: Ho
Company, 
registro).
 Burden, Ri
(1993), Nu
Boston: Pr
Schmidt, IS
registro).
 Golub, Gen
(1996), Ma
Hopkins St
Sciences (
Hopkins U
5414-9.
 Halmos, P
Dimension
Spaces, U
Mathemati
Publishing
 Harper, Ch
Mathemati
Jersey: Pre
 Katznelson
R. (2008), 
Algebra, A
Society, IS
 Roman, St
2005), Adv
Algebra, G
Mathemati
Springer, IS

Bibliograf
Historia[edi

 Fearnley-S
Grassman
Algebra", A
Monthly 86
 Grassman
Ausdehnun
Mathemati
Anwendun
Mathemati
Mechanik,
und die Kry
O. Wigand
Libros de t
introductor

 Anton, How
Algebra (A
edición), W
 Banerjee, S
(2014), Lin
Analysis fo
Science (1
Hall/CRC, 
 Bretscher,
with Applic
Hall, ISBN 9
 Farin, Gera
(2004), Pra
Geometry
56881-234-2
 Kolman, B
(2007), Ele
Application
Hall, ISBN 9
 Lay, David
Its Applica
Wesley, IS
 Leon, Stev
With Applic
Prentice H
8, (requiere r
 Murty, Katt
Algorithmic
Dimension
Publishing
5}}. Chapte
Linear Equ
 Poole, Dav
Modern Int
Cengage –
73545-2.
 Ricardo, H
Introductio
edición), C
9.
 Sadun, Lor
Algebra: th
edición), A
 Strang, Gil
Linear Alge
Cambridge
 The Manga
(2012), by 
and Trend-

 Libros d
o Bhatia, Ra
1996), Mat
Mathemati
o Demmel, J
Numerical
89871-389-3
o Dym, Harry
AMS, ISBN
o Gantmach
the Theory
Publication
o Gantmach
Vol. 1 (2nd
Society, IS
o Gantmach
Vol. 2 (2nd
Society, IS
o Gelfand, Is
Algebra, D
66082-0.
o Glazman, I
Dimension
Publication
o Golan, Joh
Linear Alge
Ought to K
Springer, IS
o Golan, Joh
1995), Fou
Kluwer, ISB
o Greub, We
Algebra, G
edición), S
o Hoffman, K
Ray (1971
Englewood
Inc., MR 02
o Halmos, P
Dimension
Texts in M
387-90093-3
o Friedberg,
Spence, La
2018), Line
Pearson, IS
o Horn, Roge
(February
Cambridge
38632-6.
o Horn, Roge
24, 1994), 
Cambridge
46713-1.
o Lang, Serg
Undergrad
edición), S
o Marcus, M
Survey of M
Inequalities
486-67102-4
o Meyer, Ca
Analysis an
for Industri
(SIAM), ISB
desde el o
o Mirsky, L. (
Algebra, D
66434-7.
o Shafarevic
(2012), Lin
Geometry,
o Shilov, Ge
algebra, D
63518-7.
o Shores, Th
2006), App
Analysis, U
Mathemati
o Smith, Larr
Algebra, U
Mathemati
o Trefethen,
(1997), Nu
SIAM, ISBN

Enlaces e
o  Wikimed
categoría m
o Álgebra lin
o Álgebra Lin
o Introducció
por José A
o Álgebra Lin
Toledo, 20
o MIT Linear
o Internation
o Hazewinke
algebra», E
inglés), Sp
o Linear Alge
o Matrix and
Known Use
Mathemati
o Earliest Us
Vectors on
Mathemati
o Essence o
presentatio
of linear al
relationship
matrix and

Proyectos Wikimedia

 Datos: Q82571

 Multimedia: Linear algebra

 Libros y manuales: Matemáticas/Álgebra Lineal

 Recursos didácticos: Curso de Álgebra Lineal

Identificadores

BNE: XX527736
Control de
BNF: 11937509n (data)
autoridades
GND: 4035811-2

LCCN: sh85003441

NDL: 00570681

Microsoft Academic: 139352143

Diccionarios y enciclopedias

Britannica: url

Treccani: url

Ontologías

Número IEV: 102-01-28

Categorías: 
 Álgebra lin
 Análisis nu
Menú de
navegació
 No has acced
 Discusión
 Contribucione
 Crear una cue
 Acceder
 Artículo
 Discusión
 Leer
 Editar
 Ver historial
Buscar
Buscar Ir

 Portada
 Portal de la
comunidad
 Actualidad
 Cambios recie
 Páginas nueva
 Página aleato
 Ayuda
 Donaciones
 Notificar un er
Herramientas
 Lo que enlaza
 Cambios en
enlazadas
 Subir archivo
 Páginas espec
 Enlace perma
 Información de
página
 Citar esta pág
 Elemento de
Wikidata
Imprimir/exportar
 Crear un libro
 Descargar com
PDF
 Versión para
imprimir
En otros proyectos
 Wikimedia
Commons
 Wikilibros
 Wikiversidad
En otros idiomas
 ‫العربية‬
 English
 हिन्दी
 Bahasa Indon
 Bahasa Melay
 Português
 Русский
 ‫اردو‬
 中文
79 más
Editar enlaces
 Esta página se e
por última vez e
sep 2021 a las
22:49.
 El texto está
disponible bajo
la Licencia Crea
Commons
Atribución
Compartir Igua
pueden aplicars
cláusulas
adicionales. Al
este sitio, usted
acepta
nuestros términ
de uso y
nuestra política
privacidad.
Wikipedia® es
marca registrad
la Fundación
Wikimedia, Inc
una organizació
sin ánimo de lu
 Política de

privacidad

 Acerca de

Wikipedia

 Limitación de

responsabilidad

 Versión para

móviles
 Desarrolladores

 Estadísticas

 Declaración de

cookies

También podría gustarte