Algebra Lineal
Algebra Lineal
Algebra Lineal
Ir a la navegaciónIr a la búsqueda
El espacio euclídeo tridimensional R3 es un espacio vectorial y las líneas y los planos que pasan por
el origen son subespacios vectoriales de R3.
Índice
1Historia
2Contexto general
3Espacios vectoriales
o 3.1Antecedentes
o 3.2Algunas operaciones básicas
o 3.3Aplicaciones lineales
o 3.4Subespacios, intervalo y base
4Matrices
5Sistemas lineales
6Endomorfismos y matrices cuadradas
o 6.1Determinantes
o 6.2Valores propios y vectores propios
7Dualidad
o 7.1Mapa lineal de un espacio vectorial a su campo de
escalares
o 7.2Mapa dual
8Espacios vectoriales de uso común
o 8.1Vectores en Rn
o 8.2Espacio vectorial de polinomios en una misma variable
9Generalización y temas relacionados
10Relación con la geometría
11Utilización y aplicaciones
o 11.1Geometría del espacio ambiental
o 11.2Análisis funcional
o 11.3Estudio de sistemas complejos
o 11.4Cálculo científico
12Véase también
13Referencias
14Fuentes principales
15Bibliografía
o 15.1Historia
o 15.2Libros de texto introductorios
o 15.3Libros de texto avanzados
16Enlaces externos
Historia[editar]
El procedimiento para resolver ecuaciones lineales
simultáneas que ahora se denomina eliminación
gaussiana aparece en el antiguo texto matemático
chino Cálculo de barras#Sistema de ecuaciones
lineales; Capítulo octavo: Matrices
rectangulares de Los nueve capítulos sobre el arte
matemático. Su uso se ilustra en dieciocho problemas,
con dos a cinco ecuaciones.5
Los Sistemas de ecuaciones lineales surgieron en
Europa con la introducción en 1637 por René
Descartes de las coordenadas en la geometría. De
hecho, en esta nueva geometría, ahora
llamada geometría cartesiana, las líneas y los planos
están representados por ecuaciones lineales, y calcular
sus intersecciones equivale a resolver sistemas de
ecuaciones lineales.
Los primeros métodos sistemáticos para resolver
sistemas lineales utilizaban determinantes,
considerados por primera vez por Leibniz en 1693. En
1750, Gabriel Cramer los utilizó para dar soluciones
explícitas de sistemas lineales, lo que ahora se
llama regla de Cramer. Más tarde, Gauss describió aún
más el método de eliminación, que inicialmente fue
catalogado como un avance en geodesia.6
En 1844 Hermann Grassmann publicó su "Teoría de la
Extensión" que incluía nuevos temas fundacionales de
lo que hoy se llama álgebra lineal. En 1848, James
Joseph Sylvester introdujo el término matriz, que en
latín significa vientre.
El álgebra lineal creció con las ideas anotadas en
el plano complejo. Por ejemplo, dos números w y z en
ℂ tienen una diferencia w - z, y los segmentos de
línea y tienen la misma longitud y dirección. Los
segmentos son equipolentes. El sistema
cuatridimensional ℍ de cuaterniones se inició en 1843.
El término vector fue introducido como v = x i + y j + z k
representando un punto en el espacio. La diferencia de
cuaterniones p - q también produce un segmento
equipolente a la Otros sistemas de números
hipercomplejos también utilizaron la idea de un espacio
lineal con una base.
Arthur Cayley introdujo la multiplicación matricial y
la matriz inversa en 1856, haciendo posible el grupo
lineal general. El mecanismo de representación de
grupo se hizo disponible para describir los números
complejos e hipercomplejos. Fundamentalmente,
Cayley utilizó una sola letra para denotar una matriz,
tratando así una matriz como un objeto agregado.
También se dio cuenta de la conexión entre las
matrices y los determinantes, y escribió "Habría
muchas cosas que decir sobre esta teoría de las
matrices que deberían, me parece, preceder a la teoría
de los determinantes".6
Benjamin Peirce publicó su Álgebra lineal
asociativa (1872), y su hijo Charles Sanders
Peirce amplió el trabajo posteriormente.7
El telégrafo requería un sistema explicativo, y la
publicación en 1873 de A Treatise on Electricity and
Magnetism instituyó una teoría de campos de fuerzas y
requirió la geometría diferencial para su expresión. El
álgebra lineal es geometría diferencial plana y sirve en
los espacios tangentes a los colectores. Las simetrías
electromagnéticas del espaciotiempo se expresan
mediante las transformaciones de Lorentzs, y gran
parte de la historia del álgebra lineal es la historia de
las transformaciones de Lorentz.
La primera definición moderna y más precisa de un
espacio vectorial fue introducida por Peano en 1888;6
en 1900 había surgido una teoría de las
transformaciones lineales de los espacios vectoriales
de dimensión finita. El álgebra lineal tomó su forma
moderna en la primera mitad del siglo XX, cuando
muchas ideas y métodos de siglos anteriores se
generalizaron como álgebra abstracta. El desarrollo de
los ordenadores hizo que aumentara la investigación
de algoritmos eficientes para la eliminación gaussiana y
las descomposiciones matriciales, y el álgebra lineal se
convirtió en una herramienta esencial para la
modelización y las simulaciones.6
Contexto general[editar]
De manera más formal, el álgebra lineal estudia
conjuntos denominados espacios vectoriales, los
cuales constan de un conjunto de vectores y un
conjunto de escalares que tiene estructura de campo,
con una operación de suma de vectores y otra de
producto entre escalares y vectores que satisfacen
ciertas propiedades (por ejemplo, que la suma es
conmutativa).
Estudia también transformaciones lineales, que son
funciones entre espacios vectoriales que satisfacen las
condiciones de linealidad:
A diferencia del ejemplo desarrollado en la sección
anterior, los vectores no necesariamente son n-adas de
escalares, sino que pueden ser elementos de un
conjunto cualquiera (de hecho, a partir de todo conjunto
puede construirse un espacio vectorial sobre
un campo fijo).
Finalmente, el álgebra lineal estudia también las
propiedades que aparecen cuando se impone
estructura adicional sobre los espacios vectoriales,
siendo una de las más frecuentes la existencia de
un producto interno (una especie de producto entre dos
vectores) que permite introducir nociones como
longitud de vectores y ángulo entre un par de los
mismos.
Espacios vectoriales[editar]
Artículo principal: Espacio vectorial
Antecedentes[editar]
Hasta el siglo XIX, el álgebra lineal se presentaba a
través de sistemas de ecuaciones lineales y matrices.
En la matemática moderna, se prefiere generalmente la
presentación a través de espacios vectoriales, ya que
es más sintética, más general (no se limita al caso de
dimensión finita) y conceptualmente más sencilla,
aunque más abstracta.
Algunas operaciones básicas[editar]
Un espacio vectorial sobre un campo F, con frecuencia
el campo de los números reales, es
un Conjunto V dotado de dos operaciones binarias que
satisfacen los siguientes axiomass.
Los elementos de V se llaman vectores, y los
elementos de F se llaman escalares.
La primera operación, la suma de vectores, se expresa
de la siguiente manera: tómese dos vectores
cualesquiera v y w; la suma tiene como resultado un
tercer vector v + w.
La segunda operación, multiplicación escalar, se
expresa de la siguiente manera: tómese cualquier
escalar a y cualquier vector v y produce un
nuevo vector av. Los axiomas que deben satisfacer la
suma y la multiplicación escalar son los siguientes,
siendo en la lista siguiente, u, v y w elementos
arbitrarios de V; y a y b son escalares arbitrarios en el
campo F.8
Axioma Significación
Asociativa de adición u + (v + w) = (u + v) + w
Conmutativa de adición u + v = v + u
Existe un elemento 0 en V, llamado el vector cero, o simplrmen
Elemento neutro de adición
que v + 0 = v se cumple para todo v del conjunto V.
Para todo v en V, existe un elemento −v in V, llamado el aditivo
Elemento simétrico se adición
que v + (−v) = 0
Distributividad de la multiplicación escalar con
a(u + v) = au + av
respecto a la suma vectorial
Distributividad de la multiplicación escalar con
(a + b)v = av + bv
respecto a la suma de campos
Compatibilidad de la multiplicación escalar con la
a(bv) = (ab)v 9
multiplicación de campos
Elemento de identidad de la multiplicación escalar 1v = v, donde 1 indica el elemento neutro de F.
Aplicaciones lineales[editar]
Artículo principal: Aplicación lineal
Las aplicaciones lineales son mapeos entre espacios
vectoriales que preservan la estructura del espacio
vectorial. Dados dos espacios vectoriales V y W sobre
un campo F, un mapa lineal, también llamado en
algunos contextos, transformación lineal o mapeo
lineal, es un mapa o aplicación
que es compatible con la suma y la multiplicación
escalar, es decir
para los vectores u,v in V y escaleres a en F.
Esto implica que para cualquier
vector u, v en V y escalares a, b en F, se tiene
Donde V = W son el mismo espacio
vectorial, un mapa lineal también se conoce
como un operador lineal en V.
Un mapa lineal biyectivo entre dos espacios
vectoriales, es decir, cada vector del
segundo espacio se asocia exactamente con
uno en el primero, es un isomorfismo. Dado
que un isomorfismo preserva la estructura
lineal, dos espacios vectoriales isomorfos
son "esencialmente iguales" desde el punto
de vista del álgebra lineal, en el sentido de
que no pueden distinguirse utilizando las
propiedades del espacio vectorial. Una
cuestión esencial en el álgebra lineal es
probar si un mapa lineal es un isomorfismo o
no, y, si no es un isomorfismo, encontrar
su rango (o imagen) y el conjunto de
elementos que son mapeados al vector cero,
llamado el núcleo del mapa. Todas estas
cuestiones pueden resolverse mediante el
uso de la eliminación gaussiana o alguna
variante de este algoritmo.
Subespacios, intervalo y
base[editar]
Artículos principales: Subespacio
vectorial, Sistema generador y Base
(álgebra).
El estudio de aquellos subconjuntos de
espacios vectoriales que son en sí mismos
espacios vectoriales bajo las operaciones
inducidas es fundamental, al igual que para
muchas estructuras matemáticas. Estos
subconjuntos se denominan subespacios
lineales. Más precisamente, un subespacio
lineal de un espacio vectorial V sobre un
campo F es un subconjunto de W of V tal
que u + v y au están en W, para
todo u, v en W, y todo a in F. Estas
condiciones son suficientes para implicar
que W es un espacio vectorial.
Por ejemplo, dado un campo lineal ,
la imagen T(V) de V, y la imagen
inversa T−1(0) de 0, llamada núcleo o kernel,
son subespacios lineales de W y V,
respectivamente.
Otra forma importante de formar un
subespacio es considerar las combinaciones
lineales de un conjunto S de vectores: el
conjunto de todas las sumas
donde v1, v2, …, vk están en S,
y a1, a2, ..., ak están en F forman un
subespacio lineal llamado Sistema
generador de S. El sistema generador
de S es también la intersección de todos
los subespacios lineales que contienen
a S. En otras palabras, es el subespacio
lineal, más pequeño para la relación de
inclusión, que contiene a S.
Un conjunto de vectores es linealmente
independiente si ninguno está en el
intervalo de los demás. De manera
equivalente, un conjunto S de vectores
es linealmente independiente si la única
forma de expresar el vector cero como
una combinación lineal de elementos
de S es tomar cero para cada
coeficiente
Un conjunto de vectores que abarca un
espacio vectorial se denomina conjunto
de expansión o sistema generador. Si un
conjunto generador S es linealmente
dependiente (que no es linealmente
independiente), entonces algún
elemento w de S es en el lapso de los
otros elementos de S , y el lapso
seguiría siendo el mismo si uno
remove w de S. Se puede continuar
eliminando elementos de S hasta
obtener un conjunto de
expansión linealmente independiente. Un
conjunto linealmente independiente que
abarca un espacio vectorial V se llama
base de V. La importancia de las bases
radica en el hecho de que hay juntos
grupos electrógenos mínimos y grupos
independientes máximos. Más
precisamente, si S es un conjunto
linealmente independiente y T es un
conjunto de expansión tal que , entonces
hay una base B tal que
Si dos bases cualesquiera de un espacio
vectorial V tienen la
misma cardinalidad que se
llama dimensión; este es el Teorema de
la dimensión de espacios vectoriales.
Además, dos espacios vectoriales sobre
el mismo campo F son isomorfos si y
solo si tienen la misma dimensión. 10
Si alguna base de V (y por lo tanto cada
base) tiene un número finito de
elementos, V es un espacio vectorial de
dimensión finita. Si U es un subespacio
de V, entonces dim U ≤ dim V. En el
caso en el que V es de dimensión finita,
la igualdad de las dimensiones implica
que U = V.
Si U1 y U2 son subespacios de V ,
entonces
donde denota el lapso de 11
Matrices[editar]
Artículo principal: Matriz (matemáticas)
La matriz es una disposición
rectangular de números, símbolos o
expresiones, cuyas dimensiones son
descritas en las cantidades de filas
(usualmente m) por las de columnas
(n) que poseen. Las disposiciones
matriciales son particularmente
estudiados por el álgebra lineal y son
bastante usados en ciencias e
ingeniería.
Las matrices permiten la
manipulación explícita de espacios
vectoriales de dimensión finita y
mapas lineales . Por tanto, su teoría
es una parte esencial del álgebra
lineal.
Sea V un espacio vectorial de
dimensión finita sobre un campo F,
y (v1, v2, …, vm) es una base de V,
por lo tanto m es ladimensión de V).
Por definición, de una base, el mapa
es una biyección de el conjunto
de
las secuencias de m elementos
de V , sobre la V. Este es
un isomorfismo de espacios
vectoriales, si está equipado con
su estructura estándar de espacio
vectorial, donde la suma de
vectores y la multiplicación
escalar se realizan componente
por componente.
Este isomorfismo permite
representar un vector por
su imagen inversa bajo este
isomorfismo, es decir por
las componentes de un vector de
coordenadas {\ Displaystyle (a_
{1}, \ ldots, a_ {m})}{\ Displaystyle
(a_ {1}, \ ldots, a_ {m})}o por la
matriz de columnas o mediante
la matriz vertical
Si W es otro espacio vectorial
de dimensión finita
(posiblemente el mismo), con
una base , un mapa
lineal f de W a V está bien
definido por sus valores en los
elementos base, es decir {\
Displaystyle (f (\ mathbf {w} _
{1}), \ ldots, f (\ mathbf {w} _
{n})).}{\ Displaystyle (f (\
mathbf {w} _ {1}), \ ldots, f (\
mathbf {w} _ {n})).}Por tanto, f
está bien representada por la
lista de las matrices de
columna correspondientes. Es
decir, si
con j = 1, ..., n,
entonces f viene
representada por una
matriz:
con m filas
y n columnas.
La multiplicación de
matrices se define de
forma que el producto
de dos matrices es la
matriz de
la composición de los
mapas lineales
correspondientes, y el
producto de una matriz
y una matriz columna
es la matriz columna
que representa el
resultado de aplicar el
mapa lineal
representado al vector
representado. Se
deduce que la teoría
de los espacios
vectoriales de
dimensión finita y la
teoría de las matrices
son dos lenguajes
diferentes para
expresar exactamente
los mismos conceptos.
Dos matrices que
codifican la misma
transformación lineal
en bases diferentes se
llaman matrices
similares. Se puede
demostrar que dos
matrices son similares
si y sólo si se puede
transformar una en la
otra
mediante operaciones
elementales de filas y
columnas. Para una
matriz que representa
un mapa lineal
de W a V, las
operaciones de fila
corresponden a
cambio de bases
en V y las operaciones
de columna
corresponden a
cambio de bases
en W. Toda matriz es
similar a una matriz
identidad bordeada por
filas y columnas nulas.
En términos de
espacios vectoriales,
esto significa que, para
cualquier mapa lineal
de W a V, hay bases
tales que una parte de
la base de W se
mapea biyectivamente
en una parte de la
base de V, y que los
elementos restantes de
la base de W, si los
hay, se mapean a
cero. La eliminación
gaussiana es el
algoritmo básico para
encontrar estas
operaciones
elementales y
demostrar estos
resultados.
Sistemas
lineales[editar]
Artículo principal: Sistema
de ecuaciones lineales
Un conjunto finito de
ecuaciones lineales en
un conjunto finito de
variables, por
ejemplo or se
llama sistema de
ecuaciones
lineales o sistema
lineal .1213141516
Los sistemas de
ecuaciones lineales
constituyen una parte
fundamental del
álgebra lineal.
Históricamente, el
álgebra lineal y la
teoría de matrices se
han desarrollado para
resolver dichos
sistemas. En la
presentación moderna
del álgebra lineal
mediante espacios
vectoriales y matrices,
muchos problemas
pueden interpretarse
en términos de
sistemas lineales.
Por ejemplo,
(
S
)
es un sistema lineal.
A dicho sistema se le
puede asociar su
matriz
y su vector de
miembro derecho
Sea T la
transformación
lineal asociada
a la matriz M.
Una solución
del sistema (S)
es un vector
tal que
que es
un
element
o de la
imagen
inversa
de v por
T.
Sea (S')
el sistem
a
homogé
neo aso
ciado,
donde
los lados
derecho
s de las
ecuacio
nes se
ponen a
cero:
(
S
'
)
Las
solucion
es de
(S') son
exactam
ente los
element
os
del núcl
eo de T
o,
equivale
ntement
e, M.
La elimi
nación
gaussia
na consi
ste en
realizar
operacio
nes
element
ales de
filas en
la matriz
aumenta
da.
para
pone
rlo
en fo
rma
escal
onad
a
redu
cida.
Esta
s
oper
acion
es
de
fila
no
cam
bian
el
conju
nto
de
soluc
iones
del
siste
ma
de
ecua
cione
s. En
el
ejem
plo,
la
form
a
escal
onad
a
redu
cida
es
m
o
st
r
a
n
d
o
D
e
e
st
a
in
te
rp
re
ta
ci
ó
n
m
at
ri
ci
al
d
e
lo
s
si
st
e
m
a
s
li
n
e
al
e
s
s
e
d
e
d
u
c
e
q
u
e
lo
s
m
is
m
o
s
m
ét
o
d
o
s
p
u
e
d
e
n
a
pl
ic
ar
s
e
p
ar
a
re
s
ol
v
er
si
st
e
m
a
s
li
n
e
al
e
s
y
p
ar
a
m
u
c
h
a
s
o
p
er
a
ci
o
n
e
s
s
o
br
e
m
at
ri
c
e
s
y
tr
a
n
sf
or
m
a
ci
o
n
e
s
li
n
e
al
e
s,
q
u
e
in
cl
u
y
e
n
el
c
ál
c
ul
o
d
el
ra
n
g
o
s,
n
ú
cl
e
o
s,
y
m
at
ri
z
in
v
er
s
a
q
u
e
el
si
st
e
m
a
(
S
)
ti
e
n
e
la
s
ol
u
ci
ó
n
ú
ni
c
a
De
esta
interp
retaci
ón
matri
cial
de
los
siste
mas
lineal
es se
dedu
ce
que
los
mism
os
méto
dos
pued
en
aplic
arse
para
resol
ver
siste
mas
lineal
es y
para
much
as
opera
cione
s
sobre
matri
ces y
transf
orma
cione
s
lineal
es,
que
incluy
en el
cálcul
o
del ra
ngos,
núcle
os y
matri
z
inver
sa.
En
do
mo
rfis
mo
sy
ma
tric
es
cua
dra
das[
editar
]
Artícul
o
princip
al: Ma
triz
cuadr
ada
Un e
ndom
orfis
mo li
neal
es un
mapa
lineal
que
mape
a un
espa
cio
vecto
rial V
a sí
mism
o.
Si V t
iene
una
base
de n
elem
entos
, tal
endo
morfi
smo
se
repre
senta
medi
ante
una
matri
z
cuadr
ada
de
tama
ño n.
Con
respe
cto a
los
mapa
s
lineal
es
gener
ales,
los
endo
morfi
smos
lineal
es y
las
matri
ces
cuadr
adas
tiene
n
algun
as
propi
edad
es
espe
cífica
s que
hace
n que
su
estud
io
sea
una
parte
impor
tante
del
álgeb
ra
lineal
, que
se
usa
en
much
as
parte
s de
las
mate
mátic
as,
inclui
das
las tr
ansfo
rmaci
ones
geom
étrica
s ,
los c
ambi
os de
coord
enad
as,
las fo
rmas
cuadr
ática
s y
much
as
otras.
de
las
mate
mátic
as.
Det
ermi
nant
es[e
ditar]
Artícul
o
princip
al: De
termi
nante
(mate
mátic
a)
El
deter
mina
nte
de
una
matri
z
cuadr
ada
A se
defin
e
como
17
donde
es
el gru
po de
todas
las
perm
utacio
nes d
e n el
ement
os,
es
una
perm
utació
ny
y
la pari
dad d
e la
perm
utació
n.
Una
matriz
es inverti
ble si y
sólo si el
determin
ante es
invertible
(es decir,
distinto
de cero
si los
escalare
s
pertenec
en a un
campo).
La regla
de
Cramer e
s
una expr
esión de
forma
cerrada,
en
términos
de
determin
antes, de
la
solución
de
un siste
ma
de n ecu
aciones
lineales
en n incó
gnitas.
La regla
de
Cramer
es útil
para
razonar
sobre la
solución,
pero,
excepto
para n =
2 o 3,
rara vez
se utiliza
para
calcular
una
solución,
ya que
la elimin
ación
gaussian
a es un
algoritmo
más
rápido.
El deter
minante
de un
endomor
fismo es
el
determin
ante de
la matriz
que
represen
ta el
endomor
fismo en
términos
de
alguna
base
ordenad
a. Esta
definició
n tiene
sentido,
ya que
este
determin
ante es
independ
iente de
la
elección
de la
base.
Valore
s
propio
sy
vector
es
propio
s[editar]
Artículo
principal: V
ector
propio y
valor
propio
Si f es
un
endomor
fismo
lineal de
un
espacio
vectorial
V sobre
un
campo F
,
un vecto
r
propio de
f es un
vector v
de V no
nulo tal
que f(v)
= av par
a algún
escalar
a en F.
Este
escalar
a es
un valor
propio de
f.
Si la
dimensió
n
de V es
finita, y
se ha
elegido
una
base, f y
v pueden
represen
tarse,
respectiv
amente,
por una
matriz
cuadrada
M y una
matriz de
columna
s z; la
ecuación
que
define
los
vectores
y valores
propios
se
convierte
en
Utilizando
la matriz
identidad I,
cuyas
entradas son
todas cero,
excepto las
de la
diagonal
principal,
que son
iguales a
uno, esto
puede
reescribirse
Como se
supone que z
distinto de cer
esto significa
que M - aI es
una matriz
singular, y por
tanto que su
determinante
es igual a cer
Los valores
propios son,
pues,
la raíces del p
nomio
Si V es de
dimensión n, s
trata de
un polinomio
mónico de gra
llamado polino
característico
matriz (o del
endomorfismo
hay, como
máximo, n val
propios.
Si existe una b
que consiste s
en vectores
propios, la ma
de f en esta ba
tiene una estru
muy simple: e
una matriz
diagonal tal qu
entradas en
la diagonal
principal son
valores propio
las otras entra
son cero. En e
caso, se dice
endomorfismo
matriz
son diagonaliz
De forma más
general, un
endomorfismo
una matriz tam
se dicen
diagonalizable
se convierten
diagonalizable
después
de extender e
campo de
escalares. En
sentido extend
si el polinomio
característico
es square-free
entonces la m
es diagonaliza
Una matriz
simétrica es
siempre
diagonalizable
Existen matric
diagonalizable
siendo la más
sencilla
(no puede ser
diagonalizable
su cuadrado e
la matriz cero,
cuadrado de u
diagonal no nu
es cero).
Cuando un
endomorfismo
diagonalizable
bases en las q
una forma sim
aunque no tan
como la forma
diagonal. La fo
normal de Fro
necesita exten
campo de esc
hace que el po
característico
inmediatamen
sobre la matriz
La forma norm
Jordan requie
extender el ca
escalares para
contener todo
valores propio
difiere de la fo
diagonal sólo
algunas entrad
están justo en
la diagonal pri
son iguales a
Dualidad[
Artículo principal:
dual
Una forma line
mapa lineal de
espacio vecto
un campo al c
escalares , vis
un espacio ve
sobre sí mism
Equipadas po
adición puntua
multiplicación
escalar, las fo
lineales forma
espacio vecto
llamado espac
dual de , y us
denotado (Kat
Katznelson y 2
37 §2.1.3) o .(
1974, p. 20, §
y 2015, p. 101
Mapa linea
espacio ve
a su campo
escalares[e
Si es una bas
de (esto impli
que V es de d
finita), entonce
puede definir,
1, . .., n, un m
lineal tal que
Estos mapas l
forman una ba
de llamada la
dual de (Si V
dimensión fini
los pueden de
de forma simil
linealmente
independiente
no forman una
Para en , el m
es una forma
en Esto defin
lineal canónico
dual de llama
el bidual of . E
canónico es
un isomorfism
dimensional, y
identificar con
Existe, pues, u
completa entre
vectorial de di
finita y su dua
el uso frecuen
contexto, de la
bra-ket
para denotar .
Mapa dual[
Dejemos que
sea un mapa l
forma lineal h
compuesta h ∘
lineal sobre V
mapa lineal
entre los espa
llama el dual o
la transposic
Si son de dim
matriz de f en
bases ordenad
de sobre las b
la transposició
intercambiand
Si los element
vectoriales y s
representan m
columna, esta
expresarse en
ket mediante
Para resaltar e
miembros de e
veces
Espacios
común[edi
Dentro de los
dimensión fini
tipos siguiente
Vectores e
Este espacio v
conjunto de ve
decir con n nú
Podemos enc
los vectores R
representar la
(2,3), (3,4),...
Espacio ve
en una mis
Un ejemplo de
por todos los p
menor o igual
sobre una var
Ejemplos de ta
La suma de do
excede a 2 es
excede a 2:
El campo de e
los números re
un número po
donde el resul
polinomio (es
Un ejemplo de
operador deriv
polinomio el re
El operador de
condiciones d
posible demos
ilustramos con
condición de l
y por otro lado
Cualquier esp
representación
cual se obtien
una base (álge
especial de ve
recurrentes en
de bases apro
de coordenad
representan la
tengan formas
específicas.
Generaliz
relaciona
Puesto que el
muy exitosa, s
por otras área
de módulos, q
escalares por
multilineal, un
en un problem
cada número
dirige al conce
ámbito de la p
la indexación
métodos del á
espectro de lo
matrices de di
el análisis mat
es puramente
casos las dific
más grandes.
Relación
Existe una fue
lineal y la geo
introducción p
de las coorden
nueva (en ese
llamada geom
representan m
cartesianas, q
números reale
tridimensional
de la geometr
los planos se
ecuaciones lin
intersecciones
resolver sistem
Esta fue una d
para desarroll
La mayoría de
geométricas, c
las traslacione
mientos
rígidos, isome
n líneas en lín
pueden definir
términos de m
el caso de las
las transforma
consideran co
un espacio pro
Hasta finales d
geométricos s
mediante axio
líneas y plano
Alrededor de e
también se pu
geométricos m
implican espa
ejemplo, Espa
Se ha demost
esencialmente
geometría clás
implicados son
los reales, per
extenderse a e
cualquier cam
geometría sob
incluyendo ca
Actualmente,
texto introduce
desde el álgeb
presenta a me
un subcampo
Utilizació
El álgebra line
áreas de las m
relevante en c
científicos que
Estas aplicaci
categorías am
Geometría
ambiental[e
El modelo del
la geometría.
este espacio u
geometría. Es
la robótica, pa
cuerpos rígido
la forma de la
artificial y los g
describir la rel
representación
dominios cien
En todas esta
sintética suele
generales y un
el estudio de s
calcular con c
uso intensivo
Análisis fu
El Análisis fun
funciones. Est
con estructura
de Hilbert. El á
parte fundame
aplicaciones, q
la mecánica c
Estudio de
complejos[
La mayoría de
modelan medi
parciales. Par
descomponer
las soluciones
interactúan en
lineales esta in
lineal. Para sis
interacción su
funciones line
intervenir matr
típico es la pre
que toda la atm
en celdas de,
y 100 m de alt
Cálculo cie
Casi todos los
álgebra lineal.
algoritmos de
altamente opti
Los BLAS y LA
implementacio
mejorar la efic
configuran los
en tiempo de e
especificidade
(cache tamaño
de núcleos dis
Algunos proce
procesamiento
diseñados con
optimizar las o
Véase tam
Portal:M
relacionad
Referenci
1. ↑ Banerjee, S
and Matrix An
Science (1st e
1420095388.
2. ↑ Strang, Gilb
Applications (
010567-8.
3. ↑ Weisstein, E
Wolfram Web
2012.
4. ↑ Vázquez, G
álgebra». rev
2019.
5. ↑ Hart, Roger
lineal. JHU Pr
6. ↑ Saltar a:a b c d V
lineal y de la
Archivado
desde uorego
original el 10
julio de 2014.
7. ↑ Benjamin P
litografía, nue
trabajo añadid
hijo Charles S
Journal of Ma
Hopkins, pp.
Van Nostrand
8. ↑ Roman (200
9. ↑ Este axioma
operación, ya
multiplicación
campos: ab.
10. ↑ (Axler, 2015
11. ↑ (Axler, 2015
12. ↑ Anton (1987
13. ↑ Beauregard
14. ↑ Burden y Fa
15. ↑ Golub y Van
16. ↑ Harper (197
17. ↑ Katznelson,
18. ↑ «SIAM (Soc
Mathematics)
Consultado e
19. ↑ Emil Artin (1
Publishers
20. ↑ Esto puede
algunas soluc
Fuentes p
Anton, How
Algebra (5
York: Wiley
Axler, She
Done Righ
Mathemati
Publishing
Beauregar
B. (1973),
Algebra: w
Groups, Ri
Boston: Ho
Company,
registro).
Burden, Ri
(1993), Nu
Boston: Pr
Schmidt, IS
registro).
Golub, Gen
(1996), Ma
Hopkins St
Sciences (
Hopkins U
5414-9.
Halmos, P
Dimension
Spaces, U
Mathemati
Publishing
Harper, Ch
Mathemati
Jersey: Pre
Katznelson
R. (2008),
Algebra, A
Society, IS
Roman, St
2005), Adv
Algebra, G
Mathemati
Springer, IS
Bibliograf
Historia[edi
Fearnley-S
Grassman
Algebra", A
Monthly 86
Grassman
Ausdehnun
Mathemati
Anwendun
Mathemati
Mechanik,
und die Kry
O. Wigand
Libros de t
introductor
Anton, How
Algebra (A
edición), W
Banerjee, S
(2014), Lin
Analysis fo
Science (1
Hall/CRC,
Bretscher,
with Applic
Hall, ISBN 9
Farin, Gera
(2004), Pra
Geometry
56881-234-2
Kolman, B
(2007), Ele
Application
Hall, ISBN 9
Lay, David
Its Applica
Wesley, IS
Leon, Stev
With Applic
Prentice H
8, (requiere r
Murty, Katt
Algorithmic
Dimension
Publishing
5}}. Chapte
Linear Equ
Poole, Dav
Modern Int
Cengage –
73545-2.
Ricardo, H
Introductio
edición), C
9.
Sadun, Lor
Algebra: th
edición), A
Strang, Gil
Linear Alge
Cambridge
The Manga
(2012), by
and Trend-
Libros d
o Bhatia, Ra
1996), Mat
Mathemati
o Demmel, J
Numerical
89871-389-3
o Dym, Harry
AMS, ISBN
o Gantmach
the Theory
Publication
o Gantmach
Vol. 1 (2nd
Society, IS
o Gantmach
Vol. 2 (2nd
Society, IS
o Gelfand, Is
Algebra, D
66082-0.
o Glazman, I
Dimension
Publication
o Golan, Joh
Linear Alge
Ought to K
Springer, IS
o Golan, Joh
1995), Fou
Kluwer, ISB
o Greub, We
Algebra, G
edición), S
o Hoffman, K
Ray (1971
Englewood
Inc., MR 02
o Halmos, P
Dimension
Texts in M
387-90093-3
o Friedberg,
Spence, La
2018), Line
Pearson, IS
o Horn, Roge
(February
Cambridge
38632-6.
o Horn, Roge
24, 1994),
Cambridge
46713-1.
o Lang, Serg
Undergrad
edición), S
o Marcus, M
Survey of M
Inequalities
486-67102-4
o Meyer, Ca
Analysis an
for Industri
(SIAM), ISB
desde el o
o Mirsky, L. (
Algebra, D
66434-7.
o Shafarevic
(2012), Lin
Geometry,
o Shilov, Ge
algebra, D
63518-7.
o Shores, Th
2006), App
Analysis, U
Mathemati
o Smith, Larr
Algebra, U
Mathemati
o Trefethen,
(1997), Nu
SIAM, ISBN
Enlaces e
o Wikimed
categoría m
o Álgebra lin
o Álgebra Lin
o Introducció
por José A
o Álgebra Lin
Toledo, 20
o MIT Linear
o Internation
o Hazewinke
algebra», E
inglés), Sp
o Linear Alge
o Matrix and
Known Use
Mathemati
o Earliest Us
Vectors on
Mathemati
o Essence o
presentatio
of linear al
relationship
matrix and
Proyectos Wikimedia
Datos: Q82571
Multimedia: Linear algebra
Identificadores
BNE: XX527736
Control de
BNF: 11937509n (data)
autoridades
GND: 4035811-2
LCCN: sh85003441
NDL: 00570681
Microsoft Academic: 139352143
Diccionarios y enciclopedias
Britannica: url
Treccani: url
Ontologías
Número IEV: 102-01-28
Categorías:
Álgebra lin
Análisis nu
Menú de
navegació
No has acced
Discusión
Contribucione
Crear una cue
Acceder
Artículo
Discusión
Leer
Editar
Ver historial
Buscar
Buscar Ir
Portada
Portal de la
comunidad
Actualidad
Cambios recie
Páginas nueva
Página aleato
Ayuda
Donaciones
Notificar un er
Herramientas
Lo que enlaza
Cambios en
enlazadas
Subir archivo
Páginas espec
Enlace perma
Información de
página
Citar esta pág
Elemento de
Wikidata
Imprimir/exportar
Crear un libro
Descargar com
PDF
Versión para
imprimir
En otros proyectos
Wikimedia
Commons
Wikilibros
Wikiversidad
En otros idiomas
العربية
English
हिन्दी
Bahasa Indon
Bahasa Melay
Português
Русский
اردو
中文
79 más
Editar enlaces
Esta página se e
por última vez e
sep 2021 a las
22:49.
El texto está
disponible bajo
la Licencia Crea
Commons
Atribución
Compartir Igua
pueden aplicars
cláusulas
adicionales. Al
este sitio, usted
acepta
nuestros términ
de uso y
nuestra política
privacidad.
Wikipedia® es
marca registrad
la Fundación
Wikimedia, Inc
una organizació
sin ánimo de lu
Política de
privacidad
Acerca de
Wikipedia
Limitación de
responsabilidad
Versión para
móviles
Desarrolladores
Estadísticas
Declaración de
cookies