Matrices
Matrices
Matriz (matemáticas)
En matemáticas, una matriz es un arreglo bidimensional de números, y en su mayor generalidad de elementos de un
anillo. Las matrices se usan generalmente para describir sistemas de ecuaciones lineales, sistemas de ecuaciones
diferenciales o representar una aplicación lineal (dada una base). Las matrices se describen en el campo de la teoría
de matrices.
Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para representar los coeficientes de los
sistemas de ecuaciones lineales o para representar las aplicaciones lineales; en este último caso las matrices
desempeñan el mismo papel que los datos de un vector para las aplicaciones lineales.
Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que también las hace un concepto clave en el
campo del álgebra lineal.
Historia
Cronología[]
Año Acontecimiento
El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados mágicos se estudiaron desde hace
mucho tiempo. Un cuadrado mágico, 3 por 3, se registra en la literatura china hacia el 650 a. C.[1]
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemático chino
que proviene del año 300 a. C. a 200 a. C., Nueve capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu),
es el primer ejemplo conocido de uso del método de matrices para resolver un sistema de ecuaciones simultáneas.[2]
En el capítulo séptimo, "Ni mucho ni poco", el concepto de determinante apareció por primera vez, dos mil años
antes de su publicación por el matemático japonés Seki Kōwa en 1683 y el matemático alemán Gottfried Leibniz en
1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente desde comienzos del siglo VII,
quienes a su vez pudieron tomarlos de los matemáticos y astrónomos de la India, junto con otros aspectos de las
matemáticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mágicos" de
orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan
al-Safa).[1]
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz, a finales del siglo XVII, Cramer
presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la
eliminación de Gauss-Jordan en el siglo XIX.
Leibniz(1646-1716), uno de los dos fundadores del análisis, desarrolló la teoría de los determinantes en 1693 para
facilitar la Resolución de las ecuaciones lineales. Gabriel Cramer tuvo que profundizar esta teoría, presentando el
método de Cramer en 1750. En los años 1800, el método de eliminación de Gauss-Jordan se puso a punto.
Fue James Joseph Sylvester quien utilizó por primera vez el término « matriz » en1848/1850.
Matriz (matemáticas) 2
En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en 1858 la notación matricial,
como forma abreviada de escribir un sistema de m ecuaciones lineales con n incógnitas.
Cayley, Hamilton, Hermann Grassmann, Frobenius, Olga Taussky-Todd y John von Neumann cuentan entre los
matemáticos famosos que trabajaron sobre la teoría de las matrices. En 1925, Werner Heisenberg redescubre el
cálculo matricial fundando una primera formulación de lo que iba a pasar a ser la mecánica cuántica. Se le considera
a este respecto como uno de los padres de la mecánica cuántica.
Olga Taussky-Todd (1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para investigar el fenómeno
de aeroelasticidad llamado fluttering.
Definiciones y notaciones
Una matriz es una arreglo bidimensional de números (llamados entradas de la matriz) ordenados en filas (o
renglones) y columnas, donde una fila es cada una de las líneas horizontales de la matriz y una columna es cada una
de las líneas verticales. A una matriz con n filas y m columnas se le denomina matriz n-por-m (escrito )
donde . El conjunto de las matrices de tamaño se representa como ,
donde es el campo al cual pertenecen las entradas. El tamaño de una matriz siempre se da con el número de filas
primero y el número de columnas después. Dos matrices se dice que son iguales si tienen el mismo tamaño y las
mismas entradas.
A la entrada de una matriz que se encuentra en la fila ésima y la columna ésima se le llama entrada o
entrada -ésimo de la matriz. En estas expresiones también se consideran primero las filas y después las
columnas.
Casi siempre se denotan a las matrices con letras mayúsculas mientras que se utilizan las correspondientes letras en
minúsculas para denotar las entradas de las mismas. Por ejemplo, al elemento de una matriz que se encuentra en
la fila ésima y la columna ésima se le denota como , donde y . Cuando se
va a representar explícitamente una entrada la cuál está indexada con un o un con dos cifras se introduce una
coma entre el índice de filas y de columnas. Así por ejemplo, la entrada que está en la primera fila y la segunda
columna de la matriz de tamaño se representa como mientras que la entrada que está en la fila
número 23 y la columna 100 se representa como .
Además de utilizar letras mayúsculas para representar matrices, numerosos autores representan a las matrices con
fuentes en negrita para distinguirlas de otros objetos matemáticos. Así es una matriz, mientras que es un
escalar en esa notación. Sin embargo ésta notación generalmente se deja para libros y publicaciones, donde es
posible hacer ésta distinción tipográfica con facilidad. En otras notaciones se considera que el contexto es lo
suficientemente claro como para no usar negritas.
Otra notación, en si un abuso de notación, representa a la matriz por sus entradas, i.e. o incluso
.
Otra definición, muy usada en la solución de sistemas de ecuaciones lineales, es la de vectores fila y vectores
columna. Un vector fila o vector renglón es cualquier matriz de tamaño mientras que un vector columna
es cualquier matriz de tamaño .
Finalmente a las matrices que tienen el mismo número de filas que de columnas, i.e. , se les llama matrices
cuadradas y el conjunto se denota o alternativamente .
Matriz (matemáticas) 3
Ejemplo
Dada la matriz
Operaciones básicas
Las operaciones que se pueden hacer con matrices provienen de sus aplicaciones, sobre todo de las aplicaciones en
álgebra lineal. De ese modo las operaciones, o su forma muy particular de ser implementadas, no son únicas.
Suma o adición
Sean . Se define la operación de suma o adición de matrices como una operación binaria
tal que y donde
en el que la operación de suma en la última expresión es la operación binaria correspondiente pero
en el campo . Por ejemplo, la entrada es igual a la suma de los elementos y lo cual es .
Veamos un ejemplo más explícito. Sea
A la luz de éstos ejemplos es inmediato ver que dos matrices se pueden sumar solamente si ambas tienen el mismo
tamaño. La suma de matrices en el caso de que las entradas estén en un campo serán la asociatividad, la
conmutatividad, existencia de elemento neutro aditivo y existencia de inverso aditivo. Ésto es así ya que éstas son
propiedades de los campos en los que están las entradas de la matriz. A continuación se presentan las propiedades.
Propiedades
Sean , donde es un campo entonces se cumplen las siguientes propiedades para la
operación binaria
• Asociatividad
También es inmediato observar que el producto por un escalar da como resultado una matriz del mismo tamaño que
la original. También el producto por un escalar dependerá de la estructura algebraica en la que las entradas están. En
el caso de que estén en un campo serán dos distributividades (una respecto de suma de matrices y otra respecto de
suma en el campo), asociatividad y una propiedad concerniente al producto por el elemento neutro multiplicativo del
campo. A continuación se presentan las propiedades.
Matriz (matemáticas) 5
Propiedades
Sean y , donde es un campo, entonces se cumplen las siguientes propiedades
para la operación producto por un escalar
• Asociatividad
Demostración Dada la definición de la operación se sigue el resultado ya que como en un campo no hay divisores
de cero entonces para todo implica que o para todo , i.e. .
No es posible un caso en el que sólo algunas entradas de la matriz sean cero y el escalar sea no nulo ya que en esos
casos estaríamos diciendo que hay divisores de cero y llegaríamos a una contradicción, ya que la suposición es que
las entradas y los escalares están en un campo.
Producto
El producto de matrices se define de una manera muy peculiar y
hasta caprichosa cuando no se conoce su origen. El origen
proviene del papel de las matrices como representaciones de
aplicaciones lineales. Así el producto de matrices, como se define,
proviene de la composición de aplicaciones lineales. En este
contexto, el tamaño de la matriz corresponde con las dimensiones
de los espacios vectoriales entre los cuales se establece la
aplicación lineal. De ese modo el producto de matrices, representa
la composición de aplicaciones lineales.
Propiedades
Sean matrices con entradas en , donde es un campo, entonces se cumplen las siguientes
propiedades para el producto de matrices (considerando que los productos existan)
• Asociatividad
y por lo que
Rango
El rango de una matriz es la dimensión de la imagen de la aplicación lineal representada por , que coincide
con la dimensión de los espacios vectoriales generados por las filas o columnas de .
Traspuesta
La traspuesta de una matriz , donde no es necesariamente un campo, es una matriz
tal que . Por ejemplo la entrada .
Veamos un ejemplo más explícito. Sea
entonces su traspuesta es
Matriz (matemáticas) 8
Así, informalmente podríamos decir que la traspuesta es aquella matriz que se obtiene de la original cambiando filas
por columnas. Las notaciones usuales para denotar la traspuesta de una matriz son .
La trasposición de matrices tiene las siguientes propiedades (donde ahora si el conjunto de entradas debe ser al
menos un anillo conmutativo):
Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de un número. Su determinante es
fácil de calcular.
Teoría de matrices
La teoría de matrices es un rama de las matemáticas que se centra en el estudio de matrices. Inicialmente una rama
secundaria del álgebra lineal, ha venido cubriendo también los temas relacionados con la teoría de grafos, el álgebra,
la combinatoria y la estadística.
Algunos teoremas
• Teorema de Cayley-Hamilton
Matriz y grafos
En teoría de los grafos, a todo grafo etiquetado corresponde la matriz de adyacencia. Una matriz de permutación es
una matriz que representa una permutación; matriz cuadrada cuyos coeficientes son 0 o 1, con un solo 1 en cada
línea y cada columna. Estas matrices se utilizan en combinatorio.
En la teoría de grafos, se llama matriz de un grafo a la matriz que indica en la línea i y la columna j el número de
aristas que enlazan el vértice i al vértice j. En un grafo no orientado, la matriz es simétrica. La suma de los elementos
de una columna permite determinar el grado de un vértice. La matriz indica en la línea i y la columna j el
número de caminos a n aristas que adjuntan el vértice i al vértice j.
Matriz (matemáticas) 10
Referencias
• Beezer, Rob, Un primer curso en álgebra lineal [3], licencia bajo GFDL. (En inglés)
• Jim Hefferon: Álgebra lineal [4] (Libros de texto en línea) (En inglés)
Enlaces externos
• Una breve historia del álgebra lineal y de la teoría de matrices lineal [5] (En inglés)
• Matemáticas/Matrices [6](En Wikilibros)
Notas
[1] Swaney, Mark. History of Magic Squares (http:/ / www. arthurmag. com/ magpie/ ?p=449).
[2] cited by
[3] http:/ / linear. ups. edu/ index. html
[4] http:/ / joshua. smcvt. edu/ linalg. html/
[5] http:/ / darkwing. uoregon. edu/ ~vitulli/ 441. sp04/ LinAlgHistory. html
[6] http:/ / es. wikibooks. org/ wiki/ Matem%C3%A1ticas/ Matrices
Fuentes y contribuyentes del artículo 11
Licencia
Creative Commons Attribution-Share Alike 3.0 Unported
//creativecommons.org/licenses/by-sa/3.0/