1.-Algebra Lineal PDF
1.-Algebra Lineal PDF
1.-Algebra Lineal PDF
renglones y
por
El elemento en el i-simo rengln y en la j-sima columna de una matriz de se escribe . Por consiguiente una matriz de se escribe abreviadamente ( ). Una matriz de 1 x 1 es simplemente una constante o funcin. Ejemplos: ( Es una matriz de 2 x 3. La matriz ( ) )
Es una matriz de 2 x 2 de elementos del campo complejo. El arreglo: ( No es una matriz, ya que no es rectangular. Definicin de igualdad de matrices: Dos matrices ( ) y ( ) son llamados iguales si consisten en los mismos elementos en las mismas posiciones. Estos es, deben tener el mismo nmero de filas y deben tener el mismo nmero de columnas, para toda i y j. )
ALGEBRA LINEAL
Ejemplo: ( ) ( )
1.2.- OPERACIONES ENTRE MATRICES. 1.2.1.- ADICCIN. La adiccin se define nicamente para matrices [ ] y [ ] del mismo tamao y su suma se denotada , se obtiene sumando los elementos correspondientes. Las matrices de tamaos diferentes no pueden sumarse. Definicin de suma de matrices: Las matrices matriz. ( Ejemplo: Sea ( )y ( 1.2.2.- MULTIPLICACIN POR ESCALARES. El producto de cualquier matriz ), denotado , es la matriz elemento de por . [ [ ] de ] de y cualquier escalar (nmero obtenida al multiplicar cada ( ), entonces: ) ( ) ) y de , se define como la
se define
Donde
Ejemplo; sea
ALGEBRA LINEAL
Teorema de operaciones de matrices: Sea sea escalares. Entonces: y matrices del mismo tamao, y
(Elemento neutro: matriz nula del mismo tamao). ) 0 (Inverso aditivo). (Conmutativa) ( ) (Distributiva respecto a la suma de matrices). ( ) (Distributiva con respecto a la suma de nmeros). ( ) ( ) (Asociativa). (Elemento neutro: matriz unitaria).
( ) (
) (Asociativa)
1.2.3.- MULTIPLICACIN DE MATRICES. Como ltima operacin algebraica se definir la multiplicacin de matrices. Definicin de multiplicacin de matrices: Sea una matriz de renglones y columnas, y una matriz que tiene renglones y columnas. Se define el producto como la matriz de :
) ( )
( ( )
Observe detenidamente en la Definicin de multiplicacin de matrices que el producto se define slo cuando el nmero de columnas en la matriz es el mismo que el nmero de renglones . El tamao del producto puede determinarse de:
ALGEBRA LINEAL
Ejemplo; sea ( ) ( ) ( ) entonces
( Similarmente,
( Y, ( ( ) )
( ( (
) )) )
) .
Note que, la multiplicacin de matrices no es conmutativa; estos es 1.2.3.1.-PROPIEDADES DEL PRODUCTO DE MATRICES. Ley asociativa La multiplicacin de matrices es asociativa. Si es una matriz de matriz de y una matriz de , entonces: ( Ley distributiva Si y son matrices de distributiva es: ( Adems, si el producto ( , y ) es una matriz de ) ( ) es una matriz de ,
es una
, entonces la ley
ALGEBRA LINEAL
1.2.4.- MATRICES ESPECIALES. Ciertos tipos de matrices se presentaran con mucha frecuencia ms adelante, y se mencionan ahora las ms importantes: Matriz columna: Una matriz columna columna: es una matriz que tiene renglones y una
columnas:
Matriz nula: Una matriz que consiste solamente de elementos cero, se llama matriz cero, y se representa por . Ejemplo: ( ) Y as sucesivamente. Si y ( ) ( )
son matrices de
, entonces:
El producto de dos matrices no nulas ( Matriz cuadrada: Una matriz de Cuya forma es de:
y )* (
ALGEBRA LINEAL
Dentro de las matrices cuadradas llamaremos diagonal principal a los elementos , , , . Mientras que la traza de se define como la suma de los elementos de la diagonal principal: ( )
Matriz diagonal: Una matriz cuadrada ( ) cuyos elementos arriba y debajo de la diagonal principal son todos ceros, es decir, para toda , se llama matriz diagonal. En particular, una matriz cuyos elementos de la diagonal principal son todos 1 se llama matriz unitaria y se denota por o simplemente por .
Matrices triangulares: Una matriz cuadrada cuyos elementos arriba de la diagonal principal son todos cero se llama matriz triangular inferior. De manera similar, una matriz triangular superior es una matriz cuadrada cuyos elementos debajo de la diagonal principal son cero. Ejemplo: ( ) ( )
Un elemento de la diagonal principal de una matriz triangular puede ser cero o no. 1.3.- MATRIZ TRANSPUESTA. Definicin de Matriz Transpuesta: Sea una matriz con tpicos elementos La transpuesta de , denotado como , es la matriz con tpicos elementos , donde . Ejemplo: ( ) ( )
ALGEBRA LINEAL
Matriz simtrica: Una matriz cuadrada . se dice que es simtrica si , y anti simtrica si
( ( ( (
) ) ) )
1.4.- SISTEMAS DE ECUACIONES LINEALES. El uso prctico ms importante de las matrices es en la solucin de sistemas de ecuaciones lineales, los cuales aparecen con frecuencia como modelos de diversos problemas, por ejemplo, en estructuras, redes elctricas, flujo vehicular, produccin y consumo, estadstica, y mucho ms. Definicin de sistema de ecuaciones lineales: Un sistema de ecuaciones lineales es un conjunto de ecuaciones lineales de la forma:
( )
En este caso tenemos ecuaciones y incgnitas. Por lo tanto el sistema de ecuaciones lineales se puede escribir como la matriz : ( )
Se llama la matriz de coeficientes del sistema lineal ( ) y los se denominan incgnitas (o nmeros a determinar) y se denominan trminos independientes. Por lo tanto el sistema ( ) se puede reescribir como una ecuacin matricial nica:
ALGEBRA LINEAL
Se observa que se obtiene aumentando determina por completo el sistema lineal ( ). con la columna . La matriz
Definicin sistema homogneo: Se dice que un sistema de ecuaciones con incgnitas es homogneo si ; de lo contrario se dice que el sistema es no homogneo. Todo sistema homogneo tiene al menos una solucin, la cual se denomina la solucin trivial. ( ) En el caso de que las incgnitas sean 2 se suelen designar simplemente e en vez de y , y en el caso de tres incgnitas en lugar de y pero esto es indiferente a la hora de resolver el sistema. Ejemplo, Interpretacin geomtrica. Existencia de soluciones. Si , se tienen dos ecuaciones con dos incgnitas .
Si se interpretan como coordenadas en el plano , entonces la grfica de cada una de estas ecuaciones representa una lnea recta, entonces el punto ( ) es una solucin si y solo si el punto de coordenadas ( ) est en ambas rectas. Por tanto hay tres casos posibles: a) No hay ninguna solucin, es decir, las rectas son paralelas. b) Hay una sola solucin nica, esto es, las rectas se intersectan exactamente en un punto. c) Hay una infinidad de soluciones, si las rectas coinciden.
( )
( )
( )
ALGEBRA LINEAL
Si el sistema es homogneo el caso (a) no puede ocurrir, porque entonces las dos rectas pasan por el origen, cuyas coordenadas 0,0 constituyen la solucin trivial. El ejemplo anterior ilustra que un sistema lineal ( ) no siempre puede tener una solucin. 1.5.- OPERACIONES ELEMENTALES. ELEMENTALES EN MATRICES Y MATRICES
Recurdese del lgebra que se puede transformar un sistema de ecuaciones lineales en un sistema equivalente (esto es, uno que tenga la misma solucin), para ello existen dos tipos de operaciones matriciales elementales: I. II. Operaciones sobre los renglones. Operaciones sobre las columnas.
Estas operaciones surgen de las tres operaciones que se pueden emplear para eliminar variables en un sistema de ecuaciones lineales. Definicin de operacin elemental sobre renglones (Columnas): Sea una matriz ( ) con tpicos elementos Cualquiera de las tres operaciones siguientes sobre los renglones (columnas) de se denomina operacin elemental sobre los renglones (columnas). I. II. III. Intercambio de dos renglones (columnas) cualesquiera de . Multiplicacin de cualquier rengln (columna) de por una constante no nula. Suma de cualquier mltiplo constante de un rengln (columna) de a otro rengln (columna).
Ejemplo: ( )
El intercambio de el segundo rengln de , con , el primer rengln de , es un ejemplo de una operacin elemental de tipo I sobre los renglones. La matriz resultante es: ( )
As tambin, la multiplicacin de , la segunda columna de , por 3 es un ejemplo de una operacin elemental sobre las columnas del tipo II. La matriz resultante es:
ALGEBRA LINEAL
( )
Por ltimo, la suma de , el primer rengln de , de cuatro veces , el tercer rengln de , es un ejemplo de una operacin elemental con renglones del tipo III. La matriz resultante es: ( )
Definicin de matriz elemental: Una matriz elemental de es una matriz obtenida al realizar una operacin elemental en una matriz unitaria . 1.6.- MTODOS DE RESOLUCIN. Para resolver un sistema lineal ( ) utilizando la matriz ampliada usamos ya sea el mtodo de eliminacin de Gauss o el mtodo de eliminacin de Gauss-Jordan. En el mtodo de eliminacin de Gauss se realizan una sucesin de operaciones elementales sobre los renglones de la matriz hasta que se llega a una matriz ampliada de forma escalonada por renglones, este mtodo es de gran importancia ya que funciona en la prctica y es razonable en lo que se refiere al tiempo de clculo y demanda de almacenamiento. En el mtodo de Gauss-Jordan las operaciones sobre los renglones de la matriz continan hasta que se obtiene una matriz ampliada de forma escalonada reducida por renglones. Se explica primero el mtodo mediante algunos ejemplos tpicos. Ejemplo:
Solucin: Este sistema es tan simple que casi podra resolverse por inspeccin. No es este el punto. La cuestin es llevar a cabo una eliminacin sistemtica eliminacin de Gauss- que funcionara en general, tambin para sistemas grandes. Es una reduccin a la forma triangular a partir de la cual se obtendrn con facilidad los valores de las incgnitas por sustitucin hacia atrs. Se escriben el sistema y su matriz aumentada lado a lado:
ALGEBRA LINEAL
Primer paso.-Eliminacin de : A la primera ecuacin se le llama ecuacin pivotal y su trmino se llama pivote en este paso y dicha ecuacin se usa para eliminar (deshacerse de ). Para ello, realizar las siguientes operaciones: Restar -1 veces la ecuacin pivotal de la segunda ecuacin. Restar 20 veces la ecuacin pivotal de la cuarta ecuacin.
Esto corresponde a operaciones con renglones en la matriz aumentada, las cuales se indican en seguida de la nueva matriz en (1). El resultado es:
( )
La primera ecuacin, que acaba de servir como ecuacin pivotal, permanece sin cambio. Quiere tomarse la (nueva) segunda ecuacin como la siguiente ecuacin pivotal. Puesto que no contiene ningn trmino en (necesario como siguiente pivote) de hecho es 0 = 0- , es necesario cambiar primero el orden de las ecuaciones (y los renglones correspondientes de la nueva matriz) para obtener un pivote diferente de cero. Se coloca la segunda ecuacin 0=0 al final y la tercera y cuarta ecuaciones se corren un lugar para arriba; a esto se le llama pivote parcial. Se obtiene:
El resultado es:
( )
ALGEBRA LINEAL
Trabajando hacia atrs desde la ltima ecuacin hasta la primera de este sistema triangular (2), ahora es posible encontrar con facilidad , luego y finalmente , donde la solucin es nica:
Un sistema lineal ( ) se llama sobre determinado si tiene ms ecuaciones que incgnitas, determinado si y sub determinado si tiene menos ecuaciones que incgnitas. Un sistema sub determinado siempre tiene soluciones, en tanto que en los otros dos casos las soluciones pueden existir o no. 1.7.- INDEPENDENCIA Y DEPENDENCIA LINEAL. Dado cualquier conjunto de vectores ( ) ( ) (con el mismo nmero de componentes), una combinacin lineal de estos vectores es una expresin de la forma:
( ) ( ) ( )
Donde
Evidentemente, esta expresin es vlida si se elige el valor cero para todas las , ya que se tiene entonces 0=0. Si este es el nico numero de escalares para los que se cumple la ecuacin, se dice entonces que los vectores ( ) ( ) forman un conjunto linealmente independiente. En caso contrario, si la ecuacin tambin es vlida con escalares que no sean todos ceros, a estos vectores se les llama linealmente dependientes, ya que entonces uno (al menos uno) de ellos puede expresarse como una combinacin lineal de los dems; por ejemplo, si la ecuacin es vlida con, , la ecuacin puede resolverse para ( ) :
( ) ( ) ( )
1.8.- RANGO DE UNA MATRIZ. Definicin de Rango de una Matriz: Es el nmero mximo de vectores rengln de una matriz ( ) linealmente independiente y se denota por . 1.9.- INVERSA DE UNA MATRIZ. Definicin de Inversa de una Matriz: La inversa de una matriz ( ) de denota por y es una matriz tal que: Donde es la matriz unitaria de se .
ALGEBRA LINEAL
Si tiene una inversa, entonces se llama matriz no singular. Si no tiene inversa, entonces se llama matriz singular. Si tiene una inversa, esta es nica. 1.9.1.- PROCEDIMIENTO PARA ENCONTRAR LA INVERSA DE UNA MATRIZ CUADRADA . Paso 1: Se escribe la matriz aumentada ( | ). Paso 2: Se utiliza la reduccin por renglones para poner la matriz a su forma escalonada reducida por renglones. Paso 3: Se decide si es invertible. a) Si la forma escalonada reducida por renglones de es la matriz identidad , entonces es la matriz que se tiene a la derecha de la barra vertical. b) Si la reduccin de conduce a un rengln de ceros a la izquierda de la barra vertical, entonces no es invertible. Ejemplo: Inversa de una matriz por eliminacin de Gauss-Jodan. ( Solucin.-Se aplica la eliminacin de Gauss: ( | ) ( | ) )
| | ( )
| | ) a , es
Se siguen ahora los pasos adicionales de Gauss-Jordan para reducir decir, a la forma diagonal con elementos en la diagonal principal.
| | )
| | )
ALGEBRA LINEAL
DETERMINANTES
En esta seccin definiremos el concepto de determinante y estudiaremos algunas de sus propiedades. Los determinantes fueron introducidos para resolver sistemas lineales. Tambin tienen importantes aplicaciones de ingeniera como problemas de Eigenvalores, ecuaciones diferenciales, algebra vectorial y otras. Nosotros lo estaremos utilizando para calcular la inversa de una matriz y resolver sistemas de ecuaciones de n incgnitas.En este captulo todas las matrices son cuadradas. 1.10 DEFINICIN DE DETERMINANTES. Definicin de Determinante: Para cada matriz un escalar especial llamado el de [ y se denota por ] asignamos ( ) | |
Se hace nfasis en que un arreglo cuadrado de nmeros encerrados por lneas rectas, llamado , no es una matriz pero denota el nmero que la funcin determinante asigna al arreglo cerrado de nmeros, es decir, la matriz cuadrada cerrada. 1.10.1.- DETERMINANTES DE SEGUNDO ORDEN. Un determinante de segundo orden se denota y define por: | Ejemplo: | | |
Esta definicin es sugerida por los sistemas: ( ) ( ) Cuya solucin puede escribirse | | | , | dnde:
ALGEBRA LINEAL
| | , se multiplica
Se sigue de la eliminacin convencional. De hecho, para eliminar ( ) por y ( ) por y se suma, encontrndose: ( Para eliminar encontrndose: ( Ahora se divide entre (si ) , se multiplica ( ) por ) ) para obtener y . y ( ) por
y se suma,
| De donde =
| y =
| .
) y Si el sistema es homogneo ( solo tiene la solucin trivial y si tambin tiene + soluciones no triviales. El diagrama siguiente puede ayudar a recordar el determinante de orden 2.
Es decir, el determinante es igual al producto de los elementos a lo largo de la flecha marcada con (+) menos el producto de los elementos a lo largo de la flecha marcada con (-). 1.10.2.- DETERMINANTES DE TERCER ORDEN. Un determinante de tercer orden puede definirse por: | | | | | | | |
Observen lo siguiente. Los signos en el segundo miembro son . Cada uno de los tres trminos del segundo miembro es un elemento de la primera columna de multiplicado por su menor, es decir, el determinante de segundo orden
ALGEBRA LINEAL
obtenido al eliminar de el rengln y la columna de dicho elemento (por tanto, para se eliminan el primer rengln y la primera columna, etc). Si se desarrollan los menores, se obtiene:
Ejemplo:
Por conveniencia de notacin, he separado las tres flechas marcada con ( ) y las tres flechas etiquetadas con ( ). Hay que hacer hincapi en que no existen tales trucos esquemticos para recordar determinantes de orden superior. 1.10.3.- DETERMINANTES DE CUALQUIER ORDEN N. Un determinante de orden , el cual se escribe: es un escalar asociado con una matriz [ ] de
ALGEBRA LINEAL
Y para por ( ( O ( ) ) ( ) )
Donde para una matriz de sea el elemento del rengln y la columna. El menor asociado a es el determinante de la matriz ( ) ( ) que se obtiene eliminando el rengln y la columna de la matriz. El cofactor asociado a es un menor con signo, especficamente ( )
Ejemplo; menores y cofactores de un determinante de tercer orden, sea; ( Los menores son: | | | Y los cofactores son: | | | | | | | | | | | | | | | )
ALGEBRA LINEAL
Desarrollo por cofactores. Puede demostrarse que un determinante se desarrolla en trminos de cofactores como sigue: Se multiplica los elementos de de cualquier rengln (o columna) por sus cofactores correspondientes y se suman los n productos. As, un determinante de 3 x 3 puede desarrollarse en tres determinantes de 2 x 2; un determinante de 4 x 4, en cuatro determinantes de 3 x 3, y as sucesivamente. Ejemplo, Sea ( )
En forma alternativa, es posible desarrollar el determinante, por ejemplo, segn la segunda columna: ( )| | | | ( )| |
Se observa que si el determinante cuenta con un rengln (o columna) que contenga muchos elementos cero, el sentido comn indica desarrollar el determinante segn ese rengln (o esa columna). 1.11.- PROPIEDADES GENERALES DE LOS DETERMINANTES. A partir de la definicin pueden ahora obtenerse con facilidad las propiedades ms importantes de los determinantes, como sigue. Puesto que se obtiene el mismo valor si un determinante se desarrolla por cualquier columna, se tiene: Propiedad 1: Transposicin. La determinante de una matriz | | Ejemplo: | | | | y la transpuesta son iguales, esto es, | |
ALGEBRA LINEAL
Propiedad 2: Multiplicacin por una constante. Si todos los elementos de un rengln (o columna) de un determinante se multiplican por el mismo factor k, el valor del nuevo determinante es k veces el valor del determinante dado. Ejemplo: | | . ( ) | |
Si todos los elementos de un rengln (o columna) de un determinante son cero, el valor del determinante es cero. Propiedad 4: Si cada elemento de un rengln (o columna) de un determinante se expresa como un binomio, el determinante puede escribirse como la suma de dos determinantes. Ejemplo: | | | | | |
Propiedad 5: Intercambio de renglones y columnas. Si dos renglones (o columnas) cualesquiera de un determinante se intercambian, el valor del determinante se multiplica por .Ejemplo: | | | |
Propiedad 6: Renglones o columnas proporcionales. Si los elementos correspondientes de dos renglones (o dos columnas) de un determinante son proporcionales, el valor del determinante es cero. Ejemplo: | |
Propiedad 7: Adicin de un rengln o una columna. El valor de un determinante se mantiene invariable si los elementos de un rengln (o columna) se altera sumndole cualquier mltiplo constante de los elementos correspondientes de cualquier otro rengln (o columna, respectivamente).
ALGEBRA LINEAL
Demostracin: Se aplica la propiedad 4 al determinante que resulta de la adiccin dada. Se obtiene as una suma de dos determinantes; uno es el determinante original y el otro contiene dos renglones proporcionales. De acuerdo con la propiedad 6, el segundo determinante es cero y por lo tanto el valor de la determinante se mantiene invariable. Propiedad 8: Determinante de un producto de matrices. Para cualesquiera matrices ( y ) de ( , )
de orden
( )
( )
Donde Ejemplo:
( )
se obtiene a partir de
rengln.
1.12.- REGLA DE CRAMER. Con la regla de Cramer se obtienen soluciones de sistemas lineales como cocientes de determinantes. Si el determinante de un sistema lineal de ecuaciones:
( )
En el mismo nmero de incgnitas es diferente de cero, el sistema tiene exactamente una solucin. Esta solucin est dada por las frmulas: , ,
ALGEBRA LINEAL
Donde es el determinante obtenido a partir de al sustituir la columna de por la columna con elementos .Por tanto si ( ) es homogneo y , nicamente tiene la solucin trivial Si , el sistema homogneo tiene soluciones no triviales. 1.13.- RELACIN ENTRE LA INVERSA Y LOS DETERMINANTES. Hay una estrecha relacin entre la inversa de una matriz cuadrada y su determinante. Por lo que definiremos la adjunta de una matriz de y la utilizaremos para calcular la inversa de una matriz. Definicin de Adjunta de Matriz: Sea una matriz de cofactores, entonces la , denotada por matriz de ; esto es: y es la matriz de sus es la transpuesta de la
Donde Ejemplo:
es el
| | | | |
( ( ( ) )
ALGEBRA LINEAL
Por lo tanto la ( es: ) ( ) ,
Definicin de inversa de una matriz: Sea [ ] una matriz no singular de entonces la inversa de denotada por , es dado por: ( ) Si no es invertible entonces matriz singular y cumple con:
ALGEBRA LINEAL
ESPACIOS VECTORIALES
El concepto de espacio vectorial aparece en muchas aplicaciones de matemticas, ciencias e ingeniera. Dicho concepto no es ms que una generalizacin cuidadosamente elaborada de . Al estudiar las propiedades y la estructura de un espacio vectorial, podemos examinar no slo en particular, sino tambin muchos otros espacios vectoriales importantes. 1.14.-TEORA DE CONJUNTOS. Definicin de conjunto: Es una coleccin bien definida de objetos llamados elementos. La notacin usada es , es usado para todos los elementos que satisfacen a . Usamos, , para denotar que pertenece al conjunto y para denotar que no pertenece al conjunto . Una manera de definir un conjunto es listando todos sus elementos.
Dos conjuntos y son iguales si ambos contienen exactamente los mismos elementos, y se escribe:
si cada elemento
Un conjunto
si:
La interseccin de ambos).
(o
La diferencia de
se denota como:
ALGEBRA LINEAL
El conjunto , no contiene elementos y es llamado conjunto vaco. El producto cartesiano de dos conjuntos y , denotado por ) ( ) si ordenado de elementos ( ) (Ordenado significa ( y . Esto es: ( ) 1.15.- DEFINICIN DE ESPACIO VECTORIAL. Definicin de espacio vectorial: Un conjunto no vaco de elementos se denomina ( ), y estos elementos se llaman si en estn definidas dos operaciones algebraicas (llamadas adicin de vectores y multiplicacin escalares) como sigue: 1.asocia con cada par de vectores nico de , llamado la de y y denotada por satisface los siguientes axiomas y es llamado 1.1.Para dos vectores cualesquiera y y de un vector , de tal modo que : de : , es el par ) donde
1.2.-
de )
en
y es tal )
2.Los nmeros reales se denominan escalares. La multiplicacin por escalares asocia con cada en y cualquier escalar un vector ( ) de tal modo que nico de , llamado el producto de y y denotado por lo siguiente se satisface. 2.1.- Distributividad para cualquier escalar ( ) y cualquier vector en : y cualquier vector y en :
ALGEBRA LINEAL
2.3.- Asociatividad para cualesquiera escalares ( 2.4.- Para toda en : ) ( ) y cualquier vector en :
Un se obtiene si, en lugar de nmeros reales, se toman nmeros complejos como escalares. Ejemplo: Sea ( )
1.2.( ( ( [( ) ) [( ) ( ) )] ) ( ( )] ( ) ( ( ) ) ( ) ( ) )
ALGEBRA LINEAL
1.3.-
( ( Obtenemos 4 ecuaciones:
) )
( (
) )
Por lo tanto: ( 1.4.- E ( ( ( ( Multiplicacin por escalar: 2.1.- Distributividad para cualquier vector ( [( ) ( ) )] [( )] y : ) ( ) ( ) ) ) ( ) ( ) ) )
ALGEBRA LINEAL
( ( ( ( ) ) ) ( ( ( ) ) ) ( ) ( y : ) ( ) )
( ( ) ( y : ) )
) ) (
) )
) ) ) ) ( ( ) ) )
1.15.-COMBINACIN LINEALES Y GENERADORES. Definicin de combinacin lineal: Sea un espacio vectorial y un conjunto no vaco de . Se dice que un vector de es una combinacin lineal de elementos , si existe un nmero finito de elementos en y si existen escalares tales que, es una combinacin lineal de :
ALGEBRA LINEAL
En este caso se dice que es: [ ] { es un sistema generador de , denotado por [ ], esto }
En
( ) pero que:
No lo es y verificar que sean sistemas generadores de primer caso debemos encontrar escalares y tales que: ( ( ) ( ) ( ) ( )
( ). Solucin; en el ) ( )
Utilizando el mtodo de solucin de Gauss-Jordan para resolver el sistema lineal nos queda:
ALGEBRA LINEAL
Por lo tanto el primer caso es una combinacin lineal y un sistema generador ( ): ( Para el segundo caso tenemos: ( ) ( ) ) ( )
Utilizando el mtodo de solucin de Gauss-Jordan, para resolver el sistema lineal nos queda:
Pero existe la presencia de la ecuacin inconsistente de el cual indica que el sistema de ecuaciones que obtuvimos del segundo caso no tiene soluciones y, por tanto no es una combinacin lineal de y no es un sistema generador de ( ). 1.16.-INDEPENDENCIA LINEAL. Definicin de independencia lineal: Un subconjunto de un espacio vectorial es linealmente independiente si existe un nmero finito de vectores distintos en y escalares , todos cero, tal que:
Se satisfacen para:
ALGEBRA LINEAL
Inversamente el subconjunto es linealmente dependiente si existen escalares , no todos ceros, tal que:
Ejemplo, verificar si las siguientes matrices son linealmente independientes: ( Solucin: ( ) ( Obtenemos 3 ecuaciones: ( ) ( ) ) ( ( ) ) ( ) ) ( ) ( ) ( )
Donde obtenemos:
Por lo tanto son matrices linealmente dependientes. Ejemplo, verificar si los siguientes vectores son linealmente independientes: ( Solucin: ( Obtenemos 3 ecuaciones: ) ( ) ( ) ( ) ) ( ) ( )
Donde obtenemos:
ALGEBRA LINEAL
Procedimiento para determinar si los vectores dependientes o linealmente independientes es como sigue: son linealmente
Paso 1.- Plantee la ecuacin , la cual conduce a un sistema homogneo. Paso 2.- Si el sistema homogneo que se obtuvo en el paso 1 tiene slo la solucin trivial, entonces los vectores dados son linealmente independientes; si tiene una solucin no trivial, entonces los vectores son linealmente dependientes. 1.17.-BASE Y DIMENSIN. Un subconjunto de un espacio vectorial que sea linealmente independiente y que genere a posee una propiedad muy til en el cual cada elemento de puede ser expresado de una y solo una manera como combinacin lineal de elemento . Es este resultado el que hace que los conjuntos generadores linealmente independientes sean elementos constructivos de los espacios vectoriales. Definicin de Base: Una base para un espacio vectorial linealmente independiente de que genera a . es un subconjunto
En un espacio vectorial existen infinitas bases, pero todas ellas tienen el mismo nmero de vectores. Cualquier vector de un espacio vectorial, puede ser expresado en cualquiera de sus bases. Definicin de Dimensin: Un espacio vectorial se llama dimensionalmente finito si tiene una base que consta de un numero finito de elementos; el nico nmero ( ). de elementos en cada base de se llama y se denota por Si un espacio vectorial no es dimensionalmente finito, se llama dimensionalmente infinito. 1.18.-SUBESPACIOS VECTORIALES. Normalmente, en el estudio de cualquier estructura algebraica es interesante examinar subconjuntos que tengan la misma estructura que el conjunto que este siendo considerado. As, la nocin apropiada de subestructura para espacios vectoriales se introduce en este punto. Definicin de subespacio vectorial: Un subconjunto de un espacio vectorial se llama un subespacio de si es un espacio vectorial bajo las operaciones de suma y multiplicacin por escalares definidas en . Donde un subconjunto de es un subespacio de si y solo si las siguientes tres condiciones se satisfacen: 1.siempre y cuando y 2.siempre que sea un escalar y 3.- El vector cero de pertenece a .
ALGEBRA LINEAL
La definicin anterior proporciona un mtodo sencillo para determinar si un subconjunto dado de un espacio vectorial es o no realmente un subespacio. En general, este resultado es el que se emplea para demostrar que un cierto subconjunto es un subespacio. 1.19.-INTERSECCIN Y SUMA DE SUBESPACIOS VECTORIALES. Definicin de interseccin de subespacio vectorial: Cualquier interseccin de subespacios de un espacio vectorial es un subespacio de . Demostracin: Sea un conjunto de subespacios de y sea la interseccin de todos los subespacios en . Como cada uno de los subespacios contiene al vector cero, Sean escalares y y elementos de ; entonces y son elementos de cada subespacio en . De aqu concluimos que y y son elementos de cada subespacio en (porque la suma de vectores en un subespacio y el producto de un escalar y un vector del subespacio, ambos pertenecen a ese subespacio). Entonces ; luego entonces es un subespacio de acuerdo a la definicin de subespacio. Definicin de suma de subespacio vectoriales: Si y son dos subconjuntos no vacos de un espacio vectorial , entonces la suma de y , que se expresa como , es el conjunto . La suma de cualquier nmero finito de subconjuntos no vacos de , se define anlogamente como el conjunto:
Demostracin: Sean y subespacios de . Como y Sea escalares y entonces existir tales que y , ahora bien: ( Es un elemento de ) ya que ( ) ( ) ( y ) ( y )
, y
Es un elemento de ya que y . Luego entonces es un subespacio de acuerdo a la definicin de subespacio. 1.20.-CAMBIO DE COORDENADAS DE UN VECTOR ANTE UN CAMBIO DE BASE MATRIZ DE CAMBIO DE BASE. Sabemos que si es un espacio vectorial de dimensin . tiene una base de vectores; hasta este momento no nos ha interesado orden de los vectores en
ALGEBRA LINEAL
Sin embargo, en esta seccin hablaremos de para . En este sentido, es una base ordenada para diferente a la anterior. Si dimensin como: ,
es una base ordenada para el espacio vectorial de , entonces cada vector x en se puede expresar en forma nica
Donde
[ ]
Como de con respecto a la base ordenada . Las entradas de [ ] son las coordenadas de con respecto a . Obsrvese que el vector de coordenadas [ ] depende de los vectores en el conjunto ; un cambio en el orden en que aparecen puede modificar las coordenadas de con respecto . Ejemplo; sea ( ) ( una base para ) ( ( ) , calcular [ ] . ) ( )
Que es simplemente un problema de combinacin lineal. Esta ecuacin origina un sistema lineal cuya matriz aumentada es:
ALGEBRA LINEAL
De modo que el vector coordenadas de con respecto a la base es:
[ ]