0% encontró este documento útil (0 votos)
323 vistas15 páginas

Unidad 3

Este documento describe varios métodos para resolver sistemas de ecuaciones lineales algebraicas, incluyendo el método de eliminación Gaussiana, el método de Gauss-Jordan, estrategias de pivoteo, la descomposición LU, el método de Gauss-Seidel y el método de Krylov. Explica cada método y proporciona ejemplos de su aplicación para resolver sistemas de ecuaciones.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Descargar como docx, pdf o txt
0% encontró este documento útil (0 votos)
323 vistas15 páginas

Unidad 3

Este documento describe varios métodos para resolver sistemas de ecuaciones lineales algebraicas, incluyendo el método de eliminación Gaussiana, el método de Gauss-Jordan, estrategias de pivoteo, la descomposición LU, el método de Gauss-Seidel y el método de Krylov. Explica cada método y proporciona ejemplos de su aplicación para resolver sistemas de ecuaciones.
Derechos de autor
© © All Rights Reserved
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
Descargar como docx, pdf o txt
Descargar como docx, pdf o txt
Está en la página 1/ 15

Instituto Tecnológico de Orizaba.

Métodos Numéricos.
Sistema de Ecuaciones Lineales
Algebraicas.
Andrade Maldonado Jesús Norberto.
Amador Cruz Alfredo.
Maldonado Hernández Christian Javier.
Martínez Dueñas Jorge Hazael.

2016
Contenido
3.0 Sistema de Ecuaciones Lineales Algebraicas.....................................................3
Introducción...............................................................................................................3
3.1 Método de eliminación Gaussiana......................................................................3
3.1.1 Regla de Cramer...........................................................................................3
3.1.2 Eliminación hacia adelante...........................................................................4
3.1.3 Sustitución hacia atrás..................................................................................4
3.2 Método de Gauss-Jordan....................................................................................4
3.3 Estrategias de pivoteo.........................................................................................5
3.4 Método de descomposición LU...........................................................................6
3.5 Método de Gauss-Seidel.....................................................................................7
3.6 Método de Krylov.................................................................................................7
3.7 Obtención de Eigenvalores y Eigenvectores.......................................................9
3.8 Método de diferencias finitas.............................................................................10
3.9 Método de mínimos cuadrados.........................................................................11
3.10 Aplicaciones.....................................................................................................14
3.0 Sistema de Ecuaciones Lineales Algebraicas.

Introducción.
Un sistema de ecuaciones lineales, también conocido como sistema lineal de
ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales
(es decir, un sistema de ecuaciones en donde cada ecuación es de primer grado),
definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de
ecuaciones sería el siguiente:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2


y x3 que satisfacen las tres ecuaciones.

3.1 Método de eliminación Gaussiana.


3.1.1 Regla de Cramer.
La regla de Cramer da una solución para sistemas compatibles determinados en términos de
determinantes y adjuntos dada por:

Donde Aj es la matriz resultante de remplazar la j-ésima columna de A por el


vector columna b. Para un sistema de dos ecuaciones y dos incógnitas:

La regla de Cramer da la siguiente solución:


Nota: Cuando en la determinante original det(A) el resultado es 0, el sistema indica
múltiples o sin coincidencia.

El método de Gauss consiste en transformar un sistema de ecuaciones en otro


equivalente de forma que éste sea escalonado. La 1ª ecuación siempre se deja
igual, (procurando que esta sea la más sencilla) y a la 2ª y 3ª ecuación se debe
anular el término que lleva la x. O podemos intercambiarlas entre sí.

Este algoritmo consiste en dos procesos:

3.1.2 Eliminación hacia adelante.


Esta fase reduce el conjunto de ecuaciones a un sistema triangular Superior:

Paso 1: Consiste en dividir la primera ecuación por el coeficiente de la primera


incógnita a-ii (coeficiente pivote). A este procedimiento se le conoce como
normalización.

Paso 2: Después se multiplica la ecuación normalizada por el primer coeficiente de


la segunda ecuación.

Paso 3: Nótese que el primer termina de la primera ecuación es idéntico al primer


término de la segunda. Por lo tanto, se puede eliminar, la primera incógnita de la
segunda ecuación restando la primera a la segunda.

Paso 4: Repetir el paso 2 y 3 hasta eliminar la primera incógnita de todas las


ecuaciones restantes.

Estos 4 pasos se repiten tomando como pivotes las ecuaciones restantes hasta
convertir el sistema en una matriz triangular superior.

3.1.3 Sustitución hacia atrás.


Ya obtenido el sistema equivalente que es un sistema triangular superior este es
más manejable y se puede resolver despejando primero la Xn y este valor
utilizarlo para obtener despejando la segunda incógnita hasta obtener el resultado
completo del sistema.

3.2 Método de Gauss-Jordan.


Este método también utiliza el teorema fundamental de equivalencia para resolver
un sistema de ecuaciones lineales. El método consiste en convertir el sistema
expresado como matriz ampliada y trabajar para transformarlo en un la matriz
identidad quedando en el vector de términos independientes el resultado del
sistema.
Su procedimiento se distingue del método Gaussiano en que cuando se elimina
una incógnita, se elimina de todas las ecuaciones restantes, es decir, las que
preceden a la ecuación pivote así como de las que la siguen. Por lo tanto, la
eliminación gaussiana es el método simple por excelencia en la obtención de
soluciones exactas a las ecuaciones lineales simultáneas. Una de las principales
razones para incluir el método de Gauss-Jordan, es la de proporcionar un método
directo para obtener la matriz inversa. Es importante mencionar que este método
es muy adecuado para obtener la matriz inversa de una matriz.

3.3 Estrategias de pivoteo.


Pivoteo y Complejidad

Cuando se aplica una operación elemental sobre una determinada fila para lograr
un 0 en el coeficiente apq, con p = q + 1, q + 2,. . ., N utilizo el elemento aqq de la
matriz, y dicho elemento recibe el nombre de pivote. Los números mpq = apq/aqq
se llaman multiplicadores y son los que se multiplican en la fila pivote para restarla
de las correspondientes filas.

Al estar trabajando con sistemas de cómputos, cuya precisión está fijada de


antemano, cada vez que se produce una operación aritmética se comete un error,
en este caso de redondeo. Es por eso que la elección del pivote en cada paso la
tomo por algún criterio no trivial de tal forma de tratar que dicho sea el menor
posible.

Existen varias estrategias una de ellas consiste en la denominada estrategia de


pivoteo parcial. La idea de este método consiste en lo siguiente: comparo el
tamaño de todos los elementos de la columna de la fila q-´e sima (a partir del
coeficiente que se encuentra en la diagonal) hasta la última fila, y me quedo con
aquel elemento que tenga mayor valor absoluto. Una vez encontrada la fila que
cumpla lo anterior, la llamo fila i-´e sima, aplico la operación de intercambio de filas
entre la q-´e sima y la i-´e sima, de forma tal de lograr multiplicadores mpq
menores a uno en valor absoluto.

Durante la derivación del algoritmo de la eliminación Gaussiana con sustitución


hacia atrás, se encontró que para obtener un cero para el elemento pivote a (k) kk
era necesario un intercambio de filas de la forma (Ek) $ (Ep) donde k + 1 · p · n
era el entero más pequeño con a (k) pk 6= 0. En la práctica frecuentemente es
deseable realizar intercambios de las filas que contienen a los elementos pivote,
aun cuando estos no sean cero. Cuando los cálculos se realizan usando aritmética
de dígitos finitos, como será el caso de las soluciones generadas con calculadora
u ordenador, un elemento pivote que sea pequeño comparado con los elementos
de debajo del en la misma columna puede llevar a un error de redondeo
sustancial.

3.4 Método de descomposición LU.


La factorización o descomposición LU es una forma de factorización de una matriz
como el producto de una matriz triangular inferior y una superior. Debido a la
inestabilidad de este método, deben tenerse en cuenta algunos casos especiales,
por ejemplo, si uno o varios elementos de la diagonal principal de la matriz a
factorizar es cero, es necesario pre-multiplicar la matriz por una o varias matrices
elementales de permutación. Método llamado factorización {\displaystyle PA=LU}
{\displaystyle PA=LU} o {\displaystyle LU} {\displaystyle LU} con pivote. Esta
descomposición se usa en el análisis numérico para resolver sistemas de
ecuaciones (más eficientemente) o encontrar las matrices inversas.

Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no


ser única)

Donde L y U son matrices inferiores y superiores triangulares respectivamente.


Para matrices {\displaystyle 3\times 3} {\displaystyle 3\times 3}, esto es:

Por otro lado la descomposición PLU tiene esta forma:

Con Lm-1...L1 matrices triangulares inferiores, Pm-1...P1 matrices de permutación y U


una matriz triangular superior. Para determinar L:

Y cada L'k está dado por:

Esto se debe a que L' k es igual a Lk, pero con los elementos de la subdiagonal
permutados.
Otra forma de ver éste tipo de factorización es: A=P T LU. Recordando que las
matrices de permutación matriz permutación son invertibles y su inversa es su
traspuesta.

3.5 Método de Gauss-Seidel.


Este método es iterativo o de aproximación y es similar a las técnicas para obtener
raíces vistas en el tema anterior. Aquellos métodos consisten en la determinación
de un valor inicial a partir del cual, mediante una técnica sistemática se obtiene
una mejor aproximación a la raíz. La razón por la cual los métodos iterativos son
útiles en la disminución de los errores de redondeo en sistemas, se debe a que un
método de aproximación se puede continuar hasta que converja dentro de alguna
tolerancia de error previamente especificada. Las técnicas iterativas se emplean
rara vez para resolver problemas de dimensiones pequeñas ya que el tiempo
requerido para lograr una precisión suficiente excede al de las técnicas directas.
Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta
técnica es eficiente. Los sistemas de este tipo surgen frecuentemente en la
solución numérica de problemas de valores frontera y de ecuaciones diferenciales
parciales.

Este método iterativo utiliza la misma transformación que el método de Jacobi, de


hecho es una mejora al método de Jacobi.

La mejora consiste en utilizar la incógnita encontrada, en la misma iteración para


calcular la siguiente incógnita. Por ejemplo, en el método de Jacobi se obtiene en
el primer cálculo xi+1, pero este valor de x no se utiliza sino hasta la siguiente
iteración.

En el método de Gauss-Seidel en lugar de eso se utiliza de xi+1 en lugar de xi en


forma inmediata para calcular el valor de yi+1 de igual manera procede con las
siguientes variables; siempre se utilizan las variables recién calculadas.

Entrada el número de ecuaciones o incógnitas n; los elementos de axn de la


matriz A; los elementos bi, 1? i? N de b; los elementos X0i, 1? i? n de X0 = x0;
la tolerancia Es (error sugerido); el número máximo de iteraciones, iter.

3.6 Método de Krylov.


Los métodos de Krylov, una alternativa de solución para sistemas lineales. En el
Algebra Lineal, se tiene dos tipos de problemas principales: Ax = b y Ax = λx o Ax
= λBx, además de un nuevo problema de funciones de matrices y = f(A) x. Esos
problemas ya son atendidos por métodos directos o métodos iterativos del Algebra
Lineal, sin embargo, para cuando se procesan volúmenes grandes de datos,
soluciones directas o iterativas pueden tornarse no viables, siendo los métodos de
Krylov una alternativa.

Los métodos directos enfrentan problemas generales y que son tratables


computacionalmente, un ejemplo es el método de eliminación Gaussiana con
pivotamiento parcial, entre otros. Sin embargo, cuando los problemas no son
tratables computacionalmente son usados los métodos iterativos, como por
ejemplo, los métodos de Jacobi, Gauss-Seidel, entre otros.

Los métodos de Krylov solucionan sistemas lineales partiendo de una


aproximación inicial r0:= b – Ax0, la cual es llamada error residual o residuo.
Después tenemos que aplicar la operación de multiplicación sucesiva de A por r0
hasta que uno de esos vectores obtenidos rectesulte una combinación lineal de las
dos anteriores, o sea, la solución exacta menos la aproximación lineal es una
combinación lineal del residuo inicial y de las multiplicaciones de potencias de la
matriz A.

Así, se tienen algunas definiciones importantes como espacio de Krylov, que es el


conjunto formado por todas las combinaciones lineales de los vectores, y el sub-
espacio de Krylov, que es el conjunto formado por todas las combinaciones
lineales de k vectores. De esa manera, se tiene como regla general, en aritmética
finita, que las secuencias de Krylov no son buenas bases para sub-espacios de
Krylov.

Los métodos de sub-espacio de Krylov forman una base ortogonal de secuencias


del residuo inicial y de multiplicaciones de potencias de la matriz A por el residuo.
Una aproximación en la solución de este problema es el método de
ortogonalización completa (FOM) y el residuo mínimo generalizado (GMRES),
ambos basados en la combinación de métodos de Krylov y Arnoldi.

Debido a que estos métodos forman una base, el método debe convergir en N
iteraciones, aunque no siempre es así en presencia de error de redondeamiento
debiéndose truncar la base manteniendo un tamaño fijo máximo de vectores. El
problema de convergencia es importante y permitió que en los últimos 20 años
fuesen propuestas diferentes alternativas del GMRES para mejorarlo.

Los métodos de Krylov enfrentan el desafío de implementaciones verdaderamente


paralelas, así como nuevos métodos y su respectiva teoría. En conclusión, los
métodos de Krylov deben ser usados solamente cuando los métodos directos no
sean viables.
3.7 Obtención de Eigenvalores y Eigenvectores.
Valor propio

Se dice que el número λ, real o complejo, es un valor propio A si existe un vector


no nulo u, real o complejo tal que

Au = λu, es decir (A − λI) u = 0

Vector propio

El vector u se denomina vector propio de A asociado al valor propio λ.

Polinomio característico

En general, el polinomio que resulta de desarrollar |A − λI|, cuyos ceros son


precisamente los valores propios de A, se denomina polinomio característico.

Radio espectral

Se denomina radio espectral ρ de una matriz A al valor  ρ(A) = max1≤i≤n|λi|

Valores propios de una matriz cualquiera

Si λ es complejo, entonces u es complejo.

Los valores propios de B = C−1

AC son los mismos de A. Si x es el vector propio asociado a λ, entonces

Cx es un vector propio de B asociado a λ.

Valores propios de matrices simétricas

Si D es la matriz diagonal cuyos elementos diagonales son los valores propios de


A, entonces existe una matriz ortogonal Q tal que           D = Q^−1 AQ = Q^t AQ.

Asimismo, existen n vectores propios de A que forman un conjunto ortonormal, y


coinciden con las columnas de la matriz ortogonal Q.
Todos los valores propios de A son reales.

A es definida positiva si y solo si todos los valores propios de A son positivos.

3.8 Método de diferencias finitas.


El Método de Diferencias Finitas es un método de carácter general que permite la
resolución aproximada de ecuaciones diferenciales en derivadas parciales
definidas en recintos finitos. Es de una gran sencillez conceptual y constituye un
procedimiento muy adecuado para la resolución de una ecuación bidimensional
como la que hemos planteado.

El primer paso para la aplicación del método consiste en discretica el recinto del
plano en el que se quiere resolver la ecuación con una malla, por conveniencia
cuadrada. Los puntos de la malla están separados una distancia h en ambas
direcciones x e y.

Podemos desarrollar T(x, y) en serie de Taylor alrededor de un punto:

                                     

                                       

Sumando miembro a miembro, agrupando, despreciando los términos o (h3) y


despejando el término de la derivada segunda resulta:

               
                                                  

De forma similar se obtiene la expresión equivalente:

                                                                

                   Pero de la ecuación de Laplace:

                                     
                                                             Por lo tanto:  
                                

Lo que significa que el valor de la temperatura en un punto se puede escribir como


la media de las temperaturas de los 4 puntos vecinos.

Otro aspecto importante es que las diferencias finitas aproximan cocientes


diferenciales a medida que h se acerca a cero. Así que se pueden usar diferencias
finitas para aproximar derivadas. Esta técnica se emplea a menudo en análisis
numérico, especialmente en ecuaciones diferenciales numéricas ordinarias,
ecuaciones en diferencias y ecuación en derivadas parciales. Los métodos
resultantes reciben el nombre de métodos de diferencias finitas.

3.9 Método de mínimos cuadrados.


Es una técnica de análisis numérico encuadrada dentro de la optimización
matemática, en la que, dados un conjunto de pares (o ternas, etc), se intenta
encontrar la función que mejor se aproxime a los datos (un "mejor ajuste"), de
acuerdo con el criterio de mínimo error cuadrático.

En su forma más simple, intenta minimizar la suma de cuadrados de las


diferencias ordenadas (llamadas residuos) entre los puntos generados por la
función y los correspondientes en los datos. Específicamente, se llama mínimos
cuadrados promedio (LMS) cuando el número de datos medidos es 1 y se usa el
método de descenso por gradiente para minimizar el residuo cuadrado. Se puede
demostrar que LMS minimiza el residuo cuadrado esperado, con el mínimo de
operaciones (por iteración), pero requiere un gran número de iteraciones para
converger.

Desde un punto de vista estadístico, un requisito implícito para que funcione el


método de mínimos cuadrados es que los errores de cada medida estén
distribuidos de forma aleatoria. El teorema de Gauss-Márkov prueba que los
estimadores mínimos cuadráticos carecen de sesgo y que el muestreo de datos no
tiene que ajustarse, por ejemplo, a una distribución normal.

También es importante que los datos recogidos estén bien escogidos, para que
permitan visibilidad en las variables que han de ser resueltas (para dar más peso a
un dato en particular, véase mínimos cuadrados ponderados).
La técnica de mínimos cuadrados se usa comúnmente en el ajuste de curvas.
Muchos otros problemas de optimización pueden expresarse también en forma de
mínimos cuadrados, minimizando la energía o maximizando la entropía.

El método de mínimos cuadrados para el cálculo de la ecuación de una recta a


través de los datos de interés da la línea de mejor ajuste, para llegar a la ecuación
de tendencia por mínimos cuadrados se resuelven dos ecuaciones
simultáneamente.

El procedimiento más objetivo para ajustar una recta a un conjunto de datos


presentados en un diagrama de dispersión se conoce como "el método de los
mínimos cuadrados". La recta resultante presenta dos características importantes:

1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta


de ajuste

∑ (Y ー - Y) = 0.

2. Es mínima la suma de los cuadrados de dichas desviaciones. Ninguna otra


recta daría una suma menor de las desviaciones elevadas al cuadrado ∑ (Y ー - Y)²
→ 0 (mínima).

El procedimiento consiste entonces en minimizar los residuos al cuadrado Ci²

Reemplazando nos queda.

La obtención de los valores de a y b que minimizan esta función es un problema


que se puede resolver recurriendo a la derivación parcial de la función en términos
de a y b: llamemos G a la función que se va a minimizar:

Tomemos las derivadas parciales de G respecto de a y b que son las incógnitas y


las igualamos a cero; de esta forma se obtienen dos ecuaciones llamadas
ecuaciones normales del modelo que pueden ser resueltas por cualquier método
ya sea igualación o matrices para obtener los valores de a y b.
Derivamos parcialmente la ecuación respecto de a

Primera ecuación normal

Derivamos parcialmente la ecuación respecto de b

Segunda ecuación normal


 Los valores de a y b se obtienen resolviendo el sistema de ecuaciones resultante.

3.10 Aplicaciones.
Los métodos iterativos se aplican a matrices grandes y dispersas.

El coste por iteración es O (n2) o menor si se aprovecha la dispersidad. Se espera


que converjan en menos de n pasos.

En la ingeniería civil: funcionaria de la siguiente manera: si tengo un grupo A que


tiene un rendimiento X en obra (instalación de cubiertas) y un grupo B que tiene Y
rendimiento, y necesito terminar la instalación en 25 días, suponiendo que un
grupo este en una ciudad cercana y el otro en una más lejos.

Planteando un sistema de ecuaciones puedo saber cuántos miembros de cada


grupo puedo traer para terminar la actividad lo más rápido posible.

METODO DE GAUSS.

Consiste en transformar un sistema Ax = B en un sistema triangular Ux = c


realizando operaciones elementales de Gauss en la matriz ampliada A *. El
sistema triangular obtenido es equivalente al inicial. Si al reducir por Gauss
llegaremos a un absurdo como 0 = 1 el Sistema inicial era Incompatible.

Ej.- Resolvemos el sistema anterior por Gauss

x + y +z = 0

x+y-z=0

3x + 3y + z = 0

x + y+ z = 0 Þ z = 0 Þ x = -y

Solución: < (x, -x, 0) >; x Î R

POR DESCOMPOSICION L U

Dado un sistema AX = B siendo A una matriz cuadrada (incógnitas = ecuaciones)


podemos encontrar la descomposición LU de la matriz A de modo que A = L ∙ U.A
X= B Û LU X= B Û UX = YL Y = B
La solución se obtiene resolviendo dos sistemas triangulares, se resuelve LY = B y
una vez tenemos el vector Y hallamos X, las componentes de X con las incógnitas
x, y, z, t...

También podría gustarte