Métodos Numéricos
Métodos Numéricos
Métodos Numéricos
Métodos Numéricos
Los métodos numéricos son una sucesión de operaciones matemáticas utilizadas para
encontrar una solución numérica aproximada a un problema determinado. Es decir, se
trata de una serie de cálculos para acercarnos lo más posible a una solución numérica
con una precisión razonablemente buena. Los métodos numéricos son utilizados en
ingeniería para facilitar la resolución de problemas que conllevan una enorme cantidad
de cálculos, lo que permite ahorrar tiempo.
Por lo general, los métodos numéricos se utilizan en ordenadores, dispositivos
electrónicos o software especializados en ingeniería, los cuales, ya tienen incluidos los
métodos numéricos en sus algoritmos de resolución, siendo vitales en el área de
simulación de procesos y para dar respuestas rápidas donde una solución analítica se
vuelve compleja.
Implementación de los métodos numéricos
La mejor forma de entender los métodos numéricos es aplicarlos directamente
mediante la programación informática, ya que de esta manera podremos entender
cómo funcionan. Aplicar métodos numéricos sin entender cómo funcionan es la vía más
rápida a los resultados erróneos o soluciones incorrectas, ya que no se tiene una idea
clara de lo que el software está haciendo con los datos.
Para implementar un método numérico es fundamental escribir todos los pasos en un
algoritmo, y luego, llevar dicho algoritmo a cálculos matemáticos en un programa
informático que pueda ser reutilizable para crear una simulación eficiente. Para llevar
Universidad Autónoma de Baja California
Programación y Métodos Numéricos
esto a cabo, es necesario tener una metodología para desarrollar la simulación que
requerimos, mediante el uso del método numérico.
Exactitud y precisión
La exactitud es el grado de concordancia entre el resultado de las medidas y el valor
verdadero de la magnitud que se pretende medir. No puede determinarse cuando el
valor verdadero es desconocido, pero sí tiene sentido cuando este se conoce o cuando
se comparan las medidas con la que proporciona un método del que se sabe de
antemano que tiene un alto grado de exactitud, y se emplea como referencia para la
calibración. La exactitud está relacionada con la incertidumbre sistemática, que
introduce desviaciones siempre en el mismo sentido que alejan el valor medido del
verdadero (particularmente el error de cero).
La precisión, por su parte, es el grado de concordancia entre diferentes medidas
realizadas en las mismas condiciones, al nivel en que pueden ser controladas por el
método experimental en cuestión; si el conjunto de medidas presenta mucha
dispersión, el método es impreciso, mientras que, si están muy concentradas en torno a
un valor, el método es preciso. La precisión está relacionada con la incertidumbre
aleatoria, ya que el hecho de que se obtengan diferentes medidas en las mismas
condiciones se debe a las influencias aleatorias.
La exactitud y la precisión son independientes entre sí. Por ejemplo, un método puede
ser impreciso, dando medidas bastante distintas entre sí, pero cuyo promedio se
acerca al valor verdadero; y, al contrario, un método puede dar medidas muy similares
entre sí, pero estar todas ellas muy alejadas del valor verdadero. Lo habitual, sin
embargo, es que la exactitud lleve asociada también buena precisión, pero no
necesariamente al revés (debido a errores sistemáticos).
Tipos de Errores
Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a otra.
Por ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor trabajar con
una longitud grande; por otro lado, una longitud pequeña es más económica y útil para
cálculos y procedimientos administrativos.
Los errores numéricos se generan con el uso de aproximaciones para representar las
operaciones y cantidades matemáticas. El error numérico es una medida del ajuste o
cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene.
Un aspecto importante de los errores numéricos es su estabilidad numérica. Dicha
estabilidad se refiere a como dentro de un algoritmo de análisis numérico el error de
aproximación es propagado dentro del propio algoritmo.
Universidad Autónoma de Baja California
Programación y Métodos Numéricos
Error relativo
El error relativo es el cometido en la estimación del valor de un número, es el valor
absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea
de la precisión de una medida, y se suele manejar en forma de porcentaje (%).
Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor
exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto
entre el valor aproximado o considerado como exacto.
Universidad Autónoma de Baja California
Programación y Métodos Numéricos
También puede hablarse de cota del error relativo, que, si la representamos como β, se
cumplirá:
A – A´) / A ≤ β
Error porcentual
El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por
100.
ERP = ER X 100
Error de redondeo
A continuación, se analizarán brevemente algunas consecuencias de utilizar el sistema
binario y una longitud de palabra finita.
Como no es posible guardar un numero binario de longitud infinita o un numero de más
dígitos de los que posee la mantisa de la computadora que se está empleando, se
almacena sólo un numero finito de estos dígitos; como consecuencia, se comete
automáticamente un pequeño error, conocido como error de redondeo, que al repetirse
muchas veces puede llegar a ser considerable.
Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los
errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones
del porqué pueden resultar críticos en algunos métodos numéricos:
Ciertos métodos requieren cantidades extremadamente grandes para obtener una
respuesta. Además, estos cálculos a menudo dependen entre sí. Esto es, los cálculos
posteriores son dependientes de los anteriores. En consecuencia, aunque un error de
redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso
de la gran cantidad de cálculos puede ser significativo.
El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones
algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya
que en este caso se presenta en muchos métodos numéricos, el error de redondeo
puede resultar de mucha importancia.
Error de truncamiento
Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación en
lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados
con una formulación matemática: la serie de Taylor.
Universidad Autónoma de Baja California
Programación y Métodos Numéricos