Métodos Numéricos

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 5

Universidad Autónoma de Baja California

Programación y Métodos Numéricos

Unidad 2: Métodos Numéricos

Nombre: Carlos Antonio Alvarez Angulo


Matrícula: 00366182
Grupo: Grupo 27
Fecha: 16/03/2022
Investigar los siguientes conceptos:
* Que son los métodos numéricos
*Aplicaciones de los métodos numéricos
*Concepto de exactitud y precisión
*Que tipos de errores existen en los métodos numéricos
NOTA: INCLUIR LA BIBLIOGRAFIA (MINIMO 2)

Métodos Numéricos
Los métodos numéricos son una sucesión de operaciones matemáticas utilizadas para
encontrar una solución numérica aproximada a un problema determinado. Es decir, se
trata de una serie de cálculos para acercarnos lo más posible a una solución numérica
con una precisión razonablemente buena. Los métodos numéricos son utilizados en
ingeniería para facilitar la resolución de problemas que conllevan una enorme cantidad
de cálculos, lo que permite ahorrar tiempo.
Por lo general, los métodos numéricos se utilizan en ordenadores, dispositivos
electrónicos o software especializados en ingeniería, los cuales, ya tienen incluidos los
métodos numéricos en sus algoritmos de resolución, siendo vitales en el área de
simulación de procesos y para dar respuestas rápidas donde una solución analítica se
vuelve compleja.
Implementación de los métodos numéricos
La mejor forma de entender los métodos numéricos es aplicarlos directamente
mediante la programación informática, ya que de esta manera podremos entender
cómo funcionan. Aplicar métodos numéricos sin entender cómo funcionan es la vía más
rápida a los resultados erróneos o soluciones incorrectas, ya que no se tiene una idea
clara de lo que el software está haciendo con los datos.
Para implementar un método numérico es fundamental escribir todos los pasos en un
algoritmo, y luego, llevar dicho algoritmo a cálculos matemáticos en un programa
informático que pueda ser reutilizable para crear una simulación eficiente. Para llevar
Universidad Autónoma de Baja California
Programación y Métodos Numéricos

esto a cabo, es necesario tener una metodología para desarrollar la simulación que
requerimos, mediante el uso del método numérico.
Exactitud y precisión
La exactitud es el grado de concordancia entre el resultado de las medidas y el valor
verdadero de la magnitud que se pretende medir. No puede determinarse cuando el
valor verdadero es desconocido, pero sí tiene sentido cuando este se conoce o cuando
se comparan las medidas con la que proporciona un método del que se sabe de
antemano que tiene un alto grado de exactitud, y se emplea como referencia para la
calibración. La exactitud está relacionada con la incertidumbre sistemática, que
introduce desviaciones siempre en el mismo sentido que alejan el valor medido del
verdadero (particularmente el error de cero).
La precisión, por su parte, es el grado de concordancia entre diferentes medidas
realizadas en las mismas condiciones, al nivel en que pueden ser controladas por el
método experimental en cuestión; si el conjunto de medidas presenta mucha
dispersión, el método es impreciso, mientras que, si están muy concentradas en torno a
un valor, el método es preciso. La precisión está relacionada con la incertidumbre
aleatoria, ya que el hecho de que se obtengan diferentes medidas en las mismas
condiciones se debe a las influencias aleatorias.
La exactitud y la precisión son independientes entre sí. Por ejemplo, un método puede
ser impreciso, dando medidas bastante distintas entre sí, pero cuyo promedio se
acerca al valor verdadero; y, al contrario, un método puede dar medidas muy similares
entre sí, pero estar todas ellas muy alejadas del valor verdadero. Lo habitual, sin
embargo, es que la exactitud lleve asociada también buena precisión, pero no
necesariamente al revés (debido a errores sistemáticos).
Tipos de Errores
Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a otra.
Por ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor trabajar con
una longitud grande; por otro lado, una longitud pequeña es más económica y útil para
cálculos y procedimientos administrativos.
Los errores numéricos se generan con el uso de aproximaciones para representar las
operaciones y cantidades matemáticas. El error numérico es una medida del ajuste o
cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene.
Un aspecto importante de los errores numéricos es su estabilidad numérica. Dicha
estabilidad se refiere a como dentro de un algoritmo de análisis numérico el error de
aproximación es propagado dentro del propio algoritmo.
Universidad Autónoma de Baja California
Programación y Métodos Numéricos

El concepto de error es consustancial con el cálculo numérico. En todos los problemas


es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el
grado de aproximación de la solución que se obtiene.
El concepto de error es consustancial con el cálculo numérico. En todos los problemas
es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el
grado de aproximación de la solución que se obtiene.
Error absoluto
Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser
positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale
positiva o negativa). Tiene unidades, las mismas que las de la medida.
El error absoluto de una medida no nos informa por sí solo de la bondad de la misma.
Es evidente, que no es igual de grave tener un error absoluto de 1 cm al medir la
longitud de una carretera que al medir la longitud de un folio.
El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el valor
aproximado. Hay autores que definen el error absoluto como la diferencia entre el valor
aproximado y el valor exacto, donde la diferencia únicamente está en el signo ya que
no se toma como valor absoluto. Sin embargo, podríamos tomar como fórmula general
la siguiente expresión:

Cuando el valor exacto no es conocido, por ejemplo, en cualquier medida física, se


habla de cota del error absoluto, que será un valor superior al error absoluto que
asegure que el error cometido nunca excederá a ese valor. Si llamamos c a la cota del
error absoluto de un número, se cumplirá:

Error relativo
El error relativo es el cometido en la estimación del valor de un número, es el valor
absoluto del cociente entre su error absoluto y el valor exacto. El error relativo da idea
de la precisión de una medida, y se suele manejar en forma de porcentaje (%).
Muchas veces conocemos el error absoluto (Ea), pero es imposible conocer el valor
exacto (A), en cuyo caso, para hallar el error relativo (Er) dividimos el error absoluto
entre el valor aproximado o considerado como exacto.
Universidad Autónoma de Baja California
Programación y Métodos Numéricos

También puede hablarse de cota del error relativo, que, si la representamos como β, se
cumplirá:
A – A´) / A ≤ β
Error porcentual
El error porcentual es fácil de definir, es el resultado de multiplicar el error relativo por
100.
ERP = ER X 100
Error de redondeo
A continuación, se analizarán brevemente algunas consecuencias de utilizar el sistema
binario y una longitud de palabra finita.
Como no es posible guardar un numero binario de longitud infinita o un numero de más
dígitos de los que posee la mantisa de la computadora que se está empleando, se
almacena sólo un numero finito de estos dígitos; como consecuencia, se comete
automáticamente un pequeño error, conocido como error de redondeo, que al repetirse
muchas veces puede llegar a ser considerable.
Ya que la mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los
errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones
del porqué pueden resultar críticos en algunos métodos numéricos:
Ciertos métodos requieren cantidades extremadamente grandes para obtener una
respuesta. Además, estos cálculos a menudo dependen entre sí. Esto es, los cálculos
posteriores son dependientes de los anteriores. En consecuencia, aunque un error de
redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso
de la gran cantidad de cálculos puede ser significativo.
El efecto del redondeo puede ser exagerado cuando se llevan a cabo operaciones
algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya
que en este caso se presenta en muchos métodos numéricos, el error de redondeo
puede resultar de mucha importancia.
Error de truncamiento
Cuando una expresión matemática se remplaza por una fórmula más simple, se
introduce un error, conocido como error de truncamiento.
Los errores de truncamiento son aquellos que resultan al usar una aproximación en
lugar de un procedimiento matemático exacto. Estos tipos de errores son evaluados
con una formulación matemática: la serie de Taylor.
Universidad Autónoma de Baja California
Programación y Métodos Numéricos

Taylor es una formulación para predecir el valor de la función en Xi+1 en términos de la


función y de sus derivadas en una vecindad del punto Xi. Siendo el término final:
Rn= ((ƒ(n+1) (ξ)) /(n+1)!) hn+1
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par aun
polinomio de n-ésimo orden. Para otras funciones continuas diferenciables, como las
exponenciales o senoidales, no se obtiene una estimación exacta mediante un número
finito de términos. Cada una de los términos adicionales contribuye al mejoramiento de
la aproximación, aunque sea un poco.
Bibliografía
https://www.ingenieriaquimicareviews.com/2020/10/metodos-numericos.html
https://formacion.intef.es/pluginfile.php/246707/mod_resource/content/1/exactitud_y_pr
ecisin.html
https://sites.google.com/site/metnum00/home/unidad-i/1-2-tipos-de-errores

También podría gustarte