SEMANA 1: DEFINICIONES UNIVERSIDAD LA GRAN COLOMBIA, DEPARTAMENTO DE CIENCIAS BÁSICAS BOGOTÁ 1 A 6 DE FEBRERO 2021. TEORIA DE ERRORES:
Debido a que los métodos numéricos dan sólo una
aproximación, entender el concepto de error es fundamental para utilizar en forma efectiva los métodos numéricos.
En la práctica profesional, los errores llegan a resultar
costosos y, en algunas ocasiones, catastróficos. Si una estructura o un dispositivo falla, esto puede costar vidas. CIFRAS SIGNIFICATIVAS:
El concepto de cifras o dígitos significativos se ha
desarrollado para designar formalmente la confiabilidad de un valor numérico. Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del número de dígitos que se ofrecen con certeza, más uno estimado. Aunque, por lo común, determinar las cifras significativas de un número es un procedimiento sencillo, en algunos casos genera cierta confusión. Por ejemplo, los ceros no siempre son cifras significativas, ya que pueden usarse sólo para ubicar el punto decimal: los números 0.00001845, 0.0001845 y 0.001845 tienen cuatro cifras significativas. Asimismo, cuando se incluye ceros en números muy grandes, no queda claro cuántos son significativos. Por ejemplo, el número 45 300 puede tener tres, cuatro o cinco dígitos significativos, dependiendo de si los ceros se conocen o no con exactitud. La incertidumbre se puede eliminar utilizando la notación científica, donde , , muestran, respectivamente, que el número tiene tres, cuatro y cinco cifras significativas CIFRAS SIGNIFICATIVAS EN METODOS NUMÉRICOS • los métodos numéricos dan resultados aproximados. Por lo tanto, se deben desarrollar criterios para especificar qué tan confiables son dichos resultados. Una manera de hacerlo es en términos de cifras significativas.
• Aunque ciertas cantidades como , o representan cantidades
específicas, no se pueden expresar exactamente con un número finito de dígitos. Por ejemplo. • = 3.141592653589793238462643... hasta el infinito. Como las computadoras retienen sólo un número finito de cifras significativas, tales números jamás se podrán representar con exactitud. A la omisión del resto de cifras significativas se le conoce como error de redondeo. ERRORES DE REDONDEO
los errores de redondeo se originan debido a que la computadora emplea un número determinado de cifras significativas durante un cálculo. Los números como , o no pueden expresarse con un número fijo de cifras significativas. Por lo tanto, no pueden ser representados exactamente por la computadora.
Además, debido a que las computadoras usan una
representación en base 2, no pueden representar exactamente algunos números en base 10. Esta discrepancia por la omisión de cifras significativas se llama error de redondeo. Entre los diferentes tipos de error nos incumben los errores de truncamiento que resultan del empleo de aproximaciones como un procedimiento matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un límite de cifras significativas para representar números exactos. La relación entre el resultado exacto, o real, y el aproximado está dada por:
Esta definición no toma en consideración el orden de la magnitud del
valor que se estima. Esto lo combatimos al normalizar el error respecto al valor verdadero Los métodos numéricos usan un método iterativo para calcular los resultados. En tales métodos se hace una aproximación considerando la aproximación anterior. En tales casos, el error a menudo se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el error relativo porcentual está dado por
Se busca que su valor absoluto porcentual sea menor que una
tolerancia porcentual prefijada . En este caso, el método establece continuar con las iteraciones hasta cumplir que
si el anterior criterio se cumple, se tendrá la seguridad que el
resultado es correcto en al menos n cifras significativas. Errores de truncamiento y la serie de Taylor
Los errores de truncamiento aparecen cuando se usa una
aproximación en lugar de un procedimiento analítico exacto.
Para obtener un conocimiento sobre las características de estos
errores, debe considerar una formulación matemática para expresar funciones de manera aproximada: la serie de Taylor. Errores de truncamiento y la serie de Taylor Errores de truncamiento y la serie de Taylor • la aproximación de orden cero, indica que el valor de en el nuevo punto es el mismo que su valor en el punto anterior
• la aproximación de primer orden se obtiene sumando otro
término para obtener:
• el término de segundo orden aparece para obtener algo de la
curvatura, que pudiera presentar la función Errores de truncamiento y la serie de Taylor Demanera iterativa se siguen agregando términos a la expansión como:
Donde
Es un termino residual que recoge todos los términos de la