Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Definiciones de Error
Definiciones de Error
Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a otra. Por
ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor trabajar con una longitud
grande; por otro lado, una longitud pequeña es más económica y útil para cálculos y
procedimientos administrativos. Los errores numéricos se generan con el uso de
aproximaciones para representar las operaciones y cantidades matemáticas. El error numérico
es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que
dicha magnitud tiene. Un aspecto importante de los errores numéricos es su
estabilidad numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis
numérico el error de aproximación es propagado dentro del propio algoritmo. El concepto de
error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer
un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la
solución que se obtiene
La palabra error procede de igual término latino, el que a su vez se derivó del verbo «errare»
que se usaba para expresar el hecho de no acertar en el blanco, fallar o no acertar.
Puede errar quien usa un procedimiento equivocado para llegar a una solución matemática, o
por un error de cálculo, o numérico, o quien falla en el resultado, al realizar un experimento, ya
sea por causas de su propia torpeza o de los elementos o procesos empleados. También puede
errar el que tiene una opinión equivocada con respecto a las cualidades de una persona, a la
existencia de un hecho, a sus causas, consecuencias, tiempo de ocurrencia, etc
Error relativo: Es el error absoluto dividido por el valor verdadero, expresado como un
porcentaje o fracción del valor verdadero. Se utiliza para dar una idea de la precisión de una
aproximación en relación con el tamaño del valor verdadero.
Error de truncamiento: Este tipo de error ocurre cuando se aproxima un valor mediante la
truncación de una serie infinita o un cálculo continuo. Por ejemplo, en el cálculo numérico, al
utilizar un número finito de términos en una serie infinita, se produce un error de
truncamiento.
Error de redondeo: Ocurre cuando se aproxima un número real a uno más cercano en un
sistema con una precisión finita, como redondear un número decimal a un número entero. Este
error se debe a la limitación en la representación de números en computadoras o sistemas
numéricos finitos.