Está en la página 1de 2

Definiciones de error

Por razones prácticas, sólo puede manejarse una cantidad finita de bits para cada
número en una computadora, y esta cantidad o longitud varía de una máquina a otra. Por
ejemplo, cuando se realizan cálculos de ingeniería y ciencia, es mejor trabajar con una longitud
grande; por otro lado, una longitud pequeña es más económica y útil para cálculos y
procedimientos administrativos. Los errores numéricos se generan con el uso de
aproximaciones para representar las operaciones y cantidades matemáticas. El error numérico
es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que
dicha magnitud tiene. Un aspecto importante de los errores numéricos es su
estabilidad numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis
numérico el error de aproximación es propagado dentro del propio algoritmo. El concepto de
error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer
un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la
solución que se obtiene

La palabra error procede de igual término latino, el que a su vez se derivó del verbo «errare»
que se usaba para expresar el hecho de no acertar en el blanco, fallar o no acertar.

El error es el falso conocimiento que se tiene de algo. Es equivalente a la equivocación, o sea,


se conoce, pero tergiversada mente, sin alcanzar la verdad. Se distingue de la ignorancia pues
ésta es la falta o ausencia de conocimiento. Quien cae en un error cree que sabe o que obtuvo
el resultado correcto, siendo esto falso. El error puede ser sobre hechos, sobre cosas o sobre
ideas.

Puede errar quien usa un procedimiento equivocado para llegar a una solución matemática, o
por un error de cálculo, o numérico, o quien falla en el resultado, al realizar un experimento, ya
sea por causas de su propia torpeza o de los elementos o procesos empleados. También puede
errar el que tiene una opinión equivocada con respecto a las cualidades de una persona, a la
existencia de un hecho, a sus causas, consecuencias, tiempo de ocurrencia, etc

En la matemática y en la física, el error es la diferencia que surge entre una medición y la


realidad. En este sentido, pueden cometerse tanto errores de cálculo producto de un fallo en
una operación matemática como experimentales ya que resulta imposible ejercer un control
preciso de alguna variable o de aproximación.

Error absoluto: Es la magnitud de la diferencia entre el valor medido o aproximado y el valor


verdadero. Se calcula tomando el valor absoluto de la resta entre ambos valores.

Error relativo: Es el error absoluto dividido por el valor verdadero, expresado como un
porcentaje o fracción del valor verdadero. Se utiliza para dar una idea de la precisión de una
aproximación en relación con el tamaño del valor verdadero.

Error de truncamiento: Este tipo de error ocurre cuando se aproxima un valor mediante la
truncación de una serie infinita o un cálculo continuo. Por ejemplo, en el cálculo numérico, al
utilizar un número finito de términos en una serie infinita, se produce un error de
truncamiento.

Error de redondeo: Ocurre cuando se aproxima un número real a uno más cercano en un
sistema con una precisión finita, como redondear un número decimal a un número entero. Este
error se debe a la limitación en la representación de números en computadoras o sistemas
numéricos finitos.

Error de aproximación: Se refiere al error asociado con el uso de métodos de aproximación en


matemáticas, como el método de aproximación de funciones por polinomios (por ejemplo, la
aproximación de Taylor).

Error experimental en estadística: En análisis estadístico, el error puede referirse a la variación


entre los resultados observados y los valores verdaderos debido a la variabilidad inherente en
la muestra o al azar.

También podría gustarte