Está en la página 1de 3

TEORÍA DE ERRORES

EST: Milton Francisco Rossell Brizuela S7943-X


METODOS NUMERICOS
-Concepto de preciso vs exacto (Precisión y exactitud)
La exactitud es la cercanía de una medida al valor real, mientras que la precisión es el
grado de cercanía de los valores de varias medidas en un punto. Estas diferencias son
críticas en metrología, ciencias e ingeniería.
¿Qué es exactitud?
Exactitud indica el grado de cercanía o proximidad entre un valor medido, o una serie de
valores observados, con el valor real de alguna cosa. Así, la exactitud aumenta cuanto más
cerca se encuentre una medición de un objeto con la medida real de dicho objeto.

Ejemplos de exactitud

Si una persona practica tiro al blanco y atina en el centro del objetivo, esta persona ha disparado
con exactitud.

¿Qué es precisión?

El término precisión es utilizado como sinónimo de exactitud con frecuencia en la vida


cotidiana. Sin embargo, la precisión se refiere al grado de proximidad o cercanía de los
resultados de diferentes mediciones entre sí, mientras que la exactitud es la cercanía del valor de
una medición al valor real de aquello que se mide.
Ejemplos de precisión
Durante un partido de fútbol, un delantero patea el balón a portería rival 7 veces, de las cuales 6
de ellas terminan golpeando el poste izquierdo y otra pasa cerca del mismo poste, sin conseguir
una anotación para su equipo. Este delantero es bastante preciso, ya que dispara siempre al
mismo punto, pero también es muy inexacto, porque no consigue anotar.
-Cortar (Truncar) vs Redondear
Para truncar un número decimal a un orden de unidades eliminamos todas las cifras ala derecha
de ese orden.
Para redondear un número decimal a un orden de unidades: –Eliminamos todas las cifras a la
derecha de este orden. –Si la primera cifra eliminada es mayor o igual que 5, sumamos 1 a la
cifra de su izquierda.

-¿Qué genera error?


El error de medición se define como la diferencia entre el valor medido y el "valor verdadero".
Los errores de medición afectan a cualquier instrumento de medición y pueden deberse a
distintas causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante
calibraciones y compensaciones, se denominan deterministas o sistemáticos y se relacionan con
la exactitud de las mediciones. Los que no se pueden prever, pues dependen de causas
desconocidas, o estocásticas se denominan aleatorios y están relacionados con la precisión del
instrumento.

• Error aleatorio. No se conocen las leyes o mecanismos que lo causan por su excesiva
complejidad o por su pequeña influencia en el resultado final.
Para conocer este tipo de errores primero debemos realizar un muestreo de medidas.
Con los datos de las sucesivas medidas podemos calcular su media y
la desviación típica muestral.
• Error sistemático. Permanecen constantes en valor absoluto y en el signo al medir, una
magnitud en las mismas condiciones, y se conocen las leyes que lo causan.
Para determinar el error sistemático de la medición se deben de realizar una serie de
medidas sobre una magnitud X0, se debe de calcular la media aritmética de estas
medidas y después hallar la diferencia entre la media y la magnitud X0.

-Error Absoluto
El error absoluto, ε, se define como la diferencia positiva entre el valor real, x, de una
determinada magnitud y el valor estimado, xi . En ocasiones el error absoluto aparece detrás
del valor estimado y precedido por el signo ±, indicando el margen en el que se encuentra el
valor real.

-Error relativo porcentual


¿Cómo calcular el error relativo porcentual?
El porcentaje de error, también conocido como porcentaje de error, es una medida de cuán
inexacta es una medición, estandarizada en función del tamaño de la medición. Es el error
relativo expresado en términos de por 100. El error relativo se calcula como el error
absoluto dividido por la magnitud del valor exacto.
Porcentaje de definición de error
El porcentaje de error, también conocido como porcentaje de error, es una medida de cuán
inexacta es una medición, estandarizada en función del tamaño de la medición. Es el error
relativo expresado en términos de por 100. El error relativo se calcula como el error absoluto
dividido por la magnitud del valor exacto. El error absoluto es la magnitud de la diferencia entre
el valor real y el valor estimado.

También podría gustarte