Está en la página 1de 8

Teoría de errores

Instituto Politécnico Nacional - Escuela Superior de Física y Matemáticas

Edificio Z, Unidad Profesional Adolfo López Mateos, Zacatenco


Delegación Gustavo A. Madero, C.P. 07738, México, Distrito Federal.

Laboratorio avanzado 1 - Grupo: 6FV2

Franco de Jesús Martínez Aguilera

Teoría de errores

Según la Real Academia Española, medir es: Comparar una cantidad con su respectiva unidad, con
el fin de averiguar cuántas veces esta unidad está contenida en la primera.

Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede
determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido. A la magnitud de
un objeto específico que estamos interesado en medir, la llamamos mensurando. Por ejemplo, si
estamos interesado en medir la longitud de una barra, esa longitud específica será el mensurando.

La metrología incluye todos los aspectos teóricos y prácticos relacionados con las mediciones;
cualquiera que sea su incertidumbre y en cualquier campo de la ciencia y tecnología que ocurra.

Medidas de tendencia central

Las medidas de tendencia central son valores representativos de un conjunto de datos los cuales
suelen situarse hacia el centro de un conjunto de datos ordenados por magnitud (de menor o mayor
o viceversa) un análogo a este valor es lo que en física se conoce como centro de masa, es decir,
ver a un cuerpo como un solo punto.

Moda: Valor que tiene mayor frecuencia en un conjunto de observaciones, esta puede no
existir o no ser única (unimodal, bimodal, mulitomodal).

Mediana: Es el valor que queda en la parte central de un conjunto de observaciones


arreglado por el orden de magnitud, si el número de observaciones es impar, la mediana es
el valor intermedio; en el caso de que el número de observaciones sea par, la mediana será
el promedio de los dos valores centrales.

Media aritmética (promedio): medida de localización central, es la suma de todas las


observaciones divididas por el número total de observaciones.
Media geométrica: Esta medida de tendencia central es menos sensible para valores extremos
como la media aritmética y es útil al momento de calcular la media de porcentajes, es la n-ésima
raíz del producto de n números positivos

Media armónica: Esta es poco sensible para valores más grandes que el conjunto restante de
valores, pero sensible para valores próximos a cero y no está definida para valores nulos.

Media cuadrática (Root mean square): Útil para calcular la media de valores tanto
negativos como positivos, ya que lo que interesa es el valor absoluto del elemento a
analizar.

Errores

En función de la naturaleza del error podemos definir dos tipos de error:

Errores sistemáticos: Son debidos a problemas en el funcionamiento de los aparatos de


medida o al hecho de que, al introducir el aparato de medida en el sistema, éste se altera y
se modifica, por lo tanto, la magnitud que deseamos medir cambia su valor. Normalmente
actúan en el mismo sentido.

Los errores sistemáticos son debidos a defectos en los aparatos de medida o al método de
trabajo. Normalmente actúan en el mismo sentido, no son aleatorios, siguiendo unas leyes
físicas determinadas, de tal forma que en ocasiones se podrán calcular y compensar
matemáticamente tras la medida. Un ejemplo podría ser el de una regla graduada pero
dilatada por el calor, esa regla daría como resultado longitudes siempre menores que las
reales.
Errores accidentales: Son debidos a causas imponderables que alteran aleatoriamente las
medidas. Al producirse aleatoriamente las medidas se distribuyen alrededor del valor real,
por lo que un tratamiento estadístico permite estimar su valor.

Error absoluto

El error absoluto es la diferencia de un valor real y el valor medido

Error relativo

Es el cociente de la división entre el error absoluto y el valor exacto. Si se multiplica por 100 se
obtiene el tanto por ciento (%) de error. Al igual que el error absoluto, éste puede ser positivo o
negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto, no tiene
unidades.

Medidas de dispersión

Las medidas de dispersión nos ayudan a ver cuantitativamente cuan esparcidos se encuentran los
datos.

Rango: El rango de un conjunto de datos es la diferencia del valor máximo y mínimo del
conjunto de datos.

Desviación media: Mide la desviación promedio de valores respecto a la media del grupo
sin tener en cuenta el signo de la desviación.

Desviación estándar: Es el promedio o variación esperada respecto a la media aritmética.


Varianza: Mide la dispersión de valores respecto a la media.

Desviación típica de la media:

Histograma

El histograma es aquella representación gráfica de estadísticas de diferentes tipos. La utilidad del


histograma tiene que ver con la posibilidad de establecer de manera visual, ordenada y fácilmente
comprensible todos los datos numéricos estadísticos que pueden tornarse difíciles de entender

Existen diversos tipos de histogramas:

Diagramas De Barras Simples: Representa la frecuencia simple (absoluta o relativa) mediante


la altura de la barra la cual es proporcional a la frecuencia simple de la categoría que
representa.

Diagramas De Barras Compuesta: Se usa para representar la información de una tabla de doble
entrada o sea a partir de dos variables, las cuales se representan así; la altura de la barra
representa la frecuencia simple de las modalidades o categorías de la variable y esta altura es
proporcional a la frecuencia simple de cada modalidad.
Diagramas De Barras A Grupadas: Se usa para representar la información de una tabla de
doble entrada o sea a partir de dos variables, el cual es representado mediante un conjunto de
barras como se clasifican respecto a las diferentes modalidades.

Polígono De Frecuencias: Es un gráfico de líneas que de las frecuencias absolutas de los


valores de una distribución en el cual la altura del punto asociado a un valor de las variables es
proporcional a la frecuencia de dicho valor.

Ojiva

Es un gráfico de línea que se diseña utilizando en el eje horizontal las fronteras superiores de
una distribución de frecuencias. La información se obtiene de la columna de frecuencias
acumuladas (absoluta o relativa). Las características son las siguientes:

En el eje horizontal se colocan las fronteras superiores de cada intervalo

Todos los puntos tienen la misma distancia en el eje X

Las líneas permanecen unidas

El primer extremo termina sobre el eje horizontal

Los datos son numéricos o continuos


En el cambio de intervalo es posible colocar el valor de la frecuencia absoluta o
relativa para una mejor comprensión de los datos.

La forma general de una ojiva es la siguiente:


Propagación de errores

Al medir se obtiene un rango de error dado por el instrumento ( ± ∆ ) lo que se conoce como
incertidumbre. Entonces nos permite asignar un error al resultado final después de los cálculos.

El error absoluto de la suma y de la diferencia de dos o más magnitudes es la suma de los errores
absolutos de dichas magnitudes:
Z = x ± y ⇒ ∆Z = ∆x + ∆y
1 2 3

Los valores absolutos indican que todos los términos en la combinación deben ser positivos. De
otra manera, cabría la posibilidad de que la incertidumbre resultara igual a cero. Esto es
absolutamente imposible en la realidad pues, toda medición, sin importar su nivel de sofisticación,
debe tener alguna incertidumbre.

Distribución normal

En estadística y probabilidad se llama distribución normal, distribución de Gauss o distribución


gaussiana, a una de las distribuciones de probabilidad de variable continua que con más frecuencia
aparece aproximada en fenómenos reales. La gráfica de su función de densidad tiene una forma
acampanada y es simétrica respecto de un determinado parámetro estadístico. Esta curva se conoce
como campana de Gauss y es el gráfico de una función gaussiana.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos


naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de
este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables
que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada
observación se obtiene como la suma de unas pocas causas independientes.

En estadística, la función gaussiana (en honor a Carl Friedrich Gauss) es una función definida por
la expresión:

Donde a, b y c son constantes reales (a > 0).


Mínimos cuadrados

Mínimos cuadrados es una técnica de análisis numérico enmarcada dentro de la optimización


matemática, en la que, dados un conjunto de pares ordenados: variable independiente, variable
dependiente, y una familia de funciones, se intenta encontrar la función continua, dentro de dicha
familia, que mejor se aproxime a los datos (un "mejor ajuste"), de acuerdo con el criterio de mínimo
error cuadrático.

Para el caso más simple, cuando la función es una recta de la forma:

Entonces:

Considerando:

E es una función de dos variables, a y b, y lo que deseamos es obtener los valores de a y b que
minimizan dicha función. Para lograr dicho objetivo, debemos imponer la siguiente condición de
extremo:
Calculando dichas derivadas parciales de la expresión de E como función de a y b, obtenemos:

Por lo tanto es un sistema de dos ecuaciones con dos incógnitas, resolviendo el sistema,
encontramos las soluciones.

Bibliografía

http://www.rae.es/

http://www.fisicarecreativa.com/guias/capitulo1.pdf

http://www.uv.es/zuniga/3.2_Propagacion_de_errores.pdf

También podría gustarte