Está en la página 1de 15

Mediciones Directas, Indirectas y Análisis Estadístico: 3

enfoques para el estudio de magnitudes e incertezas


Julieta Varona, Paloma Aleli Aravena Taramasco, Carolina Zulema Bassi
julieta.varona@gmail.com, paloma95@gmail.com, cazubassi@gmail.com

er​
Laboratorio de Mecánica y Termodinámica – 1​ cuat. 2020 – Lunes 14 - 20 hs.

Departamento de Física, FCEyN, UBA

RESUMEN:

El trabajo práctico se llevó a cabo con el objetivo de estimar distintas magnitudes, de forma directa e
indirecta, con sus respectivas incertezas; comprender y comparar distintos métodos de análisis
estadísticos y discutir los conceptos de precisión y exactitud. Se analizó estadísticamente un set de
200 datos obtenidos a partir de las mediciones del periodo de un péndulo. Con los datos del periodo y
las características del experimento se dedujo la constante gravitatoria y se comparó con su par
tabulado. Además se obtuvo la densidad de la esfera metálica a partir de su diámetro y masa.
Finalmente se calculo el volumen de un cuerpo mediante dos métodos distintos (geométrico y por
desplazamiento de agua). En los resultado se vio que al comparar el valor de gravedad obtenida con
el valor tabulado no se encontraron grandes diferencia.. Se pudo deducir que la esfera metálica
probablemente es de acero de carbono pero también puede ser de hierro. y por último se concluye
que el cálculo de volumen por método geométrico es más preciso pero que el método por
desplazamiento es más exacto.

I- INTRODUCCIÓN

Al momento de determinar una magnitud física, existen dos formas de calcular la misma. Por un lado,
mediante la medición ​directa que para llevarse a cabo, requiere de la utilización de un instrumento de
medición específico. Por otro lado, se encuentra la medición ​indirecta, ​la cual consiste en obtener la
magnitud deseada a partir de la derivación de otras magnitudes obtenidas en forma directa
previamente; para ello se debe establecer una relación funcional entre las misma. Dado que la
matemática es el lenguaje de la física, en general esta relación establecida consiste en el empleo de
una fórmula o ecuación matemática que relacione todas las variables de interés, tanto conocidas como
a conocer.

Ambos métodos presentan ventajas y desventajas, por lo cual la elección de cualquiera de ellos es de
suma importancia. En la medición directa, la elección del instrumento es crucial y deberá ser acorde al
experimento planteado y al método experimental elegido; del mismo depende la validez de las
hipótesis planteadas y puestas a prueba en el experimento, así como la validez de los resultados
obtenidos. Otra particularidad de la medición directa es que de la misma no obtenemos un único valor
aislado sino un conjunto de valores posibles. Este conjunto es lo que se conoce como ​intervalo de
confianza y dentro del mismo se encuentran todos los valores posibles y aceptables que puede tomar
nuestra variable de interés. Este intervalo tiene su límites por fuera de los cuales no tiene validez la
medición. Dicho límite lo marca la incerteza​. En principio, la incerteza está dada por el error
característico del instrumento de medición (resolución del instrumental). Llegado el caso se pueden
incluir otro tipo de errores, como errores propios del azar (error estadístico), del método de medición
y/o errores del operador que realiza la medición (el tiempo en que tarda en accionar un cronómetro,
por ejemplo).

Entonces, una medida tiene su incerteza asociada:

(1)

Y la incerteza está dada por:

(2)

Por otro lado, en la medición indirecta contamos con la ventaja de ahorrarnos medir todas las
magnitudes que queremos conocer. Esto es de suma importancia, dado que la realización de un
experimento implica esfuerzo, tiempo y dinero además de requerir el equipamiento y el espacio para
realizarlo; por ello, su correcta utilización facilitará nuestro trabajo y lo volverá más eficiente. Sin
embargo, hay un detalle crucial para poder usarla: se requieren datos previos, sin éstos no se pueden
deducir las magnitudes deseadas. Dichos datos se pueden obtener de experimentos previos propios o
tablas con valores tabulados realizados por otros. En cuanto a las incertezas, las mismas están
conformadas por las magnitudes medidas directamente (y sus incertezas) y las relaciones entre ellas.
Las magnitudes calculadas indirectamente y sus incertezas formarán los intervalos de confianza para
las magnitudes medidas directamente.

Por ejemplo, con una medición directa, se pueden tomar las magnitudes de un objeto, relacionar su
estructura a un cuerpo geométrico y obtener otras magnitudes (superficies, volúmenes) mediante un
cálculo matemático (medición indirecta). Sin embargo, debemos tener en cuenta que las fórmulas
empleadas corresponden a cuerpos perfectos, imaginarios y teóricos y por lo tanto, su aplicación a
objetos de la realidad tendrá sus limitaciones.

En la segunda parte del trabajo práctico se propuso obtener la incerteza de una medición indirecta a
partir de mediciones directas de magnitudes independientes. La mismas se obtuvieron a partir del
análisis de los datos de la parte 1 (guia 1) y mediante experimentos simples (ver desarrollo
experimental). Posteriormente, se realizó una comparación entre resultados de una misma magnitud
procedente de experimentos diferentes.

Un paso más en la búsqueda de relaciones entre diferentes variables, lo constituye el análisis


estadístico. Cuando uno tiene a su disposición una gran cantidad de datos es posible realizar un
análisis estadístico sobre los mismos. Ya no solo se emplearán cálculos para relacionar diferentes
variables (como en las mediciones indirectas), sino que se lo aplicará a un gran número. El uso de
datos a gran escala implica, en estos últimos años, la ayuda de programas computacionales quienes
realizan los cálculos y buscan relaciones entre variables. Los resultados obtenidos pueden mostrarse
como datos, tablas o gráficos. Recaerá entonces sobre el investigador, evaluar si dichos valores y
relaciones son verídicas o producto del azar. Es decir, que un programa nos devuelva una relación
entre variables no implica automáticamente su veracidad.

Dentro de las múltiples relaciones entre variables a gran escala, una serie de N mediciones
(x1,x2,...,xn) puede ser aproximado por una función continua bien definida conocida como curva de
distribución de Gauss o distribución Normal​. La misma se caracteriza por presentar los datos
distribuidos alrededor de un promedio x , donde la mayoría de los valores se encontrarán cercanos al
promedio y a medida que nos alejemos del mismo, su número disminuirá. Es decir, no podemos
predecir el valor de una medición dada pero podemos decir algo sobre la ​probabilidad de que su
valor caiga en un determinado intervalos de valores posibles. En la distribución Normal, es ​más
probable​ que un variable tome valores cercanos al promedio que lejanos a este.

Una herramienta útil en el análisis de datos son los histogramas. Los mismos constituyen gráficos de
barras verticales. El gráfico se construyen dividiendo el eje horizontal (mediciones) en intervalos
regulares ( ΔX) y sobre cada intervalo dibujamos un rectángulo cuya altura es proporcional a la
cantidad de mediciones que caen dentro de dicho intervalo (número de ocurrencias o frecuencias). En
este trabajo, analizaremos nuestros histogramas y su semejanza o diferenciación respecto de una
Gaussiana.

Además del uso de histogramas, otra forma de analizar datos es mediante las ​medidas de
centralización y la dispersión de datos​. Por un lado, las medidas de centralización son: la mediana,
la moda y la media. La ​mediana es el valor al cual la totalidad de los datos de la muestra queda
dividido en dos secciones: un 50% es mayor a la mediana y el otro 50% es menor. La ​moda es el
valor más frecuente, aquel que se repite más veces. La ​media es el promedio aritmético de todas las
mediciones y es la más sensible a modificarse con valores extremos. Para una distribución simétrica,
la media, la mediana y la moda coinciden todas en el centro de la distribución. Por otro lado, la
dispersión de los datos se evalúa con el ​desvío estándar σ ​. Esta cantidad es una medida de la
distribución de las mediciones alrededor del valor más probable. Nos da una idea de cuán dispersos
están los datos alrededor del valor promedio.

Es importante tener en cuenta el valor que adopte el desvío estándar σ ya que modificará el aspecto
de la curva. Cuanto menor sea σ , más aguda resultara la curva resultante y los errores mayores
tendrán una menor probabilidad de ocurrencia, lo que significa que la precisión del experimento es
alta. En cambio, si σ es grande, la curva será achatada (o dispersa) y esto indica una baja precisión
del experimento (habrá un número considerable de mediciones con grandes desviaciones). Todo esto
será tenido en cuenta a la hora de analizar los datos.

La importancia de una distribución gaussiana radica en el ​Teorema del límite central, ​este demuestra
que a pesar de una muestra no siga una distribución normal, si el N muestral es lo suficientemente
grande la distribución de las medias sigue aproximadamente una distribución normal, y se aplica
independientemente de la forma de la distribución de la población.

Sabiendo que cada medida tiene una incerteza asociada (1) y que esta queda de la forma:

(3) ​ દ=
Error toral= √દinst2 + દest2

Donde:

(4) ​દest= ξ​ =​ σ
√N

Entonces, por el Teorema del límite central podemos manipular el error estadístico aumentando el
valor de N a tal punto que este sea despreciable con respecto al error instrumental y así poder
disminuir la incerteza del experimento.

Recapitulando lo visto hasta ahora, podemos notar lo siguiente sobre la función Normal:

1. Presenta un máximo en x = x .
2. Es simétrica respecto de ese valor medio x .

3. Tiene forma de campana.

4. Sus puntos de inflexión están en x ± σ .

5. Tiende a cero a medida que nos alejamos de x .

Para finalizar se enuncian a continuación los objetivos de este trabajo:

OBJETIVOS PRIMERA PARTE:

- Estimar la magnitud y la incerteza estadística del fenómeno estudiado.


- Comprender y comparar distintos métodos para estimar estos valores, y como estos varian con
el numero de observaciones.

OBJETIVOS SEGUNDA PARTE:

- Estudiar el tratamiento de las incertezas de magnitudes que se obtienen en forma indirecta.


- Discutir los conceptos de precisión, exactitud y confianza.

II- DESARROLLO EXPERIMENTAL

En la primer parte de este trabajo se realizó el análisis estadístico y comparativo de una serie de datos
obtenidos sobre 200 mediciones sucesivas del período de un péndulo simple, realizadas por un único
operador con un cronómetro digital. El total de mediciones fueron divididas en grupos muestrales de
30, 60, 120 y 200 sobre las que se obtuvieron el desvío estándar, el valor medio y el error estándar. Se
realizaron histogramas de cada muestra y se obtuvo la curva de Gauss que representa a cada
distribución, según la fórmula (5).

​ ​ (5)​ ​ ​y(x) = A. exp [ −(x−xc)²


2ω² ]

Por otro lado, se calculó el valor experimental de la constante gravitacional (6) en base a la moda
(como estadístico de tendencia central) obtenida de las sucesivas mediciones del periodo de un
péndulo (T) y la longitud del hilo (L), y se cotejó el valor obtenido con el tabulado, midiendo también
la discrepancia.


L
(6) T =2 g

Se realizó el cálculo de la densidad (ecuación 7) de la masa que cuelga del hilo suponiendo una esfera
metálica maciza para poder determinar el metal del cual estaba hecha la misma en base a los valores
conocidos de la tabla 1. Para calcular el volumen de la esfera se utilizó la ecuación (8).
Tabla 1 - Densidades conocidas de distintos metales

m
(7) ρ= V

(8) V = 43 r3 ​.

Finalmente se compararon dos métodos distintos para la determinación del volumen de un objeto:

El primero consistió de un método geométrico calculado a partir de las medidas tomadas con una
regla. El objeto elegido fue una pequeña lata de forma rectangular (Figura 1), por lo que se utilizó la
ecuación (9), correspondiente al volumen de un prisma cuadrangular:

(9) V = área de la base . altura

El segundo método fue la determinación del volumen por el desplazamiento de agua dentro de un
contenedor transparente cilíndrico, combinado con un método geométrico, en el cual a partir de la
diferencia de altura observada antes y después de sumergida la lata, se estimó el volumen de la misma
siguiendo la ecuación (11), donde p es el perímetro del cilindro contenedor y h es la diferencia de
altura del nivel agua medida entre antes y después de sumergida la lata.

(10) V = π . (p/2π)². h

El procedimiento se resume en el siguiente esquema:


​ Figura 1- Esquema del material utilizado en la medición de cada método​.

Dado que todas las mediciones directas se informan con su correspondiente error asociado, se
utilizó la fórmula (11) para el cálculo de la incerteza asociada a cada cálculo.

√[ 2 2
(11) ΔS = ƏS
ƏA
(A0 , B 0 ) . ΔA] + [ ƏB
ƏS
(A0 , B 0 ) . ΔB ]

En los casos en los que resultó necesario, se calculó la discrepancia entre valores obtenidos y valores
tabulados o entre mediciones, según la ecuación (12)​.

(12)

| ρ 1​- ρ 2​| ≥ Δ ρ , Δ ρ 2​= Δ ρ 1​2 ​+Δ ρ 2 2​

III- RESULTADOS Y DISCUSIÓN

Tras agrupar las mediciones del periodo del péndulo (Tabla 2) en muestras de distinto tamaño (N), se
observa que mientras que la media o promedio muestral no presenta cambios significativos, se
aprecian una variación en el error, el cual disminuye a medida que aumenta el N. Por otro lado, el
desvío estándar aumenta conforme lo hace el N muestral.

​ ​Tabla 2 - Estadísticos obtenidos de las distintas muestras de las mediciones del período de un péndulo.
La moda no cambia a medida que se aumenta el N. La media oscila dentro de su intervalo de
confianza a medida que se aumenta el número de muestras y no presenta mayores variaciones. La
mediana muestra un cambio de valor al aumentar el N de 30 a 60. Pero a mayor número de muestras
se presenta como constante. Es decir, presenta variaciones a N bajos. Esto coincide a lo esperado dado
que la media y la mediana son más susceptibles a valores extremos y a N bajos estos valores extremos
pueden influir más en los resultados que a N grandes. Es por esto que uno de los supuestos bajo los
cuales se basa la Teoría Central del Límite es que el N muestral debe ser grande.

Con los datos obtenidos en esta tabla, se realizaron los histogramas correspondientes a cada N
muestral, como se observan a continuación en las figuras 2, 3, 4 y 5.

Figura 2 - Histograma de la muestra N=30​ ​ igura 3 - Histograma de la muestra N=60


F

Figura 4 - Histograma de la muestra N=120 ​ ​Figura 5 - Histograma de la muestra N=200


Luego se obtuvo el ajuste de curva:

​ Figura 6- Curva de ajuste N=30​ ​ ​Figura 7 - Curva de ajuste N=60

Xc = (1,711 ± 0,008)s Xc = (1,761 ± 0,008)s


W = (0,108 ± 0,008)s W = (0,108 ± 0,008)s
A = (22,97± 1,46) nº de ocurrencia A = (22,97 ± 1,46) nº de ocurrencia

Figura 10 - Curva de ajuste N=120 ​ ​ igura 9 - Curva de ajuste N=200


F

Xc = (1,7591 ± 0,0059)s Xc = (1,76 ± 0,01)s


W = (0,109 ± 0,006)s W = (0,11 ± 0,01)s
A = (45,99 ± 2,11) nº de ocurrencia A = (75 ± 6) nº de ocurrencia
Observando los datos de la tabla 2, se encuentra que el desvío estándar aumenta a medida que
aumentamos el N (número de muestras). Esto se corrobora al observar los histogramas y las curvas de
ajuste. En los histogramas encontramos que a medida que aumentamos el N, la curva se achata. Si se
compara el histograma de N=30 vs. N=200 vemos que el primero presenta una forma más aguda que
el segundo. Una curva más chata nos está indicando una baja precisión del experimento (hay un
número considerable de mediciones con grandes desviaciones). Podemos concluir entonces, que a
medida que aumenta el N muestral, la ​precisión​ del experimento disminuye.

En las curvas de ajuste, este aumento de la dispersión no se distingue claramente. Sin embargo,
podemos analizar los valores de los parámetros de ajuste: Xc, W y A. A representa la altura de la
campana, W es el ancho de la campana y Xc es la coordenada x donde está centrada la curva. De estos
3 parámetros W (ancho de la curva) es el mejor para analizar la dispersión de los datos. Se observa
claramente el aumento de W a medida que aumentamos el N. Es decir, a medida que aumentamos el
número de muestras la curva se va ensanchando. Esto coincide con lo esperado y con lo obtenido
después de analizar el desvío estándar y los histogramas.

Con respecto al parámetro A, observamos que a medida que aumentamos el N el valor de A aumenta.
Como A representa la altura de la curva, un aumento de A implica que la Gaussiana es cada vez más
alta a medida que el número de muestras aumenta. Esto coincide con lo esperado ya que el valor de A
es también el número de ocurrencias. Es decir, a medida que se aumenta el N el número de
ocurrencias aumenta. Como la curva analizada es una Gaussiana unimodal (tiene un solo valor
máximo) el aumento en la altura A, nos indica un aumento en el número de ocurrencias para el valor
más frecuente. Es decir, es más probable que una medición caiga dentro del intervalo para el valor
más frecuente. En otras palabras, a medida que se aumenta el número de muestras aumenta la
probabilidad de que tomen el valor del valor más frecuente.

Ahora bien ¿Cuál es el valor más frecuente? Considerando la forma de los histogramas y que el valor
de la moda (valor más frecuente) se mantiene constante a medida que nosotros aumentamos el N,
nosotros esperaríamos que la coordenada X donde está centrada la curva (y por ende el más frecuente)
tome un valor cercano a la moda. El valor de Xc se encuentra efectivamente cercana a la moda (1,78).
Sin embargo, esta cercanía es mayor cuando los N son grandes (N=200) donde Xc=1,76. A medida
que el N disminuye, Xc toma valores más pequeños (menores a 1,76) y se aleja del valor de la moda.
Podemos decir entonces que a medida que el N disminuye la curva se centra en valores más bajos. Es
decir, a medida que se disminuye el N la curva “se corre” hacia la izquierda del eje X mientras que
cuando aumentamos el N, la curva “se corre” a la derecha. Este “corrimiento” es un indicador de la
exactitud de nuestro experimento. Podemos concluir que a medida que aumenta el N la ​exactitud del
experimento aumenta.

Esto no es exactamente lo que esperábamos. En teoría, si la moda no cambia a medida que se aumente
el N, todos las curvas de ajuste estarían centradas en la moda. Sin embargo, no hay que olvidar que
estamos ajustando una serie de datos a una función Normal. Es decir, estamos confirmando los
supuestos en que se basa el Teorema Central del límite: para que en una serie de datos se considere
que la distribución de sus medias es Normal y aplicarla independientemente de la forma de
distribución original, ​el N muestral deberá ser lo suficientemente grande​. En otras palabras,
estamos evidenciando las limitaciones que presenta el Teorema Central del Límite cuando los N
muestrales son bajos y el valor de Xc no coincide con la moda.

Con respecto a las incertezas de los 3 parámetros, vemos una clara tendencia a que las incertezas
aumenten a medida que aumentamos el N muestral. Esto coincide con lo esperado y lo explicado
anteriormente para σ, W, el ensanchamiento de la curva y la mayor dispersión de los datos.

Se tomó como el periodo del péndulo (T) al valor más frecuente de las 200 mediciones. Este coincide
con la moda y lo presentamos a continuación:
T = (1, 78 ± 0, 01) s

Esto es todo con respecto al análisis estadístico de un conjunto de 200 mediciones del periodo de un
péndulo simple.

Mediante la fórmulas (6) y (11) de propagación de errores, se obtuvo la gravedad calculada con su
incerteza

g = (9,67 ± 1,25) m/s​2

la misma fue comparada según la ecuación de discrepancia (12), con el valor de ​g tabulado provisto
por los docentes

g = (9,7969 ± 0,0001) m/s​2

Entonces, de la comparación entre estos​, se obtuvo que la discrepancia es: (|0,1269| < 1,25) m/s​2 por
lo que a pesar de que son dos valores distinguibles entre sí, no podemos asegurar que sean
significativamente distintos.

En el cálculo de g realizado se encuentra involucrado π. Si bien es un número irracional, la


calculadora utiliza una cantidad finita de números para definirlo, con lo cual existe un error asociado;
sin embargo, ese error puede ser despreciable respecto de las otras variables si se usa una cantidad
considerable de decimales, por lo que para nuestros cálculos lo consideramos una constante, dado que
se consideran una cantidad grande de cifras significativas.

Tras el cálculo de la densidad de la masa esférica utilizada en las oscilaciones del péndulo, se obtuvo
el valor de ρ = (7,848 ± 0,0042) g/cm​3​. Se realizó el cálculo de discrepancia mediante la fórmula (12)
con las densidades de metales conocidos en la tabla 1 y se obtuvo que:

-Acero de carbono: ρ= (7,85 ± 0,01) g/ cm​3 la discrepancia entre los valores de densidad fueron
mayores al Δ ρ de las incertezas. Por lo tanto no hay evidencias suficiente para afirmar que los valores
de densidad sean distintos.

(|0,0200| >0,0108) g/ cm​3


-Hierro: ρ= (7,87 ± 0,01) g/ cm​3 la discrepancia entre los valores de densidad fueron mayores al Δ ρ
de las incertezas. Al igual que antes no podemos afirmar que sean dos materiales distintos.

(|0,02200|> 0,0108) g/ cm​3

Durante la medición del volumen de una lata con distintos métodos, se obtuvieron los siguientes
valores:

Para el método geométrico (9):

V = (124,46 ± 3,03) cm³

Con el método combinado,con desplazamiento de agua (10):

​ 8,81)​cm³
V = (149,42 ±

Como puede observarse, con el primer método se obtuvo un valor menor de densidad en comparación
con el segundo. Es pertinente mencionar que durante el primer método se utiliza un sólo elemento de
medición (una regla) mientras que en el segundo se utiliza además una cinta métrica, lo cual interfiere
en el cálculo del error asociado; esto se esquematiza en la figura 11​.

IV- CONCLUSIONES
Podemos concluir entonces, que a medida que aumenta el N muestral, la ​precisión del experimento
disminuye. Es decir, a medida que aumentamos el número de muestras la curva se va ensanchando.
Además, a medida que se aumenta el N el número de ocurrencias aumenta. También, a medida que el
N disminuye la curva se centra en valores más bajos. Es otras palabras, a medida que se disminuye el
N la curva “se corre” hacia la izquierda del eje X mientras que cuando aumentamos el N, la curva “se
corre” a la derecha. En definitiva, estamos evidenciando las limitaciones que presenta el Teorema
Central del Límite cuando los N muestrales son bajos y el valor de Xc no coincide con la moda. Este
“corrimiento” es un indicador de la exactitud de nuestro experimento. Concluimos que a medida que
aumenta el N la ​exactitud​ del experimento aumenta.

Los datos medidos se ajustan a una Gaussiana unimodal.


Se encontró el valor del periodo del péndulo (T): T = (1, 78 ± 0, 01) s

Por otra parte, en las mediciones del péndulo se sabe que el error total de una muestra (3) en parte está
determinado por el error estadístico (4) y este a su vez es “manipulable” mediante el tamaño muestral
N. Entonces, podemos concluir por la tabla (2) que para que el error estadístico sea despreciable con
respecto al error instrumental (0,01s) es necesario un mínimo de 200 mediciones (N) con el fin de
reducir la incerteza total del experimento.
En la determinación de la densidad de la esfera se puede concluir que, a pesar de que la densidad
obtenida es muy similar a la del acero de carbono, no se puede descartar la posibilidad de que el
material con el cual esta hecho sea el hierro ya que la discrepancia entre la densidad de este último y
la obtenida no implica una diferencia significativa.

Con respecto a los calculos volumetricos, el realizado con el método geométrico es más preciso dado
que se utiliza solo un método de medición (regla) versus el otro que utiliza dos métodos distintos
(cinta métrica y regla). En contraposición el método por desplazamiento de agua combinado con
método geométrico resulta más exacto dado que contempla los bordes del objeto medido (caja de lata)
los cuales quedan excluidos en la simplificación de la figura geométrica prisma cuadrangular. Por
último, tiene sentido que el valor del volumen obtenido en el método por desplazamiento de agua sea
ligeramente mayor que el otro dado que contempla las irregularidades/engrosamientos que tiene el
objeto por lo que desplaza un mayor volumen de agua.
APÉNDICE:

Cálculos de propagación
Cálculos ​∆ ​gravedad:

Cálculos ​∆ ​densidad:
Cálculos ​∆ ​volumen geométrico:

Cálculos ​∆ ​volumen de agua desplazado:

También podría gustarte