Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Anal Is Is Da To S Experimental Es
Anal Is Is Da To S Experimental Es
1
0.0 Índice general
2
0 Índice general
6.4.2. Datos distribuidos normalmente con varianza finita y con n grande . . . . . . 113
6.4.3. Datos distribuidos normalmente con varianza σ 2 (x) desconocida . . . . . . . 114
6.4.4. Datos que siguen una distribución desconocida con varianza finita y con n
pequeña . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.5. Calculo de intervalos de confianza para la varianza . . . . . . . . . . . . . . . . . . 116
6.6. Cálculo de intervalos de confianza para la diferencia de las medias . . . . . . . . . . 117
6.6.1. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) conocidas . . . 118
6.6.2. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas
pero iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y n2
grandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.6.4. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas y
distintas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.7. Análisis de datos emparejados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.8. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.9. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
I Apéndices 141
A. Tablas estadísticas 143
A.1. Área bajo la curva normal tipificada . . . . . . . . . . . . . . . . . . . . . . . . . . 143
A.2. Valores de las percentilas tp para un distribución t de Student con ν grados de lbertad 145
A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad146
A.4. Valores de las percentilas F0,95 (ν1 , ν2 ) para un distribución F . . . . . . . . . . . . . 147
A.5. Valores de las percentilas F0,99 (ν1 , ν2 ) para un distribución F . . . . . . . . . . . . . 148
3
0.0 Índice general
4
1
✓ Cifras significativas
5
1.1 1.1. Errores e incertidumbres
ei = |A − ai | (1.1)
Como es imposible determinar A, no podemos determinar ei . Lo que si podemos hacer es estimar
el intervalo de valores en que esperamos encontrar A de modo que la diferencia entre la medida, ai , y
A sea menor o igual que un cierto error, εi :
εi = |A − ai | (1.2)
A − ai ≤ ε i ≥ A + ai (1.3)
Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un
intervalo centrado en la medida ai :
A = ai ± ε i (1.4)
errores ilegítimos
errores sistemáticos
errores aleatorios
Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del expe-
rimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida
es un valor físicamente improbable o porque los resultados difieren considerablemente de otras deter-
minaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento.
Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un
modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su
efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el
tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este
1
observable: propiedad que puede medirse experimentalmente
2
También llamados errores groseros o accidentales
6
1 1.Errores, incertidumbres, precision y exactidud.
error. En otros casos la incertidumbre asociada a este efecto ha de ser estimada y combinada con
aquella asociada a los errores aleatorios.
Un caso particular de error sistemático es el error de escala. Este resulta de la capacidad limitada,
resolución, para distinguir dos valores muy próximos de la magnitud medida. La resolución es por
tanto una característica del instrumento y siempre tiene un valor distinto de cero. Salvo que el cons-
tructor indique lo contrario, su valor puede estimarse como un medio de la unidad que corresponde
a las divisiones más próximas de la escala (lectura analógica) o a los cambios más pequeños de un
contador (lectura digital).
7
1.2 1.1. Errores e incertidumbres
¿Pueden corregirse el resultado obtenido?. Para corregir el error tendemos en cuenta como afecta
la temperatura a las medidas del metro:
Los errores aleatorios (accidentales o indeterminados) son debidos a factores que sufren pequeñas
variaciones durante la medida y que hacen que medidas sucesivas de la misma magnitud difieran.
Por ejemplo, el resultado de una pesada en una balanza de precisión puede verse afectado por las
vibraciones del platillo, las vibraciones producidas por otros aparatos presentes en el laboratorio,
etc. En general la fuente de estos errores no es conocida y por su carácter aleatorio pueden tratarse
estadísticamente.
La figura 1.1. muestra el efecto de errores sistemáticos y accidentales sobre el resultado de una
medida.
Algunas definiciones relacionadas con los errores son:
exactitud segun la ISO [3] se define como "grado de concordancia entre el resultado de un ensayo y
el valor de referencia aceptado". Tiene en cuenta todas las fuentes de error del experimento.
precisión propiedad relacionada con la magnitud de los errores aleatorios. Cuanto mayor es la preci-
sión, menor es la magnitud de los errores aleatorios.
sesgo medida del error sistemático. Unas medidas sesgadas tienden a ser mayores o menores que el
valor de referencia.
En general, los errores sistemáticos y accidentales tienen distinta fuentes y pueden ser tratados
independientemente, la incertidumbre de una medida puede expresarse como
8
1 1.Errores, incertidumbres, precision y exactidud.
Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asocia-
dos con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión.
Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1]
9
1.2 1.2. Cifras o digitos significativos
∞
X
|x| = αi 10m (1.6)
m=i
|x|
1 ≤ ≤ 10 (1.7)
10i
Las cifras significativas se definen como:
2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que
la incertidumbre del experimento
3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al
menos significativo
Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribi-
mos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras
significativas. Por ejemplo, el equivalente en gramos de 3,2 Kg es 3,2 103 g no 3200 g. Esta número
no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras
significativas.
Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expre-
sar los números en notación científica. En esta notación el número se expresa como el producto de
otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna
de las unidades, por una potencia de diez.
10
1 1.Errores, incertidumbres, precision y exactidud.
Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas con-
viene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas
se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta
magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la
medida. Para ello seguiremos las reglas siguientes:
2. Si el primer dígito despreciado es mayor que 5 se suma uno al dígito más significativo.
3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se
modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no
usarse esta u otra similar, induciríamos un error sistemático.
Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona
ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son signi-
ficativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la
medida.
11
1.3 1.3. Ejercicios y problemas
Ejercicio 1.1 Una muestra patrón de suero sanguíneo humano contiene 42.0 g de albúmina por litro.
Cinco laboratorios (A-E) realizan cada uno seis determinaciones (en el mismo día) de la concentra-
ción de albúmina, con los siguientes resultados (en gl−1 ):
Ejercicio 1.2 Utilizando la misma muestra y el método del ejercicio anterior, el laboratorio A rea-
liza otras seis determinaciones posteriores de la concentración de albúmina, esta vez en seis días
sucesivos. Los valores obtenidos son 41.5, 40.8, 43.3, 41.9, y 41.7 g.l−1 . Comentar estos resultados.
[3, Ejercicio 2]
Ejercicio 1.3 Se ha determinado cuatro veces el número de lugares de unión por molécula en una
muestra de anticuerpos monoclonados, con resultados de 1.95, 1.95, 1.92 y 1.97.
Comentar el sesgo, precisión y exactidud de estos resultados
[3, Ejercicio 3]
12
1 1.Errores, incertidumbres, precision y exactidud.
Cifras significativas
Cuestión 1.5 Explique la diferencia entre redondeo y trncamiento
Ejercicio 1.4 Indique el número de cifras significativas y exprese en notación cientifica las siguientes
magnitudes:
(a) 12.08 m. (b) 5.43 1012 s−1 (c) 0.12 10−3 cal
(d) 0.0250 g (e) 2500.2 Å (f) 10.5 10 2 eV
Ejercicio 1.5 A partir de los resultados de un experimento se calculo que el valor de la energía de
ionización del rubidio es de 403.028 kJ mol −1 . Por otra parte se estimo que la incertidumbre de
dicho calculo en 0.2 kJmol−1 . Indique el resultado con el número correcto de cifras significativas.
Ejercicio 1.2 El laboratorio A aún muestra poco sesgo, pero la precisión es más pobre, reflejando
reproducibilidad (es decir, precisión entre días) pero no repetibilidad (precisión dentro de días).
Ejercicio 1.3 El número de posiciones de enlace debe ser un número entero, 2 en este caso, de
manera que los resultados son precisos, pero sesgados a valores bajos. El sesgo no es importante, ya
que pueden de ducirse dos posiciones de enlace.
Cifras significativas
Ejercicio 1.4 (a) Cuatro cifras significativas. → 1.208 101 m.
(b) Tres cifras significativas. → 5.43 1012 s−1 .
(c) Dos cifras significativas. → 1.2 10−4 cal.
(d) Tres cifras significativas. → 2.50 10−2 g.
(e) Cinco cifras significativas. → 2.5002 103 Å.
(f) Tres cifras significativas. → 1.05 103 eV.
13
1.4 1.4. Lecturas recomendadas
14
2
15
2.1 2.1. Definición de probabilidad
Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas
variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condi-
ciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden
tratarse estadísticamente.
El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del
valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado
es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide,
etc.
Toda teoría estadística de los errores se basa en dos postulados generales:
(a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabi-
lidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor
medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un
valor constante, independiente del número de observaciones.
(b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse
mediante una función (función de distribución de probabilidad).
La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de
medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular
distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpola-
ción de los resultados experimentales será diferente. Generalmente consideraremos que la función de
distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1 .
16
2 2.Teoría estadística de los errores(I). Probabilidad
nA
P (A) = (2.1)
N
P(A) depende del experimento: al repetir el experimento el valor de P(A) puede variar.
1
0 XXXX 1 16
4
1 CXXX, XCXX 4 16
XXCX, XXXC
6
2 CCXX, CXCX, CXXC 6 16
XCCX, XCXX, XXCC
4
3 CCCX, CXCC, 4 16
CXCC, XCCC
1
4 CCCC 1 16
17
2.1 2.1. Definición de probabilidad
Número de caras 0 1 2 3 4
16 lanzamientos
Esperado 1 4 6 4 1
Experimento 1 2 7 2 4 1
Experimento 2 3 4 4 5 0
160 lanzamientos
Esperado 10 40 60 40 10
Experimento 3 9 40 61 38 12
1600 lanzamientos
Esperado 100 400 600 400 100
Experimento 3 125 403 567 409 96
16000 lanzamientos
Esperado 1000 4000 6000 4000 1000
Experimento 3 1009 3946 5992 4047 1006
En el ejemplo anterior se observa que el acuerdo entre la predicción teórica (número de obser-
vaciones esperadas) y el resultado experimental mejora con el número de ensayos. Esto indica que
conforme el número de experimentos aumenta la frecuencia muestral o experimental se aproxima a
la frecuencia teórica. Este observación ilustra la ley de los grandes números: para valores suficiente-
mente grandes del número de medidas, N, las frecuencias muestrales se aproximan a la probabilidad
conforme aumenta de N.
Axioma 3. Para dos sucesos cualesquiera, A y B, la probabilidad del suceso que se obtenga A o se
obtenga B, P (A ∪ B), viene dada por
18
2 2.Teoría estadística de los errores(I). Probabilidad
19
2.2 2.2. Funciones de distribución de probabilidad.
Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones pro-
ducen valores distintos. Esto supone que las medidas experimentales son magnitudes aleatorias.
De acuerdo con los posibles resultados de la medida podemos tener:
Magnitudes discretas: pueden tomar valores discretos y corresponden a variables aleatorias
discretas.
Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito
y corresponden a variables aleatorias continuas..
En la primera categoría entra un experimento de conteo de fotones. En este se mide el número
de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número
natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría
pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier
valor dentro de un intervalo: el resultado de la medida es un número real.
En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras
que para los resultados de un experimento utilizaremos letras minúsculas.
20
2 2.Teoría estadística de los errores(I). Probabilidad
f (xi ) ≥ 0 (2.9)
N
X
f (xi ) = 1 (2.10)
i=1
F (xk ) = P (X ≤ xk ) (2.11)
21
2.2 2.2. Funciones de distribución de probabilidad.
x 0 1 2 3 4
1 4 6 4 1
f (x) 16 16 16 16 16
22
2 2.Teoría estadística de los errores(I). Probabilidad
23
2.2 2.2. Funciones de distribución de probabilidad.
f (x) ≥ 0 (2.15)
Z +∞
f (x)dx = 1 (2.16)
−∞
Figura 2.3: Funciones de densidad de probabilidad, f (x) de una variable aleatoria continua. Signifi-
Rb
cado de P (a ≤ x ≤ b) = a f (x)dx.
24
2 2.Teoría estadística de los errores(I). Probabilidad
Por analogía con las funciones de distribución de probabilidad discretas se puede definir la función
de distribución de probabilidad integrada de una variable aleatoria continua, F (xi ), continua como:
Z xi
F (xi ) = P (X ≤ xi ) = P (−∞ ≤ X ≤ xi ) = f (u)du (2.19)
−∞
Z b Z b Z a
P (a ≤ X ≤ b) = f (x)dx = f (x)dx − f (x)dx = F (b) − F (a) (2.20)
a −∞ −∞
dF (x)
f (x) =
dx
F (−∞) = 0 y F (+∞) = 1
25
2.2 2.2. Funciones de distribución de probabilidad.
26
2 2.Teoría estadística de los errores(I). Probabilidad
Z x Z 1 Z 2
F (x) = f (u)du = (1 − u) du + (u − 1) du
−∞ −∞ 1
1 x
1 2 1 2 1
= t − t + t − t = x2 − x + 1
2 0 2 1 2
En el intervalo x > 2,F (x) = 1, ya que la función de densidad de probabilidad está normalizada.
0 x<0
1 2
x − 2x 0≤x≤1
F (x) = 1 2
x −x+1 1≤x≤2
2
1 x>2
(b) Teniendo en cuenta que - ecuación 2.20
P (a ≤ X ≤ b) = F (b) − F (a)
27
2.2 2.2. Funciones de distribución de probabilidad.
Hallar f(x)
0 x<0
dF (x) x 0≤x≤1
f (x) =
dx
2−x 1≤x≤2
0 x>2
Concepto de cuantila
Finalmente, se define como la β cuantila, xβ , el valor de la variable aleatoria X para el que se
cumple
F (xβ ) = P (x ≤ xβ ) = β (2.22)
Habitualmente se utilizan las 100β percentila. Por ejemplo, la cuantila 0.1 (o la percentila 10)
corresponde al valor de la variable aleatoria, x0,1 , tal que F (x0,1 ) = 0,1.
28
2 2.Teoría estadística de los errores(I). Probabilidad
29
2.3 2.3. Ejercicios y problemas
7
(b) 27
Z +∞
c −1 ∞
h π π i
dx = c tan x −∞ = c − − = 1
−∞ x2 + 1 2 2
c = 1/π √ √
(b) Si 13 ≤ X 2 ≤ 1, los valores de X pueden estar en los intervalos − 33 ≤ X ≤ −1 y 3
3
≤X≤
1.
Por lo tanto la probabilidad requerida es
30
2 2.Teoría estadística de los errores(I). Probabilidad
√ √ √
3 3 3
Z − Z Z
1 3 dx 1 3 dx 2 3 dx
=
π −1 x2 + 1 π 1 x2 + 1 π x2 + 1
"1 √ #
2 3
= tan−1 (1) − tan−1 ( )
π 3
2 hπ π i 1
= − =
π 4 6 6
31
3
33
3.1 3.1. Esperanza matemática de una magnitud aleatoria
E {c} = c (3.3)
x = x1 + x2 + . . . + xn (3.5)
34
3 3.Teoría estadística de los errores(II). Esperanza matemática
y = f (x1 , x2 , . . . , xn ) (3.7)
que varia poco en intervalos pequeños de variación de los argumentos, el valor de E {y} es
aproximadamente
Mk = E (x − c)k
(3.9)
Si c = 0 tenemos los momentos respecto del origen a los que suele representarse por αk
αk = E (x)k
(3.10)
α0 = E (x)0 = E {1} = 1
(3.11)
α1 = E (x)1 = E {x} = µx
(3.12)
µk = E (x − µx )k
(3.13)
µ2 = E (x − µx )2 = σx2
(3.14)
35
3.1 3.1. Esperanza matemática de una magnitud aleatoria
x 8 12 16 20 24
1 1 3 1 1
f (x) 8 6 8 4 12
µx = E {x}
Sustituyendo
X 1 1 3 1 1
µx = x · f (x) = 8 · + 12 · + 16 · + 20 · + 24 · = 16
8 6 8 4 12
La varianza viene dada por la ecuación 3.14
σx2 = E (x − µx )2
X
σx2 = E (x − µx )2 = (x − 16)2 · f (x)
1 1 3 1 1
= (8 − 16)2 ·+ (16 − 12)2 · + (16 − 16)2 · + (20 − 16)2 · + (24 − 16)2 ·
8 6 8 4 12
1 1 3 1 1
= 64 · + 16 · + 0 · + 16 · + 64 ·
8 6 8 4 12
= 20
X 1 1 3 1 1
E x2 = x2 · f (x) = 64 · + 144 · + 256 · + 400 · + 24 ·
= 276
8 6 8 4 12
Como muestran los resultados los dos métodos utilizados para calcular la varianza son equiva-
lentes.
36
3 3.Teoría estadística de los errores(II). Esperanza matemática
Es decir,
Z b
kdx = k · (b − a) = 1
a
σx2 = E (x − µx )2
que es equivalente a
σx2 = E x2 − µ2x
+∞ b
b
x2 1 x3 1 b 3 − a3
Z Z
E x2 = 2
x · f (x) dx = dx = =
−∞ a b−a 3 b − a a 3 b−a
1
σx2 = (b − a)2
12
37
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
La estima es consistente. Es decir, cuanto mayor es el número de medidas utilizadas para cal-
cular T , mayor es la proximidad entre los valores de T y θ
un número que da una medida de la dispersión de los valores alrededor de la media: la desvia-
ción típica muestral, s(x).
Utilizaremos la media muestral, x̄ como estima del valor real. Como medida de la incertidumbre
de cada medida utilizaremos la desviación típica de nuestros datos, s(x), mientras que para acotar la
incertidumbre de la estima de la media utilizaremos la desviación típica muestral de la media, s(x̄).
1
Existen distintos métodos para obtener estimas. Algunos de ellos son el método de máxima verosimilitud, el método
de mínimos cuadrados, el método de los momentos y el método Bayesiano. La descripción de estos métodos excede los
objetivos del curso
38
3 3.Teoría estadística de los errores(II). Esperanza matemática
µx = E {x} (3.15)
σx2 = E (x − µx )2
(3.17)
Al valor positivo de la raíz cuadrada de la varianza, σ(x), se le llama desviación cuadrática media,
desviación típica o desviación normal.
Algunas propiedades de la varianza son:
σ 2 (c) = 0 (3.18)
σ 2 (c x) = c2 σ 2 (x) (3.19)
x = x1 + x2 + . . . + xn (3.20)
39
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
p
σ(x) = σ 2 (x1 ) + σ 2 (x2 ) + . . . + σ 2 (xn ) (3.22)
σ 2 (x) = E x2 − µ2x
(3.23)
y = f (x1 , x2 , . . . , xn ) (3.24)
que varia poco en intervalos pequeños de variación de los argumentos, el valor de σ 2 (y) es
aproximadamente
2 2 2
2 ∂f 2 ∂f 2 ∂f
σ (y) = σ (x1 ) + σ (x2 ) + . . . σ 2 (xn ) (3.25)
∂x1 ∂x2 ∂xn
Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas.
40
3 3.Teoría estadística de los errores(II). Esperanza matemática
∂W 1000
= −R ·
∂a a2
106 2
σ 2 (W ) = R2 · σ (a)
a4
1
N (g)
2 2
+ 32 H2 (g) NH3 (g) ∆H3 R.3
1
H (g)
2 2
+ 12 O2 (g) H2 O(g) ∆H4 R.4
1
2
NO(g) 12 N2 (g) + 12 O2 (g) ∆H5 R.5
Utilizando la ley de Hess podemos expresar ∆Hr en función de las entalpias de las reacciones
R.2 a R.5
3 3
∆Hr = − ∆H2 − ∆H3 + ∆H4 − ∆H5
2 2
y de acuerdo con las propiedades de la dispersión muestral, ecuación 3.30, la incertidumbre en
∆Hr es
3 3
σ 2 (∆Hr ) = ( )2 σ 2 (∆H2 ) + σ 2 (∆H3 ) + ( )2 σ 2 (∆H4 ) + σ 2 (∆H5 )
2 2
41
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria
n
1X
s∗2 = (xj − µx )2 (3.26)
n j=1
Esta expresión presupone que conocemos el valor de µx . Como sólo disponemos de una estima de
esta magnitud, la media muestral,x̄. Si sustituimos la media muestral por la media poblacional con lo
que tendriamos:
n
2 1X
s∗ = (xj − x̄)2 (3.27)
n j=1
Sin embargo cuando comprobamos la propiedades de esta estma observamos que la estima de σ(x)2
que obtenemos, s∗2 es una estima sesgada: E{s∗2 } < σ 2 (x).
Podemos obtener una buena estima sustituiyendo N en el cociente en la expresión de s2∗ por el
número de grados de libertad. El número grados de libertad es el número de observaciones indepen-
dientes, es decir aquellas en exceso a las necesarias para determinar los parametros que aparecen en
la ecuación. En este caso, el número de grados de libertad es N-1 pues al menos necesitamos 1 dato
para determinar la media muestral.
n
2 1 X
s (x) = (xj − x̄)2 (3.28)
n − 1 j=1
y = f (x1 , x2 , . . . , xn ) (3.29)
que varia poco en intervalos pequeños de variación de los argumentos, el valor de s2 (y) es aproxima-
damente
2 2 2
2 ∂f 2 ∂f 2 ∂f
s (y) ≈ s (x1 ) + s (x2 ) + . . . s2 (xn ) (3.30)
∂x1 ∂x2 ∂xn
2
Cálculos de propagación de errores
42
3 3.Teoría estadística de los errores(II). Esperanza matemática
∆H(kcal/mol) : 54,4, 56,4, 57,5, 56,6, 57,0, 56,5, 58,4, 57,0, 55,2
Determine el valor de media y la desviación típica de las medidas.
La media muestral viene dada por la ecuación 3.16
n
x1 + x2 + . . . + xn 1 X
x̄ = = · xj
n n j=1
43
3.3 3.3. Mediana y moda
Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene
la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades
relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multi-
modal, respectivamente.
En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de
densidad de probabilidad tiene un máximo relativo.
44
3 3.Teoría estadística de los errores(II). Esperanza matemática
µ0 = 1
µ1 = 0
σx2 = E x2 − µ2x
1.591, 1.521,1.528,1.570,1.587
45
3.4 3.4. Ejercicios y problemas
Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupa-
dos en clases de anchura 0.1 K son
Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados
presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a
medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos
bancos del Atlántico.
Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción
de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad.
46
3 3.Teoría estadística de los errores(II). Esperanza matemática
Z 1 Z 2
µx = x · x dx + x · (2 − x) dx
0 1
3 1 3 2
x x 1 2
= + x2 − = + = 1
3 0
3 1 3 3
σx2 = E (x − µx )2 = E x2 − µ2x
Z 1 Z 2
E x2 = 2
x2 · (2 − x) dx
x · x dx +
0 1
4 1 3
2
x4
x 2x 1 14 15 7
= + − = + − =
4 0 3 4 1 4 3 4 6
7 1
σx2 = − (1)2 =
6 6
47
4
49
4.2 4.1. Distribución uniforme
1
f (x) = P (X = xi ) = donde i = 1, 2, . . . , n (4.1)
n
n+1
µ = (4.2)
2
n2 − 1
σ2 = (4.3)
12
x 1 2 3 4 5 6
1 1 1 1 1 1
f (x) 6 6 6 6 6 6
50
4 4. Distribuciones de probabilidad de variables aleatorias discretas
donde la variable aleatoria X denota el número de éxitos en n pruebas. Esta función de probabilidad
discreta se denomina distribución binomial o de Bernuilli. Una variable aleatoria con está distribu-
ción de probabilidad se dice que está distribuida binomialmente.
La media y la varianza de la distribución vienen dadas por
µ = np (4.5)
el resultado de cada experimento sólo puede tener dos valores (cara, p = 0,5 y cruz,
q = 0,5)
51
4.2 4.2. Distribución binomial
el resultado de cada experimento sólo puede tener dos valores (resultado aceptable, p =
0,6 y resultado no aceptable, q = 0,4). Tenga en cuenta que no nos estamos preguntando
por el valor de la propiedad que medimos, sino por la validez del experimento.
Para deteminar la función de distribución utilizaremos la ecuación 4.4 p = 0,6, q = 1−0,6 = 0,4
yn=5
5 5
PB (X = 0; 5, 0,6) = 0
0,60 0,45 = 0,01024 PB (X = 1; 5, 0,6) = 1
0,61 0,44 = 0,07680
5 5
PB (X = 2; 5, 0,6) = 2
0,62 0,43 = 0,23040 PB (X = 3; 5, 0,6) = 3
0,63 0,42 = 0,34560
5 5
PB (X = 4; 5, 0,6) = 4
0,64 0,41 = 0,2592 PB (X = 5; 5, 0,6) = 5
0,65 0,40 = 0,07776
x 0 1 2 3 4 5
f (x) 0.01024 0.07680 0.23040 0.34560 0.2592 0.07776
52
4 4. Distribuciones de probabilidad de variables aleatorias discretas
La probabilidad de realizar más de dos experimentos con resultados aceptables podemos calcu-
larla como
P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) = 0,6826
También podemos tener en cuenta que el suceso complementario del calculado es obtener X ≤ 2
y utilizando la ecuación 2.5 podemos calcular la probabilidad
p
σ = np(1 − p) (4.8)
Sutituyendo,
p
σ= 1000 × 0,5 × 0,5 = 15,8 (4.9)
53
4.2 4.2. Distribución binomial
Si X1 ≡ Br79 y X2 ≡ Br81 , los isotopos de bromo pueden presentarse en la especie RBr3 en las
combinaciones
3
P (RBr379 ) = PB (X = 3; 3, 0,5069) = 0,50693 0,49310 = 0,1302
3
3
P (RBr279 Br81 ) = PB (X = 2; 3, 0,5069) = 0,50692 0,49311 = 0,3801
2
3
P (RBr79 Br281 ) = PB (X = 1; 3, 0,5069) = 0,50691 0,49312 = 0,3698
1
3
P (RBr381 ) = PB (X = 0; 3, 0,5069) = 0,50690 0,49313 = 0,1199
0
La distribución de intesidades de los picos puede representrase con un diagrama de barras donde
M es la masa de la especie RBr79 79 81
3 , M + 2 es la masa de la especie RBr2 Br , M + 3 es la masa
de la especie RBr79 Br81 81
2 , y M + 3 la masa de la especie RBr3 .
54
4 4. Distribuciones de probabilidad de variables aleatorias discretas
Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu-
ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
n!
PB (X = x; n, p) = px q n−x (4.10)
x!(n − x)!
µ=λ (4.12)
55
4.3 4.3. Distribución de Poisson
σ2 = λ (4.13)
Ejemplo 6. Cálculo de la varianza de una variable que sigue una distribución de Poisson
Como parte de un experimento para determinar la vida media de dos isótopos radiactivos de
plata, se registraron simultáneamente el número de partículas emitidas en intervalos de dos se-
gundos en las cercanías de la plata. Los experimentos se repitieron 20 veces y se obtuvo un valor
medio de 1.69 partículas por segundo.
¿Cuál es la desviación típica de las medidas?.
La distribución de Poisson describe el número de sucesos que ocurren en un intervalo de tiempo
fijo cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de
ocurrencia.
De modo que µ = λ = 1,69 y σ 2 = λ = 1,69. La desviación típica viene dada por
√ p
σ= λ= 1,69 = 1,30 partículas por segundo
Ejemplo 7. Cálculo de probabilidades de una variable que sigue una distribución de Poisson
56
4 4. Distribuciones de probabilidad de variables aleatorias discretas
57
4.3 4.3. Distribución de Poisson
Figura 4.1: Distribuciones de Poisson para distintos valores de λ. Observe como la forma de la distri-
bución se aproxima a distribución normal conforme aumenta el valor de λ.
58
4 4. Distribuciones de probabilidad de variables aleatorias discretas
Figura 4.2: Relación entre las distribuciones binomial, Poisson y Gauss o normal.
59
4.4 4.4. Ejercicios y problemas
Ejercicios de repaso
Ejercicio 4.1 En la teoría cinética de los gases, la probabilidad de que una molécula de un gas ideal
tenga una velocidad entre v y v + dv está dada por
mv 2
P (v) = cv 2 e− 2kT dv
donde k es la constante de Boltzmann y T la temperatura en Kelvin del gas.
Determine (a) la constante c, (b) la velocidad media y (c) la velocidad más probable.
Nota: Para resolver el problema utilice una tabla de integrales.
Ejercicio 4.2 La duración en horas de un componente eléctrico es una variable aleatoria con una
función de distribución acumulada dada por
x
1 − e− 50 x > 0
F (X) =
0 x≤0
Determine:(a)la función densidad de probabilidad y (b) la probabilidad de que la duración del com-
ponente exceda las 70 horas.
Ejercicio 4.3 Calcular la varianza de g(x) = 2x + 3, donde X es una variable aleatoria con distri-
bución de probabilidad
x 0 1 2 3
1 1 1 1
f(x) 4 8 2 8
Ejercicio 4.4 Sea X una variable aleatoria con la siguiente distribución de probabilidad:
x -3 6 9
1 1 1
f(x) 6 8 2
Distribución binomial
Ejercicio 4.5 Se considera una variable aleatoria de Bernoulli que toma el valor 1 con probabilidad
0.01. Se toma una muestra de tamañoo n.
Calcular el valor mínimo que debe tener n para que la probabilidad de obtener al menos una vez
como resultado un 1 sea mayor o igual que 0.95.
60
4 4. Distribuciones de probabilidad de variables aleatorias discretas
Ejercicio 4.7 La probabilidad de que el nivel de ruido de un amplificador de banda ancha exceda de
2 dB (decibelios) es de 0.15, si se prueban 10 amplificadores de banda ancha, determine la probabi-
lidad de que; a) en solo 5 de los amplificadores el nivel de ruido exceda los 2 dB, b) por lo menos en
2 de los amplificadores, el ruido exceda de 2 dB, c) encuentre el número esperado de amplificadores
que se exceden de un nivel de ruido de 2 dB y su desviación estándar.
Ejercicio 4.9 Considere el espectro de masas de un halocarburo Cn H2n+2−x Clx con x = 1,2 y 3.
Suponiendo que n = 3 y que dispone de una muestra en la que los tres compuestos están presentes en
igual concentración, determine las masas en las que esperaría encontrar un pico en el espectro y la
intensidad relativa de los picos. Tenga en cuenta que el cloro presenta dos isótopos Cl35 y Cl37 con
abundancias relativas 0.67 y 0.33 respectivamente. Suponga que todo el hidrogeno y el carbono de
las muestras corresponde a los isótopos H1 y C12 .
Ejercicio 4.10 Se dispone de un cristal que tiene dos tipos de impurezas que absorben radiación de
la misma longitud de onda. Una de ellas emite un electrón tras la absorción de un fotón, mientras
que la segunda no emite electrones. Las impurezas están en igual concentración y distribuidas ho-
mogeneamente en el cristal. Sin embargo, la sección eficaz de absorción, que es una medida de la
probabilidad de absorber un fotón, es 90 veces mayor para la impureza que emite electrones que el
de la impureza que no los emite.
Suponiendo que sobre el cristal inciden 200 fotones y que este es lo suficientemente grande para
absorber todos, calcule la probabilidad de que al menos se emitan tres electrones.
Distribución de Poisson
Ejercicio 4.11 Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las proba-
bilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en
cualquiera de dos días consecutivos?
Ejercicio 4.12 En la inspección de una hojalata producida por un proceso electrolítico continuo, se
identifican 0.2 imperfecciones en promedio por minuto.
Determine las probabilidades de identificar a) una imperfección en 3 minutos, b) al menos dos
imperfecciones en 5 minutos, c) un máximo de una imperfección en 15 minutos.
Ejercicio 4.13 Consideremos que el número de trozos de chocolate en una determinada galleta sigue
una distribución de Poisson. Queremos que la probabilidad de que una galleta seleccionada al azar
tenga por lo menos tres trozos de chocolate sea mayor que 0.8.
Encontrar el valor entero más pequeño de la media de la distribución que asegura esta probabi-
lidad.
61
4.4 4.4. Ejercicios y problemas
Ejercicio 4.14 La variable X representa el número de llamadas a un teléfono en una hora y sigue
una distribución de Poisson con parámetro igual a 3,5.
(a) Calcular la probabilidad de que no se produzcan llamadas en la próxima hora.
(b) Hallar la probabilidad de que se reciban al menos dos llamadas en las dos próximas horas.
(c) ¿Cuánto tiempo podemos estar fuera si se quiere que la probabilidad de que el teléfono suene
en nuestra ausencia sea como máximo 0,5?
Ejercicio 4.17 En un proceso de manufactura, en el cual se producen piezas de vidrio, ocurren de-
fectos o burbujas, ocasionando que la pieza sea indeseable para la venta. Se sabe que en promedio
1 de cada 1000 piezas tiene una o más burbujas. ¿Cuál es la probabilidad de que en una muestra
aleatoria de 8000 piezas, menos de 3 de ellas tengan burbujas?
n!
PB (X = x; n, p) = px q n−x (4.19)
x!(n − x)!
n!
PB (S ≥ 1; n, 0,01) = 1 − PB (S < 1; n, 0,01) = 1 − 0,010 0,99n = 1 − 0,99n ≥ 0,95 (4.20)
0!n!
log 0,05
1 − 0,99n ≥ 0,95 → 0,05 ≥ 0,99n → log 0,05 ≥ n log 0,99 → n ≥ ' 299 (4.21)
log 0,99
62
4 4. Distribuciones de probabilidad de variables aleatorias discretas
Ejercicio 4.6 a) n = 12
x representa la variable que define el número de tubos en que el vapor se condensa
x = {0, 1, 2, 3, . . . , 12}
exito: p = P (se condense el vapor en un tubo de Al a 10 atm) = 0,40
fracaso: q = P (no se condense el vapor en un tubo de Al a 10 atm) = 1 − p = 0,60 = 0,21284
PB (X = {3, 4, ..., 12}; 12, 0,40) = P (x = 3)+P (x = 4)+. . .+P (x = 12) = 1−P (X = {0, 1, 2}; 12, 0,40) =
Ejercicio 4.7 a) n = 10
x representa la variable que define el número de amplificadores de banda ancha que su nivel de
ruido excede de 2 dB, x = {0, 1, 2, 3, . . . , 10}.
exito: p = P (un amplificador exceda su nivel de ruido de 2 dB) = 0,15
fracaso: q = P (un amplificador no exceda su nivel de ruido de 2 dB) = 1 − p = 0,85
PB (X = 5; 10, 0,15) = 0,00849
b) PB (X ≥ 2; 10, 0,15) = 1 − PB (X ≤ 1; 10, 0,15) = 1 − (0,1968 + 0,3474) = 1 − 0,5444 =
0,4557
c) µ = np = 1,5 ∼ = 2, se espera que 2 de los 10 amplificadores probados se excedan de un nivel
de ruido de 2 dB.
√
σ = npq = 1,1291 ∼ =1
Distribución de Poisson
Ejercicio 4.11 a) x representa la variable que define el número de cheques sin fondo que llegan al
banco en un día cualquiera, x = {0, 1, 2, 3, . . .}. λ = 6 es el número medio de cheques sin fondo por
día.
La probabilidad de recibir cuatro cheques sin fondo en un dia puede calcularse con la ecuación
4.11
1 x −λ
P (X = x) = λ e (4.22)
x!
1 4 −6 1296 · 0,00248
P (X = 4) = 6e = = 0,13392
4! 24
b) x representa la variable que define el número de cheques sin fondo que llegan al banco en un
día cualquiera, x = {0, 1, 2, 3, . . .}. λ = 2 × 6 = 12 es el número medio de cheques sin fondo por
día.
Utilizando de nuevo la ecuación 4.11 obtenemos
63
4.4 4.4. Ejercicios y problemas
Ejercicio 4.12 a) x representa la variable que define el número de que nos define el número de
imperfecciones en la hojalata cada 3 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 3 = 0,6 es el número
medio de imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
1 1 −0,6 0,6 · 0,548845
P (X = 1) = 0,6 e = = 0,329307
1! 1
b) x representa la variable que define el número de que nos define el número de imperfecciones
en la hojalata cada 5 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 5 = 1 es el número medio de
imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
P (X ≥ 2) = P (X = 2, 3, . . .) = 1 − P (X ≤ 1) = 1 − P (0) − P (1)
1 0 −1 1 1 −1
P (X ≥ 2) = 1 − 1e + 1e = 1 − (0,367918 + 0,36718) = 0,26416
0! 1!
c) x representa la variable que define el número de que nos define el número de imperfecciones
en la hojalata cada 15 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 15 = 3 es el número medio de
imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
1 0 −3 1 1 −3
P (X ≤ 1) = P (X = 0) + P (X = 1) = 3 e + 3 e = 0,0498026 + 0,149408 = 0,1992106
0! 1!
Ejercicio 4.13 Sea X = número de trozos de chocolate en una galleta donde queremos evaluar P (X >
3; λ) > 0,8
λe−λ λ2 e−λ
P (X > 3) = 1 − P (X ≤ 2) = 1 − P (0) − P (1) − P (2) = 1 − e−λ − −
1 2
Dando valores a λ = 1, 2, ..., 5 se obtiene
λ 0 1 2 3 4 5
P (X > 3) 0.0803014 0.3233236 0.5768099 0.7618967 0.8753480
64
4 4. Distribuciones de probabilidad de variables aleatorias discretas
65
5
67
5.0
68
5 5. Distribuciones de probabilidad de variables aleatorias continuas
a+b
µ = (5.3)
2
(b − a)2
σ2 = (5.4)
12
Esta distribución sólo depende de los parámetros a y b que están comprendidos en el intervalo
(−∞, +∞).
69
5.2 5.2. Distribución normal o Gaussiana
1 (x−µx )2
−
f (x) = √ e 2σ2 (x) (5.5)
2 π σ(x)
donde µx y σ(x) son la media y la desviación típica de X respectivamente, y la variable alatoria puede
estar comprendida en el intervalo −∞ < x < +∞.
Si una variable aleatoria sigue una distribución normal sólo necesitamos conocer µx y σ(x) para
caracterizar la distribución de los datos.
La función de distribución de probabilidad viene dada por
Z x (x−µx )2
1 −
F (x) = P (x ≤ x) = √ e 2σ 2 (x) dx (5.6)
2π σ(x) −∞
En el trabajo con variables aleatorias que siguen una distribución normal es conveniente utilzar la
variable normalizada z, que se calcula como
x − µx
z= (5.7)
σ(x)
Esta variable tiene la ventaja de que cualesquiera sean los valores de µx y σ(x), z siempre si-
gue una distribución normal con media µz = 0 y desvición típica σ(z) = 1. En general f(z) o F(z)
se evaluan utilizando un programa informático o utilizando tablas1 (ver apéndices).Por comodidad
utilizaremos tablas e ilustraremos su uso en los ejemplos.
1
En la tabla del apéndice correspondiente a la distribución normal se tabula P(0<Z<z).
70
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Figura 5.3: Distribución de densidad de probabilidad de Gauss con idéntica media µx = 0 y distinta
varianza σ 2 (x) = 1 (línea continua) y σ 2 (x) = 0,25 (línea discontinua).
P (−z ≤ Z) = P (z ≤ Z)
P (0 ≤ Z ≤ 1,96) = 0,475
y
71
5.2 5.2. Distribución normal o Gaussiana
x − µx (µx ± 2σ(x)) − µx
z = = = ±2
σ(x) σ(x)
Como disponemos de una tabla de la distribución gausiana estandarizada (ver apendice 1) que
nos proporciona P (0 ≤ x ≤ z), utilizaremos la simetría de la distribución gaussina para calcular
P (0 ≤ z ≤ 2):
P (x − 2σ ≤ z ≤ x + 2σ) = P (−2 ≤ z ≤ 2) = 2P (0 ≤ z ≤ 2)
Consultando el apéndice 1 obtenemos
P (0 ≤ z ≤ 2) = 0,4772
72
5 5. Distribuciones de probabilidad de variables aleatorias continuas
de modo que
De acuerdo con el ejemplo anterior, si las observaciones (medidas) cumplen la ley de distribución
normal, la probabilidad de que el resultado de una medida este en el intervalo µ ± 2σ es 0.9544. De
modo análogo se deduce que la probabilidad de que se obtenga una observación en el intervalo µ ± 3σ
es 0.9974. De esto se deduce que la probabilidad de que las observaciones se encuentren fuera de estos
intervalos son muy pequeñas, 0.046 y 0.0026, respectivamente. Por ello, las magnitudes 2σ y 3σ se
utilizan con frecuencia para determinar el error máximo admisible y despreciar resultados fuera de
estos intervalos. Sin embargo, hay que tener en cuenta que σ(x) hace referencia a la desviación típica
poblacional. En general sólo tenemos una estima de esta magnitud, la desviación típica muestral,
s(x). Como veremos más adelante, esto nos obliga a utilizar la distribución t de Student para calcular
los límites del error admisible.
Figura 5.5: Representación de un conjunto de 5000 medidas de la temperatura que siguen una distri-
bución normal. Como puede observar, la mayor parte de los datos están concentrados en el intervalo
µx ± 2σ(x), y es escaso el número de datos fuera del intervalo µx ± 3σ(x).
73
5.2 5.2. Distribución normal o Gaussiana
74
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Teorema 5.1
Si una variable aleatoria x1 sigue una distribución normal de media µ1 y varianza σ12 , y otra variable
aleatoria x2 sigue una distribución normal de media µ2 y varianza σ22 , y ambas son independientes, la
variable aleatoria x3 = x2 ± x1 sigue una distribución normal de media µ3 y varianza σ32
µ3 =µ1 + µ2 (5.8)
σ32 =σ12 + σ22 (5.9)
Corolorario 5.1
La variable aleatoria media muestral x̄ de muestras de tamaño n de una variable aleatoria X que sigue
una distribución normal
µx̄ = µx (5.10)
y varianza, σ 2 (x̄)
σ 2 (x)
σ 2 (x̄) = (5.11)
n
75
5.2 5.2. Distribución normal o Gaussiana
Una aleación de cobre contiene una media de 41.26 % de este metal (determinado como la media
de las determinaciones de varios laboratorios) con una desviación típica de 0.12 %.
¿Cuál es la probabilidad de que al realizar un análisis de nueve muestras se obtengan porcentajes
de cobre entre el 41.30 % y el 41.50 %?. ¿Y se tomaran dieciséis muestras?.
En este ejemplo µ(x) = 41,26 y σ(x) = 0,12 , donde x es el resultado de la medida. De acuerdo
con el corolario 5.1,√x̄ esta distribuido normalmente con media µx̄ = µx = 41,26 y desviación
típica σ(x̄) = σ(x)/ n tendremos
(a) con nueve muestras
0,12
σ(x̄) = √ = 0,04
9
y las variables tipificadas correspondientes serán:
x̄ − µx
z= √
σ(x)/ n
x¯1 − µx 41,30 − 41,26
z= √ = = 1,0
σ(x)/ n 0,04
x¯2 − µx 41,50 − 41,26
z= √ = = 6,0
σ(x)/ n 0,04
76
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Figura 5.7: Distribución de frecuencias de las medias muestrales de conjuntos de n medidas de una
variable que sigue una distribución gaussiana. En todos los diagramas se utilizaron las mismas 500
medidas pero se utilizaron distinto número de medidas para calcular las medias, n = (a) 1, (b)5, (c)
10, y (d) 25.
de modo que
77
5.2 5.2. Distribución normal o Gaussiana
Figura 5.8: Distribución de frecuencias de las medias muestrales de n medidas de un conjunto de 500
datos que siguen una distribución uniforme. En la figura puede observarse como la distribución evo-
luciona desde la distribución uniforme n = 1 ha distribuciones de tipo gaussiano conforme aumenta
n. En todos los diagramas se utilizaron las mismas 500 medidas pero estas se agruparon en conjuntos
de distinto tamaño, n, para calcular las medias, n = (a) 1, (b)5, (c) 10, y (d) 25.
78
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Una variable discreta que sigue una distribución binomial cuando el número de experimentos,
n, es grande
De acuerdo con el teorema de Moivre, para tamaños de la muestra tales que los valores del produc-
to npq >5 (tamaños de muestra grnades), el comportamiento de la distribución binomial se asemeja al
de una distribución normal con media µ = np y varianza σ 2 = npq. Esta propiedad es conocida como
teorema de Moivre.
Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc-
ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri-
bución gaussiana las probabilidades se calculan como
Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu-
ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
n!
PB (X = x; n, p) = px q n−x (5.13)
x!(n − x)!
Figura 5.9: Distribución de probabilidad para una variable binomial con n = 25, p = 0,5 y q = 0,5 y
la distribución normal con µx = np = 12,5 y σ 2 (x) = npq = 6,25.
79
5.3 5.3. La distribución t de Student
Una variable discreta que sigue una distribución de Poisson con λ grande
Para valores grandes de λ la función de distribución de Poisson puede aproximarse mediante una
distribución de probabilidad gaussiana con µ = λ y σ 2 = λ.
Figura 5.10: Relación entre las distribuciones binomial, Poisson y Gauss o normal.
se dice que está distribuida de acuerdo con una distribución t de Student con ν grados de libertad2 .
Es importante observar en la ecuación 5.14 que la función de distribución está completamente
caracterizada por un solo parámetro: ν el número de grados de libertad.
La media no depende del número de grados de libertad y es
µt = 0 (5.15)
Cuando ν es grande, σ 2 (t) ≈ 1. Además, puede demostrarse que para valores grandes de ν (ν ≥
20) se puede considerar a la función t de Student se comporta como una distribución normal de media
0 y varianza 1.
R∞
2
En la expresión de f(t), Γ(z) es la función gamma de Euler, que viene dada por Γ(z) = 0
ν z−1 e−ν dν con ν > 0
80
5 5. Distribuciones de probabilidad de variables aleatorias continuas
y
T =p (5.17)
z/ν
Utilizando este teorema se puede demostrar que la variable aleatoria t definida como
x̄ − µx̄ x̄ − µx
t= = √ (5.18)
s(x̄) s(x)/ n
está distribuida con arreglo a una distribución t de Student con ν = n − 1 grados de libertad.
En el apéndice 2 se proporcionan los valores de las percentilas tp para distribuciones t de Student
con ν grados de libertad. La percentila es el valor que toma la variable aleatoria, t en nuestro caso,
para que se cumpla que
81
5.3 5.3. La distribución t de Student
Ejemplo 6. Cálculo del intervalo de probabiblidad de una variable que sigue la distribución
t de Student
Usando la tabla del apéndice A.2 determine el intervalo simétrico en el que se encontrará la
variable t con una probabilidad del 95 % si tienen ν=9 grados de libertad.
En este ejemplo nos piden determinar lOS valores de t que cumplan
En las tablas del apéndice A.2 podemos encontrar los valores de tp tales que
P (t(ν) ≤ tp (ν)) = p
que equivalen a los valores para los que
P (t(ν) ≥ tp (ν)) = 1 − p
Teniendo en cuenta que la distribución t de Student es simétrica respecto de su media y que
µt = 0, para un intervalo también simétrico tendremos
En este ejemplo, p = 0,95 y ν = 9. En la tabla del apéndice A.2 encontramos t,975 (9) = 2,26,
de modo que el intervalo de probabilidad viene dado por
−t,975 ≤ t ≤ t,975
−2,26 ≤ t ≤ 2,26
82
5 5. Distribuciones de probabilidad de variables aleatorias continuas
x̄ − µx
−t,975 (8) ≤ √
s(x)/ n
x̄ − µx
t,975 (8) ≥ √
s(x)/ n
s(x)
x̄ − t,975 (8) √ ≤ µx
n
s(x)
µx ≤ x̄ + t,975 (8) √
n
s(x) s(x)
x̄ − t,975 (8) √ ≤ µx ≤ x̄ + t,975 (8) √
n n
0,002821 0,002821
0,6752 − 2,31 √ ≤ µx ≤ 0,6752 + 2,31 √
9 9
0,6730 ≤ µx ≤ 0,6772
con una probabilidad de 0.95.
Es habitual expresar este intervalo como µx = 0,6752 ± 0,0021.
83
5.4 5.4. La distribución χ2
5.4. La distribución χ2
Se dice que una variable aleatoria sigue una distribución chi-cuadrado o χ2 con ν grados de
libertad si su función de distribución de probabilidad tiene la forma
(
0 si x < 0
P (χ2 ≤ x) x ν ν (5.21)
√ 1 ν u 2 −1 e− 2 du si x > 0
R
2Γ( ) 0
2
µχ2 = ν (5.22)
σ 2 (χ2 ) = 2ν (5.23)
84
5 5. Distribuciones de probabilidad de variables aleatorias continuas
la suma
n n
2
X X (xi − µx )2
χ = Ui2 = (5.26)
i=1 i=1
σ 2 (x)
s2 (x)
X 2 = (n − 1) (5.27)
σ 2 (x)
P (χ20,025 (ν = 4) ≤ X 2 ) = 0,484
P (χ20,975 (ν = 4) ≤ X 2 ) = 11,1
Es decir el valor de x2 obtenido está dentro del intervalo indicado
85
5.4 5.4. La distribución χ2
2 s2 (x) 1,71
X = (n − 1) 2 =8 = 13,6
σ (x) 1,0
De acuerdo con las tablas del apándice A.3,
P (χ20,025 (ν = 8) ≤ X 2 ) = 2,18
P (χ20,975 (ν = 8) ≤ X 2 ) = 17,5
Ya que el criterio se cumple aceptamos la hipótesis nula.
El intervalo de valores de X 2 compatibles con la hipótesis nula vendrá dado por
s2 (x)
χ20,025 (ν = 8) ≤ (n − 1) ≤ χ20,975 (ν = 8)
σ 2 (x)
s2 (x)
2,18 ≤ (n − 1) ≤ 17,5
σ 2 (x)
σ 2 (x) σ 2 (x)
2,18 ≤ s2 (x) ≤ 17,5
n−1 n−1
86
5 5. Distribuciones de probabilidad de variables aleatorias continuas
s2 (x)
χ20,05 (ν = 4) ≤ (n − 1) ≤ χ20,95 (ν = 4)
σ 2 (x)
χ0 ,052 (ν = 4) 1 χ0 ,952 (ν = 4)
≤ ≤
(n − 1)s2 (x) σ 2 (x) (n − 1)s2 (x)
(n − 1)s2 (x) 2 (n − 1)s2 (x)
≤ σ (x) ≤
χ20,95 (ν = 4) χ20,05 (ν = 4)
14,1 14,1
4 ≤ σ 2 (x) ≤ 4
9,49 0,711
Propiedad aditiva
Teorema 5.5
Sean X12 y X22 dos variables aleatorias independientes. Si X12 sigue una distribución χ2 con ν1 grados
de libertad y X22 sigue una distribución χ2 con ν2 grados de libertad, X32 = X12 + X22 sigue una
distribución χ2 con ν = ν1 + ν2 grados de libertad.
87
5.5 5.5. La distribución F de Fisher
Γ( ν1 +ν 2
) ν1 /2 ν2 /2 ν2 /2−1 ν1 +ν2
f (u) = ν1
2
ν2 ν1 ν2 u (ν1 u − ν2 )− 2 (5.28)
Γ( 2 )Γ( 2 )
donde u > 0.
Para esta distribución,
ν2
µu = si ν2 > 2 (5.29)
ν2 − 2
2 2ν22 (ν1 + ν2 − 2)
σ (u) = si ν2 > 4 (5.30)
ν1 (ν2 − 2)2 (ν2 − 4)
V1 /ν1
f= (5.31)
V2 /ν2
sigue una distribución F con ν1 y ν2 grados de libertad.
Una consecuencia de este teorema es
1
F1−p (ν1 , ν2 ) = (5.32)
Fp (ν2 , ν1 )
88
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Corolorario 5.2
Sean dos muestras aleatorias independientes de tamaños m y n, respectivamente, que se obtienen
de poblaciones normales con varianzas σ12 (x) y σ22 (y) respectivamente. De acuerdo con el teorema
anterior, la variable aleatoria
s21 (x)
f= (5.34)
s22 (y)
Los apéndices A.4 y A.5 se recogen los valores de F con ν1 y ν2 grados de libertad para los que
la función de distribución de probabilidad iguala a 0.95 y 0.99 . Es decir se tabulan los valores de la
variable aleatoria f que cumplen:
P (f ≤ F0,95 ; ν1 , ν2 ) = 0,95
P (f ≤ F0,95 ; ν1 , ν2 ) = 0,99
Ya que en general Fp (ν1 , ν2 ) 6= Fp (ν2 , ν1 ), para calcular Fexp designaremos los valores de s1 y s2
de modo que s21 > s22
s2 (A)
fexp = (5.35)
s2 (B)
sigue una distribución F con ν1 = m − 1 = 8 y ν2 = n − 1 = 8 grados de libertad.
89
5.5 5.5. La distribución F de Fisher
Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea
razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 %
de las medidas si la hipótesis nula es cierta,
45,34 10−4
fexp = = 4,0 (5.36)
11,11 10−4
En la tabla del apéndice A.4 encontramos F0,95 (8, 8) = 3,44 de modo que fexp > F0,95 (8, 8),
rechazamos H0 , las varianzas son iguales, y aceptamos la hipotesis alternativa: la varianza del
método A es mayor que la del método B.
Tras analizar los datos, ¿puede afirmar el ingeniero que la variabilidad del primer equipo es
mayor que la del segundo?.
Supondremos que las medidas están distribuidas normalmente.
Formularemos la hipétesis nula H0 : σ12 = σ22 , es decir, no hay diferencias en la variabilidad. Si
esta hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria
s21
fexp = (5.37)
s22
sigue una distribución F con ν1 = m − 1 = 11 y ν2 = n − 1 = 9 grados de libertad.
Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea
razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 %
de las medidas si la hipótesis nula es cierta,
90
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Calculamos fexp
13,5
fexp = = 1,31 (5.38)
10,53
En la tabla del apéndice A.4 encontramos F0,95 (11, 9) = 3,10 de modo que fexp < F0,95 (11, 9).
Aceptamos H0 ,las varianzas son iguales. Esto quiere decir que la variabilidad de los dos métodos
es la misma.
s21
fexp = (5.39)
s22
sigue una distribución F con ν1 = m − 1 = 10 y ν2 = n − 1 = 5 grados de libertad.
Consideraremos que la hipótesis se cumple si
91
5.6 5.6. Ejercicios y problemas
Cuestión 5.2 Dada una distribución normal estándar, encuentre el valor de k, tal que:
(e) los dos valores de x que contienen un intervalo central del 75 % del área de la curva normal
Cuestión 5.5 Encuentre la probabilidad de que una muestra aleatoria de 25 observaciones, de una
población con varianza σ 2 = 6 tenga una varianza s2
92
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Cuestión 5.6 Dada una muestra aleatoria de tamaño 24 de una distribución normal, encuentre k de
manera que:
93
5.6 5.6. Ejercicios y problemas
Distribución normal
Ejercicio 5.1 Dada una distribución normal estándar, encuentre el área bajo la curva que yace, (a)
a la derecha de z = 1.84 y (b) entre z = -1.97 y z= 0.86.
Ejercicio 5.2 Para una distribución normal estándar, encuentre el valor de k, tal que (a) P(Z>k) =
0.3015 y (b) P(k<Z<-0.18) = 0.4197.
Ejercicio 5.3 Dada una distribución normal con µx = 50 y s(x) = 10, encuentre la probabilidad de
que X tome un valor entre 45 y 62.
Ejercicio 5.4 Dada una distribución normal con µx = 300 y s(x) = 500, encuentre la probabilidad
de que X tome un valor mayor que 362.
Ejercicio 5.5 Dada una distribución normal con µx = 40 y s(x) = 6, encuentre el valor de x que
tiene (a) 45
Ejercicio 5.6 Cierto tipo de batería de almacenamiento dura, en promedio, 3.0 años, con una desvia-
ción típica de 0.5 años. Suponga que la duración de las baterías se distribuye normalmente, encuentre
la probabilidad de que una batería dure menos de 2.3 años.
Ejercicio 5.7 Una empresa eléctrica fabrica focos que tienen una duración media de 800 horas y una
desviación típica de 40 horas. Si la duración de los focos sigue una distribución normal, encuentre
la probabilidad de que un foco se funda en el intervalo de 778 a 834 horas.
Ejercicio 5.9 El 6.3 % de las observaciones de una magnitud que sigue una distribución normal tiene
un valor superior a 3.287, mientras que el 51.2 % tiene valores mayores que 2.897. Calcule la media
y la varianza de la distribución.
Ejercicio 5.10 Considere un experimento de medida del pH de una disolución acuosa caracterizado
por µpH = 5.50 y σ 2 (pH) = 0.06.
Determine el intervalo de valores en el que espera encontrar el 95 % de las medias muestrales de
los experimentos que combinen el resultado de 25 determinaciones del pH de la disolución indicada.
Distribución t de student.
Ejercicio 5.11 Considere una variable aleatoria distribuida de acuerdo con una distribución t de
Student con 9 grados de libertad.
Encuentre el valor de t1 para el cual
a) P (T > t1 ) = 0,05
b) P (T > t1 ) = 0,025
94
5 5. Distribuciones de probabilidad de variables aleatorias continuas
e) P (T ≥ t1 ) = 0,90
Ejercicio 5.12 Considere una variable aleatoria distribuida de acuerdo con una distribución t.
Encuentre el valor de t1 que satisfaga cada una de las siguientes condiciones
c) P (T ≥ t1 ) = 0,55 y ν = 16
Ejercicio 5.13 Para una variable U que sigue una distribución t de Student con ν = 10 encuentre
los valores de c que cumplen
a) P (U > c) = 0,05.
b) P (−c ≤ U ≤ c) = 0,98.
c) P (U ≤ c) = 0,20.
d) P (U ≥ c) = 0,90.
Distribución χ2
Ejercicio 5.14 Un fabricante de baterías para automóvil garantiza que sus baterías durarán, en
promedio, 3 años con una desviación estándar de 1 año.
Si 5 de estas baterías tienen duraciones de l.9, 2.4, 3.0 ,3.5 y 4.2 años, ¿puede seguir el fabricante
convencido aún de que la duración de sus baterías tiene una desviación estándar de 1 año?
Ejercicio 5.15 Hallar los valores χ21 (ν) y χ22 (ν) tales que con ν = 20,el área bajo la curva sea de
0.95, tales que χ21 (ν) < χ22 (ν), y las áreas a la derecha de χ22 (ν) y a la izquierda de χ21 (ν) sean
iguales.
Note que sin estas consideraciones hay infinitos pares de valores χ21 (ν) y χ22 (ν) que cumplen esta
condición.
95
5.6 5.6. Ejercicios y problemas
(a) (b)
96
5 5. Distribuciones de probabilidad de variables aleatorias continuas
P (k ≤ z ≤ −0,18) = P (k ≤ z ≤ 0) − P (−0,18 ≤ z ≤ 0)
= P (0 ≤ z ≤ k) − P (0,0 ≤ z ≤ 0,18)
= P (0 ≤ z ≤ k) − 0,0714
De modo que
0,4197 = P (0 ≤ z ≤ k) − 0,0714
P (0 ≤ z ≤ k) = 0,4911
(c) a (d) b
Ejercicio 5.3
P (45 ≤ x ≤ 62) = P (z1 ≤ z ≤ z2 )
donde
x 1 − µx 45 − 50
z1 = = = −0,5
σ(x) 10
x 2 − µx 62 − 50
z2 = = = 1,2
σ(x) 10
97
5.6 5.6. Ejercicios y problemas
de modo que
Ejercicio 5.4
P (x > 362) = P (z > z2 )
donde
x 2 − µx 362 − 300
z2 = = = 1,24
σ(x) 50
de modo que
98
5 5. Distribuciones de probabilidad de variables aleatorias continuas
P (z > z1 ) = 0,14
99
5.6 5.6. Ejercicios y problemas
x − µx
z =
σ(x)
2,3 − 3,0
=
0,5
= − 1,4
De modo que
P (x < 2,3) = P (z < −1,4) = 0,5 − P (0 < z < −1,4) = 0,5 − P (0 < z < 1,4) = 0,081
Ejercicio 5.7 Queremos calcular
P (778 < x < 834) = P (x < 834) − P (x < 778) = P (z < z1 ) − P (z < z2 )
Procedemos a calcular las variables reducidas z1 y z2
778 − 800
z1 = = −0,55
40
834 − 800
z2 = = 0,85
40
de modo que
P (x < 778) = P (z < −0,55) = 0,5−P (−0,55 < z < 0,0) = 0,5−P (0,0 < z < 0,55) = 0,2912
P (x < 34) = P (z < 0,85) = 0,5 + P (0,0 < z < 0,85) = 0,8023
P (778 < x < 834) = P (x < 834) − P (x < 778) = 0,8023 − 0,2912 = 0,5111
Ejercicio 5.8 Los cojinetes que se descartarán son aquellos que esten fuera del intervalo (2.9,3.1)
cm. Para calcular la fracción de cojinetes que se descartan calcularemos la fracción de cojinetes que
esperamos que esten dentro del intervalo, P (2,9 < x < 3,1)
Las variables reducidas vienen dadas por
2,99 − 3,0
z1 = = −2,0
0,005
3,01 − 3,0
z2 = = +2,0
0,005
P (2,9 < x < 3,1) = P (−2 < z < 2) = 2P (0 < z < 2) = 0,9544
Esperamos que un 4.56 % de los cojinetes no cumplan las especificaciones.
100
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Distribución t de student
Ejercicio 5.11 (a) P (T > t1 ) = 0, 05
Teniendo en cuenta que la probabilidad del suceso seguro es 1 (ver definición axiomática de
probabilidad):
P (T ≤ t1 ) + P (T > t1 ) =1,00
P (T ≤ t1 ) + 0,05 =1,00
P (T ≤ t1 ) =0,95
P (T ≥ t2 ) = 0,005
Utilizando los razonamientos de la sección a tenemos que t2 = t0,995 (ν = 9). Consultando la
tabla de la distribución t de Student tenemos −t1 = t2 = t0,995 (ν = 9) = 3,25.
(d) P (t1 < T < t2 ) = 0, 975
Siguiendo el mismo razonamiento que en la parte (c) obtenemos t2 = −t1 = t0,9875 (ν = 9) =
2,73. El valor de la percentila t0,9875 (ν = 9) no está incluido en la tabla. Se puede aproximar
utilizando una interpolación lineal entre los valores de la tabla couespondientes a las percentilas
t0,975 (ν = 9) y t0,99 (ν = 9).
(e) P (T ≥ t1 ) = 0, 90
Teniendo en cuenta la simetría de la distribución t de Student
P (T ≥ t1 ) = P (T ≤ −t1 ) = 0, 90
de modo que t1 = −t0,9 (ν = 9) = −1, 38
101
5.6 5.6. Ejercicios y problemas
P (U > c) + P (U ≤ c) = 1
0,05 + P (U ≤ c) = 1
P (U ≤ c) = 0,95
P (U ≥ c) = 0,01
Finalmente tenemos c = t0,99 (ν = 10) = 2,76.
(c)P (U < c) = 0,20
Teniendo en cuanta la simetría de la distribución t de Student tenemos
P (U ≥ c) = P (U ≤ −c) = 0,90
de modo que c = −t0,9 (ν = 10) = −1, 37
Distribución χ2
Ejercicio 5.14 La varianza muestral es s2 (x) = 0,815. Suponiendo que las vida media de las bate-
rias sigue una distribución normal, la variable aleatoria (ecuación 5.27)
s2 (x)
X 2 = (n − 1)
σ 2 (x)
sigue una distribución χ2 (ν = n − 1).
102
5 5. Distribuciones de probabilidad de variables aleatorias continuas
Sustituyendo obtenemos
4 × 0,815
X2 = = 3,26
1
Consultando el apéndice A.3 tenemos que el intervalo simétrico que contiene el 95 % de las
medidas está comprendido entre χ20,025 (ν = 4) = 0,484 y χ20,975 (ν = 4) = 11,143. El resultado
obtenido esta dentro del intervalo y no contradice la hipótesis inicial σ 2 (x) = 1
En el caso de los ejercicios relacionados con la distribución normal se ilustra como identificar
los parámetros de la distribución normal y el uso de las tablas para la evaluación de probabi-
lidades. El resto de los ejercicios que se recomienda revisar, ilustran como utilizar las tablas
de las percentilas de las distribuciones t, χ2 y F . Sirven para revisar como se usan las tablas
estad´sticas y adquirir confianza en su manejo.
☞ Capítulo 4. Funciones de variables aleatorias. del texto de Walpole y Myers[6]. De este capí-
tulo es útil la revisión de las secciones:
103
5.7 5.7. Lecturas recomendadas
104
6
105
6.1. Distribución de probabilidad del error aleatorio.
Considere un conjunto de medidas x1 , x1 , . . ., xn de una magnitud. En ausencia de error sistemá-
tico sólo debemos tener en cuenta el error aleatorio. Por tanto, el resultado de una medida, xi , viene
dado por la suma del valor real, µx , y el error aleatorio asociado a esa medida εi .
x i = µx + ε i (6.1)
Para estimar el valor real, µx , necesitamos conocer que función de densidad de probabilidad des-
cribe el error aleatorio. Asumiremos que ei sigue una distribución normal de media µε = 0 y varianza
σ 2 (ε). Como εi sigue una distribución normal y µx es una constante, los resultados de las medidas xi
también siguen una distribución normal. La media de la distribución normal de las medidas es µx y
su varianza, s2 (x), es igual que la varianza del error aleatorio, σ 2 (x) = σ 2 (ε).
Estas propiedades se demuestran fácilmente utilizando las propiedades de la esperanza matemáti-
ca
σ 2 (xi ) = E (xi − µxi )2 = E ((µx + εi ) − (µx + µεi ))2 = E ((εi − µεi )2 = σ 2 (εi )
(6.3)
El error aleatorio puede que no este distribuido normalmente. En algunos casos es evidente, por
ejemplo cuando sabemos que nuestros datos siguen una distribución uniforme, binomial o de Poisson.
En otros casos es necesario comprobar que los datos se ajustan a una distribución de probabilidad pos-
tulada (gaussiana, log-normal, exponencial, etc). Realizar esta comprobación es importante cuando el
método utilizado para calcular las estimas poblacionales no es robusto. Un método de cálculo de es-
timas no es robusto cuando (i) que los datos utilizados no se ajusten a la distribución de probabilidad
postulada para desarrollar el método, implica que (ii) las estimas de los parámetros poblacionales que
se obtienen pueden ser erróneas.
que cumple
Los límites del intervalo de probabilidad xmin y xmax son valores constantes y se calculan cono-
cidos la forma de la función de distribución (o de densidad de probabilidad) y los parámetros que la
caracterizan (media, varianza).
Se pueden definir infinitos intervalos de probabilidad de una estima x de un parámetro poblacional
ξ con un nivel de probabilidad p.
Nosotros trabajaremos con intervalos de tres tipos:
✓ P (xmı́n 6 x) = p (6.6)
✓ P (x 6 xmáx ) = p (6.7)
✓ P (xmı́n 6 x 6 xmáx ) = p (6.8)
Para este último intervalo imponemos la condición adicional de que probabilidad de obtener un valor
de x fuera del intervalo de probabilidad sea igual en ambos lados. Es decir
1−p
➠ P (xmáx 6 x) =
2 (6.9)
1−p
➠ P (xmáx 6 x) =
2
A0 = µ − D 6 x i 6 µ + D = A (6.10)
donde D es una constante que se elige dependiendo del valor de nivel probabilidad p del intervalo,
P (µ − D 6 xi 6 µ + D) = p (6.11)
D suele fijarse como un múltiplo de σ, D = kσ. Así la probabilidad asociada al intervalo depende
exclusivamente del valor de k:
107
6.2 6.2. Intervalos de probabilidad
σ 2 (x)
σ 2 (x̄) = (6.13)
n
σ 2 (x) σ 2 (x)
· χ21−p (ν) 6 s2 (x) 6 · χ21− p (ν) (6.14)
(n − 1) 2 (n − 1) 2
108
6 6.Intervalos de probabilidad e intervalos de confianza
que cumple
P (x0mı́n 6 ξ 6 x0máx ) = p = 1 − α
1 − α es el nivel o grado de confianza del intervalo [x1, x2]. El nivel de confianza es una medida
de la probabilidad de que el parámetro x esté dentro del intervalo [x1, x2].
α es el grado de significación y da idea de la probabilidad de que el parámetro x esté fuera del
intervalo estimado.
Una diferencia importante entre los intervalos de probabilidad y los intervalos de confianza es
la naturaleza de los extremos. En un intervalo de probabilidad con un nivel de probabilidad p los
extremos del intervalo xmin y xmax son constantes, no cambian al repetir el experimento. En un
intervalo de confianza con un nivel de confianza 1 − α = p, los extremos del intervalo son x0min y
x0max son números aleatorios. Esto se debe al hecho de que para calcularlos utilizamos la estima de
109
6.3 6.3. Intervalos de confianza
ξ, x, que es una variable aleatoria. Por tanto, los extremos dependen de los datos empleados para
calcular x y pueden ser distintos en distintos experimentos.
Consideremos un experimento en que σ 2 (x) es conocida con gran precisión. Se realiza una medida
y se obtiene un valor xi . El valor de xi puede no coincidir con µ pero está incluido dentro del intervalo
de probabilidad p dado por
que corresponde al intervalo de valores en el que esperamos obtener xi con una probabilidad p,
conocidos los valores de µx y σ 2 (x). Esto es, xi está comprendido entre A0 y A en la figura 6.2.
Si no conocemos µx sólo podemos intentar estimar el intervalo en que esperamos que encontrar a
µx (constante) conocido el valor de su estima xi (variable aleatoria), es decir
µ − kσ 6 xi 6 µ + kσ (6.15)
Esto corresponde a que M está comprendida entre B 0 y B en la figura 6.2
xi − kσ 6 µ 6 xi + kσ (6.16)
Aunque las dos expresiones anteriores son equivalentes algebraicamente, tienen distinto signifi-
cado. La primera (6.15) expresa el hecho de que la variable aleatoria x está comprendida entre las
constantes µx − kσ y µx + kσ (un intervalo de probabilidad). La segunda (6.16) implica que espera-
mos que la constante µ que se encuentre en un intervalo definido por dos variables aleatorias xi −kσ y
xi + kσ (un intervalo de confianza). La interpretación teórica de los intervalos de confianza es debida
a Neyman y Pearson: el intervalo de confianza expresa la probabilidad de que µx este comprendida
en el intervalo aleatorio que se extiende de xi − kσ a xi − kσ (en el intervalo B’ B de la figura 6.2).
Si cada experimento consta de n medidas, la estima de µx es la media muestral, . El intervalo de
probabilidad para la media muestral es
σ σ
µ − k√ 6 x 6 µ + k√ (6.17)
n n
110
6 6.Intervalos de probabilidad e intervalos de confianza
σ σ
x − k√ 6 µ 6 x + k√ (6.18)
n n
La figura 6.3 ilustra el concepto del concepto de intervalo de confianza. En las figura se representan
los resultados de una serie de medidas con sus respectivos intervalos de confianza. Cada medida hace
referencia a una estimación independiente del parámetro µx . Debido a la naturaleza aleatoria de los
errores, las estimas fluctúan alrededor del valor µx . Las barras de error representan los intervalos de
confianza de las estimas de µx basadas en la medida xi o en la media muestral de n medidas, x̄.
Las barras de error de cada medida equivalen a los intervalos de√confianza B’B de la figura 6.2. El
límite inferior de la barra de error representa
√ el valor x̄ − k σ(x)/ n, mientras que el límite superior
representa el valor de a x̄+k σ(x)/ n. En el diagrama suponemos que todas las estimas se realizaron
utilizando n√medidas, en consecuencia la longitud de los intervalos de confianza es constante e igual
a 2k σ(x)/ n .
Observe que en la figura 6.3 no todos los intervalos de confianza cortan la línea discontinua (que
corresponde al valor del parámetro µx ). El nivel de confianza asociado de cada intervalo puede in-
terpretarse como la frecuencia con la que esperamos que los intervalos obtenidos experimentalmente
incluyan el valor real de la magnitud que estemos estimando (µx en este ejemplo) cuando dibujáramos
una gráfica como la de la figura 6.3 y el número de medidas fuera muy grande.
Figura 6.3: Intervalos de confianza de la media cuando la varianza σ 2 (x) es conocida. La longitud de
los segmentos es constante pero la posición de sus puntos medios es una variable aleatoria. Note que
la longitud de los segmentos es proporcional al número de medidas utilizadas para calcular x̄. Basado
en la figura 6.3 del texto de J. Mandel reseñado en la bibliografía.
111
6.4 6.3. Intervalos de confianza
Si tanto la media µx como la varianza σ 2 (x) son desconocidas, utilizaremos las estimas muestrales
de µx y σ 2 (x), x̄ y s2 (x) para calcular el intervalo de confianza de m. Sabemos que
x̄ − µx
t= √ (6.19)
s(x)/ n
es una variable aleatoria que sigue una distribución una distribución t de Student con ν = n − 1
grados de libertad (ver sección 5.3.1 ). Con esta expresión podemos obtener un intervalo centrado en
la media muestral (intervalo de confianza)
s(x)
|x̄ − µx | 6 tp · √ (6.20)
n
s(x) s(x)
x̄ − tp · √ 6 µx 6 x̄ + tp · √ (6.21)
n n
donde el valor de tp depende del número de medidas y del nivel de confianza (p = 1 − α).
Además, puesto que s(x) es una variable aleatoria, la longitud del intervalo de confianza varia
de muestra a muestra. La figura 6.4 ilustra el concepto del concepto de intervalo de confianza en este
caso. En las figura se representan los resultados de una serie de medidas con sus respectivos intervalos
de confianza. Cada medida hace referencia a una estimación independiente del parámetro µx . Debido
a la naturaleza aleatoria de los errores, las estimas fluctúan alrededor del valor µx . Además como los
extremos del intervalo se calculan utilizando la varianza muestral, s2 (x), la longitud de los intervalos
de confianza es una variable aleatoria.
Figura 6.4: Intervalos de confianza de la media cuando la varianza σ 2 (x) se desconoce. Como s(x)
varia de experimento a experimento, tanto la longitud de los intervalos como sus puntos medios son
variables aleatorias. Además, la longitud de los segmentos también es proporcional al número de
medidas utilizadas para calcular x̄. Basado en la figura 6.3 del texto de J. Mandel reseñado en la
bibliografía.
112
6 6.Intervalos de probabilidad e intervalos de confianza
σ(x) σ(x)
x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ (6.22)
n n
σ(x) σ(x)
x̄ − k1− α2 · √ , x̄ + k1− α2 · √ (6.23)
n n
σ(x)
x̄ ± k1− α2 · √ (6.24)
n
σ(x) σ(x) µx − x̄
P x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ =P −k1− α2 6 √ 6 k1− α2 =1−α
n n σ(x)/ n
(6.25)
x̄ − µ √
z= n (6.26)
σ(x)
sigue una distribución normal de media µz = 0 y varianza varianza σ 2 (z) = 1, PN (z; 0, 1).
Para valores grandes de n podemos hacer la aproximación
σ 2 (x) ∼
= s2 (x) (6.27)
De modo que el intervalo de confianza de la media con un nivel 1 − α viene dado por
σ(x) σ(x)
x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ (6.28)
n n
113
6.4 6.4. Calculo de intervalos de confianza para la media
σ(x)
x̄ ± k1− α2 · √ (6.29)
n
donde k1−α/2 toma un valor tal que se cumple
σ(x) σ(x) µx − x̄
P x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ =P −k1− α2 6 √ 6 k1− α2 =1−α
n n σ(x)/ n
(6.30)
¿Cuando es n lo suficientemente grande?. El valor de n depende de la función de distribución que
caracteriza al conjunto de datos estudiado. El tema va más allá de los contenidos de este curso. Como
referencia podemos utilizar n ≥ 50.
σ(x)
x̄ ± k1− α2 · √
n
√
Calculamos x̄ = 0,205 y σ(x̄) = σ(x)/ n = 1/3
Puesto que el nivel de confianza es del 95 %,
µ−x̄ √ µ−x̄ √
P −k 6 σ(x) n 6 k = 2P 0 6 σ(x)
n 6 k = 0,95
µ−x̄ √
P 06 σ(x)
n 6 k = 0,475 → k = 1,96
Sustituyendo en la ecuación 6.24 obtenemos
1
0,205 ± 1,96 · = 0,653
3
114
6 6.Intervalos de probabilidad e intervalos de confianza
que está distribuida de acuerdo con una distribución t de Student con ν = n − 1 grados de libertad.
Recuerde que la distribución t de Student es simétrica respecto a t = 0.
Por tanto
s(x) s(x)
x̄ − t1− α2 (ν = n − 1) · √ 6 µx 6 x̄ + t1− α2 (ν = n − 1) · √ (6.32)
n n
s(x) s(x)
x̄ − t
1− α (ν = n − 1) · √ , x̄ + t1− α2 (ν = n − 1) · √ (6.33)
2
n n
s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (6.34)
n
P −t1− α2 (ν = n − 1) 6 t(ν = n − 1) = 1 − α (6.35)
s(x) µx − x̄
−t1− α2 (ν = n − 1) · √ 6 √ 6 t1− α2 (ν = n − 1) (6.36)
n s(x)/ n
s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (6.37)
n
115
6.5 6.5. Calculo de intervalos de confianza para la varianza
s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (6.38)
n
0,45 0,45
c =20,92 ± t0,975 (ν = 8) √ = 20,92 ± 2,31
9 3
−3
=20,92 ± 035 g.cm
6.4.4. Datos que siguen una distribución desconocida con varianza finita y con
n pequeña
En este caso no podemos decir nada. Para poder aplicar el teorema del límite central (ver necesi-
tamos más medidas.
s2 (x)
2 2
P χα/2 (ν) 6 (n − 1) · 2 6 χ1−α/2 (ν) = 1 − α (6.40)
σ (x)
donde χ2α/2 y χ21−α/2 son las cuantilas de α/2 y 1 − α/2 de las distribución χ2 (ν). Reordenando esta
expresión se obtiene
!
(n − 1) · s2 (x) (n − 1) · s 2
(x)
P 2
6 σ 2 (x) 6 =1−α (6.41)
χ1−α/2 (ν) χ2α/2 (ν)
116
6 6.Intervalos de probabilidad e intervalos de confianza
(n − 1) · s2 = 5,6 10−7
Consultando el apéndice 3, obtenemos χ20,05 (ν = 4) = 0,711 y χ20,95 (ν = 4) = 9,49.
Sustituyendo
117
6.6 6.6. Cálculo de intervalos de confianza para la diferencia de las medias
6.6.1. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) conocidas
La suma de dos variables aleatorias gaussianas sigue también una distribución gaussiana (ver
5.2.1).
Si x sigue una distribución PN (x; µx , σ12 (x)) e y una distribución PN (x; µy , σ22 (y)). La variable
aleatoria d = x − y sigue una distribución gaussiana PN (d; µ1 − µ2 , σ12 (x)/n1 + σ2 2(y)/n2).
Por tanto la variable d, definida como
1/2
σ12 σ22
(x̄ − ȳ) ± z(1− α ) + (6.44)
2 n1 n2
6.6.2. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconoci-
das pero iguales
Considere dos variables aleatorias tales que x sigue una distribución PN (x; µx , σ12 (x)) e y una
distribución PN (x; µy , σ22 (y)). La variable aleatoria d = x − y sigue una distribución gaussiana
PN (d; µ1 − µ2 , σ12 (x)/n1 + σ2 2(y)/n2).
Si las varianzas no son conocidas pero podemos suponer que σ12 (x) = σ2 2(y), se puede suponer
que la variable aleatoria t
1/2
1 1
(x̄ − ȳ) ± t1− α (n1 + n2 − 2) s (x − y) + (6.47)
2 n1 n2
118
6 6.Intervalos de probabilidad e intervalos de confianza
donde
6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y
n2 grandes
De acuerdo con el teorema del límite central (ver 5.2.1) para valores grandes de n1 y n2 , las
variables aleatorias
x̄ − µx √ ȳ − µy √
zX = n1 zY = n2 (6.50)
σ(x) σ(y)
119
6.7 6.7. Análisis de datos emparejados
σ 2 (x) ∼
= s2 (x)
(6.51)
σ 2 (y) ∼
= s2 (y)
de modo que el intervalo de confianza µ1 − µ2 de la media con un nivel de confianza 1 − α es
1/2
s21 s2
(x̄ − ȳ) ± z(1− α ) + 2 (6.52)
2 n1 n2
6.6.4. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconoci-
das y distintas
Consideremos las variables x e y con distribuciones PN (x; µ1 , σ12 (x)) y PN (x; µ1 , σ12 (x)), de las
que no conocemos sus varianzas pero sospechamos que σ12 (x) 6= σ22 (y).
Para estimar el intervalo de confianza de la media utilizaremos el estadístico
que sigue una distribución t de Student con ν grados de libertad que se calculan redondeando el valor
obtenido de la expresión
2
s21 s22
n1
+ n2
ν=
s41 s42 (6.54)
n21 (n1 −1)
+ n22 (n2 −1)
ν1 = n1 − 1 ν2 = n2 − 1
a un número entero.
Finalmente, el intervalo de confianza viene dado por
1/2
s21 s2
(x̄ − ȳ) ± t1− α (ν) + 2 (6.55)
2 n1 n2
120
6 6.Intervalos de probabilidad e intervalos de confianza
al método de la que resulta de la variación entre las pastillas: se dice que los dos efectos se «con-
funden». Esta dificultad se soslaya observando la diferencia, d, entre cada par de resultados dados
por los dos métodos. Si no existen diferencias entre los dos métodos, entonces estas diferencias se
obtienen de una población con media µd = 0. Para probar la hipótesis nula, se prueba si d¯ difiere
significativamente de cero utilizando el estadístico t.
Para contrastar si n resultados emparejados se extraen de la misma población, es decir, H0 : µd =
0, se calcula el estadístico t:
d¯
t= √ (6.56)
s(d)/ n
donde d¯ y S(d) son la media y la desviación estándar, respectivamente, de d, la diferencia entre los
valores que forman cada par de medidas. El número de grados de libertad de t es ν = n − 1.
Los contrastes por parejas descritos no requieren que las precisiones de los dos métodos sean igua-
les. Suponen que las dife rencias, d, están distribuidas normalmente. En efecto, esto exige que cada
conjunto de medidas se distribuya normalmente y que la precisión y sesgo (si acaso) de cada método
sean constantes en el intervalo de valores en que se realizaron las medidas. Los datos pueden constar
de medidas individuales, como en o de medias de medidas repetidas. Sin embargo, es necesario que
se realice el mismo número de medidas sobre cada muestra por el primer método y análogamente por
el segundo método: es decir, n medidas de cada muestra por el método 1 y por el método 2, donde
m y n deben ser iguales. Hay diferentes circunstancias por las cuales puede ser necesario o deseable
diseñar un experimento, de manera que cada muestra sea analizada por cada uno de los dos métodos,
proporcionando resultados que están emparejados de forma natural.
Algunos ejemplos son:
1. La cantidad de muestra disponible a examen es suficiente para sólo una determinación por cada
método.
2. Las muestras a examen pueden presentarse durante un extenso período de tiempo por lo que es
necesario eliminar los efectos de las variaciones en condiciones ambientales como temperatura,
presión, etc.
3. Los métodos se van a comparar utilizando una amplia variedad de muestras de diferente proce-
dencia y posiblemente con concentraciones muy distintas
Lote 1 2 3 4 5 6 7 8 9 10
UV 84.63 84.38 84.08 84.41 83.82 83.55 83.92 83.69 84.06 84.03
NIR 83.15 83.72 83.84 84.20 83.92 84.16 84.02 83.60 84.13 84.24
¿Hay una diferencia significativa entre los resultados obtenidos por los dos métodos?
121
6.7 6.7. Análisis de datos emparejados
Las diferencias entre los pares de válores (restando el segundo al primero son):
Lote 1 2 3 4 5 6 7 8 9 10
UV 84.63 84.38 84.08 84.41 83.82 83.55 83.92 83.69 84.06 84.03
NIR 83.15 83.72 83.84 84.20 83.92 84.16 84.02 83.60 84.13 84.24
d +1.48 +0.66 +0.24 +0.21 -0.10 -0.61 -0.10 +0.09 -0.07 -0.21
Estos valores tienen una media d¯ = 0,159 y desviación típica s(d) = 0,570.
Si H0 : µd = 0,de acuerdo con la ecuación 6.56
d¯
texp = √ < t0,95 (ν = 9)
s(d)/ n
texp = 0,88 que es menor que el valor crítico t0,95 (ν = 9) = 2,26. Es decir, ambos métodos no
proporcionan resultados significativamente diferentes para la concentración de paracetamol.
122
6 6.Intervalos de probabilidad e intervalos de confianza
(a) normal
(a) normal
(a) normal
123
6.8 6.8. Ejercicios y problemas
que cumple
(a) sólo existe para datos que siguen distribuciones de probabilidad simétricos
(a) constantes
Cuestión 6.8 Cuando se trabaja con intervalos de confianza, ¿qué indicamos con el nivel de con-
fianza del intervalo?.
124
6 6.Intervalos de probabilidad e intervalos de confianza
σ(x)
(b) µx ± z1− α2 · √
n
s(x)
(c) x̄ ± t1− α2 (ν = n − 1) · √
n
s(x)
(d) µx ± t1− α2 (ν = n − 1) · √
n
Problema 6.2 Siete medidas del pH de una solución reguladora proporcionaron los siguientes resul-
tados:
5,12 5,20 5,15 5,17 5,16 5,19 5,15
Calcular los límites de confianza para el verdadero pH al nivel de confianza del (i) 95
(Suponer que no existen errores sistemáticos.)
Problema 6.3 Diez análisis repetidos de la concentración de mercurio en una muestra de condensa-
do de gas comercial proporcionaron los siguientes resultados:
23,3 22,5 21,9 21,5 19,9 21,3 21,7 23,8 22,6 24,7 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99
Problema 6.4 Seis análisis repetidos de otra muestra proporcionaron los siguientes valores:
13,8 14,0 13,2 11,9 12,0 12,1 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99
Problema 6.5 Se midió la concentración de plomo en el fluido sanguíneo para una muestra de 50
niños de un colegio próximo a una calle con mucho tráfico. La media muestral fue 10.12 ng.ml−1 y la
desviación estándar fue 0.64 ng.ml−1 .
Calcular el intervalo de confianza al 95 % para la concentración media de plomo de todos los
niños de la escuela.
125
6.8 6.8. Ejercicios y problemas
Problema 6.7 Para la evaluación de un método para la determinación de fluoreno en agua de mar,
se adicionó a una muestra sintética de agua de mar 50 ng.ml−1 de fluoreno.
Diez muestras repetidas de la concentración de fluoreno en la muestra tuvieron una media de 49.5
ng.ml−1 con una desviación estándar de 1.5 ng.ml−1 .
Calcule los límites de confianza de la media al 95 %.
¿Está el valor adicionado de 50 ng.ml−1 dentro de los límites de confianza al 95 % ?
Problema 6.8 Se utilizó una disolución 0.1 M de ácido para valorar 10 ml de una solución de álcali
0.1 M , registrándose los siguientes volúmenes de ácido:
9,88 10,18 10,23 10,39 10,21 ml
Calcule los límites de confianza de la media al 95 % y utilícelos para decidir si existe alguna
evidencia de error sistemático.
Problema 6.9 En un método nuevo para determinar selenourea en agua, se obtuvieron los valores
para muesstras de agua de grifo adicionadas con 50 ng.ml−1 de selenourea
Problema 6.10 En una comparación de dos métodos para la determinación de cromo en muestras
de hierba de centeno se obtuvieron los siguientes resultados (mg.Kg−1 )
Para cada método se realizaron 5 determinaciones. ¿Estos dos métodos proporcionan resultados
cuyas medias difieren significativamente?
Problema 6.11 En una serie de experimentos para la determinación de estaño en productos ali-
menticios las muestras fueron llevadas a ebullición con HCl a reflujo para diferentes tiempos. Los
resultados fueron:
¿Es significativa la diferencia entre las cantidades encontradas obtenidas para los dos de ebulli-
ción?
Problema 6.12 Los datos de la siguiente tabla proporcionan la concentración de tiol (mM) en el
lisado sanguíneo de dos grupos de voluntarios siendo el primer grupo "normal el segundo sufriendo
2
artritis reumatoide
¿Es significativa la diferencia entre las cantidades de tiol en sangre encontradas para los distintos
grupos de voluntarios?.
126
6 6.Intervalos de probabilidad e intervalos de confianza
Problema 6.13 Para evaluar un método espectrofotométrico para determinar titanio, se aplicó el
método a muestras de aleaciones conteniendo diferentes cantidades certificadas de titanio. Los resul-
tados ( % Ti) se muestran a continuación.
Problema 6.14 La tabla recoge los resultados de la medida de una propiedad mediante dos técnicas
experimentales diferentes.
Problema 6.15 Los siguientes datos proporcionan la recuperación de brofnuro adicionado a mues-
tras con contenido vegetal, medido mediante un método cromatográfico gas-líquido. La cantidad de
bromuro potásico añadido a cada tipo de vegetal fue la misma.
(a) Contrastar si la recuperación en los dos vegetales tiene varianzas, que difieran significativa-
mente.
(b) Contrastar si las tasas de recuperación medias difieren significativamente.
Siete medidas del pH de una solución reguladora proporcionaron los siguientes resultados:
127
6.8 6.8. Ejercicios y problemas
Problema 6.17 Seis análisis repetidos de otra muestra proporcionaron los siguientes valores:
13,8 14,0 13,2 11,9 12,0 12,1 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99
Problema 6.18 La siguiente tabla recoge resultados de un trabajo en el que fueron comparados dos
métodos diferentes para la determinación de cromo en materiales orgánicos.
Problema 6.19 Un nuevo procedimiento enzimático de análisis por inyección en flujo para determi-
nar peróxido de hidrógeno en agua fue comparado con un método volumétrico redox convencional
con permanganato potásico aplicando ambos métodos a muestras de peróxido de uso farmacéutico.
La siguiente tabla proporciona la cantidad de peróxido de hidrógeno, en mg.ml−1 . Cada valor es
la media de cuatro réplicas.
Problema 6.20 Las siguientes cifras se refieren a la concentración de albúmina, en gl−1 , en el suero
sanguíneo de 16 adultos sanos:
Hombres 37 39 37 42 39 45 42 39
Mujeres 44 40 39 45 47 47 43 41
128
6 6.Intervalos de probabilidad e intervalos de confianza
Problema 6.21 Se comparó un nuevo método espectroscópico de absorción atómica de llama para
determinar antimonio en la atmósfera con el método colorimétrico recomendado. Para muestras de
atmósfera urbana, se obtuvieron los siguientes resultados:
¿Hay diferencias significativas entre los resultados obtenidos por los dos métodos?
129
6.9 6.9. Lecturas recomendadas
130
7
Cálculo de errores
131
7.1 7.1. Cálculo de errores en medidas directas
x = µ ± εi
donde la incertidumbre, εi , podemos expresarla como
132
7 7.Cálculo de errores
(1) La estima de la media general de la magnitud coincide con la media aritmética x̄, de las obser-
vaciones:
n
1X
x̄ = xi
n i=1
n
1 X
2
s (x) = (xi − x̄)2
n − 1 i=1
s2 (x)
s2 (x̄) =
n
σ(x)
x̄ ± k1− α2 · √ (7.1)
n
s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (7.2)
n
133
7.2 7.1. Cálculo de errores en medidas directas
i xi di = xi − x̄ di2
1 0.4311 −110−3 1,10−6
2 0.4315 +310−3 9,10−6
3 0.4310 −210−3 4,10−6
4 0.4313 +110−3 1,10−6
5 0.4312 010−3 0,10−6
6 0.4311 −110−3 1,10−6
X X X
n=6 xi = 2,5872 di = 0 d2i = 1,6 10−5
sP
d2i s(x)
x̄ = 0,4312 M s(x) = = 1.789910−3 M s(x̄) = √ = 7,30410−4
n−1 n
Dado que σ(x) es desconocida.
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
t.975 (ν = 5) = 2,57
[H2 SO4 ] = 0,431 ± 0,002 M
s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
t.975 (ν = 9) = 2,26
x = 0,4927 ± 2,26 · 0,0016 = 0,4927 ± 0,0036
134
7 7.Cálculo de errores
El ensayo de la Q de Dixon
En este método se comparan la diferencia entre el valor sospechoso y la medida más próxima a
éste con el rango de las medidas (diferencia entre el mayor y menor valores observados: xmax y xmin ).
La variable que utilizamos como referencia es el cociente de ambas magnitudes, la Q de Dixon:
Si el valor de Q es mayor que el valor crítico de Q para un nivel de confianza del 95 % desestima-
remos el valor sospechoso.
n 4 5 6 7 8 9 10
Qcrit 0.831 0.717 0.621 0.570 0.524 0.492 0.464
135
7.2 7.2. Desestimación de medidas
i 1 2 3 4 5 6 7 8 9 10
ki 4.51 4.54 4.52 4.66 4.51 4.50 4.48 4.49 4.51 4.52
ki − k̄ 0.01 0.02 0.00 0.14 0.01 0.02 0.04 0.03 0.00 0.01
Sin embargo, este método no es útil si en la muestra están presentes dos valores erráticos muy
próximos o muy separados entre si. Por ejemplo considere los valores:
2.1 2.0 2.1 2.3 2.9 2.3 3.1 2.2 2.0 2.3
En este caso
3,1 − 2,9
Qexp = = 0,18 < Qcrit (n = 10) = 0,464
3,1 − 2,0
el método no es capaz de discernir la presencia de dos valores erráticos muy próximos. Es necesario
aplicar técnicas que tenga en cuenta la posibilidad de observar dos o más valores erráticos.
(3) Los valores mínimo y máximo son marcados como posibles valores erráticos (outliers).
136
7 7.Cálculo de errores
Figura 7.1: Ilustración de un ejemplo donde el test Q de Dixon no es capaz de discirminar los datos
erráticos. Este ejemplo ilustra la importancia de hacer una representación gráfica de los datos.
(4) Para es los dos valores sospechosos se calcula el valor absoluto de su desviación respecto de la
media:
δi = |xi − x̄| (7.4)
(5) El mayor valor de δi se compara con el producto τ · s(x), donde τ depende del número de
medidas realizadas (ver tabla 7.2).
(6) Si δi > τ · s(x) se desecha xi y se repiten los pasos (1) a (5) hasta que el valor con mayor δi
cumpla δi < τ · s(x)
n 3 4 5 6 7 8 9 10 11 12 13
τ 1.150 1.393 1.572 1.656 1.711 1.749 1.777 1.798 1.815 1.829 1.840
Cuadro 7.2: Valores de la τ de Thompson para distintos números de medidas
137
7.3 7.3. Cálculo de errores de medidas indirectas
c = 12.03 mS
s(c) = 0.07 mS
(2) Calculamos δmin y δmax .
y = φ + ε(y) (7.6)
donde
138
7 7.Cálculo de errores
Sólo es necesario considerar el error de escala. Este es el caso en el que no podemos estimar
εaleatorio , o εescala εaleatorio .
139
7.3 7.3. Cálculo de errores de medidas indirectas
140
Parte I
Apéndices
141
APÉNDICE A
Tablas estadísticas
143
A.2 A.1. Área bajo la curva normal tipificada
144
A A.Tablas estadísticas
145
A.3A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad
146
A A.Tablas estadísticas
147
A.5 A.5. Valores de las percentilas F0,99 (ν1 , ν2 ) para un distribución F
148
Bibliografía
[1] P. R. Bevington and D. K. Robinson. Data Reduction and Error Analysis for the Physical Scien-
ces. Second edition. McGraw-Hill, New York, 1994.
[2] Richard C. Graham. Data Analisis for the Chemical Sciences. VCH, New York, 1993. X.
[3] Jane C. Miller James N. Miller. Estadística y Quimiometría para Química Analítica. Prentice
Hall, Madrid, 2002. X.
[4] John Mandel. The Statistical Analysis of Experimental Data. Dover, New York, 1984.
[5] R. Alu Srinivasan Murray R. Siegel, John Schiller. Probabilidad y Estadística. Colección
Schaum. McGraw-Hill, Bogotá, 2a edition, 2001.
149
Índice alfabético
incertidumbre, 6
150