Está en la página 1de 151

Estadística y Programación aplicada a la Química

Introducción al análisis de datos experimentales

Dr. Pedro Alberto Enríquez Palma


Área de Química Física
Departamento de Química
Licenciatura en Química, Universidad de La Rioja
Índice general

1. Errores, incertidumbres, precision y exactidud. 5


1.1. Errores e incertidumbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2. Cifras o digitos significativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2. Teoría estadística de los errores(I). Probabilidad 15


2.1. Definición de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.1. El espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.1.2. Definición empírica de probabilidad . . . . . . . . . . . . . . . . . . . . . . 16
2.1.3. Definición aximática de probabilidad . . . . . . . . . . . . . . . . . . . . . 18
2.1.4. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2. Funciones de distribución de probabilidad. . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.1. Distribuciones de probabilidad de variables aleatorias discretas. . . . . . . . 21
2.2.2. Distribuciones de probabilidad de variables aleatorias continuas . . . . . . . 24
2.3. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3. Teoría estadística de los errores(II). Esperanza matemática 33


3.1. Esperanza matemática de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 34
3.1.1. Magnitudes aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.2. Magnitudes aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3. Propiedades de la esperanza matemática . . . . . . . . . . . . . . . . . . . . 34
3.1.4. Momentos de una distribución. . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria . . . . . . 38
3.2.1. Media general de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 39
3.2.2. Media muestral de una magnitud aleatoria . . . . . . . . . . . . . . . . . . . 39

1
0.0 Índice general

3.2.3. Varianza de una magnitud aleatoria. . . . . . . . . . . . . . . . . . . . . . . 39


3.2.4. Dispersion o varinza muestral de una magnitud aleatoria . . . . . . . . . . . 42
3.3. Mediana y moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.5. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4. Distribuciones de probabilidad de variables aleatorias discretas 49


4.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.2. Distribución binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.2.1. Teorema de Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.3.1. La distribución de Poisson como límite de la distribución binomial . . . . . . 57
4.3.2. La distribución de Gaussiana o normal como límite de la distribución de Poisson 58
4.4. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.4.1. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.5. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

5. Distribuciones de probabilidad de variables aleatorias continuas 67


5.1. Distribución uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.2. Distribución normal o Gaussiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.1. ¿Qué variables aleatorias siguen una distribución normal? . . . . . . . . . . 75
5.3. La distribución t de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student? . . . . . . . . 81
5.4. La distribución χ2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
5.4.1. ¿Qué variables aleatorias siguen una distribución χ2 ? . . . . . . . . . . . . 84
5.4.2. Relación entre la distribución χ2 y la distribución normal . . . . . . . . . . . 87
5.5. La distribución F de Fisher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.5.1. ¿Qué variables aleatorias de interés siguen una distribución F de Fisher? . . . 88
5.6. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.6.1. Soluciones a las cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
5.6.2. Soluciones a los ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
5.7. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

6. Intervalos de probabilidad e intervalos de confianza 105


6.1. Distribución de probabilidad del error aleatorio. . . . . . . . . . . . . . . . . . . . . 106
6.2. Intervalos de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
6.2.2. Intervalos de probabilidad de las medidas . . . . . . . . . . . . . . . . . . . 107
6.2.3. Intervalos de probabilidad de las medias . . . . . . . . . . . . . . . . . . . . 108
6.2.4. Intervalos de probabilidad de las varianzas . . . . . . . . . . . . . . . . . . 108
6.3. Intervalos de confianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.3.1. Definición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.4. Calculo de intervalos de confianza para la media . . . . . . . . . . . . . . . . . . . . 113
6.4.1. Datos distribuidos normalmente con varianza σ 2 (x) conocida . . . . . . . . 113

2
0 Índice general

6.4.2. Datos distribuidos normalmente con varianza finita y con n grande . . . . . . 113
6.4.3. Datos distribuidos normalmente con varianza σ 2 (x) desconocida . . . . . . . 114
6.4.4. Datos que siguen una distribución desconocida con varianza finita y con n
pequeña . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.5. Calculo de intervalos de confianza para la varianza . . . . . . . . . . . . . . . . . . 116
6.6. Cálculo de intervalos de confianza para la diferencia de las medias . . . . . . . . . . 117
6.6.1. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) conocidas . . . 118
6.6.2. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas
pero iguales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y n2
grandes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.6.4. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconocidas y
distintas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.7. Análisis de datos emparejados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.8. Ejercicios y problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.9. Lecturas recomendadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

7. Cálculo de errores 131


7.1. Cálculo de errores en medidas directas . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.1.1. Errores de escala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.1.2. Errores de sistemáticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.1.3. Errores accidentales o aleatorios . . . . . . . . . . . . . . . . . . . . . . . . 132
7.2. Desestimación de medidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.2.1. El ensayo de la Q de Dixon . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
7.2.2. La técnica de la τ de Thompson modificada . . . . . . . . . . . . . . . . . . 136
7.3. Cálculo de errores de medidas indirectas . . . . . . . . . . . . . . . . . . . . . . . . 138

I Apéndices 141
A. Tablas estadísticas 143
A.1. Área bajo la curva normal tipificada . . . . . . . . . . . . . . . . . . . . . . . . . . 143
A.2. Valores de las percentilas tp para un distribución t de Student con ν grados de lbertad 145
A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad146
A.4. Valores de las percentilas F0,95 (ν1 , ν2 ) para un distribución F . . . . . . . . . . . . . 147
A.5. Valores de las percentilas F0,99 (ν1 , ν2 ) para un distribución F . . . . . . . . . . . . . 148

3
0.0 Índice general

4
1

Errores, incertidumbres, precision y exactidud.

Contenidos ✍ Errores e incertidumbres. Concepto de error. Tipos de errores. Error


de escala y resolución. Exactitud y precisión.
✍ Cifras y dígitos significativos. Normas de redondeo y truncamiento.

Objetivos ✓ Errores e incertidumbre

☞ Comprender el concepto de error

☞ Distinguir entre los errores sistemáticos y aleatorios

☞ Reconocer el error de escala

☞ Comprender los conceptos de precisión, exactitud y sesgo

✓ Cifras significativas

☞ Determinar el número de cifras significativas de un número

☞ Escribir correctamente un número en notación científica

☞ Redondear correctamente un resultado

5
1.1 1.1. Errores e incertidumbres

1.1. Errores e incertidumbres


En la determinación experimental de una magnitud no podemos definir error como la diferencia
entre el valor observado de la magnitud y su valor real: no conocemos este supuesto valor real sólo
disponemos de aproximaciones a ese valor obtenidas en otros experimentos o a partir de predicciones
teóricas. Sin embargo, podemos acotar el intervalo de valores que puede asumir esa magnitud al
realizar la medida.
Suponga que conocemos el valor real del observable1 , A. A la diferencia entre el valor del obser-
vable A y el valor obtenido en la medida, ai , la denominaremos error absoluto, ei :

ei = |A − ai | (1.1)
Como es imposible determinar A, no podemos determinar ei . Lo que si podemos hacer es estimar
el intervalo de valores en que esperamos encontrar A de modo que la diferencia entre la medida, ai , y
A sea menor o igual que un cierto error, εi :

εi = |A − ai | (1.2)

A − ai ≤ ε i ≥ A + ai (1.3)
Así, es conveniente representar el valor real que intentamos aproximar (y no conocemos) con un
intervalo centrado en la medida ai :

A = ai ± ε i (1.4)

εi es el error absoluto o incertidumbre de la medida.


Podemos distinguir tres tipos de contribuciones a la disparidad entre las observaciones experimen-
tales y el valor real:

errores ilegítimos

errores sistemáticos

errores aleatorios

Los errores ilegítimos2 son aquellos causados por errores de cálculo o en la realización del expe-
rimento. Afortunadamente estos son fácilmente detectables, ya sea porque el resultado de la medida
es un valor físicamente improbable o porque los resultados difieren considerablemente de otras deter-
minaciones. Estos errores se corrigen repitiendo las operaciones erroneas o el experimento.
Los errores sistemáticos (o determinados) son aquellos que afectan a las distintas medidas de un
modo previsible. Su determinación no es siempre fácil, puesto que no siempre es posible estimar su
efecto y sólo pueden detectarse mediante un análisis detallado del procedimiento experimental. Si el
tipo y magnitud de este error es conocido, la medida puede ser corregida para compensar por este
1
observable: propiedad que puede medirse experimentalmente
2
También llamados errores groseros o accidentales

6
1 1.Errores, incertidumbres, precision y exactidud.

error. En otros casos la incertidumbre asociada a este efecto ha de ser estimada y combinada con
aquella asociada a los errores aleatorios.

Un caso particular de error sistemático es el error de escala. Este resulta de la capacidad limitada,
resolución, para distinguir dos valores muy próximos de la magnitud medida. La resolución es por
tanto una característica del instrumento y siempre tiene un valor distinto de cero. Salvo que el cons-
tructor indique lo contrario, su valor puede estimarse como un medio de la unidad que corresponde
a las divisiones más próximas de la escala (lectura analógica) o a los cambios más pequeños de un
contador (lectura digital).

Ejemplo 1. Error de escala


Considere un termómetro con una graduación en divisiones de decimas de grado. El error de
escala puede estimarse como en 0.05 o C.
Este error es constante y afecta a todos las medidas efectuadas. Así, si leemos una temperatura
de 36.5 o C, al tener en cuenta la resolución del termómetro, podemos expresar el valor de la
temperatura como 36.50 ± 0.05 o C. Es decir, la temperatura está comprendida entre 36.45 y
36.55 o C.

Ejemplo 2. Error sistemático


Para una determinación de una longuitud se utilizó un metro de aluminio.
Las medidas fueron realizadas a una temperatura de 20 o C, obteniendose una media de las me-
didas de 1.982 m.
Tras completar el experimento se advirtió que el metro se habia calibrado a 25 o C y que el
aluminio utilizado tenia un coeficiente de expansión lineal de 0.005 m.o C−1 . Es decir, las lecturas
del metro a 20 o C no son correctas.

7
1.2 1.1. Errores e incertidumbres

¿Pueden corregirse el resultado obtenido?. Para corregir el error tendemos en cuenta como afecta
la temperatura a las medidas del metro:

l(T ) = l(25o C) × (1 − 0,005T )


donde l(T ) es la longitud del metro a distintas temperaturas, y T la temperatura en grados Cel-
sius.
Utilizando esta ecuación se obtiene que el valor de la longitud es 1.977± 0.005 m. Este valor
difiere del valor sin corregir.

Los errores aleatorios (accidentales o indeterminados) son debidos a factores que sufren pequeñas
variaciones durante la medida y que hacen que medidas sucesivas de la misma magnitud difieran.
Por ejemplo, el resultado de una pesada en una balanza de precisión puede verse afectado por las
vibraciones del platillo, las vibraciones producidas por otros aparatos presentes en el laboratorio,
etc. En general la fuente de estos errores no es conocida y por su carácter aleatorio pueden tratarse
estadísticamente.
La figura 1.1. muestra el efecto de errores sistemáticos y accidentales sobre el resultado de una
medida.
Algunas definiciones relacionadas con los errores son:
exactitud segun la ISO [3] se define como "grado de concordancia entre el resultado de un ensayo y
el valor de referencia aceptado". Tiene en cuenta todas las fuentes de error del experimento.
precisión propiedad relacionada con la magnitud de los errores aleatorios. Cuanto mayor es la preci-
sión, menor es la magnitud de los errores aleatorios.
sesgo medida del error sistemático. Unas medidas sesgadas tienden a ser mayores o menores que el
valor de referencia.

Ejemplo 3. Precisión y sesgo


La tabla recoge los resultados de volumetrías de 10 ml de NaOH 0.1 M con HCl 0.1 M realizadas
por distintos experimentadores. Teniendo en cuenta, la media, desviación típica y la distribución
de los datos podemos describir la exactitud, precisión y sesgo de los datos [3, tabla 1.1].

experimentador volumen (ml) precisión y sesgo


A 10.08 10.11 10.09 10.10 10.12 preciso sesgado
B 9.88 10.14 10.02 9.80 10.21 impreciso insesgado
C 10.19 9.79 9.69 10.05 9.78 impreciso sesgado
D 10.04 9.98 10.02 9.97 10.04 preciso insesgado

En general, los errores sistemáticos y accidentales tienen distinta fuentes y pueden ser tratados
independientemente, la incertidumbre de una medida puede expresarse como

εtotal = εsistematica + εaleatorio (1.5)

8
1 1.Errores, incertidumbres, precision y exactidud.

Figura 1.1: Comparación de errores sistemáticos y accidentales. Los errores sistemáticos están asocia-
dos con la exactitud de la medida mientras que los errores accidentales o aleatorios con su precisión.

Figura 1.2: Distribución de las medidas de la tabla del ejemplo 3 [3, figura1]

9
1.2 1.2. Cifras o digitos significativos

1.2. Cifras o digitos significativos


Para indicar el valor de una magnitud experimental se han de proporcionar el máximo número de
cifras significativas que permita la precisión del experimento.
Cualquier número en valor absoluto puede expresarse como una serie de potencias


X
|x| = αi 10m (1.6)
m=i

donde αm es un dígito del 0 al 9, e i es un entero tal que

|x|
1 ≤ ≤ 10 (1.7)
10i
Las cifras significativas se definen como:

1. el dígito menos significativo es aquel no nulo más a la izquierda

2. el dígito más significativo es aquel más a la derecha que tenga el mismo orden de magnitud que
la incertidumbre del experimento

3. el número total de dígitos significativas comprende todos aquellos que van del dígito más al
menos significativo

Ejemplo 4. Número de cifras significativas


¿Cuantas cifras significativas tiene el número 0, 00370?.
En el número 0, 00370 los tres primeros dígitos no son significativos puesto que sólo sirven para
indicar el orden de magnitud de la medida.
El último cero si es significativo puesto que el número 0,00370 es diferente a 0, 00369, 0, 00371,
0, 00372, . . . . El número tiene 3 cifras significativas.
Note que 0,00370 es diferente a 0,0037 porque este número sólo tiene dos cifras significativas.

Una consecuencia del resultado del ejemplo anterior es que hay que tener cuidado cuando escribi-
mos el resultado de una medida en distintas unidades. Hay que tener cuidado con el número de cifras
significativas. Por ejemplo, el equivalente en gramos de 3,2 Kg es 3,2 103 g no 3200 g. Esta número
no es correcto puesto que supondría que el resultado del peso en Kg lo conocemos con cuatro cifras
significativas.
Un método que evita ambigüedades a la hora de determinar que cifras son significativas es expre-
sar los números en notación científica. En esta notación el número se expresa como el producto de
otro número (mantisa) que contiene las cifras significativas, la primera de las cuales ocupa la columna
de las unidades, por una potencia de diez.

10
1 1.Errores, incertidumbres, precision y exactidud.

Ejemplo 5. Notación científica


El número 150000 puede expresarse en notación científica como

1.5 105 → si tiene dos cifras significativas.

1.50 105 → si tiene tres cifras significativas.

1.500 105 → si tiene cuatro cifras significativas.

Cuando una magnitud se calcula con un número de cifras superior al de cifras significativas con-
viene suprimir las no significativas. A este procedimiento se le denomina redondeo. Al suprimir estas
se introduce un error (error de truncamiento) que afectará a las operaciones en las que se incluya esta
magnitud. Este error ha de minimizarse, e intentar mantenerlo por debajo de la incertidumbre de la
medida. Para ello seguiremos las reglas siguientes:

1. Si el primer dígito despreciado es menor que 5 no se modifica el dígito más significativo.

2. Si el primer dígito despreciado es mayor que 5 se suma uno al dígito más significativo.

3. Si el primer dígito despreciado es 5, suma uno al dígito más significativo si éste es impar; no se
modifica en caso contrario. Aunque esta regla parezca arbitraria, se puede demostrar que de no
usarse esta u otra similar, induciríamos un error sistemático.

Otra regla a tener en cuenta al determinar las cifras significativas supone que si no se proporciona
ningún dato relativo a la incertidumbre de la medida consideramos que todas sus cifras son signi-
ficativas y que estas son el mayor número que se puede leer con la escala del aparato usado en la
medida.

Ejemplo 6. Redondeo y truncamiento


Redondee los siguientes número al número de cifras significativas adecuado:

7,56128 ± 0,02 →7,56 ± 0,02


7,56128 ± 0,1 →7,6 ± 0,1
1,2451 ± 0,01 →1,24 ± 0,01
1,245 ± 0,01 →1,24 ± 0,01
1,235 ± 0,01 →1,24 ± 0,01
413,73500 ± 0,05 →(4,1374 ± 0,0005)102

11
1.3 1.3. Ejercicios y problemas

1.3. Ejercicios y problemas


Errores

Cuestión 1.1 Verdadero o falso.


Los errores aleatorios de una medida son impredecibles. Sin embargo, la media de estos errores
es cero.

Cuestión 1.2 Verdadero o falso.


Los errores sistemáticos de una medida pueden permanecer constantes o variar de una manera
predecible (aunque no conozcamos la forma de esa variación).

Cuestión 1.3 Verdadero o falso.


Los errores sistemáticos no pueden eliminarse calculando la media de un conjunto de medidas.

Cuestión 1.4 Eliga la respuesta adecuada


Cuando se resta el blanco a una serie de medidas se intenta eliminar una fuente de error aleato-
rio|sistemático|escala.

Ejercicio 1.1 Una muestra patrón de suero sanguíneo humano contiene 42.0 g de albúmina por litro.
Cinco laboratorios (A-E) realizan cada uno seis determinaciones (en el mismo día) de la concentra-
ción de albúmina, con los siguientes resultados (en gl−1 ):

laboratorio concentración de albumina, gl−1


A 42.5 41.6 42.1 41.9 41.1 42.2
B 39.8 43.6 42.1 40.1 43.9 41.9
C 43.5 42.8 43.8 43.1 42.7 43.3
D 35.0 43.0 37.1 40.5 36.8 42.2
E 42.2 41.6 42.0 41.8 42.6 39.0

Comentar el sesgo, precisión y exactitud de cada uno de estos conjuntos de resultados.


[3, Ejercicio 1]

Ejercicio 1.2 Utilizando la misma muestra y el método del ejercicio anterior, el laboratorio A rea-
liza otras seis determinaciones posteriores de la concentración de albúmina, esta vez en seis días
sucesivos. Los valores obtenidos son 41.5, 40.8, 43.3, 41.9, y 41.7 g.l−1 . Comentar estos resultados.
[3, Ejercicio 2]

Ejercicio 1.3 Se ha determinado cuatro veces el número de lugares de unión por molécula en una
muestra de anticuerpos monoclonados, con resultados de 1.95, 1.95, 1.92 y 1.97.
Comentar el sesgo, precisión y exactidud de estos resultados
[3, Ejercicio 3]

12
1 1.Errores, incertidumbres, precision y exactidud.

Cifras significativas
Cuestión 1.5 Explique la diferencia entre redondeo y trncamiento

Ejercicio 1.4 Indique el número de cifras significativas y exprese en notación cientifica las siguientes
magnitudes:
(a) 12.08 m. (b) 5.43 1012 s−1 (c) 0.12 10−3 cal
(d) 0.0250 g (e) 2500.2 Å (f) 10.5 10 2 eV

Ejercicio 1.5 A partir de los resultados de un experimento se calculo que el valor de la energía de
ionización del rubidio es de 403.028 kJ mol −1 . Por otra parte se estimo que la incertidumbre de
dicho calculo en 0.2 kJmol−1 . Indique el resultado con el número correcto de cifras significativas.

1.3.1. Soluciones a los ejercicios


Errores
Ejercicio 1.1 Los resultados de la media g.l−1 para los laboratorios A-E son: 41.9, 41.9, 43.2, 39.1,
41.5. De aquí:

A - preciso, poco sesgo, media exacta

B - precisión pobre, poco sesgo, media exacta pero no muy fiable

C - preciso pero sesgado a valores altos, exactitud pobre

D - precisión pobre, sesgado a valores bajos, pobre exactitud

E -similar a A, pero el último resultado podría ser un valor anómalo

Ejercicio 1.2 El laboratorio A aún muestra poco sesgo, pero la precisión es más pobre, reflejando
reproducibilidad (es decir, precisión entre días) pero no repetibilidad (precisión dentro de días).

Ejercicio 1.3 El número de posiciones de enlace debe ser un número entero, 2 en este caso, de
manera que los resultados son precisos, pero sesgados a valores bajos. El sesgo no es importante, ya
que pueden de ducirse dos posiciones de enlace.

Cifras significativas
Ejercicio 1.4 (a) Cuatro cifras significativas. → 1.208 101 m.
(b) Tres cifras significativas. → 5.43 1012 s−1 .
(c) Dos cifras significativas. → 1.2 10−4 cal.
(d) Tres cifras significativas. → 2.50 10−2 g.
(e) Cinco cifras significativas. → 2.5002 103 Å.
(f) Tres cifras significativas. → 1.05 103 eV.

Ejercicio 1.5 4,03 ± 0,20 kJ.mol−1

13
1.4 1.4. Lecturas recomendadas

1.4. Lecturas recomendadas


Para completar la preparación de este tema recomendamos la lectura de:

☞ Capítulo 1. Introducción del libro de Miller y Miller[3]. X


El texto es claro y del mismo nivel que el del curso. Aunque el libro está orientado hacia las
aplicaciones de la Quimiometría en Química Analítica, los contenidos son de carácter general.

☞ Introducción del texto de Spiridonov y Lopatkin[7].

☞ Chapter 1. Uncertainties in measurements del libro de Bevington y Robinson[1]

14
2

Teoría estadística de los errores(I). Probabilidad

Contenidos ✍ Introducción. Error aleatorio y probabilidad.


✍ Definición de probabilidad. Espacio muestral y sucesos. Magnitud
aleatoria discreta y continua. Definición empírica de probabilidad. Defini-
ción axiomática de probabilidad.
✍ Funciones de distribución de probabilidad: variables aleatorias dis-
cretas. Función de probabilidad o función de frecuencia. Función de dis-
tribución de probabilidad acumulada.
✍ Funciones de distribución de probabilidad: variables aleatorias
continuas. Función de distribución de probabilidad o de densidad de pro-
babilidad. Función de distribución de probabilidad integrada.
Objetivos ✓ Definición de probabilidadErrores e incertidumbre

☞ Comprender la relación entre el error aleatorio y la probabilidad

☞ Conocer la definición axiomática de probabilidad y las consecuencias


que se derivan de ésta

☞ Comprender la relación entre frecuencia de un suceso y probabilidad de


que este se produzca

✓ Funciones de distribución de probabilidad

☞ Realizar cálculos básicos de probabilidad para variables aleatorias dis-


cretas

☞ Realizar cálculos básicos de probabilidad para variables aleatorias con-


tinuas

15
2.1 2.1. Definición de probabilidad

Como vimos en el tema 1, los errores accidentales son debidos a las fluctuaciones de las distintas
variables que influyen sobre el experimento. Esto se manifiesta en que medidas repetidas en condi-
ciones aparentemente idénticas difieren. Por este carácter aleatorio, los errores accidentales pueden
tratarse estadísticamente.
El objetivo de la teoría estadística de los errores es múltiple: obtener una apreciación óptima del
valor de la magnitud medida, estimar el error accidental en su determinación, verificar si el resultado
es compatible con determinadas hipótesis que puedan establecerse sobre la magnitud que se mide,
etc.
Toda teoría estadística de los errores se basa en dos postulados generales:
(a) la medida experimental de una magnitud es una variable aleatoria que cumple la ley de estabi-
lidad estadística o de los grandes números según la cual las medidas se concentran en torno a un valor
medio, que cuando el número de observaciones es grande (en el límite de infinito) se convierte en un
valor constante, independiente del número de observaciones.
(b) la probabilidad de que observemos un valor distinto del valor medio puede caracterizarse
mediante una función (función de distribución de probabilidad).
La forma concreta de la función de distribución de probabilidad puede ser establecida a partir de
medidas experimentales o, postulada y posteriormente contrastada con los experimentos. Al postular
distintas distribuciones de probabilidad se tendrá una determinada teoría estadística y la interpola-
ción de los resultados experimentales será diferente. Generalmente consideraremos que la función de
distribución que caracteriza nuestras medidas es una función de distribución normal o Gaussiana1 .

2.1. Definición de probabilidad


2.1.1. El espacio muestral
En teoría estadística al conjunto de todos los posibles resultados de una medida se le denomina
espacio muestral, S. Por ejemplo,
(i) En un experimento se miden el número de partículas emitidas por una fuente radiactiva. El
espacio muestral está formado por los números 0, 1, 2, ... Puesto que la magnitud determinada en el
experimento es una magnitud aleatoria discreta, el espacio muestral es un conjunto contable.
(ii) En un experimento se determina el volumen necesario de ácido que hay que utilizar para
alcanzar el punto de equivalencia en una valoración ácido-base. El volumen puede tomar cualquier
valor, tal que V > 0. La magnitud estudiada es una magnitud aleatoria continua y el espacio muestral
puede ser cualquier número real positivo (V > 0) y el espacio muestral es un conjunto no contable.
Cada posible subconjunto del espacio muestral se le denomina suceso, A. Un suceso que corres-
ponde al resultado de una medida constituye un suceso elemental o simple.

2.1.2. Definición empírica de probabilidad


Intuitivamente identificamos la probabilidad de un suceso con la frecuencia con la que esperamos
que este ocurra. Podeamos definir la probabilidad de suceso A, P(A), como la frecuencia con que este
1
Estudiaremos esta función de distribución de probabilidad en el tema 5 Distribuciones de probabilidad de variables
aleatorias continuas

16
2 2.Teoría estadística de los errores(I). Probabilidad

se produce en un experimento. De acuerdo con esta definición

nA
P (A) = (2.1)
N

donde nA es el número de veces que se repite el suceso A, y N es el número total de experimentos.


Aunque esta definición sea suficiente para satisfacer nuestra intuición tiene serias limitaciones.
Entre otras:

P(A) depende del número total de medidas.

P(A) depende del experimento: al repetir el experimento el valor de P(A) puede variar.

Ejemplo 1. Limitaciones de la definición empírica de probabilidad


Para demostrar las limitaciones de la definición empírica de probabilidad examinaremos un ex-
perimento consistente en contar el número de caras que aparecen al lanzar cuatro monedas al
aire.
Para estimar la frecuencia esperada para cada suseso calcularemos el número de veces que espe-
ramos observar un evento,nA , (contar dos caras) frente al número total posibles combinaciones
de caras y cruces.

Número de caras combinaciones nA P (A)

1
0 XXXX 1 16
4
1 CXXX, XCXX 4 16
XXCX, XXXC
6
2 CCXX, CXCX, CXXC 6 16
XCCX, XCXX, XXCC
4
3 CCCX, CXCC, 4 16
CXCC, XCCC
1
4 CCCC 1 16

Utilizando un programa de ordenador se simuló el experimento de lanzar cuatro monedas al


aire un gran número de veces. Para calcular el número de caras que se espera observar en cada
experimento se calculo este como N × P (A).

17
2.1 2.1. Definición de probabilidad

Número de caras 0 1 2 3 4
16 lanzamientos
Esperado 1 4 6 4 1
Experimento 1 2 7 2 4 1
Experimento 2 3 4 4 5 0
160 lanzamientos
Esperado 10 40 60 40 10
Experimento 3 9 40 61 38 12
1600 lanzamientos
Esperado 100 400 600 400 100
Experimento 3 125 403 567 409 96
16000 lanzamientos
Esperado 1000 4000 6000 4000 1000
Experimento 3 1009 3946 5992 4047 1006

En el ejemplo anterior se observa que el acuerdo entre la predicción teórica (número de obser-
vaciones esperadas) y el resultado experimental mejora con el número de ensayos. Esto indica que
conforme el número de experimentos aumenta la frecuencia muestral o experimental se aproxima a
la frecuencia teórica. Este observación ilustra la ley de los grandes números: para valores suficiente-
mente grandes del número de medidas, N, las frecuencias muestrales se aproximan a la probabilidad
conforme aumenta de N.

2.1.3. Definición aximática de probabilidad


Supongamos que tenemos un espacio muestral S. Para cada suceso A de este espacio muestral,
asociamos un número real P(A). Entonces P es una función real que se denomina función de proba-
bilidad y P(A) la probabilidad del suceso A, si se cumplen los axiomas siguientes:

Axioma 1. Para cada suceso A, P (A) ≥ 0.

Axioma 2. Para el suceso cierto o seguro: P (S) = 1.

Axioma 3. Para dos sucesos cualesquiera, A y B, la probabilidad del suceso que se obtenga A o se
obtenga B, P (A ∪ B), viene dada por

P (A ∪ B) = P (A) + P (B) − P (A ∩ B) (2.2)

que se simplifica cuando los sucesos son mutuamente excluyentes ( P (A ∩ B) = 0)

P (A ∪ B) = P (A) + P (B) (2.3)

como se ilustra en el diagramas de Venn de la figura 2.1.


Esta propiedad puede generalizarse a cualquier número de sucesos.

18
2 2.Teoría estadística de los errores(I). Probabilidad

Figura 2.1: Diagrama de Venn que ilustra el significado de P (A ∩ B).

Algunas consecuencias de estos axiomas son:


☞Para cada suceso P(A):
0 ≤ P (A) ≤ 1 (2.4)

es decir la probabilidad de un suceso está entre cero y uno.


☞El suceso imposible tiene probabilidad nula, P (∅) = 0.
☞Si A’ es el suceso complemento de A entonces:

P (A0 ) = 1 − P (A) (2.5)

2.1.4. Probabilidad condicional


La probabilidad de que dos sucesos A y B ocurran simultáneamente, P (A ∩ B), viene dada por

P (A ∩ B) = P (A)P (B|A) = P (B)P (A|B) (2.6)

donde P (B|A) es la probabilidad condicional de que suceda B si ha ocurrido A.


Si A y B son sucesos independientes, P (B|A) = P (B),

P (A ∩ B) = P (A) × P (B) (2.7)

19
2.2 2.2. Funciones de distribución de probabilidad.

Ejemplo 2. Calculos con probabilidades condicionales


Suponga que dispone de una bolsa con tres bolas rojas y cuatro bolas azules. Calcule la proba-
bilidad de extraer una bola roja y después una azul, si (a) no reemplaza la bola extraída, y (b) se
reemplaza la bola extraída.
(a)
3 4
P (R1 ∩ A2 ) = P (R) P (A|R) = × = 0,29
7 6
bolas rojas 3
P (R) = =
bolas 7
bolas azules 4
P (A|R) = =
bolas 6
(b)
3 4
P (R1 ∩ A2 ) = P (R) P (A|R) = = P (R) P (A) = × = 0,24
7 7
bolas rojas 3
P (R) = =
bolas 7
bolas azules 4
P (A|R) = =
bolas 7

2.2. Funciones de distribución de probabilidad.

Debido a los errores aleatorios los resultados de medidas realizadas en idénticas condiciones pro-
ducen valores distintos. Esto supone que las medidas experimentales son magnitudes aleatorias.
De acuerdo con los posibles resultados de la medida podemos tener:
Magnitudes discretas: pueden tomar valores discretos y corresponden a variables aleatorias
discretas.
Magnitudes continuas pueden tomar cualquiera de los valores de un intervalo finito o infinito
y corresponden a variables aleatorias continuas..
En la primera categoría entra un experimento de conteo de fotones. En este se mide el número
de fotones que cuenta un fotomultiplicador en la unidad de tiempo. Este sólo puede ser un número
natural: 0,1,2,..., 200, . . . , puesto que no podemos contar fracciones de fotón. A la segunda categoría
pertenecen las medidas de conductividad de una disolución de electrolitos que pueden tomar cualquier
valor dentro de un intervalo: el resultado de la medida es un número real.
En adelante para hacer referencia a la magnitud aleatoria utilizaremos letras mayúsculas, mientras
que para los resultados de un experimento utilizaremos letras minúsculas.

20
2 2.Teoría estadística de los errores(I). Probabilidad

2.2.1. Distribuciones de probabilidad de variables aleatorias discretas.


Sea X una variable aleatoria discreta. Supongamos que los valores que puede tomar estan dados
por x1 , x2 , x3 , . . . ordenados en orden creciente de valor.
La probabilidad de obtener el valor xi , P (xi ), viene dada por

P (xi ) = f (xi ) (2.8)

donde f (xi ) es la función de probabilidad o función de frecuencia de X.


De acuerdo con la definición axiomática de probabilidad, f (xi ) cumple:

f (xi ) ≥ 0 (2.9)

N
X
f (xi ) = 1 (2.10)
i=1

donde N es el número total de posibles valores que puede tomar xi .


Se define como función de distribución probabilidad acumulada o función de distribución de X,
F (xk ) a la probabilidad de que la variable aleatoria tome un valor x tal que x ≤ xk ,

F (xk ) = P (X ≤ xk ) (2.11)

donde xk es cualquier número real en el intervalo - ∞ < x < +∞.


Es importante que tenga en cuenta que cuando trabajamos con magnitudes aleatorias discretas:

f (xi ), función de probabilidad o función de frecuencia de X. Probabilidad de que la variable


aleatoria X tome el valor xi

F (xi ): función de distribución probabilidad acumulada. Probabilidad de que la variable alea-


toria X tome cualquier valor, xj que cumpla xj ≤ xi

¿Cómo se calcula F (xk )?


F(xk ) se puede calcular a partir de f(x) como
X
F (xk ) = f (xi ) (2.12)
xi ≤xk

F (xk ) es una función monótona creciente.

21
2.2 2.2. Funciones de distribución de probabilidad.

Si X toma únicamente un número finito de valores x1 , x2 , x3 , . . . xk entonces la función de distri-


bución acumulada viene dada por:


 0 −∞ < xk < x1
f (x ) −∞ < xk < x2

1



f (x1 ) + f (x2 ) −∞ < xk < x3



F (xk ) = ... ... (2.13)
f (x ) + f (x ) + · · · + f (x ) −∞ < x < x

1 2 n k n+1



. . . . . .




1 xk < +∞

Ejemplo 3. Cálculo de la función de distribución de probabilidad acumulada, F (xk ), de


una variable aleatoria discreta
Considere la variable aleatoria X="número de caras que se obtiene al lanzar cuatro monedas al
aire".
Determinar las funciones de probabilidad y de distribución de X.

x 0 1 2 3 4
1 4 6 4 1
f (x) 16 16 16 16 16

F (xk ) puede obtenerse a partir de f (x) utilizando la ecuación 2.12


X
F (xk ) = f (xi )
xi ≤xk

x<0 x<1 x<2 x<3 x<4 x≥0


1 5 11 15
F (x) 0 16 16 16 16
1

22
2 2.Teoría estadística de los errores(I). Probabilidad

Figura 2.2: Funciones de probabilidad, f (xi ) y de distribución de probabilidad acumulada, F (xk )


para el ejemplo 3.

23
2.2 2.2. Funciones de distribución de probabilidad.

2.2.2. Distribuciones de probabilidad de variables aleatorias continuas


Sea una variable continua X. La función de distribución de probabilidad o función de densidad
de probabilidad , f (x), proporciona la probabilidad de que la magnitud aleatoria se encuente en el
intervalo [x, x + dx]

P (x ≤ X ≤ x + dx) = f (x) (2.14)

De acuerdo con la definición axiomática de probabilidad, f (x) cumple:

f (x) ≥ 0 (2.15)

Z +∞
f (x)dx = 1 (2.16)
−∞

La probabilidad de que X se encuentre en el intervalor [a, b] viene dada por


Z b
P (a ≤ X ≤ b) = f (x)dx (2.17)
a

Es importante tener en cuenta que para una variable aleatoria continua, P (X = xi ) = 0,

P (a ≤ X ≤ b) = P (a ≤ X < b) = P (a < X ≤ b) = P (a < X < b) (2.18)

Figura 2.3: Funciones de densidad de probabilidad, f (x) de una variable aleatoria continua. Signifi-
Rb
cado de P (a ≤ x ≤ b) = a f (x)dx.

24
2 2.Teoría estadística de los errores(I). Probabilidad

Por analogía con las funciones de distribución de probabilidad discretas se puede definir la función
de distribución de probabilidad integrada de una variable aleatoria continua, F (xi ), continua como:
Z xi
F (xi ) = P (X ≤ xi ) = P (−∞ ≤ X ≤ xi ) = f (u)du (2.19)
−∞

A partir de esta definición se pueden obtener las siguientes relaciones:

Z b Z b Z a
P (a ≤ X ≤ b) = f (x)dx = f (x)dx − f (x)dx = F (b) − F (a) (2.20)
a −∞ −∞

P (X > a) = 1 − P (X ≤ a) = 1 − F (a) (2.21)

ya que x>a es el suceso complementario a x ≤ a.


Algunas propiedades de F(x) son:

En todo el intervalo en que f(x) es continua,

dF (x)
f (x) =
dx

Si x2 >x1 tendremos que F(x2 ) >F(x1 ). Es decir F(x) es monótona creciente.

F (−∞) = 0 y F (+∞) = 1

Figura 2.4: Funciones de distibución de probabilidad, F (x). Significado de P (a ≤ x ≤ b) = F (b) −


F (a)

25
2.2 2.2. Funciones de distribución de probabilidad.

Ejemplo 4. Cálculo de la constante de normalización de una función de distribución de


probabilidad, f (x), de una variable aleatoria continua
Hallar la constante c para que la función de densidad de probabilidad

 0 x<0
f (x) = cx2 0 ≤ x ≤ 3
0 x>3

sea una función de distribución de probabilidad y calcular P(1<x<2).


Para que f(x) sea una función de distribución de probabilidad debe cumplir la condición (ver
ecuación 2.16)
Z +∞
f (x)dx = 1
−∞

Sustituyendo en la ecuación 2.16


Z +∞ Z 3
3
21 3
f (x)dx = c x dx = cx = 9 c = 1
−∞ 0 3 0

se obtiene que c = 1/9.


Utilizando la ecuación 2.17
Z b
P (a ≤ X ≤ b) = f (x)dx
a
se obtiene
Z 2
2
1 2 1 3 7
P (1 ≤ X ≤ 2) = x dx = x =
1 9 27 1 27

Ejemplo 5. Cálculo de la función de distribución de probabilidad integrada, F (x), de una


variable aleatoria continua
Sea x una variable aleatoria con función de densidad de probabilidad normalizada


 0 x<0
1−x 0≤x≤1

f (x) =

 x−1 1≤x≤2
0 x>2

(a) Determine F(x), (b) calcule P (0 ≤ X ≤ 1) y (c) P (x = 0, 1/2, 1, 3/2, 2).

26
2 2.Teoría estadística de los errores(I). Probabilidad

(a) Para calcular F(x) utilizaremos la ecuación 2.19


Z x
F (x) = f (u)du
−∞

Para x < 0, F (x) = 0.


En el intervalo 0 ≤ x ≤ 1,
Z x Z x
x
1 2 1
F (x) = f (u)du = (1 − u) du = t − t = x − x2
−∞ −∞ 2 0 2
En el intervalo 1 ≤ x ≤ 2,

Z x Z 1 Z 2
F (x) = f (u)du = (1 − u) du + (u − 1) du
−∞ −∞ 1
1 x
1 2 1 2 1
= t − t + t − t = x2 − x + 1
2 0 2 1 2

En el intervalo x > 2,F (x) = 1, ya que la función de densidad de probabilidad está normalizada.


 0 x<0
1 2
x − 2x 0≤x≤1

F (x) = 1 2
x −x+1 1≤x≤2
 2


1 x>2
(b) Teniendo en cuenta que - ecuación 2.20

P (a ≤ X ≤ b) = F (b) − F (a)

P (0 ≤ X ≤ 1) = F (1) − F (0) = 0,5


(c) P (x = 0, 1/2, 1, 3/2, 2) = P (0) + P (1/2) + P (3/2) + P (2) = 0, por ser la variable x una
variable continua.

27
2.2 2.2. Funciones de distribución de probabilidad.

Ejemplo 6. Cálculo f (x) a partir de F (x)


Sea x una variable aleatoria con función de distribución de probabilidad


 0 x<0
1 2
x 0≤x≤1

F (x) = 2
1 2

 2x − 2 x − 1 1 ≤ x ≤ 2
1 x>2

Hallar f(x)


 0 x<0
dF (x)  x 0≤x≤1
f (x) =
dx 
 2−x 1≤x≤2
0 x>2

Concepto de cuantila
Finalmente, se define como la β cuantila, xβ , el valor de la variable aleatoria X para el que se
cumple

F (xβ ) = P (x ≤ xβ ) = β (2.22)
Habitualmente se utilizan las 100β percentila. Por ejemplo, la cuantila 0.1 (o la percentila 10)
corresponde al valor de la variable aleatoria, x0,1 , tal que F (x0,1 ) = 0,1.

28
2 2.Teoría estadística de los errores(I). Probabilidad

2.3. Ejercicios y problemas


Funciones de distribución de probabilidad
Cuestión 2.1 Elija la mejor respuesta.
Considere una variable alatoria continua X. La función de distribución o densidad de probabilidad,f (x),
proporciona:
(a) f (x) = P (X = x)
(b) f (x) = P (x < X < x + dx)
(c) f (x) = P (x ≤ X < x + dx)
(d) f (x) = P (x < X ≤ x + dx)
(e) f (x) = P (x ≤ X ≤ x + dx)
(e) f (x) = P (x ≤ X)
(f) Las respuestas b,c,d,e son correctas, ya que son equivalentes
(g) Ninguna de las anteriores. La respuesta correcta es .........

Cuestión 2.2 Verdadero o falso. Jusitfique la respuesta.


Para una variable alatoria continua X, P (X = xi ) = 0

Cuestión 2.3 Indique las respuesta o respuestas correctas.


Considere una variable alatoria continua X con función de densidad de probabilidad f (x), P(X<a)
viene dado por
Ra Ra R∞
(a) −∞
f (x)dx (b) 1 − −∞
f (x)dx (c) a
f (x)dx
R∞
(d) 1 − a
f (x)dx (e) F (a) (e) 1 − F (a)

(f) Ninguna de las anteriores.

Ejercicio 2.1 Dada la función de densidad de probabilidad



 0 x<0
1 2
f (x) = x 0≤x≤3
 9
0 x>3
(a) Encuentre la función de distribución, F(x), correspondiente. (b) Utilice este resultatado para
calcular P (1 ≤ x ≤ 2).

Ejercicio 2.2 La función de distribución de la variable aleatoria X es



0 x<0
F (x) =
1 − e−2x x ≥ 0
(a) Encuentre la función de densidad, f(x), correspondiente. (b) Utilice las funciones de distribución
y densidad para calcular la probabilidad de que X>2. (c) Utilice las funciones de distribución y
densidad para calcular la probabilidad de que −3 ≤ X ≤ 4.

29
2.3 2.3. Ejercicios y problemas

Ejercicio 2.3 Una variable aleatoria X tiene una función de densidad


c
f (x) =
x2 + 1
donde −∞ < x < ∞
(a) Encuentre el valor de la constante c. (b) Encuentre la probabilidad de que X2 se encuentre
entre 1/3 y 1.

Ejercicio 2.4 Dada la función de distribución de probabilidad



 0 x<a
f (x) = k a≤x≤b
0 x>b

Determine el valor de k. ¿Qué valor tendrán esta magnitud si a = -e y b = e?.

2.3.1. Soluciones a los ejercicios


Funciones de distribución de probabilidad
Ejercicio 2.1 (a) 
 0 x<0
x3
F (x) = 27
0≤x≤3
1 x>3

7
(b) 27

Ejercicio 2.2 (a)



0 x<0
f (x) =
2e−2x x ≥ 0
(b) e−4 . (c) 1 − e−8

Ejercicio 2.3 (a) De acuerdo con la ecuación 2.16


Z +∞
f (x)dx = 1
−∞

Z +∞
c −1 ∞
h π  π i
dx = c tan x −∞ = c − − = 1
−∞ x2 + 1 2 2
c = 1/π √ √
(b) Si 13 ≤ X 2 ≤ 1, los valores de X pueden estar en los intervalos − 33 ≤ X ≤ −1 y 3
3
≤X≤
1.
Por lo tanto la probabilidad requerida es

30
2 2.Teoría estadística de los errores(I). Probabilidad

√ √ √
3 3 3
Z − Z Z
1 3 dx 1 3 dx 2 3 dx
=
π −1 x2 + 1 π 1 x2 + 1 π x2 + 1
"1 √ #
2 3
= tan−1 (1) − tan−1 ( )
π 3
2 hπ π i 1
= − =
π 4 6 6

2.4. Lecturas recomendadas


Para completar la preparación de este tema recomendamos la lectura de:

☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].


X
Repasa los conceptos básicos de probabilidad y función de distribución de propabilidad. Ade-
cuado para revisar la teoría del tema.

☞ Capítulo 2. Variables aleatorias y distribución de probabilidad del libro de Spiegel y cols.[5].


En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las
distribuciones de probabilidad conjunta, ... Se recomienda revisar las secciones cuyos conteni-
dos coinciden con los del curso: Variables aleatorias. Distribuciones de probabilidad discreta.
Funciones de distribución para variables aleatorias. Funciones de distribución para variables
aleatorias discretas. Funciones de distribución para variables aleatorias continuas. Interpreta-
ciones gráficas.
También se recomienda la realización de los ejercicios suplementarios 2.47 a 2.53.X

☞ Tema 2. Variables aleatorias y distribuciones de probabilidad. del texto de Walpole y Myers[6].


Se recomienda la consulta de las secciones: 1.Concepto de variable aleatoria; 2. Distribución
discreta de probabilidad; 3. Distribución continua de probabilidad; y 4. Distribuciones empíri-
cas.

31
3

Teoría estadística de los errores(II). Esperanza matemática

Contenidos ✍ Esperanza matemática de una magnitud aleatoria Definición de es-


peranza matemática. Propiedades de la esperanza matemática Momentos
de una distribución. Media y varianza.
✍ Propiedades generales y propiedades muestrales de una magnitud
aleatoria Media general de una magnitud aleatoria, µ. Media muestral
de una magnitud aleatoria, x̄. Varianza de una magnitud aleatoria, σ 2 (x).
Dispersion o varinza muestral de una magnitud aleatoria, s2 (x).

Objetivos ✓ Comprender el concepto de esperanza matemática


✓ Calcular la esperanza matemática , E {y(x)}, de una función y(x) de una
variable aleatoria discreta conocida f(x)
✓ Calcular la esperanza matemática , E {y(x)}, de una función y(x) de una
variable aleatoria continua conocida f(x)
✓ Conocer y utilizar las propiedades de la esperanza matemática
✓ Calcular los momentos de orden k respecto del parámetro c, Mk de una
variable aleatoria discreta o continua
✓ Distinguir entre magnitudes generales y mmuestrales
✓ Comprender la diferencia entre mux y x̄
✓ Comprender la diferencia entre σ 2 (x) y s2 (x)
✓ Evaluar mux y σ 2 (x) de una magnitud aleatoria
✓ Calcularla media y la varianza muestral de un conjunto de medidas

33
3.1 3.1. Esperanza matemática de una magnitud aleatoria

3.1. Esperanza matemática de una magnitud aleatoria


3.1.1. Magnitudes aleatorias discretas
Sea una magnitud aleatoria discreta, x, y una función y(x). Si f (x) es la función de distribución
de probabilidad de la variable x, se define como esperanza matemática de la función y(x),
k
X
E {y(x)} = y(xi ) · f (xi ) (3.1)
i=1

donde la suma se extiende a todos los posibles valores de x.

3.1.2. Magnitudes aleatorias continuas


Sea una magnitud aleatoria continua, x, y una función y(x). Si f (x) es la función de densidad de
probabilidad de la variable x, se define como esperanza matemática de la función y(x),
Z ∞
E {y(x)} = y(x) · f (x) dx (3.2)
−∞

donde la suma se extiende a todos los posibles valores de x.

3.1.3. Propiedades de la esperanza matemática


Algunas propiedades de la esperanza matemática son:

Si c es una constante (magnitud no aleatoria) tendremos que

E {c} = c (3.3)

E {c y(x)} = c · E {y(x)} (3.4)

Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes

x = x1 + x2 + . . . + xn (3.5)

su esperanza matemática es la suma de la esperanza matemática las n magnitudes sumadas

E {x} = E {x1 } + E {x2 } + . . . + E {xn } (3.6)

34
3 3.Teoría estadística de los errores(II). Esperanza matemática

Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes

y = f (x1 , x2 , . . . , xn ) (3.7)

que varia poco en intervalos pequeños de variación de los argumentos, el valor de E {y} es
aproximadamente

E {y} = f (E {x1 } , E {x2 } , . . . E {xn }) (3.8)

3.1.4. Momentos de una distribución.


Dada una variable aleatoria, x, discreta o continua, se llama momento de orden k respecto del
parámetro c, Mk a las esperanza matemática de la variable (x − c)k

Mk = E (x − c)k

(3.9)

Si c = 0 tenemos los momentos respecto del origen a los que suele representarse por αk

αk = E (x)k

(3.10)

Dos momentos de importantes son α0 = 1 y α1 = µX (valor medio de x o media de x).

α0 = E (x)0 = E {1} = 1

(3.11)

α1 = E (x)1 = E {x} = µx

(3.12)

Si c = µX hablamos de momentos centrales o momentos respecto de la media. Suele represetarse


por µk y vienen dados por

µk = E (x − µx )k

(3.13)

Momentos de importantes son µ0 = 1, µ1 = 0 y µ2 = σx2 (varianza de x).

µ2 = E (x − µx )2 = σx2

(3.14)

35
3.1 3.1. Esperanza matemática de una magnitud aleatoria

Ejemplo 1. Cálculo de la media y la varianza de una variable aleatoria discreta


Considere la variable aleatoria X que tiene la siguiente función de distribución de probabilidad

x 8 12 16 20 24
1 1 3 1 1
f (x) 8 6 8 4 12

Cálcule la media y la varianza de X.


La media viene dada por la ecuación 3.12

µx = E {x}
Sustituyendo
X 1 1 3 1 1
µx = x · f (x) = 8 · + 12 · + 16 · + 20 · + 24 · = 16
8 6 8 4 12
La varianza viene dada por la ecuación 3.14

σx2 = E (x − µx )2


X
σx2 = E (x − µx )2 = (x − 16)2 · f (x)


1 1 3 1 1
= (8 − 16)2 ·+ (16 − 12)2 · + (16 − 16)2 · + (20 − 16)2 · + (24 − 16)2 ·
8 6 8 4 12
1 1 3 1 1
= 64 · + 16 · + 0 · + 16 · + 64 ·
8 6 8 4 12
= 20

La varianza también viene dada por

σx2 = E (x2 ) − µ2x




X 1 1 3 1 1
E x2 = x2 · f (x) = 64 · + 144 · + 256 · + 400 · + 24 ·

= 276
8 6 8 4 12

σx2 = E (x − µx )2 = 276 − (16)2 = 276 − 256 = 20




Como muestran los resultados los dos métodos utilizados para calcular la varianza son equiva-
lentes.

36
3 3.Teoría estadística de los errores(II). Esperanza matemática

Ejemplo 2. Cálculo de la media y la varianza de una variable aleatoria continua


Sea la variable aleatoria X que tiene por función de densidad

0 −∞ < a < x
dF (x) 
f (x) = k a<x<b
dx 
0 x<b
Calcular la media y la varianza de X.
Antes de poder calcular la media y la varianza tenemos que determinar el valor de k.
Para que f(x) sea una función de densidad de probabilidad debe cumplir (ver ecuación 2.16)
Z +∞
f (x)dx = 1
−∞

Es decir,
Z b
kdx = k · (b − a) = 1
a

por tanto k = 1/(b − a)


La media viene dada por (ecuación 3.12)
Z +∞
µx = E {x} = x · f (x) dx
−∞
Z b
x b+a
µx = dx =
a b−a 2
La varianza viene dada por la ecuación 3.14

σx2 = E (x − µx )2


que es equivalente a

σx2 = E x2 − µ2x


+∞ b
b
x2 1 x3 1 b 3 − a3
Z Z
E x2 = 2

x · f (x) dx = dx = =
−∞ a b−a 3 b − a a 3 b−a
1
σx2 = (b − a)2
12

37
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria

3.2. Propiedades generales y propiedades muestrales de una mag-


nitud aleatoria
De acuerdo con los postulados de la teoría estadística de los errores tras un número suficiente-
mente grande de experimentos, lo valores obtenidos para la magnitud medida tienden a agruparse
alrededor de un valor, y su dispersión alrededor de este valor está caracterizada por una función de
distribución de probabilidad. En general, una vez conocida la forma de la distribución de probabili-
dad, basta para caracterizarla un número limitado de constantes. Estos parámetros que caracterizan
al conjunto de todas las medidas que puedan obtenerse de un experimento en ciertas condiciones se
denominan parámetros poblacionales.
El conjunto de medidas obtenidas en una serie experimentos se denomina muestra. Como el nú-
mero de medidas que componen la muestra normalmente es pequeño, los parámetros que caracterizan
la muestra, propiedades o parámetros muestrales. En general los parámetros muestrales no coinciden
con los parámetros poblacionales. Sin embargo, podemos obtener valores aproximados de losparáme-
tros poblacionales a partir de los parámetros muestrales (estimas) 1 .
Una propiedad de las estimas es que son variables aleatorias mientras que los parámetros po-
blacionales son valores constantes y característicos de la función de distribución de probabilidad
asociada a los errores aleatorios.
Finalmente, una cuestión de notación. En esta sección designaremos las propiedades poblaciona-
les utilizando el alfabeto griego, mientras que utilizaremos el alfabeto latino para propiedades mues-
trales.

Propiedades generales de las estimas


Si T es una estima del parámetro poblacional θ, T debe cumplir entre otros criterios que

E {T } = µT = θ. Esto equivale a decir que la estima T no es una estima sesgada.

La estima es consistente. Es decir, cuanto mayor es el número de medidas utilizadas para cal-
cular T , mayor es la proximidad entre los valores de T y θ

Propiedades muestrales de uso frecuente


Para describir nuestras medidas haremos referencia a dos tipos de propiedades muestrales:

un número alrededor del que las medidas se agrupan: media muestral, x.

un número que da una medida de la dispersión de los valores alrededor de la media: la desvia-
ción típica muestral, s(x).

Utilizaremos la media muestral, x̄ como estima del valor real. Como medida de la incertidumbre
de cada medida utilizaremos la desviación típica de nuestros datos, s(x), mientras que para acotar la
incertidumbre de la estima de la media utilizaremos la desviación típica muestral de la media, s(x̄).
1
Existen distintos métodos para obtener estimas. Algunos de ellos son el método de máxima verosimilitud, el método
de mínimos cuadrados, el método de los momentos y el método Bayesiano. La descripción de estos métodos excede los
objetivos del curso

38
3 3.Teoría estadística de los errores(II). Esperanza matemática

3.2.1. Media general de una magnitud aleatoria


El valor medio de la magnitud aleatoria x para el conjunto general es la esperanza matemática de
la magnitud aleatoria

µx = E {x} (3.15)

3.2.2. Media muestral de una magnitud aleatoria


La media muestral de la magnitud aleatoria x se define como el valor medio de los valores obser-
vados x1 ,x2 , . . . ,xn,
n
x1 + x2 + . . . + xn 1 X
x̄ = = · xj (3.16)
n n j=1

3.2.3. Varianza de una magnitud aleatoria.


La varianza o dispersión de una magnitud aleatoria x se define como la esperanza matemática de
las desviaciones respecto a la media general:

σx2 = E (x − µx )2

(3.17)

Al valor positivo de la raíz cuadrada de la varianza, σ(x), se le llama desviación cuadrática media,
desviación típica o desviación normal.
Algunas propiedades de la varianza son:

Si c es una constante (magnitud no aleatoria) tendremos que:

σ 2 (c) = 0 (3.18)

σ 2 (c x) = c2 σ 2 (x) (3.19)

Si la magnitud aleatoria x es la suma de n magnitudes aleatorias independientes

x = x1 + x2 + . . . + xn (3.20)

la varianza de x es la suma de las varianzas de las n magnitudes sumadas

σ 2 (x) = σ 2 (x1 ) + σ 2 (x2 ) + . . . + σ 2 (xn ) (3.21)

39
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria

Sin embargo,σ(x) viene dado por

p
σ(x) = σ 2 (x1 ) + σ 2 (x2 ) + . . . + σ 2 (xn ) (3.22)

La varianza se puede calcular a partir de los momentos respecto del origen α1 y α2 :

σ 2 (x) = E x2 − µ2x

(3.23)

Si la magnitud aleatoria y es una función no lineal de n magnitudes aleatorias independientes

y = f (x1 , x2 , . . . , xn ) (3.24)

que varia poco en intervalos pequeños de variación de los argumentos, el valor de σ 2 (y) es
aproximadamente

 2  2  2
2 ∂f 2 ∂f 2 ∂f
σ (y) = σ (x1 ) + σ (x2 ) + . . . σ 2 (xn ) (3.25)
∂x1 ∂x2 ∂xn
Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas.

Ejemplo 3. Varianza de una magnitud indirecta


Utilizando un puente de Wheatstone, la resistencia de una disolución de electrolitos, W , puede
calcularse mediante la ecuación
 
1000 − a 1000
W = R· = R· −1
a a
donde R es el valor de una resistencia patrón conocida y a es la lectura de la resistencia que se
obtiene experimentalmente cuando se equilibra el puente de Wheatstone.
Calcule la incertidumbre de W . Considere que la incertidumbre de R es despreciable.
De acuerdo con la ecuación 3.30
 2  2  2
2 ∂f 2 ∂f 2 ∂f
σ (y) = σ (x1 ) + σ (x2 ) + . . . σ 2 (xn )
∂x1 ∂x2 ∂xn
que en nuestro caso se reduce a
 2
2 ∂W
σ (W ) = σ 2 (a)
∂a

40
3 3.Teoría estadística de los errores(II). Esperanza matemática

 
∂W 1000
= −R ·
∂a a2
106 2
σ 2 (W ) = R2 · σ (a)
a4

Ejemplo 4. Varianza de una magnitud indirecta (II)


Determine la incertidumbre en la medida de la entalpia para la reacción

NH3 (g) + 54 O2 (g)  O(g) + 32 H2 O(g) ∆Hr R.1

Considere las reacciones:

H2 O(g)  H2 O(l) ∆H2 R.2

1
N (g)
2 2
+ 32 H2 (g)  NH3 (g) ∆H3 R.3

1
H (g)
2 2
+ 12 O2 (g)  H2 O(g) ∆H4 R.4

1
2
NO(g)  12 N2 (g) + 12 O2 (g) ∆H5 R.5

Utilizando la ley de Hess podemos expresar ∆Hr en función de las entalpias de las reacciones
R.2 a R.5
3 3
∆Hr = − ∆H2 − ∆H3 + ∆H4 − ∆H5
2 2
y de acuerdo con las propiedades de la dispersión muestral, ecuación 3.30, la incertidumbre en
∆Hr es
3 3
σ 2 (∆Hr ) = ( )2 σ 2 (∆H2 ) + σ 2 (∆H3 ) + ( )2 σ 2 (∆H4 ) + σ 2 (∆H5 )
2 2

41
3.2 3.2. Propiedades generales y propiedades muestrales de una magnitud aleatoria

3.2.4. Dispersion o varinza muestral de una magnitud aleatoria


La dispersión muestral de una magnitud aleatoria prodría definirse como

n
1X
s∗2 = (xj − µx )2 (3.26)
n j=1

Esta expresión presupone que conocemos el valor de µx . Como sólo disponemos de una estima de
esta magnitud, la media muestral,x̄. Si sustituimos la media muestral por la media poblacional con lo
que tendriamos:

n
2 1X
s∗ = (xj − x̄)2 (3.27)
n j=1

Sin embargo cuando comprobamos la propiedades de esta estma observamos que la estima de σ(x)2
que obtenemos, s∗2 es una estima sesgada: E{s∗2 } < σ 2 (x).
Podemos obtener una buena estima sustituiyendo N en el cociente en la expresión de s2∗ por el
número de grados de libertad. El número grados de libertad es el número de observaciones indepen-
dientes, es decir aquellas en exceso a las necesarias para determinar los parametros que aparecen en
la ecuación. En este caso, el número de grados de libertad es N-1 pues al menos necesitamos 1 dato
para determinar la media muestral.

n
2 1 X
s (x) = (xj − x̄)2 (3.28)
n − 1 j=1

En este caso E{s2 (x)} = σ 2 (x). s2 (x) es la varianza muestral de x.


Como en el caso de la varianza, si la magnitud aleatoria y es una función no lineal de n magnitudes
aleatorias independientes

y = f (x1 , x2 , . . . , xn ) (3.29)

que varia poco en intervalos pequeños de variación de los argumentos, el valor de s2 (y) es aproxima-
damente

 2  2  2
2 ∂f 2 ∂f 2 ∂f
s (y) ≈ s (x1 ) + s (x2 ) + . . . s2 (xn ) (3.30)
∂x1 ∂x2 ∂xn

Esta propiedad es útil para el cálculo de la incertidumbre de magnitudes complejas o indirectas2 .

2
Cálculos de propagación de errores

42
3 3.Teoría estadística de los errores(II). Esperanza matemática

Ejemplo 5. Calculo de la media y la varianza muestral


En una serie de experimentos para determinar la entalpia neutralización del HCl y NaOH a
300 K se obtuvieron los siguientes valores:

∆H(kcal/mol) : 54,4, 56,4, 57,5, 56,6, 57,0, 56,5, 58,4, 57,0, 55,2
Determine el valor de media y la desviación típica de las medidas.
La media muestral viene dada por la ecuación 3.16
n
x1 + x2 + . . . + xn 1 X
x̄ = = · xj
n n j=1

mientras que la varianza muestral se calcula utilizando la ecuación 3.28


n
2 1 X
s (x) = (xj − x̄)2
n − 1 j=1

Medida xi xi − x̄ (xi − x̄)2


1 54.4 -2.15 4.6225
2 56.4 -0.16 0.0256
3 57.5 0.94 0.8836
4 56.6 -0.04 0.0016
5 57.0 0.44 0.1936
6 56.5 -0.06 0.0036
7 58.4 1.84 3.3856
8 57.0 0.44 0.1936
9 55.2 -1.36 1.8496
SUMA 509.0 0.0 11.593

Sustituyendo en las ecuaciones 3.16 y 3.28 se obtiene x̄ = 509,0/9 = 56,56 kcal.mol−1 .


s2 = 11,1593/8 = 1,3949( kcal.mol−1 )2 y s = 1,18 kcal.mol−1 .
El resultado final ∆H = 56,6 ± 1,2 kcal.mol−1 .

43
3.3 3.3. Mediana y moda

3.3. Mediana y moda


La media, o esperanza, de una variable aleatoria X proporcion una medida de la tendencia central
para los valores de una distribución. Otras medidas de la tendencia central frecuentemente usadas son:

Moda Para una variable aleatoria discreta es el valor que ocurre con más frecuencia o, en el que tiene
la mayor probabilidad de ocurrencia. Algunas veces tenemos dos, tres o más len probabilidades
relativamente grandes de ocurrencia. En tales casos, decimos que la bimodal, trimodal o multi-
modal, respectivamente.
En el caso de una variable aleatoria continua X es el valor o valores de X donde la función de
densidad de probabilidad tiene un máximo relativo.

Mediana Valor de x para el cual P (X < x) = 12 y P (X > x) ≤ 12 . En el caso de una variable


continua tenemos P (X < x) = 12 = P (X > x), y la mediana separa la curva de densidad en
dospartes con áreas iguales de 1/2 cada una. En el caso de una distribución discreta, no existe
una mediana única

44
3 3.Teoría estadística de los errores(II). Esperanza matemática

3.4. Ejercicios y problemas


Cuestión 3.1 Demuestre

µ0 = 1

Cuestión 3.2 Demuestre

µ1 = 0

Cuestión 3.3 Demuestre

σx2 = E x2 − µ2x


Cuestión 3.4 Verdadero o falso. Jusitfique la respuesta.


La media muestral, x̄ es una variable aleatoría

Cuestión 3.5 Verdadero o falso. Jusitfique la respuesta.


La varianza, σ 2 (x) es una variable aleatoría

Cuestión 3.6 Verdadero o falso. Jusitfique la respuesta.


La media µx y la varianza σ 2 (x) son dos propiedas características de una variable aleatoria

Esperanza matemática de una magnitud aleatoria


Ejercicio 3.1 Dada la función de densidad de probabilidad
Sea la variable aleatoria X que tiene por función de densidad

 0
 −∞ < x < 0
dF (x)  x 0≤x<1
f (x) =
dx   2−x 1≤x≤2
0 x>2

Calcular la media y la varianza de X.

Calculo de magnitudes muestrales


Ejercicio 3.2 Al realizar cinco medidas del indice de refracción de una mecla se obtuvieron los
siguientes valores:

1.591, 1.521,1.528,1.570,1.587

45
3.4 3.4. Ejercicios y problemas

Ejercicio 3.3 Los resultados de una serie de medidas de la temperatura con un termometro agrupa-
dos en clases de anchura 0.1 K son

T/K 298 298.1 298.2 298.3 298.4 298.5


Fi 0.2 0.2 0.3 0.1 0.1 0.1

Dibuje el histograma asociado a estos datos.

Ejercicio 3.4 En una serie de experimentos se determino la capacidad de absorber metales pesados
presentes en el medio natural de ciertas especies de pescado. Los siguientes datos corresponden a
medidas de la concentración promedio de cadmio (mg Cd por Kg de pez) para una especie en distintos
bancos del Atlántico.

13.1 8.4 16.9 2.7 9.6 4.5 12.5


5.5 12.7 17.1 10.8 18.9 27.0 18.0
6.4 13.1 8.5 7.5 12.1 8.0 11.4
5.1 5.6 5.5 5.0 10.1 4.5 7.9
7.9 8.9 3.7 9.5 14.1 7.7 5.7
6.5 10.8 14.7 14.4 5.1

Determine la media y la desviación típica de los datos. Dibuje el histograma correspondiente.

Ejercicio 3.5 Una medida de la eficiencia de una torre de destilación es la velocidad de producción
de vapor. En la tabla se recogen una serie de valores correspondientes a esta propiedad.

1170 1620 1495 1170 1710 1710 1530


1260 1440 1800 1170 1260 1170 1640
1800 1800 1530 1350 1800 1530 1170
1440 1530 1260 1350 1350 1350 1440
1170 1710 1620 1350 1730 1800 1800
1530 1440 1620

Determine la media y la desviación típica de los datos. Dibuje el histograma y diagrama de


frecuencias asociado a estos datos. ¿Por debajo de que valor se encuentra el 90 % de los datos?.

3.4.1. Soluciones a los ejercicios


Esperanza matemática de una magnitud aleatoria
Ejercicio 3.1 La media viene dada por (ecuación 3.12)
Z +∞
µx = E {x} = x · f (x) dx
−∞

46
3 3.Teoría estadística de los errores(II). Esperanza matemática

Z 1 Z 2
µx = x · x dx + x · (2 − x) dx
0 1
3 1 3 2

x x 1 2
= + x2 − = + = 1
3 0
3 1 3 3

La varianza viene dada por la ecuación 3.14

σx2 = E (x − µx )2 = E x2 − µ2x
 

Z 1 Z 2
E x2 = 2
x2 · (2 − x) dx

x · x dx +
0 1
4 1 3
2
x4

x 2x 1 14 15 7
= + − = + − =
4 0 3 4 1 4 3 4 6

7 1
σx2 = − (1)2 =
6 6

3.5. Lecturas recomendadas


Para completar la preparación de este tema recomendamos la lectura de:

☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].


X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.

☞ Capítulo 3. Esperanza matemática del libro de Spiegel y cols.[5].


En el capítulo recomendado los autores tratan temas no estudiados en esta asignatura como las
funciones generatrices, ... Se recomienda revisar las secciones cuyos contenidos coinciden con
los del curso.
Se recomienda revisar los ejercicios resueltos 3.1, 3.2, 3.19(a).X

☞ Tema 3.Esperanza matemática. del texto de Walpole y Myers[6].


Se recomienda la consulta de las secciones: 1. Media de una variable aleatoria, 2. Varianza y
covarianza.

47
4

Distribuciones de probabilidad de variables aleatorias discretas

Contenidos ✍ Distribución uniforme Descripción y propiedades.


✍ Distribución binomial Descripción y propiedades. Teorema de Moivre.
✍ Distribución de Poisson Descripción y propiedades. La distribución
de Poisson como límite de la distribución binomial. Convergencia de la
distribución de Poisson a la distribución de Gauss.

Objetivos ✓ Reconocer las características de la distribución uniforme de una variable


aleatoria discreta
✓ Reconocer las características de un experimento de Bernuilli
✓ Realizar calculos de probabilidades de variables aleatorias que siguen un
distribución binomial
✓ Calcular µ y σ de variables que siguen un distribución binomial
✓ Utilizar el teorema de Moivre para calcular probabilidades de resultados de
un experimento de Bernuilli utilizando una distribución normal
✓ Realizar calculos de probabilidades de variables aleatorias que siguen un
distribución de Poisson
✓ Calcular µ y σ de variables que siguen un distribución de Poisson
✓ Utilizar la distribución normal para calcular probabilidades de resultados
de un experimento de Poisson
✓ Utilizar la distribución de Poisson para calcular probabilidades de resul-
tados de un experimento de Bernuilli en el límite de probabilidades de exito
bajas y número de pruebas grande

49
4.2 4.1. Distribución uniforme

4.1. Distribución uniforme


¿Qué variables aleatorias siguen esta función de probabilidad?. Esta distribución de probabilidad
corresponde a variables aleatorias discretas que pueden tormar n valores, xi = x1 , x2 ,..., xn y todos sus
posibles valores tienen la misma probabilidad.
La función de distribución de probabilidad es

1
f (x) = P (X = xi ) = donde i = 1, 2, . . . , n (4.1)
n

La media y la varianza de la distribución vienen dadas por

n+1
µ = (4.2)
2

n2 − 1
σ2 = (4.3)
12

Ejemplo 1. Distribución de probabiblidad uniforme


Considere la variable aleatoria X que corresponde a lanzar un dado y leer la cara superior del
dado. Si el dado no está trucado, todos los resultados tienen la misma probabilidad y la función
de distribución de probabilidad de esta variable aleatoria es

x 1 2 3 4 5 6
1 1 1 1 1 1
f (x) 6 6 6 6 6 6

El diagrama de barras muestra la función de distribución de probabilidad.

50
4 4. Distribuciones de probabilidad de variables aleatorias discretas

4.2. Distribución binomial


¿Qué variables aleatorias siguen esta función de probabilidad?. Las variables que siguen la distri-
bución binomial corresponden a los experimentos que cumplen
tenemos un número fijo n de experimentos (pruebas)
el resultado de cada experimento sólo puede tener dos valores (exito y fracaso)
el resultado de un experimento es independiente de los anteriores y no influye en los posteriores
Estos experimentos también son conocidos como pruebas de Bernuilli.
Sea p (probabilidad de éxito) la probabilidad de que un suceso ocurra en una sola prueba de
Bernuilli y q = 1 − p (probabilidad de fracaso) será la probabilidad de que ocurra el suceso opuesto
. La probabilidad de obtener x éxitos en n ensayos (x éxitos, n − x fracasos) esta dada por la función
de probabilidad
 
n x n−x n!
f (x) = P (X = x) = PB (X = x; n, p) = p q = px q n−x (4.4)
x x!(n − x)!

donde la variable aleatoria X denota el número de éxitos en n pruebas. Esta función de probabilidad
discreta se denomina distribución binomial o de Bernuilli. Una variable aleatoria con está distribu-
ción de probabilidad se dice que está distribuida binomialmente.
La media y la varianza de la distribución vienen dadas por

µ = np (4.5)

σ 2 = npq = np(1 − p) (4.6)

Ejemplo 2. Cálculo de probabiblidades de una variable binomial


Determine la probabilidad de obtener 2 caras en un seis lanzamientos de una moneda al aire.
¿Es este experimento una prueba de Bernuilli?

tenemos un número fijo de experimentos n = 6

el resultado de cada experimento sólo puede tener dos valores (cara, p = 0,5 y cruz,
q = 0,5)

el resultado de cada experimento (lanzar una moneda al aire) es independiente de los


anteriores y no influye en los posteriores

Utilizando la ecuación 4.4 calcularemos la probabildad del resultado


 
6 6!
PB (X = 2; 6, 0,5) = 0,52 0,56−2 = 0,52 0,54 = 15 × 0,25 × 0,0625 = 0,235
2 2!4!

51
4.2 4.2. Distribución binomial

Ejemplo 3. Cálculo de probabiblidades de una variable binomial (II)


Suponga que la probabilidad de que los resultados de un experimento sean aceptables es 0.6.
Si el experimento se repite 5 veces, obtenga la distribución de resultados útiles y determine la
probabilidad de obtener al menos dos resultados útiles.
¿Estamos ante una prueba de Bernuilli?.

tenemos un número fijo de experimentos n = 5

el resultado de cada experimento sólo puede tener dos valores (resultado aceptable, p =
0,6 y resultado no aceptable, q = 0,4). Tenga en cuenta que no nos estamos preguntando
por el valor de la propiedad que medimos, sino por la validez del experimento.

los resultado de cada experimento son independientes entre si

Para deteminar la función de distribución utilizaremos la ecuación 4.4 p = 0,6, q = 1−0,6 = 0,4
yn=5

5 5
 
PB (X = 0; 5, 0,6) = 0
0,60 0,45 = 0,01024 PB (X = 1; 5, 0,6) = 1
0,61 0,44 = 0,07680

5 5
 
PB (X = 2; 5, 0,6) = 2
0,62 0,43 = 0,23040 PB (X = 3; 5, 0,6) = 3
0,63 0,42 = 0,34560

5 5
 
PB (X = 4; 5, 0,6) = 4
0,64 0,41 = 0,2592 PB (X = 5; 5, 0,6) = 5
0,65 0,40 = 0,07776

De modo que la función de distribución de probabilidad viene dada por

x 0 1 2 3 4 5
f (x) 0.01024 0.07680 0.23040 0.34560 0.2592 0.07776

El diagrama de barras muestra la función de distribución de probabilidad.

52
4 4. Distribuciones de probabilidad de variables aleatorias discretas

La probabilidad de realizar más de dos experimentos con resultados aceptables podemos calcu-
larla como

P (X > 2) = P (X = 3) + P (X = 4) + P (X = 5) = 0,6826
También podemos tener en cuenta que el suceso complementario del calculado es obtener X ≤ 2
y utilizando la ecuación 2.5 podemos calcular la probabilidad

P (X > 2) = 1 − P (X ≤ 2) = 1 − (P (X = 2) + P (X = 1) + P (X = 0)) = 0,68256

los dos tratamientos que son equivalentes como esperabamos

Ejemplo 4. Cálculo de la varianza de una variable descrita por un distribución binomial


Un físico de partículas hace medidas de la distribución angular de mesones K. Los resultados de
la medida pueden ser hacia delante o hacia atrás. Ambos procesos son igualmente probables.
En un experimento de calibrado se realizaron 1000 medidas y se obtuvieron 472 mesones en la
dirección hacia delante y 528 mesones en la dirección hacia atrás. ¿Cuál es la desviación típica
de los resultados?.
El experimento descrito cumple con las condiciones de un experimento de Bernouilli con una
probabilidad de éxito p = 0,5.
Para calcular la desviación típica del experimento utilizaremos la ecuación 4.6

σ 2 = npq = np(1 − p) (4.7)

p
σ = np(1 − p) (4.8)
Sutituyendo,
p
σ= 1000 × 0,5 × 0,5 = 15,8 (4.9)

Ejemplo 5. Cálculo de patrones de intensidad en un espectro de masas


Considere un halocarburo trisustituido RX3 . Si el sustituyente es Br, éste presenta dos isótopos
de masas 79 y 81, con abundancias relativas 0.5069 y 0.4931.
Determine cuantos picos esperaría observar en el espectro de masas del RBr3 y que intensidad
relativa esperaría que tuvieran los picos del espectro.
En un espectro de masas se representa intensidad frente a masa de modo que la intensidad obte-
nida a una masa dada, M , es proporcional al número de moléculas de masa M presentes en la
muestra.

53
4.2 4.2. Distribución binomial

Si X1 ≡ Br79 y X2 ≡ Br81 , los isotopos de bromo pueden presentarse en la especie RBr3 en las
combinaciones

RX1 X1 X1 , RX1 X1 X2 , RX1 X2 X2 y RX2 X2 X2

Es decir, aparecerán cuatro picos en el espectro de masas distintas.


La intensidad relativa de los picos depende de la frecuencia con la que se observe cada una de
las combinaciones. Como estamos trabajando con número de moléculas muy grandes  101 9,
podemos suponer que la intensidad relativa con la que observamos cada pico, que depende de
la frecuencia con la que observamos cada una de los halocarburos, es igual a la probailidad de
observar un halocarburo de la masa indicada.
La probabilidad de obtener cada halocarburo viene dada por una distribución binomial con n =
3, p = 0,5069 y q = 0,4931.

 
3
P (RBr379 ) = PB (X = 3; 3, 0,5069) = 0,50693 0,49310 = 0,1302
3
 
3
P (RBr279 Br81 ) = PB (X = 2; 3, 0,5069) = 0,50692 0,49311 = 0,3801
2
 
3
P (RBr79 Br281 ) = PB (X = 1; 3, 0,5069) = 0,50691 0,49312 = 0,3698
1
 
3
P (RBr381 ) = PB (X = 0; 3, 0,5069) = 0,50690 0,49313 = 0,1199
0

La distribución de intesidades de los picos puede representrase con un diagrama de barras donde
M es la masa de la especie RBr79 79 81
3 , M + 2 es la masa de la especie RBr2 Br , M + 3 es la masa
de la especie RBr79 Br81 81
2 , y M + 3 la masa de la especie RBr3 .

54
4 4. Distribuciones de probabilidad de variables aleatorias discretas

4.2.1. Teorema de Moivre


Para tamaños de la muestra tales que los valores del producto npq >5 (tamaños de muestra gr-
nades), el comportamiento de la distribución binomial se asemeja al de una distribución normal con
media µ = np y varianza σ 2 = npq. Esta propiedad es conocida como teorema de Moivre.
Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc-
ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri-
bución gaussiana las probabilidades se calculan como

PB (X = a; n, p) =PG (a − 0,5 ≤ X ≤ a + 0,5)


PB (a < X < b; n, p) =PG (a + 0,5 ≤ X ≤ b − 0,5)
PB (a ≤ X ≤ b; n, p) =PG (a − 0,5 ≤ X ≤ b + 0,5)

Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu-
ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
n!
PB (X = x; n, p) = px q n−x (4.10)
x!(n − x)!

4.3. Distribución de Poisson


Esta distribución describe el número de sucesos que ocurren en un intervalo de tiempo fijo o
en un volumen del espacio o por unidad de producto dado cuando los elementos están distribuidos
aleatoriamente de acuerdo con una frecuencia de ocurrencia o densidad promedio. Es decir, el número
de éxitos que observamos en cada unidad de tiempo, área o producto es totalmente al azar (sólo
conocemos su valor medio) y que cada intervalo de tiempo es independiente de otro intervalo dado,
así como cada área es independiente de otra área dada y cada producto es independiente de otro
producto dado.
Esta definición es un tanto abstracta y se comprende mejor con algunos ejemplos de variables
que tienen este comportamiento: número de partículas emitidas por una fuente radiativa en un tiempo
definido, número de fotones emitidos por una molécula en su desexcitación fluorescente desde un
estado excitado, número de errores cometidos por página al transcribir un texto,número de bacterias
por cm2 de cultivo, etc.
El espacio muestral de la variable X distribuida de acuerdo con una distribución de Poisson son
los enteros {0,1,2, ...} y la función de distribución viene dada por:
1 x −λ
f (x) = P (X = x) = λ e x = 0, 1, 2, . . . (4.11)
x!

donde λ es una constante positiva.


La media y la varianza de esta distribución vienen dadas por

µ=λ (4.12)

55
4.3 4.3. Distribución de Poisson

σ2 = λ (4.13)

Ejemplo 6. Cálculo de la varianza de una variable que sigue una distribución de Poisson
Como parte de un experimento para determinar la vida media de dos isótopos radiactivos de
plata, se registraron simultáneamente el número de partículas emitidas en intervalos de dos se-
gundos en las cercanías de la plata. Los experimentos se repitieron 20 veces y se obtuvo un valor
medio de 1.69 partículas por segundo.
¿Cuál es la desviación típica de las medidas?.
La distribución de Poisson describe el número de sucesos que ocurren en un intervalo de tiempo
fijo cuando los elementos están distribuidos aleatoriamente de acuerdo con una frecuencia de
ocurrencia.
De modo que µ = λ = 1,69 y σ 2 = λ = 1,69. La desviación típica viene dada por
√ p
σ= λ= 1,69 = 1,30 partículas por segundo

Ejemplo 7. Cálculo de probabilidades de una variable que sigue una distribución de Poisson

En un experimento de detección de neutrinos se observaron 8 neutrinos coincidentes con la


observación óptica de la explosión de la supernova 1987A.
(a) Calcule la probabilidad de realizar esta observación si en promedio se detectan 2 neutrinos
por día.
(b) Calcule la probabilidad de la observación teniendo en cuenta que los ocho neutrinos se ob-
servaron en el espacio de 10 minutos.
(a) λ = 2 neutrinos.dia−1
Utilizando la ecuación 4.11
1 x −λ
P (X = x) = λ e (4.14)
x!
1 8 −2
P (X = 8) = 2 e = 9,0 10−4 (4.15)
8!
La probabilidad es muy baja. Puede esperarse una correlación entre la explosión de la supernova
y la detección de los neutrinos.
2
(b) En este caso λ = 24∗6 = 0,014
Utilizando de nuevo la ecuación 4.11
1
P (X = 8) = 0,0148 e−0,014 = 3,3 10−20 (4.16)
8!
La ocurrencia del suceso obsevado es extremadamente improbable y posiblemente se correlacio-
ne con la explosión de la supernova u otro proceso no observado.

56
4 4. Distribuciones de probabilidad de variables aleatorias discretas

4.3.1. La distribución de Poisson como límite de la distribución binomial


La distribución de Poisson también representa el límite de la distribución binomial cuando el nú-
mero de éxitos es mucho menor que el número de ensayos (µ  n), es decir n grande y probabilidad
de un éxito muy baja (p  1)

Ejemplo 8. Cálculo de probabilidades: comportamientos límite


La probabilidad de que un individuo sufra una reacción al inyectarle un suero es 0.001. Deter-
minar la probabilidad de que de un total de 2000 personas más de dos individuos sufran una
reacción
El caso descrito corresponde a un experimento de Bernouilli con µ = np = 2000 · 0,001 = 2.
Utilizar la ecuación 4.4
n!
PB (X = x; n, p) = px q n−x (4.17)
x!(n − x)!
no es un método razonable para calcular probabilidades de ocurrencia.
Teniendo en cuenta que µ = λ = 2  2000 podemos utilizar en nuestros cálculos la ecuación
4.11
1 x −λ
P (X = x) = λ e (4.18)
x!
La probabilidad de que más de dos individuos sufran reacción viene dada por

P (X > 2) =1 − P (X ≤ 2) = P (0) + P (1) + P (2)


 0 −2
21 e−2 22 e−2

2 e
= + + = 0,323
0! 1! 2!

57
4.3 4.3. Distribución de Poisson

4.3.2. La distribución de Gaussiana o normal como límite de la distribución


de Poisson
Para valores grandes de λ la función de distribución de Poisson puede aproximarse mediante una
distribución de probabilidad gaussiana con µ = λ y σ 2 = λ.

Figura 4.1: Distribuciones de Poisson para distintos valores de λ. Observe como la forma de la distri-
bución se aproxima a distribución normal conforme aumenta el valor de λ.

58
4 4. Distribuciones de probabilidad de variables aleatorias discretas

Figura 4.2: Relación entre las distribuciones binomial, Poisson y Gauss o normal.

4.4. Ejercicios y problemas


Cuestión 4.1 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.5.
Calcule su media.

Cuestión 4.2 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.5.


Calcule la varianza.

Cuestión 4.3 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.25.


Calcule su media.

Cuestión 4.4 Considere una distribución binomial PB (x; n, p) con n = 6, y p=0.25.


Calcule la varianza.

Cuestión 4.5 En la realización de un programa informático el número de errores cometidos por


página sigue una distribución de Poisson de varianza 2.
¿Cuál es la probabilidad de no cometerlos en un programa de 20 páginas?

59
4.4 4.4. Ejercicios y problemas

Ejercicios de repaso
Ejercicio 4.1 En la teoría cinética de los gases, la probabilidad de que una molécula de un gas ideal
tenga una velocidad entre v y v + dv está dada por
mv 2
P (v) = cv 2 e− 2kT dv
donde k es la constante de Boltzmann y T la temperatura en Kelvin del gas.
Determine (a) la constante c, (b) la velocidad media y (c) la velocidad más probable.
Nota: Para resolver el problema utilice una tabla de integrales.

Ejercicio 4.2 La duración en horas de un componente eléctrico es una variable aleatoria con una
función de distribución acumulada dada por
x
1 − e− 50 x > 0

F (X) =
0 x≤0
Determine:(a)la función densidad de probabilidad y (b) la probabilidad de que la duración del com-
ponente exceda las 70 horas.

Ejercicio 4.3 Calcular la varianza de g(x) = 2x + 3, donde X es una variable aleatoria con distri-
bución de probabilidad

x 0 1 2 3
1 1 1 1
f(x) 4 8 2 8

Ejercicio 4.4 Sea X una variable aleatoria con la siguiente distribución de probabilidad:

x -3 6 9
1 1 1
f(x) 6 8 2

Calcule µg (x) donde g(x) = (2x + 1)2 .

Distribución binomial
Ejercicio 4.5 Se considera una variable aleatoria de Bernoulli que toma el valor 1 con probabilidad
0.01. Se toma una muestra de tamañoo n.
Calcular el valor mínimo que debe tener n para que la probabilidad de obtener al menos una vez
como resultado un 1 sea mayor o igual que 0.95.

Ejercicio 4.6 Si la probabilidad de que el vapor se condense en un tubo de aluminio de cubierta


delgada a 10 atm de presión es de 0.40, si se prueban 12 tubos de ese tipo y bajo esas condiciones,
determine la probabilidad de que: a) el vapor se condense en 4 de los tubos, b) en más de 2 tubos se
condense el vapor, c) el vapor se condense en exactamente 5 tubos.

60
4 4. Distribuciones de probabilidad de variables aleatorias discretas

Ejercicio 4.7 La probabilidad de que el nivel de ruido de un amplificador de banda ancha exceda de
2 dB (decibelios) es de 0.15, si se prueban 10 amplificadores de banda ancha, determine la probabi-
lidad de que; a) en solo 5 de los amplificadores el nivel de ruido exceda los 2 dB, b) por lo menos en
2 de los amplificadores, el ruido exceda de 2 dB, c) encuentre el número esperado de amplificadores
que se exceden de un nivel de ruido de 2 dB y su desviación estándar.

Ejercicio 4.8 En un experimento se comprobó que la aplicación de un tratamiento químico aumen-


taba la resistencia a la corrosión de un material en un 80 % de los casos.
Si se tratan ocho piezas, determine
(i) Probabilidad de que el tratamiento sea efectivo para más de cinco piezas.
(ii) Probabilidad de que el tratamiento sea efectivo para al menos tres piezas.
(iii) Número de piezas para las que espera que el tratamiento sea efectivo.

Ejercicio 4.9 Considere el espectro de masas de un halocarburo Cn H2n+2−x Clx con x = 1,2 y 3.
Suponiendo que n = 3 y que dispone de una muestra en la que los tres compuestos están presentes en
igual concentración, determine las masas en las que esperaría encontrar un pico en el espectro y la
intensidad relativa de los picos. Tenga en cuenta que el cloro presenta dos isótopos Cl35 y Cl37 con
abundancias relativas 0.67 y 0.33 respectivamente. Suponga que todo el hidrogeno y el carbono de
las muestras corresponde a los isótopos H1 y C12 .

Ejercicio 4.10 Se dispone de un cristal que tiene dos tipos de impurezas que absorben radiación de
la misma longitud de onda. Una de ellas emite un electrón tras la absorción de un fotón, mientras
que la segunda no emite electrones. Las impurezas están en igual concentración y distribuidas ho-
mogeneamente en el cristal. Sin embargo, la sección eficaz de absorción, que es una medida de la
probabilidad de absorber un fotón, es 90 veces mayor para la impureza que emite electrones que el
de la impureza que no los emite.
Suponiendo que sobre el cristal inciden 200 fotones y que este es lo suficientemente grande para
absorber todos, calcule la probabilidad de que al menos se emitan tres electrones.

Distribución de Poisson
Ejercicio 4.11 Si un banco recibe en promedio 6 cheques sin fondo por día, ¿cuáles son las proba-
bilidades de que reciba, a) cuatro cheques sin fondo en un día dado, b) 10 cheques sin fondos en
cualquiera de dos días consecutivos?

Ejercicio 4.12 En la inspección de una hojalata producida por un proceso electrolítico continuo, se
identifican 0.2 imperfecciones en promedio por minuto.
Determine las probabilidades de identificar a) una imperfección en 3 minutos, b) al menos dos
imperfecciones en 5 minutos, c) un máximo de una imperfección en 15 minutos.

Ejercicio 4.13 Consideremos que el número de trozos de chocolate en una determinada galleta sigue
una distribución de Poisson. Queremos que la probabilidad de que una galleta seleccionada al azar
tenga por lo menos tres trozos de chocolate sea mayor que 0.8.
Encontrar el valor entero más pequeño de la media de la distribución que asegura esta probabi-
lidad.

61
4.4 4.4. Ejercicios y problemas

Ejercicio 4.14 La variable X representa el número de llamadas a un teléfono en una hora y sigue
una distribución de Poisson con parámetro igual a 3,5.
(a) Calcular la probabilidad de que no se produzcan llamadas en la próxima hora.
(b) Hallar la probabilidad de que se reciban al menos dos llamadas en las dos próximas horas.
(c) ¿Cuánto tiempo podemos estar fuera si se quiere que la probabilidad de que el teléfono suene
en nuestra ausencia sea como máximo 0,5?

Aproximación de la distribución binomial a la distribucion de Poisson


Ejercicio 4.15 Un fabricante de maquinaria pesada tiene instalados en el campo 3840 generadores
de gran tamaño con garantía. Sí la probabilidad de que cualquiera de ellos falle durante el año dado
es de 1/1200 determine la probabilidad de que a) 4 generadores fallen durante el año en cuestión, b)
que más 1 de un generador falle durante el año en cuestión.

Ejercicio 4.16 Se sabe que el 5


Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller, tengan encuader-
naciones defectuosas, usando, la aproximación de Poisson a la distribución binomial

Ejercicio 4.17 En un proceso de manufactura, en el cual se producen piezas de vidrio, ocurren de-
fectos o burbujas, ocasionando que la pieza sea indeseable para la venta. Se sabe que en promedio
1 de cada 1000 piezas tiene una o más burbujas. ¿Cuál es la probabilidad de que en una muestra
aleatoria de 8000 piezas, menos de 3 de ellas tengan burbujas?

4.4.1. Soluciones a los ejercicios


Distribución binomial
Ejercicio 4.5 De acuerdo con el problema si llamanos éxito a obtener 1 tendremos p = 0,01 y
q = 0,99.
Sea S = número de éxitos en n ensayos Bernoulli

PB (S ≥ 1; n, 0,01) = 1 − PB (S < 1; n, 0,01) = 1 − PB (S = 0; n, 0,01)


Utilizando la ecuación 4.4

n!
PB (X = x; n, p) = px q n−x (4.19)
x!(n − x)!

n!
PB (S ≥ 1; n, 0,01) = 1 − PB (S < 1; n, 0,01) = 1 − 0,010 0,99n = 1 − 0,99n ≥ 0,95 (4.20)
0!n!

log 0,05
1 − 0,99n ≥ 0,95 → 0,05 ≥ 0,99n → log 0,05 ≥ n log 0,99 → n ≥ ' 299 (4.21)
log 0,99

62
4 4. Distribuciones de probabilidad de variables aleatorias discretas

Ejercicio 4.6 a) n = 12
x representa la variable que define el número de tubos en que el vapor se condensa
x = {0, 1, 2, 3, . . . , 12}
exito: p = P (se condense el vapor en un tubo de Al a 10 atm) = 0,40
fracaso: q = P (no se condense el vapor en un tubo de Al a 10 atm) = 1 − p = 0,60 = 0,21284

PB (X = {3, 4, ..., 12}; 12, 0,40) = P (x = 3)+P (x = 4)+. . .+P (x = 12) = 1−P (X = {0, 1, 2}; 12, 0,40) =

Utilizando la ecuación 4.4 se obtiene

PB (X ≥ 3; 12, 0,40) = 1 − (0,002176 + 0,0174096 + 0,06385632) = 1 − 0,08344192 = 0,91656

c) PB (X = 5; 12, 0,40) = 0,22703

Ejercicio 4.7 a) n = 10
x representa la variable que define el número de amplificadores de banda ancha que su nivel de
ruido excede de 2 dB, x = {0, 1, 2, 3, . . . , 10}.
exito: p = P (un amplificador exceda su nivel de ruido de 2 dB) = 0,15
fracaso: q = P (un amplificador no exceda su nivel de ruido de 2 dB) = 1 − p = 0,85
PB (X = 5; 10, 0,15) = 0,00849
b) PB (X ≥ 2; 10, 0,15) = 1 − PB (X ≤ 1; 10, 0,15) = 1 − (0,1968 + 0,3474) = 1 − 0,5444 =
0,4557
c) µ = np = 1,5 ∼ = 2, se espera que 2 de los 10 amplificadores probados se excedan de un nivel
de ruido de 2 dB.

σ = npq = 1,1291 ∼ =1

Distribución de Poisson
Ejercicio 4.11 a) x representa la variable que define el número de cheques sin fondo que llegan al
banco en un día cualquiera, x = {0, 1, 2, 3, . . .}. λ = 6 es el número medio de cheques sin fondo por
día.
La probabilidad de recibir cuatro cheques sin fondo en un dia puede calcularse con la ecuación
4.11
1 x −λ
P (X = x) = λ e (4.22)
x!
1 4 −6 1296 · 0,00248
P (X = 4) = 6e = = 0,13392
4! 24
b) x representa la variable que define el número de cheques sin fondo que llegan al banco en un
día cualquiera, x = {0, 1, 2, 3, . . .}. λ = 2 × 6 = 12 es el número medio de cheques sin fondo por
día.
Utilizando de nuevo la ecuación 4.11 obtenemos

1 1 −10 6,1973691010 · 6,15110−6


P (X = 10) = 12 0e = = 0,104953
10! 3628800

63
4.4 4.4. Ejercicios y problemas

Ejercicio 4.12 a) x representa la variable que define el número de que nos define el número de
imperfecciones en la hojalata cada 3 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 3 = 0,6 es el número
medio de imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos
1 1 −0,6 0,6 · 0,548845
P (X = 1) = 0,6 e = = 0,329307
1! 1
b) x representa la variable que define el número de que nos define el número de imperfecciones
en la hojalata cada 5 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 5 = 1 es el número medio de
imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos

P (X ≥ 2) = P (X = 2, 3, . . .) = 1 − P (X ≤ 1) = 1 − P (0) − P (1)
 
1 0 −1 1 1 −1
P (X ≥ 2) = 1 − 1e + 1e = 1 − (0,367918 + 0,36718) = 0,26416
0! 1!
c) x representa la variable que define el número de que nos define el número de imperfecciones
en la hojalata cada 15 minutos x = {0, 1, 2, 3, . . .} . λ = 0,2 × 15 = 3 es el número medio de
imperfecciones en tres minutos.
Utilizando de nuevo la ecuación 4.11 obtenemos

1 0 −3 1 1 −3
P (X ≤ 1) = P (X = 0) + P (X = 1) = 3 e + 3 e = 0,0498026 + 0,149408 = 0,1992106
0! 1!
Ejercicio 4.13 Sea X = número de trozos de chocolate en una galleta donde queremos evaluar P (X >
3; λ) > 0,8

λe−λ λ2 e−λ
P (X > 3) = 1 − P (X ≤ 2) = 1 − P (0) − P (1) − P (2) = 1 − e−λ − −
1 2
Dando valores a λ = 1, 2, ..., 5 se obtiene

λ 0 1 2 3 4 5
P (X > 3) 0.0803014 0.3233236 0.5768099 0.7618967 0.8753480

El valor más cercano a 0,8 lo proporciona λ = 4.

64
4 4. Distribuciones de probabilidad de variables aleatorias discretas

4.5. Lecturas recomendadas


Para completar la preparación de este tema recomendamos la lectura de:

☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].


X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.

☞ Capítulo 4. Distribuciones de Probabilidad especial del libro de Spiegel y cols.[5].


Se recomienda revisar los ejercicios resueltos:

• Distribución binomial 4.1 a 4.6, y 4.9X


• Distribución de Poisson 4.22 X

Como ejercicios de repaso se recomienda realizar los ejercicios:

• Distribución binomial 4.63, 4.64, 4.65,4.67, 4.68, 4.69


• Distribución de Poisson 4.90, 4.93

Los comportamientos límite de estas distribuciones binonial y de Poisson se estudiarán en el


tema 5.

☞ Capítulo 4. Algunas distribuciones discretas de probabilidad. del texto de Walpole y Myers[6].

65
5

Distribuciones de probabilidad de variables aleatorias


continuas

Contenidos ✍ Distribución uniforme Descripción y propiedades.


✍ Distribución normal o gaussiana Descripción y propiedades. Descrip-
ción y propiedades. Distribución de las medias de muestras de tamaño
finito. Teorema del límite central. Intervalos de confianza para la media
muestral. Aproximación de la distribución binomial y de Poisson a la dis-
tribución normal.
✍ Distribución t de Student Descripción y propiedades.
✍ Distribución χ2 Descripción y propiedades. Intervlos de probabilidad
para la varianza muestral.
✍ Distribución F de Fisher Descripción y propiedades. Comparación de
varianzas.

Objetivos ✓ Reconocer las características de la distribución uniforme de una variable


aleatoria continua
✓ Reconocer las características de una distribución normal o gaussiana.
✓ Realizar cálculos de probabilidades de variables aleatorias que siguen un
distribución normal
✓ Comprender el significado de los intervalos de probabilidad 2σ y 3σ de una
variable alaeatoria normal
✓ Conocer las características de la distribución de medias muestrales una
variable aleatoria normal
✓ Comprender las consecuencias del teorema del límite central y sus limita-
ciones
✓ Utilizar la distribución normal para calcular intervalos de probabilidad de
variables que siguen una distribución binomial o de Poisson

67
5.0

Objetivos ✓ Reconocer las características de una distribución t de Student


✓ Calcular intervalos de probabilidad de variables que siguen una distribución
t de Student
✓ Determinar los límites del intervalo de confianza de la media muestral
✓ Reconocer las características de una distribución χ2 de Student
✓ Utilizar la distribución χ2 para calcular intervalos de confianza de la va-
rianza muestral
✓ Reconocer las características de una distribución F de Fisher
✓ Utilizar la distribución F de Fisher para la comparación de varianzas mues-
trales
✓ Conocer las diferencas entre hipótesis nula, H0 , e hipótesis alternativa, H1 ,
y la relación de ambas con los intervalos de probabilidad

68
5 5. Distribuciones de probabilidad de variables aleatorias continuas

5.1. Distribución uniforme


Una variable aleatoria X sigue una distribución uniforme en el intervalo [a,b] cuando su función
densidad de probabilidad es

 0 x<a
1
f (x) = b−a
a≤x≤b (5.1)
0 x>b

Su función de densidad de probabilidad integrada es



 0 x<a
x−a
F (x) = b−a
a≤x≤b (5.2)
1 x>b

La media y la varianza de la distribución vienen dadas por

a+b
µ = (5.3)
2

(b − a)2
σ2 = (5.4)
12

Esta distribución sólo depende de los parámetros a y b que están comprendidos en el intervalo
(−∞, +∞).

Figura 5.1: Distribución de densidad de probabilidad de una variable uniforme continua.

69
5.2 5.2. Distribución normal o Gaussiana

5.2. Distribución normal o Gaussiana


La función de densidad de probabilidad de una variable x que sigue una función de distribución
normal o gausiana viene dada por

1 (x−µx )2

f (x) = √ e 2σ2 (x) (5.5)
2 π σ(x)

donde µx y σ(x) son la media y la desviación típica de X respectivamente, y la variable alatoria puede
estar comprendida en el intervalo −∞ < x < +∞.
Si una variable aleatoria sigue una distribución normal sólo necesitamos conocer µx y σ(x) para
caracterizar la distribución de los datos.
La función de distribución de probabilidad viene dada por
Z x (x−µx )2
1 −
F (x) = P (x ≤ x) = √ e 2σ 2 (x) dx (5.6)
2π σ(x) −∞

En el trabajo con variables aleatorias que siguen una distribución normal es conveniente utilzar la
variable normalizada z, que se calcula como

x − µx
z= (5.7)
σ(x)

Esta variable tiene la ventaja de que cualesquiera sean los valores de µx y σ(x), z siempre si-
gue una distribución normal con media µz = 0 y desvición típica σ(z) = 1. En general f(z) o F(z)
se evaluan utilizando un programa informático o utilizando tablas1 (ver apéndices).Por comodidad
utilizaremos tablas e ilustraremos su uso en los ejemplos.

Figura 5.2: Distribución de densidad de probabilidad de Gauss estanzarizada.

1
En la tabla del apéndice correspondiente a la distribución normal se tabula P(0<Z<z).

70
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Figura 5.3: Distribución de densidad de probabilidad de Gauss con idéntica media µx = 0 y distinta
varianza σ 2 (x) = 1 (línea continua) y σ 2 (x) = 0,25 (línea discontinua).

Ejemplo 1. Cálculo de probabiblidades de una variable normal (I)


Hallar la probabilidad de que la magnitud aleatoria z (µz =0, σ(z)=1) este comprendida en el
intervalo (-1.96,1.96).
Teniendo en cuenta los postulados que definen la probabilidad:

P (−1,96 ≤ z ≤ 1,96) = P (−1,96 ≤ z ≤ 0) + P (0 ≤ z ≤ 1,96)


La distribución gausiana es una distribución simétrica

P (−z ≤ Z) = P (z ≤ Z)

P (−1,96 ≤ z ≤ 1,96) = 2 P (0 ≤ z ≤ 1,96)


De acuerdo con el apéndice 1

P (0 ≤ Z ≤ 1,96) = 0,475
y

P (−1,96 ≤ Z ≤ 1,96) = 2 ∗ 0,475 = 0,990

71
5.2 5.2. Distribución normal o Gaussiana

Figura 5.4: Distribución de densidad de probabilidad de Gauss que difieren en la media µx = 0 y


µx = 1 pero tienen idéntica σ 2 (x) = 1.

Ejemplo 2. Cálculo de probabiblidades de una variable normal (II)


Hallar la probabilidad de que el resultado de una observación única de una variable aleatoria
distribuida normalmente no exceda la media en más de ±2σ.
El problema nos pide que calculemos P (µ − 2σ ≤ x ≤ µ + 2σ).
Para calcular la probabilidad primero determinaremos los valores de la variable tipificada que
corresponden a los límites del intervalo xmin = µx − 2σ(x) y xmax = µx + 2σ(x)

x − µx (µx ± 2σ(x)) − µx
z = = = ±2
σ(x) σ(x)
Como disponemos de una tabla de la distribución gausiana estandarizada (ver apendice 1) que
nos proporciona P (0 ≤ x ≤ z), utilizaremos la simetría de la distribución gaussina para calcular
P (0 ≤ z ≤ 2):

P (x − 2σ ≤ z ≤ x + 2σ) = P (−2 ≤ z ≤ 2) = 2P (0 ≤ z ≤ 2)
Consultando el apéndice 1 obtenemos

P (0 ≤ z ≤ 2) = 0,4772

72
5 5. Distribuciones de probabilidad de variables aleatorias continuas

de modo que

P (−2 ≤ z ≤ 2) = 2 ∗ 0,4772 = 0,9544

De acuerdo con el ejemplo anterior, si las observaciones (medidas) cumplen la ley de distribución
normal, la probabilidad de que el resultado de una medida este en el intervalo µ ± 2σ es 0.9544. De
modo análogo se deduce que la probabilidad de que se obtenga una observación en el intervalo µ ± 3σ
es 0.9974. De esto se deduce que la probabilidad de que las observaciones se encuentren fuera de estos
intervalos son muy pequeñas, 0.046 y 0.0026, respectivamente. Por ello, las magnitudes 2σ y 3σ se
utilizan con frecuencia para determinar el error máximo admisible y despreciar resultados fuera de
estos intervalos. Sin embargo, hay que tener en cuenta que σ(x) hace referencia a la desviación típica
poblacional. En general sólo tenemos una estima de esta magnitud, la desviación típica muestral,
s(x). Como veremos más adelante, esto nos obliga a utilizar la distribución t de Student para calcular
los límites del error admisible.

Figura 5.5: Representación de un conjunto de 5000 medidas de la temperatura que siguen una distri-
bución normal. Como puede observar, la mayor parte de los datos están concentrados en el intervalo
µx ± 2σ(x), y es escaso el número de datos fuera del intervalo µx ± 3σ(x).

73
5.2 5.2. Distribución normal o Gaussiana

Ejemplo 3. Cálculo de probabiblidades de una variable normal (III)


Calcule la probabilidad de que la concentración de cloruros, c, en una muestra de agua este en
el intervalo 31,50 a 38,50 mg/l si la concentración media de cloruros es 35,00 mg/l con una
desviación típica de 3,5 mg/l.
Calculamos la variable normal tipificada que corresponde a cada uno de los límites del intervalos:
31,5 − 35
zmin = = −1,0
3,5
38,5 − 35
zmax = = 1,0
3,5
de modo que

P (28,5 ≤ c ≤ 38,5) = P (−1 ≤ z ≤ 1) = 2 ∗ P (0 ≤ z ≤ 1) = 0,6826


Este resultado supone que si nuestros resultados siguen una distribución normal, esperamos que
el 68.26 % de las medidas se encuentren en el intervalo µx ± σ(x). En el caso estudiado este
intervalo comprende las concentraciones 28,5 ≤ c ≤ 38,5 mg/l.

Ejemplo 4. Cálculo de probabiblidades de una variable normal (IV)


Cierta magnitud X sigue una distribución normal de media 3 y varianza 4. ¿Cuál es la probabili-
dad de observar los resultados X > 3.5, X < 1.2 y 2.5 <X < 3.5?.

P (X > 3,5) =P (Z > 0,25) = 1 − P (Z < 0,25)


=0,5 − P (0,00 ≤ Z ≤ 0,25) = 0,4013

P (X < 1,2) =P (Z < −0,9) =


=0,5 − P (−0,9 ≤ Z ≤ 0,0)
=0,5 − P (0,0 ≤ Z ≤ 0,9) = 0,1841

P (2,5 < X < 3,5) =P (−0,25 < Z < 0,25)


=P (−0,25 ≤ Z ≤ 0,0) + P (0,0 ≤ Z ≤ 0,25)
=2 ∗ P (0,0 ≤ Z ≤ 0,25) = 2 ∗ 0,0987 = 0,1974

74
5 5. Distribuciones de probabilidad de variables aleatorias continuas

5.2.1. ¿Qué variables aleatorias siguen una distribución normal?


La media muestral x̄ de una variable X que sigue una distribución normal

Teorema 5.1
Si una variable aleatoria x1 sigue una distribución normal de media µ1 y varianza σ12 , y otra variable
aleatoria x2 sigue una distribución normal de media µ2 y varianza σ22 , y ambas son independientes, la
variable aleatoria x3 = x2 ± x1 sigue una distribución normal de media µ3 y varianza σ32

µ3 =µ1 + µ2 (5.8)
σ32 =σ12 + σ22 (5.9)

Esta propiedad puede extenderse a la suma de n variables aleatorias independientes distribuidas


normalmente.

Corolorario 5.1
La variable aleatoria media muestral x̄ de muestras de tamaño n de una variable aleatoria X que sigue
una distribución normal

f (x) = PN (x; µx̄ , σ(x̄))


de media µx̄

µx̄ = µx (5.10)

y varianza, σ 2 (x̄)

σ 2 (x)
σ 2 (x̄) = (5.11)
n

En este caso la magnitud tipificada z viene dada por


x̄ − µx̄ x̄ − µx
z= = √ (5.12)
σ(x̄) σ(x)/ n

75
5.2 5.2. Distribución normal o Gaussiana

Figura 5.6: Funciones de densidad de probabilidad gaussianas. Comparación de la distribución de los


datos (negra) y las distribución de las medias de muestras de tamaño n (azul).

Ejemplo 5. Cálculo de probabiblidades de una variable normal: distribución de las medias

Una aleación de cobre contiene una media de 41.26 % de este metal (determinado como la media
de las determinaciones de varios laboratorios) con una desviación típica de 0.12 %.
¿Cuál es la probabilidad de que al realizar un análisis de nueve muestras se obtengan porcentajes
de cobre entre el 41.30 % y el 41.50 %?. ¿Y se tomaran dieciséis muestras?.
En este ejemplo µ(x) = 41,26 y σ(x) = 0,12 , donde x es el resultado de la medida. De acuerdo
con el corolario 5.1,√x̄ esta distribuido normalmente con media µx̄ = µx = 41,26 y desviación
típica σ(x̄) = σ(x)/ n tendremos
(a) con nueve muestras
0,12
σ(x̄) = √ = 0,04
9
y las variables tipificadas correspondientes serán:
x̄ − µx
z= √
σ(x)/ n
x¯1 − µx 41,30 − 41,26
z= √ = = 1,0
σ(x)/ n 0,04
x¯2 − µx 41,50 − 41,26
z= √ = = 6,0
σ(x)/ n 0,04

76
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Figura 5.7: Distribución de frecuencias de las medias muestrales de conjuntos de n medidas de una
variable que sigue una distribución gaussiana. En todos los diagramas se utilizaron las mismas 500
medidas pero se utilizaron distinto número de medidas para calcular las medias, n = (a) 1, (b)5, (c)
10, y (d) 25.

de modo que

P (1,0 ≤ z ≤ 6,0) = P (z ≤ 6,0) − P (z ≤ 1,0) = 1,0000 − 0,8413 = 0,1587


(b) con dieciseis muestras
0,12
σ(x̄) = √ = 0,03
16
y las variables tipificadas correspondientes serán:
x¯1 − µx 41,30 − 41,26
z= √ = = 1,33
σ(x)/ n 0,03
x¯2 − µx 41,50 − 41,26
z= √ = = 8,0
σ(x)/ n 0,03
de modo que

P (1,33 ≤ z ≤ 8,0) = P (z ≤ 8,0) − P (z ≤ 1,33) = 1,0000 − 0,9082 = 0,0918

77
5.2 5.2. Distribución normal o Gaussiana

La media muestral x̄ de cualquier variable aleatoria obtenida a partir de un número grande de


medidas
Teorema 5.2
Teorema del límite central. Sean las magnitudes aleatorias x1 , x2 , . . ., xn que siguen la misma distri-
bución de probabilidad y a la que corresponde una media µx y una varianza σ 2 (x) finitas. Conforme
aumenta el valor de n la distribución de la variable aleatoria media muestral, x̄ se aproxima a una
distribución normal de media µx y varianza σ 2 (x)/n.
La importancia de este teorema estriba en que permite, si la muestra es lo suficientemente grande,
calcular estimas aceptables de µ y σ 2 (x) sin necesidad de conocer f(x).
Matemáticamente esta es una ley asintótica, es decir, la identidad con la distribución gaussiana
sólo se consigue si la población original es normal, pero su comportamiento es muy próximo a éste
conforme aumenta el tamaño de la muestra n utilizada para calcular estas estimas.

Figura 5.8: Distribución de frecuencias de las medias muestrales de n medidas de un conjunto de 500
datos que siguen una distribución uniforme. En la figura puede observarse como la distribución evo-
luciona desde la distribución uniforme n = 1 ha distribuciones de tipo gaussiano conforme aumenta
n. En todos los diagramas se utilizaron las mismas 500 medidas pero estas se agruparon en conjuntos
de distinto tamaño, n, para calcular las medias, n = (a) 1, (b)5, (c) 10, y (d) 25.

78
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Una variable discreta que sigue una distribución binomial cuando el número de experimentos,
n, es grande
De acuerdo con el teorema de Moivre, para tamaños de la muestra tales que los valores del produc-
to npq >5 (tamaños de muestra grnades), el comportamiento de la distribución binomial se asemeja al
de una distribución normal con media µ = np y varianza σ 2 = npq. Esta propiedad es conocida como
teorema de Moivre.
Como la distribución binomial es una distribución de variables discretas, hay que hacer una correc-
ción de continuidad de modo que al utilizar la aproximación de la distribución binomial a una distri-
bución gaussiana las probabilidades se calculan como

PB (X = a; n, p) =PG (a − 0,5 ≤ X ≤ a + 0,5)


PB (a < X < b; n, p) =PG (a + 0,5 ≤ X ≤ b − 0,5)
PB (a ≤ X ≤ b; n, p) =PG (a − 0,5 ≤ X ≤ b + 0,5)

Este teorema permite calcular de una manera sencilla valores de la probabilidad de una distribu-
ción binomial en condiciones en las que es imposible evaluar esta magnitud utilizando la ecuación
4.4
n!
PB (X = x; n, p) = px q n−x (5.13)
x!(n − x)!

Figura 5.9: Distribución de probabilidad para una variable binomial con n = 25, p = 0,5 y q = 0,5 y
la distribución normal con µx = np = 12,5 y σ 2 (x) = npq = 6,25.

79
5.3 5.3. La distribución t de Student

Una variable discreta que sigue una distribución de Poisson con λ grande
Para valores grandes de λ la función de distribución de Poisson puede aproximarse mediante una
distribución de probabilidad gaussiana con µ = λ y σ 2 = λ.

Figura 5.10: Relación entre las distribuciones binomial, Poisson y Gauss o normal.

5.3. La distribución t de Student


Una variable aleatoria continua t, que puede tomar valores en el intervalo 0 ≤ t < ∞ y tiene una
función densidad de probabilidad
− ν+1
1 Γ ν+1 t2 ( 2 )

2
f (t) = √ 1+ (5.14)
πν Γ ν2 ν

se dice que está distribuida de acuerdo con una distribución t de Student con ν grados de libertad2 .
Es importante observar en la ecuación 5.14 que la función de distribución está completamente
caracterizada por un solo parámetro: ν el número de grados de libertad.
La media no depende del número de grados de libertad y es

µt = 0 (5.15)

mientras que la varianza sólo depende del número de grados de libertad


ν
σ 2 (t) = (5.16)
ν−2

Cuando ν es grande, σ 2 (t) ≈ 1. Además, puede demostrarse que para valores grandes de ν (ν ≥
20) se puede considerar a la función t de Student se comporta como una distribución normal de media
0 y varianza 1.
R∞
2
En la expresión de f(t), Γ(z) es la función gamma de Euler, que viene dada por Γ(z) = 0
ν z−1 e−ν dν con ν > 0

80
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Figura 5.11: Distribución t de Student con distintos grados de libertad.

5.3.1. ¿Qué variables aleatorias siguen una distribución t de Student?


Teorema 5.3
Sean Z e Y dos variables aleatorias independientes. Si Y está normalmente distribuida con media 0 y
varianza 1, mientras que Z tiene una distribución chi-cuadrado χ2 con ν grados de libertad. Entonces
la variable aleatoria T

y
T =p (5.17)
z/ν

sigue una distribución t de Student con ν grados de libertad.

Utilizando este teorema se puede demostrar que la variable aleatoria t definida como

x̄ − µx̄ x̄ − µx
t= = √ (5.18)
s(x̄) s(x)/ n

está distribuida con arreglo a una distribución t de Student con ν = n − 1 grados de libertad.
En el apéndice 2 se proporcionan los valores de las percentilas tp para distribuciones t de Student
con ν grados de libertad. La percentila es el valor que toma la variable aleatoria, t en nuestro caso,
para que se cumpla que

P (t(ν) ≤ tp (ν)) = p (5.19)

81
5.3 5.3. La distribución t de Student

Ejemplo 6. Cálculo del intervalo de probabiblidad de una variable que sigue la distribución
t de Student
Usando la tabla del apéndice A.2 determine el intervalo simétrico en el que se encontrará la
variable t con una probabilidad del 95 % si tienen ν=9 grados de libertad.
En este ejemplo nos piden determinar lOS valores de t que cumplan

P (t1 (ν) ≤ t ≤ t2 (ν)) =0,95


P (t ≤ t1 (ν)) =0,025
P (t ≥ t2 (ν)) =0,025

En las tablas del apéndice A.2 podemos encontrar los valores de tp tales que

P (t(ν) ≤ tp (ν)) = p
que equivalen a los valores para los que

P (t(ν) ≥ tp (ν)) = 1 − p
Teniendo en cuenta que la distribución t de Student es simétrica respecto de su media y que
µt = 0, para un intervalo también simétrico tendremos

P (−t 1+p (ν) ≤ t ≤ t 1+p (ν)) = p


2 2

En este ejemplo, p = 0,95 y ν = 9. En la tabla del apéndice A.2 encontramos t,975 (9) = 2,26,
de modo que el intervalo de probabilidad viene dado por

−t,975 ≤ t ≤ t,975

−2,26 ≤ t ≤ 2,26

82
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Ejemplo 7. Cálculo del intervalo de confianza de la media


En un experimento para la determinación de cloruros se utilizo una técnica cromatográfica. En
esta técnica la concentración de la especie detectada es proporcional al área del pico asociado a
la especie detectada. En un análisis de 9 muestras de agua de lluvia se obtuvo un valor medio del
área x̄ = 0,6752 cm2 y una desviación típica s(x) = 0,002821 cm2 .
A partir de estos datos, determine el intervalo de valores en que espera que se encuentre el valor
medio del área con una probabilidad de 0.95.
Si la media de las áreas de los picos siguen una distribución gaussiana, la variable t, ecuación
5.18,
x̄ − µx̄ x̄ − µx
t= = √ (5.20)
s(x̄) s(x)/ n
seguirá una distribución t de Student con ν = 9 − 1 = 8 grados de libertad.
Por tanto esperamos que

P (−t,975 (8) ≤ t ≤ t,975 (8)) = 0,95


y

x̄ − µx
−t,975 (8) ≤ √
s(x)/ n
x̄ − µx
t,975 (8) ≥ √
s(x)/ n

s(x)
x̄ − t,975 (8) √ ≤ µx
n
s(x)
µx ≤ x̄ + t,975 (8) √
n

De donde sigue que esperamos que la media se encuentre en el intervalo

s(x) s(x)
x̄ − t,975 (8) √ ≤ µx ≤ x̄ + t,975 (8) √
n n
0,002821 0,002821
0,6752 − 2,31 √ ≤ µx ≤ 0,6752 + 2,31 √
9 9

0,6730 ≤ µx ≤ 0,6772
con una probabilidad de 0.95.
Es habitual expresar este intervalo como µx = 0,6752 ± 0,0021.

83
5.4 5.4. La distribución χ2

5.4. La distribución χ2
Se dice que una variable aleatoria sigue una distribución chi-cuadrado o χ2 con ν grados de
libertad si su función de distribución de probabilidad tiene la forma
(
0 si x < 0
P (χ2 ≤ x) x ν ν (5.21)
√ 1 ν u 2 −1 e− 2 du si x > 0
R
2Γ( ) 0
2

Note que la función de distribución esta caracterizada por un sólo parámetro, ν.


Para esta distribución

µχ2 = ν (5.22)

σ 2 (χ2 ) = 2ν (5.23)

Figura 5.12: Distribuciones χ2 con distintos grados de libertad, ν.

En el apéndice 3 se recogen los valores de las percentilas de distribuciones χ2 con ν grados de


libertad, es decir

P (χ2 (ν) ≤ X 2 ) = χ2p (ν) = p (5.24)

5.4.1. ¿Qué variables aleatorias siguen una distribución χ2 ?


Teorema 5.4
Suponga que dispone de n magnitudes aleatorias independientes x1 , x2 , x3 , . . ., xn distribuidas de
acuerdo con una distribución normal de parámetros µx y σ(x).
Si definimos la variable Ui tal que
x i − µx
Ui = (5.25)
σ(x)

84
5 5. Distribuciones de probabilidad de variables aleatorias continuas

la suma

n n
2
X X (xi − µx )2
χ = Ui2 = (5.26)
i=1 i=1
σ 2 (x)

está distribuida de acuerdo con una distribución χ2 con ν = n grados de libertad.

A partir de este teorema se puede demostrar que la variable aleatoria X 2

s2 (x)
X 2 = (n − 1) (5.27)
σ 2 (x)

sigue una distribución χ2 con ν = n − 1 grados de libertad.

Ejemplo 8. Intervalos de probabilidad de variables que siguen una distribución χ2


Suponga que hace cinco medidas de una cantidad distribuida normalmente con media µ = 0,05
y se obtienen los valores 0.041, 0.064, 0.055, 0.046, 0.060.
Estime la varianza de la distribución. Suponga que la varianza es conocida y tiene el va-
lor σ 2 (x) = 1,0 10−4 . Determine si el valor de X 2 obtenido se encuentra en el intervalo
P (χ20,025 (ν) ≤ x2 ≤ χ20,975 (ν)).
P
xi 0,2666
x̄ = = = 0,0532
n 5
(xi − x̄)2
P
2
s (x) = = 9,17 10−5
n−1
De acuerdo con el teorema X 2

s2 (x) 9,17 10−5


X 2 = (n − 1) = 4 = 3,68
σ 2 (x) 1 10−5
sigue una distribución χ2 con ν = 4 grados de libertad.
De acuerdo con las tablas del apándice A.3,

P (χ20,025 (ν = 4) ≤ X 2 ) = 0,484

P (χ20,975 (ν = 4) ≤ X 2 ) = 11,1
Es decir el valor de x2 obtenido está dentro del intervalo indicado

85
5.4 5.4. La distribución χ2

Ejemplo 9. Intervalos de probabilidad de la varianza muestral


Se desea contrastar la hipótesis de que la varianza de una población normal es σ 2 (x) = 1(u.a.)2 .
Para ello se realizaron 9 medidas de esa magnitud obteniendose un valor de la varianza muestral
s2 (x) = 1,71(u.a.)2 .
Determine si este resultado es compatible con la hipótesis propuesta (hipótesis nula). Utilice
como criterio para aceptar la hipótesis nula que si la hipótesis es cierta se cumple que χ20,025 (ν) ≤
X 2 ≤ χ20,975 (ν).
Determine el intervalo de valores de s2 (x) compatibles con la hipótesis nula.
Calculamos el valor de la variable X 2

2 s2 (x) 1,71
X = (n − 1) 2 =8 = 13,6
σ (x) 1,0
De acuerdo con las tablas del apándice A.3,

P (χ20,025 (ν = 8) ≤ X 2 ) = 2,18

P (χ20,975 (ν = 8) ≤ X 2 ) = 17,5
Ya que el criterio se cumple aceptamos la hipótesis nula.
El intervalo de valores de X 2 compatibles con la hipótesis nula vendrá dado por

s2 (x)
χ20,025 (ν = 8) ≤ (n − 1) ≤ χ20,975 (ν = 8)
σ 2 (x)
s2 (x)
2,18 ≤ (n − 1) ≤ 17,5
σ 2 (x)
σ 2 (x) σ 2 (x)
2,18 ≤ s2 (x) ≤ 17,5
n−1 n−1

0,273 ≤ s2 (x) ≤ 2,192

86
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Ejemplo 10. Intervalos de confianza de la varianza


En un experimento se determino la densidad de un polímero en disolución. En el experimento
se realizaron 5 medidas y se obtuvo una varianza muestral s2 (x) = 14,1.(u.a.)2 . Determinen el
intervalo simétrico en el que espera encontrar la varianza con una probabilidad p = 0.9.
Que el intervalo sea simétrico supone que

P (χ21 (ν) ≤ X 2 ≤ χ22 (ν)) =0,90


P (X 2 ≤ χ21 (ν)) =0,05
P (X 2 ≥ χ22 (ν)) =0,05

Suponiendo que las medidas están distribuidas normalmente,

s2 (x)
χ20,05 (ν = 4) ≤ (n − 1) ≤ χ20,95 (ν = 4)
σ 2 (x)
χ0 ,052 (ν = 4) 1 χ0 ,952 (ν = 4)
≤ ≤
(n − 1)s2 (x) σ 2 (x) (n − 1)s2 (x)
(n − 1)s2 (x) 2 (n − 1)s2 (x)
≤ σ (x) ≤
χ20,95 (ν = 4) χ20,05 (ν = 4)
14,1 14,1
4 ≤ σ 2 (x) ≤ 4
9,49 0,711

5,94 ≤ σ 2 (x) ≤ 78,8

Propiedad aditiva
Teorema 5.5
Sean X12 y X22 dos variables aleatorias independientes. Si X12 sigue una distribución χ2 con ν1 grados
de libertad y X22 sigue una distribución χ2 con ν2 grados de libertad, X32 = X12 + X22 sigue una
distribución χ2 con ν = ν1 + ν2 grados de libertad.

5.4.2. Relación entre la distribución χ2 y la distribución normal


Cuando ν es grande la distribución χ2 se aproxima a una distribución normal con media µ = ν y
varianza σ 2 = ν.

87
5.5 5.5. La distribución F de Fisher

5.5. La distribución F de Fisher


Una variable aleatoria u está distribuida de acuerdo con una distribución F de Fisher con ν1 y ν2
grados de libertad si su función de densidad de probabilidad está dada por

Γ( ν1 +ν 2
) ν1 /2 ν2 /2 ν2 /2−1 ν1 +ν2
f (u) = ν1
2
ν2 ν1 ν2 u (ν1 u − ν2 )− 2 (5.28)
Γ( 2 )Γ( 2 )
donde u > 0.
Para esta distribución,
ν2
µu = si ν2 > 2 (5.29)
ν2 − 2

2 2ν22 (ν1 + ν2 − 2)
σ (u) = si ν2 > 4 (5.30)
ν1 (ν2 − 2)2 (ν2 − 4)

5.5.1. ¿Qué variables aleatorias de interés siguen una distribución F de Fis-


her?
Teorema 5.6
Sean V1 y V2 dos variables aleatorias independientes distribuidas de acuerdo con distribuciones χ2
con ν1 y ν2 grados de libertad. Entonces la variable aleatoria f dada por

V1 /ν1
f= (5.31)
V2 /ν2
sigue una distribución F con ν1 y ν2 grados de libertad.
Una consecuencia de este teorema es

1
F1−p (ν1 , ν2 ) = (5.32)
Fp (ν2 , ν1 )

88
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Corolorario 5.2
Sean dos muestras aleatorias independientes de tamaños m y n, respectivamente, que se obtienen
de poblaciones normales con varianzas σ12 (x) y σ22 (y) respectivamente. De acuerdo con el teorema
anterior, la variable aleatoria

ms21 (x)/(m − 1)σ12 (x)


f= (5.33)
ns22 (y)/(n − 1)σ22 (y)

obedece una ley de Fisher con ν1 = m − 1 y ν2 = n − 1 grados de libertad.


En el caso en que σ12 = σ22 , la expresión anterior se simplifica a

s21 (x)
f= (5.34)
s22 (y)

Los apéndices A.4 y A.5 se recogen los valores de F con ν1 y ν2 grados de libertad para los que
la función de distribución de probabilidad iguala a 0.95 y 0.99 . Es decir se tabulan los valores de la
variable aleatoria f que cumplen:

P (f ≤ F0,95 ; ν1 , ν2 ) = 0,95

P (f ≤ F0,95 ; ν1 , ν2 ) = 0,99

Ya que en general Fp (ν1 , ν2 ) 6= Fp (ν2 , ν1 ), para calcular Fexp designaremos los valores de s1 y s2
de modo que s21 > s22

Ejemplo 11. Comparación de varianzas (I)


La varianzas muestrales obtenidas al aplicar dos métodos A y B para determinar el valor de una
magnitud son

s2 (A) =45,34 10−4


s2 (B) =11,11 10−4

En ambos experimentos se realizaron 9 medidas. ¿Es mayor la varianza en el método A que la


del método B?.
Supondremos que las medidas están distribuidas normalmente.
Formularemos la hipétesis nula H0 : σ12 = σ22 , de modo que si esta hipótesis es cierta, de acuerdo
con el corolario 5.2, la variable aleatoria

s2 (A)
fexp = (5.35)
s2 (B)
sigue una distribución F con ν1 = m − 1 = 8 y ν2 = n − 1 = 8 grados de libertad.

89
5.5 5.5. La distribución F de Fisher

Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea
razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 %
de las medidas si la hipótesis nula es cierta,

fexp ≤ F0,95 (8, 8)


Si esto no se cumple, supondremos valida la hipótesis alternativa H1 : σ12 > σ22 , que queremos
contrastar.
Calculamos fexp

45,34 10−4
fexp = = 4,0 (5.36)
11,11 10−4
En la tabla del apéndice A.4 encontramos F0,95 (8, 8) = 3,44 de modo que fexp > F0,95 (8, 8),
rechazamos H0 , las varianzas son iguales, y aceptamos la hipotesis alternativa: la varianza del
método A es mayor que la del método B.

Ejemplo 12. Comparación de varianzas (II)


Un ingeniero químico estudió la variabilidad de dos dispositivos de monitorización de un proceso
dentro de una planta. En el estudio de la variabilidad de ambos equipos obtuvo el siguiente
resultado

Equipo 1. s21 = 13,5 n1 = 12


Equipo 2. s22 = 10,53 n2 = 10

Tras analizar los datos, ¿puede afirmar el ingeniero que la variabilidad del primer equipo es
mayor que la del segundo?.
Supondremos que las medidas están distribuidas normalmente.
Formularemos la hipétesis nula H0 : σ12 = σ22 , es decir, no hay diferencias en la variabilidad. Si
esta hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria

s21
fexp = (5.37)
s22
sigue una distribución F con ν1 = m − 1 = 11 y ν2 = n − 1 = 9 grados de libertad.
Utilizaremos como criterio para aceptar esta hipótesis que el valor de fexp que obtenemos sea
razonablemente probable, es decir que este comprendida en el intervalo que comprende al 95 %
de las medidas si la hipótesis nula es cierta,

fexp ≤ F0,95 (11, 9)


Si esta condición no se cumple, supondremos valida la hipótesis alternativa H1 : σ12 > σ22 , que
es la hipótesis que queremos contrastar.

90
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Calculamos fexp
13,5
fexp = = 1,31 (5.38)
10,53
En la tabla del apéndice A.4 encontramos F0,95 (11, 9) = 3,10 de modo que fexp < F0,95 (11, 9).
Aceptamos H0 ,las varianzas son iguales. Esto quiere decir que la variabilidad de los dos métodos
es la misma.

Ejemplo 13. Comparación de varianzas (III)


La f.e.m. de una pila Cu|Zn fue medida con dos aparatos distintos. Con el primer aparato se
obtuvo una varianza muestral s21 (x) = 0,152 con 11 medidas. Con el segundo aparato el resultado
fue s22 (x) = 0,011 con 6 medidas.
¿Es consistente este resultado con la hipótesis σ12 (x) = σ22 (x)?.
Si la hipótesis es cierta, de acuerdo con el corolario 5.2, la variable aleatoria

s21
fexp = (5.39)
s22
sigue una distribución F con ν1 = m − 1 = 10 y ν2 = n − 1 = 5 grados de libertad.
Consideraremos que la hipótesis se cumple si

fexp ≤ F0,99 (10, 5)


Calculamos fexp
0,152
fexp = = 13,82 (5.40)
0,011
Por tanto, no podemos aceptar la hipótesis propuesta (hipótesis nula) por que la probabilidad de
obtener ese resultado es muy pequeña. Es decir, el valor obtenido corresponde a un intervalo en
el que de ser cierta la hipótesis nula encontraríamos el 1 % de los resultados experimentales.

91
5.6 5.6. Ejercicios y problemas

5.6. Ejercicios y problemas


Cuestión 5.1 Dada la función de distribución normal, encuentre el área bajo la curva que cae

(a) a la izquierda de z = 1.43

(b) a la derecha de z = -0.89

(c) entre z = -2.16 y z=-0.65

(d) a la izquierda de z = -1.39

(e) a la derecha de z = 1.96

(f) entre z = -0.48 y z=1.74

Cuestión 5.2 Dada una distribución normal estándar, encuentre el valor de k, tal que:

(a) P (Z < k) = 0,0427

(b) P (Z > k) = 0,2946

(c) P (−0,93 < Z < k) = 0,7235

Cuestión 5.3 Dada una distribución normal con µ = 30 y σ = 6, encuentre:

(a) el área de la curva normal a la derecha de x=17

(b) el área de la curva normal a la izquierda de x=22

(c) el área de la curva normal entre x=32 y x=41

(d) el valor de x que tiene el 80 % del área de la curva normal a la izquierda

(e) los dos valores de x que contienen un intervalo central del 75 % del área de la curva normal

Cuestión 5.4 Si un conjunto de observaciones están normalmente distribuidas, ¿qué porcentaje de


estas difiere de la media en

(a) más de 1,3 σ

(b) menos de 0,52 σ

Cuestión 5.5 Encuentre la probabilidad de que una muestra aleatoria de 25 observaciones, de una
población con varianza σ 2 = 6 tenga una varianza s2

(a) mayor a 9.1

(b) entre 3.462 y 10.745

92
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Cuestión 5.6 Dada una muestra aleatoria de tamaño 24 de una distribución normal, encuentre k de
manera que:

(a) P (−2,069 < t < k) = 0,965

(b) P (k < t < 2,807) = 0,095

(c) P (−k < t < k) = 0,90

Cuestión 5.7 Para una distribución χ2 encuentre

(a) χ20,975 cuando ν=15

(b) χ20,99 cuando ν=7

(c) χ20,95 cuando ν=24

Cuestión 5.8 Para una distribución χ2 encuentre

(a) χ20,95 cuando ν = 5

(b) χ20,95 cuando ν = 19

(c) χ20,99 cuando ν = 12

Cuestión 5.9 Para una distribución χ2 encuentre χ2α de manera que:

(a) P (X 2 < χ2p ) = 0,99 cuando ν = 4

(b) P (X 2 < χ2p ) = 0,025 cuando ν = 19

(c) P (37,652 < X 2 < χ2p ) = 0,045 cuando ν=25

Cuestión 5.10 Encuentre

(a) t0,025 cuando ν = 14

(b) Encuentre −t0,01 cuando ν = 10

(c) Encuentre t0,995 cuando ν = 7

Cuestión 5.11 Para una distribución F encuentre:

(a) F0,95 (ν1 = 7, ν2 = 15)

(b) F0,95 (ν1 = 15, ν2 = 7)

(c) F0,99 (ν1 = 24, ν2 = 19)

93
5.6 5.6. Ejercicios y problemas

Distribución normal
Ejercicio 5.1 Dada una distribución normal estándar, encuentre el área bajo la curva que yace, (a)
a la derecha de z = 1.84 y (b) entre z = -1.97 y z= 0.86.

Ejercicio 5.2 Para una distribución normal estándar, encuentre el valor de k, tal que (a) P(Z>k) =
0.3015 y (b) P(k<Z<-0.18) = 0.4197.

Ejercicio 5.3 Dada una distribución normal con µx = 50 y s(x) = 10, encuentre la probabilidad de
que X tome un valor entre 45 y 62.

Ejercicio 5.4 Dada una distribución normal con µx = 300 y s(x) = 500, encuentre la probabilidad
de que X tome un valor mayor que 362.

Ejercicio 5.5 Dada una distribución normal con µx = 40 y s(x) = 6, encuentre el valor de x que
tiene (a) 45

Ejercicio 5.6 Cierto tipo de batería de almacenamiento dura, en promedio, 3.0 años, con una desvia-
ción típica de 0.5 años. Suponga que la duración de las baterías se distribuye normalmente, encuentre
la probabilidad de que una batería dure menos de 2.3 años.

Ejercicio 5.7 Una empresa eléctrica fabrica focos que tienen una duración media de 800 horas y una
desviación típica de 40 horas. Si la duración de los focos sigue una distribución normal, encuentre
la probabilidad de que un foco se funda en el intervalo de 778 a 834 horas.

Ejercicio 5.8 En un proceso industrial el diámetro de un cojinete es una parte importante de un


componente. El comprador establece que las especificaciones en el diámetro sean 3.0 ± 0.1 cm. Se
sabe que en el proceso el diámetro de un cojinete tiene una distribución normal con media 3.0 cm y
una desviación típica de 0.005 cm. En promedio, ¿cuántos cojinetes se descartarán?.

Ejercicio 5.9 El 6.3 % de las observaciones de una magnitud que sigue una distribución normal tiene
un valor superior a 3.287, mientras que el 51.2 % tiene valores mayores que 2.897. Calcule la media
y la varianza de la distribución.

Ejercicio 5.10 Considere un experimento de medida del pH de una disolución acuosa caracterizado
por µpH = 5.50 y σ 2 (pH) = 0.06.
Determine el intervalo de valores en el que espera encontrar el 95 % de las medias muestrales de
los experimentos que combinen el resultado de 25 determinaciones del pH de la disolución indicada.

Distribución t de student.
Ejercicio 5.11 Considere una variable aleatoria distribuida de acuerdo con una distribución t de
Student con 9 grados de libertad.
Encuentre el valor de t1 para el cual

a) P (T > t1 ) = 0,05

b) P (T > t1 ) = 0,025

94
5 5. Distribuciones de probabilidad de variables aleatorias continuas

c) P (−t1 < T < t2 ) = 0,99

d) P (−t1 < T < t2 ) = 0,975

e) P (T ≥ t1 ) = 0,90

Ejercicio 5.12 Considere una variable aleatoria distribuida de acuerdo con una distribución t.
Encuentre el valor de t1 que satisfaga cada una de las siguientes condiciones

a) P (−t1 < T < t1 ) = 0,90 y ν = 25.

b) P (T < −t1 ) = 0,025 y ν = 20.

c) P (T ≥ t1 ) = 0,55 y ν = 16

Ejercicio 5.13 Para una variable U que sigue una distribución t de Student con ν = 10 encuentre
los valores de c que cumplen

a) P (U > c) = 0,05.

b) P (−c ≤ U ≤ c) = 0,98.

c) P (U ≤ c) = 0,20.

d) P (U ≥ c) = 0,90.

Distribución χ2
Ejercicio 5.14 Un fabricante de baterías para automóvil garantiza que sus baterías durarán, en
promedio, 3 años con una desviación estándar de 1 año.
Si 5 de estas baterías tienen duraciones de l.9, 2.4, 3.0 ,3.5 y 4.2 años, ¿puede seguir el fabricante
convencido aún de que la duración de sus baterías tiene una desviación estándar de 1 año?

Ejercicio 5.15 Hallar los valores χ21 (ν) y χ22 (ν) tales que con ν = 20,el área bajo la curva sea de
0.95, tales que χ21 (ν) < χ22 (ν), y las áreas a la derecha de χ22 (ν) y a la izquierda de χ21 (ν) sean
iguales.
Note que sin estas consideraciones hay infinitos pares de valores χ21 (ν) y χ22 (ν) que cumplen esta
condición.

5.6.1. Soluciones a las cuestiones


Cuestion 5.1 a) 0.9236, b) 0.8133 c) 0.2424 d) 0.0823 e) 0.0250 f) 0.6435

Cuestion 5.2 a) -1.72 b) 0.54 c) 1.28

Cuestion 5.3 a) 0.9850 b) 0.0918 c) 0.3371 d) 35.04 e) 23.1 y e) 36.9

Cuestion 5.4 a)19.36 % b) 39.70 %

95
5.6 5.6. Ejercicios y problemas

Cuestion 5.5 a) 0.05 b) 0.94

Cuestion 5.6 a) 2.500 b) 1.319 c) 1.714

Cuestion 5.7 a) 27.488 b) 18.475 c) 36.415

Cuestion 5.8 a) 11.1 b) 30.144 c) 26.217

Cuestion 5.9 a) 13.277 b) 8.91 c) 46.928

Cuestion 5.10 a) -2.145 b) 2.76 c) 3.499

Cuestion 5.11 a) 2.71 b) 3.51 c) 2.92

5.6.2. Soluciones a los ejercicios


Distribución normal
Ejercicio 5.1 (a)

P (z ≥ 1,84) = 0,5 − P (0 ≤ z ≤ 1,84) = 0,5 − 0,4671 = 0,0329


(b)

P (−1,97 ≤ z ≤ 0,86) = P (−1,97 ≤ z ≤ 0) + P (0 ≤ z ≤ 0,86)


= P (0 ≤ z ≤ 1,97) + P (0 ≤ z ≤ 0,86)
= 0,4756 + 0,3051 = 0,7807

(a) (b)

96
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Ejercicio 5.2 (a)

P (z > k) = 0,3015 → P (0 ≤ z ≤ k) = 0,5 − 0,3015 = 0,1985

Consultando en la tabla del apéndice 1 obtenemos k = 0,52.


(b)

P (k ≤ z ≤ −0,18) = P (k ≤ z ≤ 0) − P (−0,18 ≤ z ≤ 0)
= P (0 ≤ z ≤ k) − P (0,0 ≤ z ≤ 0,18)
= P (0 ≤ z ≤ k) − 0,0714

De modo que

0,4197 = P (0 ≤ z ≤ k) − 0,0714
P (0 ≤ z ≤ k) = 0,4911

Consultando en la tabla del apéndice 1 obtenemos k = −2,37.

(c) a (d) b

Ejercicio 5.3
P (45 ≤ x ≤ 62) = P (z1 ≤ z ≤ z2 )
donde
x 1 − µx 45 − 50
z1 = = = −0,5
σ(x) 10
x 2 − µx 62 − 50
z2 = = = 1,2
σ(x) 10

97
5.6 5.6. Ejercicios y problemas

de modo que

P (45 ≤ x ≤ 62) = P (−0,5 ≤ z ≤ 1,2)


= P (−0,5 ≤ z ≤ 0) + P (0,0 ≤ z ≤ 1,2)
= P (0 ≤ z ≤ 0,5) + P (0,0 ≤ z ≤ 1,2)
= 0,1915 + 0,3849
= 0,5764

Ejercicio 5.4
P (x > 362) = P (z > z2 )
donde
x 2 − µx 362 − 300
z2 = = = 1,24
σ(x) 50
de modo que

P (x > 362) = P (z > 1,24)


= 0,5 − P (0 ≤ z ≤ 1,24)
= 0,5 − 0,3925
= 0,1075

Ejercicio 5.5 (a) De acuerdo con el enunciado del problema

P (z1 < z) = P (z > −z1 ) = 0,45

Para obtener el valor de z1 tendremos en cuenta que

P (0 < z < −z1 ) = 0,5 − P (z > −z1 ) = 0,5 − 0,45 = 0,05

98
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Consultando en la tabla obtenemos P (0 ≤ z ≤ 0,13) = 0,05, es decir z1 = −0,13


Para obtener x hacemos uso de la definición de variable reducida
x − µx
z = = −0,13 → x = 40 − 6 · 0,13 = 39,22
σ(x)
(b)
De acuerdo con el enunciado del problema

P (z > z1 ) = 0,14

Para obtener el valor de z1 tendremos en cuenta que

P (0 < z < z1 ) = 0,5 − P (z > −z1 ) = 0,5 − 0,14 = 0,36


Consultando en la tabla obtenemos P (0 ≤ z ≤ 1,08) = 0,36, es decir z1 = 1,08
Para obtener x hacemos uso de la definición de variable reducida
x − µx
z = = −0,13 → x = 40 − 6 · 1,08 = 46,48
σ(x)

99
5.6 5.6. Ejercicios y problemas

Ejercicio 5.6 El valor de la variable reducida es

x − µx
z =
σ(x)
2,3 − 3,0
=
0,5
= − 1,4
De modo que

P (x < 2,3) = P (z < −1,4) = 0,5 − P (0 < z < −1,4) = 0,5 − P (0 < z < 1,4) = 0,081
Ejercicio 5.7 Queremos calcular

P (778 < x < 834) = P (x < 834) − P (x < 778) = P (z < z1 ) − P (z < z2 )
Procedemos a calcular las variables reducidas z1 y z2
778 − 800
z1 = = −0,55
40
834 − 800
z2 = = 0,85
40
de modo que

P (x < 778) = P (z < −0,55) = 0,5−P (−0,55 < z < 0,0) = 0,5−P (0,0 < z < 0,55) = 0,2912

P (x < 34) = P (z < 0,85) = 0,5 + P (0,0 < z < 0,85) = 0,8023

P (778 < x < 834) = P (x < 834) − P (x < 778) = 0,8023 − 0,2912 = 0,5111

Ejercicio 5.8 Los cojinetes que se descartarán son aquellos que esten fuera del intervalo (2.9,3.1)
cm. Para calcular la fracción de cojinetes que se descartan calcularemos la fracción de cojinetes que
esperamos que esten dentro del intervalo, P (2,9 < x < 3,1)
Las variables reducidas vienen dadas por
2,99 − 3,0
z1 = = −2,0
0,005
3,01 − 3,0
z2 = = +2,0
0,005

P (2,9 < x < 3,1) = P (−2 < z < 2) = 2P (0 < z < 2) = 0,9544
Esperamos que un 4.56 % de los cojinetes no cumplan las especificaciones.

Ejercicio 5.9 µ = 2,90043 , σ 2 = 0,0625

100
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Distribución t de student
Ejercicio 5.11 (a) P (T > t1 ) = 0, 05
Teniendo en cuenta que la probabilidad del suceso seguro es 1 (ver definición axiomática de
probabilidad):

P (T ≤ t1 ) + P (T > t1 ) =1,00
P (T ≤ t1 ) + 0,05 =1,00
P (T ≤ t1 ) =0,95

Consultando la tabla de la distribución t de Student tenemos t1 = t0,95 (ν = 9) = 1,83.


(b) Siguiendo el mismo procedimiento que en la sección a obtenemos t1 = t0,975 (ν = 9) = 2,26.
(c) P (−t1 < T < t2 ) = 0, 99
Si el intervalo no es símetrico hay infinitos pares de valores de t1 y t2 que cumplen la condición
prescrita para definir los límites del intervalo. Sin embargo, sólo hay un par de valores de t1 y t2 tales
que si −t1 = t2 , P (−t1 < T < t2 ) = 0, 99.
Teniendo en cuanta la simetría de la distribución t de Student, la condición

P (−t2 < T < t2 ) = P (−t2 ≤ T ≤ 0) + P (0 ≤ T ≤ t2 ) = 0,99

P (T ≤ −t2 ) + P (T ≥ t2 ) = 2,0 × P (T ≥ t2 ) = 0,01

P (T ≥ t2 ) = 0,005
Utilizando los razonamientos de la sección a tenemos que t2 = t0,995 (ν = 9). Consultando la
tabla de la distribución t de Student tenemos −t1 = t2 = t0,995 (ν = 9) = 3,25.
(d) P (t1 < T < t2 ) = 0, 975
Siguiendo el mismo razonamiento que en la parte (c) obtenemos t2 = −t1 = t0,9875 (ν = 9) =
2,73. El valor de la percentila t0,9875 (ν = 9) no está incluido en la tabla. Se puede aproximar
utilizando una interpolación lineal entre los valores de la tabla couespondientes a las percentilas
t0,975 (ν = 9) y t0,99 (ν = 9).
(e) P (T ≥ t1 ) = 0, 90
Teniendo en cuenta la simetría de la distribución t de Student

P (T ≥ t1 ) = P (T ≤ −t1 ) = 0, 90
de modo que t1 = −t0,9 (ν = 9) = −1, 38

101
5.6 5.6. Ejercicios y problemas

Ejercicio 5.13 (a) P (U > c) = 0,05


Teniendo en cuenta que la probabilidad del suceso seguro es 1 (ver definición axiomática de
probabilidad):

P (U > c) + P (U ≤ c) = 1
0,05 + P (U ≤ c) = 1
P (U ≤ c) = 0,95

Consultando la tabla de la distribución t de Student tenemos c = t0,95 (ν = 9) = 1,83.


(b) P (−c ≤ U ≤ c) = 0,98
Teniendo en cuanta la simetría de la distribución t de Student, tenemos

P (−c ≤ U ≤ c) = P (−c ≤ U ≤ 0) + P (0 ≤ U ≤ c) = 0,98

P (U ≤ −c) + P (U ≥ c) = 2, 0xP (U ≥ c) = 0,02

P (U ≥ c) = 0,01
Finalmente tenemos c = t0,99 (ν = 10) = 2,76.
(c)P (U < c) = 0,20
Teniendo en cuanta la simetría de la distribución t de Student tenemos

P (U < c) = P (U > −c) = 0,20


de modo que

P (U < −c) = 0,80


Consultando la tabla de la distribución t de Student tenemos c = −t0,80(ν=10)=−0,879 .
(d) P (U ≥ c) = 0,20
Teniendo en cuenta la simetría de la distribución t de Student

P (U ≥ c) = P (U ≤ −c) = 0,90
de modo que c = −t0,9 (ν = 10) = −1, 37

Distribución χ2
Ejercicio 5.14 La varianza muestral es s2 (x) = 0,815. Suponiendo que las vida media de las bate-
rias sigue una distribución normal, la variable aleatoria (ecuación 5.27)

s2 (x)
X 2 = (n − 1)
σ 2 (x)
sigue una distribución χ2 (ν = n − 1).

102
5 5. Distribuciones de probabilidad de variables aleatorias continuas

Sustituyendo obtenemos
4 × 0,815
X2 = = 3,26
1
Consultando el apéndice A.3 tenemos que el intervalo simétrico que contiene el 95 % de las
medidas está comprendido entre χ20,025 (ν = 4) = 0,484 y χ20,975 (ν = 4) = 11,143. El resultado
obtenido esta dentro del intervalo y no contradice la hipótesis inicial σ 2 (x) = 1

5.7. Lecturas recomendadas


Para completar la preparación de este tema recomendamos la lectura de:

☞ Capítulo 2. Estadística de medidas repetidas. del texto de Miller y Miller[3]. XX

☞ Capítulo 1. Magnitudes aleatorias y sus caracterísitcas. del texto de Spiridonov y Lopatkin[7].


X
Revisa los contenidos del tema. Adecuado para revisar la teoría del tema.

☞ Capítulo 4. Distribuciones de Probabilidad especial del libro de Spiegel y cols.[5].


Adecuado para revisar ejercicios. En este tema los autores del libro también se tratan otras
distribuciones como la multinomial, hipergeométrica, Cauchy o gamma. No se han estudiado
porque no son de apliación frecuente en Química. Es mejor obviar las secciones en las que se
explican esas distribuciones pues no son imprescindibles para comprender el tratamiento de las
distribuciones normal, t, χ2 o F.
Se recomienda la revisión de los siguientes ejercicios:

• Distribución normal. Ejercicios 4.12 a 4.15


• Aproximación normal a la distribución binomial. Ejercicios 4.17 a 4.19
• La distribución chi cuadrado. Ejercicios 4.38 a 4.40
• La distribución t de Student. Ejercicios 4.43 y 4.44
• La distribución F . Ejercicios 4.47

En el caso de los ejercicios relacionados con la distribución normal se ilustra como identificar
los parámetros de la distribución normal y el uso de las tablas para la evaluación de probabi-
lidades. El resto de los ejercicios que se recomienda revisar, ilustran como utilizar las tablas
de las percentilas de las distribuciones t, χ2 y F . Sirven para revisar como se usan las tablas
estad´sticas y adquirir confianza en su manejo.

☞ Capítulo 4. Funciones de variables aleatorias. del texto de Walpole y Myers[6]. De este capí-
tulo es útil la revisión de las secciones:

6.4 Muestreo aleatorio.


6.5 Algunas estadísticas importantes.

103
5.7 5.7. Lecturas recomendadas

6.8 Distribuciones muestrales de medias.


6.9 La distribución muestral de (n − 1)s2 /σ 2
6.10 La distribución t
6.11 La distribución F

104
6

Intervalos de probabilidad e intervalos de confianza

Contenidos ✍ Intervalos de probabilidad Definición. Cálculo del intervalo de proba-


bilidad de la media. Cálculo del intervalo de probabilidad de la varianza.
✍ Intervalos de confianza Definición.
✍ Cálculo del intervalo de confianza de la media
✍ Cálculo del intervalo de confianza de la diferencia de las medias
✍ Cálculo del intervalo de confianza de la varianza para variables
normalmente distribuidas

Objetivos ✓ Comprender las diferencias entre intervalo de probabilidad e intervalo de


confianza
✓ Conocer las características que diferencian un intervalo de probabilidad y
un intervalo de confianza
✓ Calcular intervalos de probabilidad de una magnitud aleatoria.
✓ Calcular intervalos de confianza de la media de una variable gaussiana
✓ Calcular intervalos de confianza de la varianza de una variable gaussiana
✓ Calcular el intervalo de confianza de la diferencia de la media de variables
gaussianas
✓ Comparar datos apareados utilizando el test de la t de Student para datos
apareados

105
6.1. Distribución de probabilidad del error aleatorio.
Considere un conjunto de medidas x1 , x1 , . . ., xn de una magnitud. En ausencia de error sistemá-
tico sólo debemos tener en cuenta el error aleatorio. Por tanto, el resultado de una medida, xi , viene
dado por la suma del valor real, µx , y el error aleatorio asociado a esa medida εi .

x i = µx + ε i (6.1)
Para estimar el valor real, µx , necesitamos conocer que función de densidad de probabilidad des-
cribe el error aleatorio. Asumiremos que ei sigue una distribución normal de media µε = 0 y varianza
σ 2 (ε). Como εi sigue una distribución normal y µx es una constante, los resultados de las medidas xi
también siguen una distribución normal. La media de la distribución normal de las medidas es µx y
su varianza, s2 (x), es igual que la varianza del error aleatorio, σ 2 (x) = σ 2 (ε).
Estas propiedades se demuestran fácilmente utilizando las propiedades de la esperanza matemáti-
ca

µxi = E [xi ] = E [(µx + εi )] = µx + E [(εi )] = µx + µεi = µx + 0 = µx (6.2)

σ 2 (xi ) = E (xi − µxi )2 = E ((µx + εi ) − (µx + µεi ))2 = E ((εi − µεi )2 = σ 2 (εi )
     
(6.3)

El error aleatorio puede que no este distribuido normalmente. En algunos casos es evidente, por
ejemplo cuando sabemos que nuestros datos siguen una distribución uniforme, binomial o de Poisson.
En otros casos es necesario comprobar que los datos se ajustan a una distribución de probabilidad pos-
tulada (gaussiana, log-normal, exponencial, etc). Realizar esta comprobación es importante cuando el
método utilizado para calcular las estimas poblacionales no es robusto. Un método de cálculo de es-
timas no es robusto cuando (i) que los datos utilizados no se ajusten a la distribución de probabilidad
postulada para desarrollar el método, implica que (ii) las estimas de los parámetros poblacionales que
se obtienen pueden ser erróneas.

6.2. Intervalos de probabilidad


6.2.1. Definición
Sea x una estima del parámetro poblacional ξ (por ejemplo, la media o la varianza).
Se define como el intervalo de probabilidad de la estima x del parámetro ξ con un nivel de
probabilidad p al intervalo de valores de x

xmı́n = ξ − emı́n 6 x 6 ξ + emáx = xmáx (6.4)

que cumple

P (xmı́n 6 x 6 xmáx ) = p (6.5)


6 6.Intervalos de probabilidad e intervalos de confianza

Los límites del intervalo de probabilidad xmin y xmax son valores constantes y se calculan cono-
cidos la forma de la función de distribución (o de densidad de probabilidad) y los parámetros que la
caracterizan (media, varianza).
Se pueden definir infinitos intervalos de probabilidad de una estima x de un parámetro poblacional
ξ con un nivel de probabilidad p.
Nosotros trabajaremos con intervalos de tres tipos:

✓ P (xmı́n 6 x) = p (6.6)
✓ P (x 6 xmáx ) = p (6.7)
✓ P (xmı́n 6 x 6 xmáx ) = p (6.8)

Para este último intervalo imponemos la condición adicional de que probabilidad de obtener un valor
de x fuera del intervalo de probabilidad sea igual en ambos lados. Es decir

1−p
➠ P (xmáx 6 x) =
2 (6.9)
1−p
➠ P (xmáx 6 x) =
2

6.2.2. Intervalos de probabilidad de las medidas


Hemos supuesto que los errores aleatorios siguen una distribución normal. Por tanto, las medidas
experimentales aisladas también siguen una distribución normal. Como la distribución normal es
simétrica respecto de la media cuando se calcula el intervalo de probabilidad de una medida frecuente
trabajar con intervalos simétricos alrededor de la media

A0 = µ − D 6 x i 6 µ + D = A (6.10)

donde D es una constante que se elige dependiendo del valor de nivel probabilidad p del intervalo,

P (µ − D 6 xi 6 µ + D) = p (6.11)

D suele fijarse como un múltiplo de σ, D = kσ. Así la probabilidad asociada al intervalo depende
exclusivamente del valor de k:

k = 1,00 P (A0 6 xi 6 A) = P (−1,00 6 z 6 1,00) = 2,0 ∗ P (0 6 z 6 1,00) = 0,68


k = 1,96 P (A0 6 xi 6 A) = P (−1,96 6 z 6 1,96) = 2,0 ∗ P (0 6 z 6 1,96) = 0,95
k = 2,00 P (A0 6 xi 6 A) = P (−2,00 6 z 6 2,00) = 2,0 ∗ P (0 6 z 6 2,00) = 0,955
k = 3,00 P (A0 6 xi 6 A) = P (−3,00 6 z 6 3,00) = 2,0 ∗ P (0 6 z 6 3,00) = 0,997

107
6.2 6.2. Intervalos de probabilidad

6.2.3. Intervalos de probabilidad de las medias


El intervalo de probabilidad se calcula del mismo modo que el intervalo de probabilidad de los
datos pero teniendo que para n medidas (ver sección 5.2.1):

µ (x̄) = µ (x) (6.12)

σ 2 (x)
σ 2 (x̄) = (6.13)
n

Ejemplo 1. Cálculo del intervalo de probabilidad de un conjunto de medidas


En una práctica de laboratorio se midió el pH de una disolución. El análisis del conjunto de los
resultados condujo a los valores µpH = 5,00 y σ 2 (pH) = 0,04.
Determine el intervalo de valores que comprende el 95 % de las medidas del pH.
Para una distribución normal estandarizada (ver sección 5.2 y apéndice 1) tenemos

P (−1,96 6 z 6 1,96) = 2 P (0 6 z 6 1,96) = 0,95


donde
x − µx
z=
σ(x)
De donde sigue que los límites del intervalo que queremos calcular cumplen
(
−5,0
pH − µpH −1,96 = pHmı́n
0,2
→ pHmı́n = 4,61
z= = ±1,96 → pHmáx −5,0
σ(pH) +1,96 = 0,2
→ pHmı́n = 5,39
El intervalo de pH donde se encuentra el 95 % de las medidas es [4.80,5.20].

6.2.4. Intervalos de probabilidad de las varianzas


La varianza muestral s2 (x) sigue una distribución χ2 (ver sección 5.4.1). Esta distribución es
asimétrica, y los valores de las cuantilas que necesitamos para calcular los límites del intervalo de
probabilidad, A0 y A, dependen del nivel de probabilidad elegido, p y del número de medidas, n.
Si la muestra comprende n medidas y queremos calcular el intervalo de probabilidad con un nivel
de probabilidad p, el intervalo de probabilidad de s2 (x) viene dado por

σ 2 (x) σ 2 (x)
· χ21−p (ν) 6 s2 (x) 6 · χ21− p (ν) (6.14)
(n − 1) 2 (n − 1) 2

108
6 6.Intervalos de probabilidad e intervalos de confianza

Figura 6.1: Si la magnitud X está normalmente distribuida, y D = 1,96σ, la probabilidad de que el


resultado de una medida x se encuentre entre los valores A0 y A es PN (A0 ≤ x ≤ A) = 0,95

6.3. Intervalos de confianza


6.3.1. Definición
Sea x una estima del parámetro poblacional ξ .
Se define como el intervalo de confianza del parámetro x con un nivel de confianza 1 − α como
el intervalo de valores de x

x0mı́n = x − emı́n 6 ξ 6 x + emáx = x0máx

que cumple

P (x0mı́n 6 ξ 6 x0máx ) = p = 1 − α

1 − α es el nivel o grado de confianza del intervalo [x1, x2]. El nivel de confianza es una medida
de la probabilidad de que el parámetro x esté dentro del intervalo [x1, x2].
α es el grado de significación y da idea de la probabilidad de que el parámetro x esté fuera del
intervalo estimado.
Una diferencia importante entre los intervalos de probabilidad y los intervalos de confianza es
la naturaleza de los extremos. En un intervalo de probabilidad con un nivel de probabilidad p los
extremos del intervalo xmin y xmax son constantes, no cambian al repetir el experimento. En un
intervalo de confianza con un nivel de confianza 1 − α = p, los extremos del intervalo son x0min y
x0max son números aleatorios. Esto se debe al hecho de que para calcularlos utilizamos la estima de

109
6.3 6.3. Intervalos de confianza

ξ, x, que es una variable aleatoria. Por tanto, los extremos dependen de los datos empleados para
calcular x y pueden ser distintos en distintos experimentos.
Consideremos un experimento en que σ 2 (x) es conocida con gran precisión. Se realiza una medida
y se obtiene un valor xi . El valor de xi puede no coincidir con µ pero está incluido dentro del intervalo
de probabilidad p dado por
que corresponde al intervalo de valores en el que esperamos obtener xi con una probabilidad p,
conocidos los valores de µx y σ 2 (x). Esto es, xi está comprendido entre A0 y A en la figura 6.2.
Si no conocemos µx sólo podemos intentar estimar el intervalo en que esperamos que encontrar a
µx (constante) conocido el valor de su estima xi (variable aleatoria), es decir

µ − kσ 6 xi 6 µ + kσ (6.15)
Esto corresponde a que M está comprendida entre B 0 y B en la figura 6.2

xi − kσ 6 µ 6 xi + kσ (6.16)

Figura 6.2: Comparación de (a) intervalo de probabilidad, µx − kσ ≤ xi ≤ µx + kσ, y (b) el intervalo


de confianza xi − kσ ≤ µx ≤ xi + kσ. Basado en la figura 6.2 del texto de J. Mandel reseñado en la
bibliografía.

Aunque las dos expresiones anteriores son equivalentes algebraicamente, tienen distinto signifi-
cado. La primera (6.15) expresa el hecho de que la variable aleatoria x está comprendida entre las
constantes µx − kσ y µx + kσ (un intervalo de probabilidad). La segunda (6.16) implica que espera-
mos que la constante µ que se encuentre en un intervalo definido por dos variables aleatorias xi −kσ y
xi + kσ (un intervalo de confianza). La interpretación teórica de los intervalos de confianza es debida
a Neyman y Pearson: el intervalo de confianza expresa la probabilidad de que µx este comprendida
en el intervalo aleatorio que se extiende de xi − kσ a xi − kσ (en el intervalo B’ B de la figura 6.2).
Si cada experimento consta de n medidas, la estima de µx es la media muestral, . El intervalo de
probabilidad para la media muestral es
σ σ
µ − k√ 6 x 6 µ + k√ (6.17)
n n

110
6 6.Intervalos de probabilidad e intervalos de confianza

mientras que el intervalos de confianza de la media poblacional es

σ σ
x − k√ 6 µ 6 x + k√ (6.18)
n n

La figura 6.3 ilustra el concepto del concepto de intervalo de confianza. En las figura se representan
los resultados de una serie de medidas con sus respectivos intervalos de confianza. Cada medida hace
referencia a una estimación independiente del parámetro µx . Debido a la naturaleza aleatoria de los
errores, las estimas fluctúan alrededor del valor µx . Las barras de error representan los intervalos de
confianza de las estimas de µx basadas en la medida xi o en la media muestral de n medidas, x̄.
Las barras de error de cada medida equivalen a los intervalos de√confianza B’B de la figura 6.2. El
límite inferior de la barra de error representa
√ el valor x̄ − k σ(x)/ n, mientras que el límite superior
representa el valor de a x̄+k σ(x)/ n. En el diagrama suponemos que todas las estimas se realizaron
utilizando n√medidas, en consecuencia la longitud de los intervalos de confianza es constante e igual
a 2k σ(x)/ n .
Observe que en la figura 6.3 no todos los intervalos de confianza cortan la línea discontinua (que
corresponde al valor del parámetro µx ). El nivel de confianza asociado de cada intervalo puede in-
terpretarse como la frecuencia con la que esperamos que los intervalos obtenidos experimentalmente
incluyan el valor real de la magnitud que estemos estimando (µx en este ejemplo) cuando dibujáramos
una gráfica como la de la figura 6.3 y el número de medidas fuera muy grande.

Figura 6.3: Intervalos de confianza de la media cuando la varianza σ 2 (x) es conocida. La longitud de
los segmentos es constante pero la posición de sus puntos medios es una variable aleatoria. Note que
la longitud de los segmentos es proporcional al número de medidas utilizadas para calcular x̄. Basado
en la figura 6.3 del texto de J. Mandel reseñado en la bibliografía.

111
6.4 6.3. Intervalos de confianza

Si tanto la media µx como la varianza σ 2 (x) son desconocidas, utilizaremos las estimas muestrales
de µx y σ 2 (x), x̄ y s2 (x) para calcular el intervalo de confianza de m. Sabemos que

x̄ − µx
t= √ (6.19)
s(x)/ n
es una variable aleatoria que sigue una distribución una distribución t de Student con ν = n − 1
grados de libertad (ver sección 5.3.1 ). Con esta expresión podemos obtener un intervalo centrado en
la media muestral (intervalo de confianza)

s(x)
|x̄ − µx | 6 tp · √ (6.20)
n

s(x) s(x)
x̄ − tp · √ 6 µx 6 x̄ + tp · √ (6.21)
n n
donde el valor de tp depende del número de medidas y del nivel de confianza (p = 1 − α).
Además, puesto que s(x) es una variable aleatoria, la longitud del intervalo de confianza varia
de muestra a muestra. La figura 6.4 ilustra el concepto del concepto de intervalo de confianza en este
caso. En las figura se representan los resultados de una serie de medidas con sus respectivos intervalos
de confianza. Cada medida hace referencia a una estimación independiente del parámetro µx . Debido
a la naturaleza aleatoria de los errores, las estimas fluctúan alrededor del valor µx . Además como los
extremos del intervalo se calculan utilizando la varianza muestral, s2 (x), la longitud de los intervalos
de confianza es una variable aleatoria.

Figura 6.4: Intervalos de confianza de la media cuando la varianza σ 2 (x) se desconoce. Como s(x)
varia de experimento a experimento, tanto la longitud de los intervalos como sus puntos medios son
variables aleatorias. Además, la longitud de los segmentos también es proporcional al número de
medidas utilizadas para calcular x̄. Basado en la figura 6.3 del texto de J. Mandel reseñado en la
bibliografía.

112
6 6.Intervalos de probabilidad e intervalos de confianza

6.4. Calculo de intervalos de confianza para la media


6.4.1. Datos distribuidos normalmente con varianza σ 2 (x) conocida
Suponga que dispone de n observaciones x1 , x2 , . . ., xn distribuidos de acuerdo con una distribu-
ción normal de media µx y varianza σ 2 (x), PN (x; µx , σ 2 (x)) y de la que no conocemos µx .
Puesto que la media muestral sigue una distribución normal, PN (x; µx , σ(x)/n el intervalo de
confianza de µx con un nivel de confianza 1 − α es

σ(x) σ(x)
x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ (6.22)
n n

 
σ(x) σ(x)
x̄ − k1− α2 · √ , x̄ + k1− α2 · √ (6.23)
n n

σ(x)
x̄ ± k1− α2 · √ (6.24)
n

donde k1−α/2 toma un valor tal que se cumple

   
σ(x) σ(x) µx − x̄
P x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ =P −k1− α2 6 √ 6 k1− α2 =1−α
n n σ(x)/ n
(6.25)

6.4.2. Datos distribuidos normalmente con varianza finita y con n grande


Suponga que dispone de n observaciones x1 , x2 , . . ., xn que siguen la misma distribución de
probabilidad con media µx y varianza σ 2 (x) finita, ambas desconocidas pero con un valor de n grande
(n ≥ 50). De acuerdo con el teorema del límite central (ver 5.2.1), x̄, sigue una distribución normal
de media µx y varianza σ 2 (x).
Así, la variable aleatoria

x̄ − µ √
z= n (6.26)
σ(x)
sigue una distribución normal de media µz = 0 y varianza varianza σ 2 (z) = 1, PN (z; 0, 1).
Para valores grandes de n podemos hacer la aproximación

σ 2 (x) ∼
= s2 (x) (6.27)
De modo que el intervalo de confianza de la media con un nivel 1 − α viene dado por

σ(x) σ(x)
x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ (6.28)
n n

113
6.4 6.4. Calculo de intervalos de confianza para la media

σ(x)
x̄ ± k1− α2 · √ (6.29)
n
donde k1−α/2 toma un valor tal que se cumple

   
σ(x) σ(x) µx − x̄
P x̄ − k1− α2 · √ 6 µx 6 x̄ + k1− α2 · √ =P −k1− α2 6 √ 6 k1− α2 =1−α
n n σ(x)/ n
(6.30)
¿Cuando es n lo suficientemente grande?. El valor de n depende de la función de distribución que
caracteriza al conjunto de datos estudiado. El tema va más allá de los contenidos de este curso. Como
referencia podemos utilizar n ≥ 50.

Ejemplo 2. Cálculo del intervalo de confianza de la media (I)


Para una variable aleatoria x distribuida normalmente con varianza σ 2 (x) = 1 se obtuvieron los
siguientes datos : +0.250, +1.620, + 0.014, -0.366, + 0.756, + 0.608, -2.150, +1.162.
Determine el intervalo de confianza del 95 % de la media poblacional
El intervalo de confianza viene dado por las ecuaciones 6.22, 6.23 ó 6.24. Por comodidad utili-
zaremos la ecuación 6.24

σ(x)
x̄ ± k1− α2 · √
n

Calculamos x̄ = 0,205 y σ(x̄) = σ(x)/ n = 1/3
Puesto que el nivel de confianza es del 95 %,
µ−x̄ √ µ−x̄ √
   
P −k 6 σ(x) n 6 k = 2P 0 6 σ(x)
n 6 k = 0,95

µ−x̄ √
 
P 06 σ(x)
n 6 k = 0,475 → k = 1,96
Sustituyendo en la ecuación 6.24 obtenemos
1
0,205 ± 1,96 · = 0,653
3

6.4.3. Datos distribuidos normalmente con varianza σ 2 (x) desconocida


Suponga que dispone de n observaciones x1 , x2 , . . ., xn distribuidos de acuerdo con una distri-
bución normal de media µx y varianza σ 2 (x), PN (x; µx , σ 2 (x)), pero que desconoce la media y la
varianza.
Para obtener el intervalo de confianza haremos uso de que la variable aleatoria (ver 5.3.1)
x̄ − µx
t= √ (6.31)
s(x)/ n

114
6 6.Intervalos de probabilidad e intervalos de confianza

que está distribuida de acuerdo con una distribución t de Student con ν = n − 1 grados de libertad.
Recuerde que la distribución t de Student es simétrica respecto a t = 0.
Por tanto

s(x) s(x)
x̄ − t1− α2 (ν = n − 1) · √ 6 µx 6 x̄ + t1− α2 (ν = n − 1) · √ (6.32)
n n

 
s(x) s(x)
x̄ − t
1− α (ν = n − 1) · √ , x̄ + t1− α2 (ν = n − 1) · √ (6.33)
2
n n

s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (6.34)
n

donde tp (n = 1 − n) corresponde al valor de t tal que


P −t1− α2 (ν = n − 1) 6 t(ν = n − 1) = 1 − α (6.35)

s(x) µx − x̄
−t1− α2 (ν = n − 1) · √ 6 √ 6 t1− α2 (ν = n − 1) (6.36)
n s(x)/ n

Ejemplo 3. Cálculo del intervalo de confianza de la media (II)


Considere los de resultados de un experimento en los que se determinó la densidad de un polí-
mero de alto peso molecular: ρ̄ = 1,25510 g.cm−3 , s(ρ) = 3,7 10−4 g.cm−3 y n = 5.
Determine el intervalo de confianza del 95 % de la media poblacional
El intervalo de confianza viene dado

s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (6.37)
n

Puesto que el nivel de confianza es del 95 %,

3,7 10−4 3,7 10−4


ρ =1,25510 ± t0,975 (ν = 4) √ = 1,25510 ± 2,776 √
5 5
=1,25510 ± 0,0005 g.cm−3

115
6.5 6.5. Calculo de intervalos de confianza para la varianza

Ejemplo 4. Cálculo del intervalo de confianza de la media (III)


Diez análisis de la concentración de albúmina dieron una media de 20.92 µg/l y una desviación
típica de 0.45 µg/l.
Calcule el intervalo de confianza del 95
El intervalo de confianza viene dado

s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (6.38)
n

Puesto que el nivel de confianza es del 95 %,

0,45 0,45
c =20,92 ± t0,975 (ν = 8) √ = 20,92 ± 2,31
9 3
−3
=20,92 ± 035 g.cm

6.4.4. Datos que siguen una distribución desconocida con varianza finita y con
n pequeña
En este caso no podemos decir nada. Para poder aplicar el teorema del límite central (ver necesi-
tamos más medidas.

6.5. Calculo de intervalos de confianza para la varianza


Considere que dispone de un conjuntos de n observaciones independientes x1 , x2 , . . ., xn que
siguen una distribución normal PN (x; µx , σ 2 (x)) de la que se desconoce µx y σ 2 (x).
Se puede demostrar que la variable aleatoria
n
2
X (xi − x̄)2 s2 (x)
X = = (n − 1) (6.39)
i=1
σ 2 (x) σ 2 (x)

sigue una distribución χ2 con ν = n − 1 grados de libertad.


Por tanto,

s2 (x)
 
2 2
P χα/2 (ν) 6 (n − 1) · 2 6 χ1−α/2 (ν) = 1 − α (6.40)
σ (x)

donde χ2α/2 y χ21−α/2 son las cuantilas de α/2 y 1 − α/2 de las distribución χ2 (ν). Reordenando esta
expresión se obtiene
!
(n − 1) · s2 (x) (n − 1) · s 2
(x)
P 2
6 σ 2 (x) 6 =1−α (6.41)
χ1−α/2 (ν) χ2α/2 (ν)

116
6 6.Intervalos de probabilidad e intervalos de confianza

y el intervalo de confianza con un nivel de confianza a viene dado por


!
(n − 1) · s2 (x) (n − 1) · s2 (x)
, (6.42)
χ21−α/2 (ν) χ2α/2 (ν)

Note que el intervalo no es simétrico respecto de s2 (x).

Ejemplo 5. Cálculo del intervalo de confianza de la varianza


Considere de nuevo el experimento de la determinación de la densidad de un polímero. En una
tanda de experimentos se obtuvo s2 (ρ) = 14,0 10−8 g2 .l−2 , n = 5.
Determine el intervalo de confianza de σ 2 (ρ) con α = 0,90.
El intervalo de confianza viende dado por
!
(n − 1) · s2 (x) (n − 1) · s2 (x)
,
χ21−α/2 (ν) χ2α/2 (ν)
Tenemos:

(n − 1) · s2 = 5,6 10−7
Consultando el apéndice 3, obtenemos χ20,05 (ν = 4) = 0,711 y χ20,95 (ν = 4) = 9,49.
Sustituyendo

5,67 10−7 5,67 10−7


 
, = (0,60, 7,97) 10−7
9,49 0,711

6.6. Cálculo de intervalos de confianza para la diferencia de las


medias
Considere que dispone de un conjuntos de observaciones independientes x1 , x2 , . . ., xn1 e y1 , y2 ,
. . ., yn2 con n1 y n2 medidas cada uno.
Sean µ1 y µ2 las medias poblacionales de x e y respectivamente . En esta sección explicaremos
como calcular el intervalo de confianza de µ1 − µ2 .

117
6.6 6.6. Cálculo de intervalos de confianza para la diferencia de las medias

6.6.1. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) conocidas
La suma de dos variables aleatorias gaussianas sigue también una distribución gaussiana (ver
5.2.1).
Si x sigue una distribución PN (x; µx , σ12 (x)) e y una distribución PN (x; µy , σ22 (y)). La variable
aleatoria d = x − y sigue una distribución gaussiana PN (d; µ1 − µ2 , σ12 (x)/n1 + σ2 2(y)/n2).
Por tanto la variable d, definida como

(x̄ − ȳ) − (µ1 − µ2 )


d=  2 1/2 (6.43)
σ1 σ22
n1
+ n2

sigue una distribución PN (d; 0, 1) y el intervalo de confianza viene dado por

1/2
σ12 σ22

(x̄ − ȳ) ± z(1− α ) + (6.44)
2 n1 n2

6.6.2. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconoci-
das pero iguales
Considere dos variables aleatorias tales que x sigue una distribución PN (x; µx , σ12 (x)) e y una
distribución PN (x; µy , σ22 (y)). La variable aleatoria d = x − y sigue una distribución gaussiana
PN (d; µ1 − µ2 , σ12 (x)/n1 + σ2 2(y)/n2).
Si las varianzas no son conocidas pero podemos suponer que σ12 (x) = σ2 2(y), se puede suponer
que la variable aleatoria t

(x̄ − ȳ) − (µ1 − µ2 )


t=  1/2 (6.45)
s (x − y) n11 + n12

sigue una distribución t de Student con ν = n1 + n2 − 2 grados de libertad.


La estima de σ 2 (x − y), s2 (x − y) se calcula utilizando la ecuación

(x − x̄)2 + (y − ȳ)2 (n1 − 1) s21 + (n2 − 1) s22


P P
s2 (x − y) = = (6.46)
n1 + n2 − 2 n1 + n2 − 2

El intervalo de confianza viene dado por

 1/2
1 1
(x̄ − ȳ) ± t1− α (n1 + n2 − 2) s (x − y) + (6.47)
2 n1 n2

118
6 6.Intervalos de probabilidad e intervalos de confianza

Ejemplo 6. Cálculo del intervalo de confianza de la diferencia de las medias


En la comparación de dos métodos de preparación de polímeros, se obtuvieron los siguientes
resultados para la densidad media de las disoluciones de polímero preparadas en cada método.

Método 1.barρ = 1,21510 g.cm - 3 s2 (ρ) = 1,4 10−7 g.cm - 3 n1 = 5


Método 1.barρ = 1,21650 g.cm - 3 s2 (ρ) = 6,5 10−7 g.cm - 3 n2 = 4
Determine el intervalo de confianza del 90 % de la diferencia de las medias. ¿Hay una diferencia
significativa en la densidad del polímero generado en estos métodos?.
El intervalo de confianza viende dado por
 1/2
1 1
(x̄ − ȳ) ± t1− α (n1 + n2 − 2) s (x − y) +
2 n1 n2

donde

(x̄ − ȳ) = −1,4 10−3


(n1 − 1) s21 + (n2 − 1) s22 (4 · 14 + 3 · 60,5) 10−8
2
s (x − y) = = = 33,9 10−8
n1 + n2 − 2 (5 + 4 − 2)
−4 (6.48)
s (x − y) = 5,82 10
 1/2
1 1
s (x − y) + = 2,91 10−4 t0,95 (ν = 7) = 1,895
n1 n2

Sustituyendo se obtiene el intervalo de confianza de la diferencia de las medias:

∆ρ12 = (−1,4 ± 0,5) 10−3 g.l−1 (6.49)


Note que el intervalo de confianza no incluye el cero lo que indica que con un nivel de confianza
del 90 % las densidades de los polímeros producidos por ambos métodos son diferentes.

6.6.3. Datos que siguen cualquier distribución con varianza finita y con n1 y
n2 grandes
De acuerdo con el teorema del límite central (ver 5.2.1) para valores grandes de n1 y n2 , las
variables aleatorias

x̄ − µx √ ȳ − µy √
zX = n1 zY = n2 (6.50)
σ(x) σ(y)

siguen distribuciones normales de media 0 y varianza 1.0.

119
6.7 6.7. Análisis de datos emparejados

Para valores grandes de n podemos hacer la aproximación

σ 2 (x) ∼
= s2 (x)
(6.51)
σ 2 (y) ∼
= s2 (y)
de modo que el intervalo de confianza µ1 − µ2 de la media con un nivel de confianza 1 − α es
1/2
s21 s2

(x̄ − ȳ) ± z(1− α ) + 2 (6.52)
2 n1 n2

6.6.4. Datos distribuidos normalmente con varianzas σ12 (x) y σ22 (y) desconoci-
das y distintas
Consideremos las variables x e y con distribuciones PN (x; µ1 , σ12 (x)) y PN (x; µ1 , σ12 (x)), de las
que no conocemos sus varianzas pero sospechamos que σ12 (x) 6= σ22 (y).
Para estimar el intervalo de confianza de la media utilizaremos el estadístico

(x̄ − ȳ) − (µ1 − µ2 )


t=  2 1/2 (6.53)
s1 s22
n1
+ n2

que sigue una distribución t de Student con ν grados de libertad que se calculan redondeando el valor
obtenido de la expresión
 2
s21 s22
n1
+ n2
ν= 
s41 s42 (6.54)
n21 (n1 −1)
+ n22 (n2 −1)

ν1 = n1 − 1 ν2 = n2 − 1
a un número entero.
Finalmente, el intervalo de confianza viene dado por
1/2
s21 s2

(x̄ − ȳ) ± t1− α (ν) + 2 (6.55)
2 n1 n2

6.7. Análisis de datos emparejados


A menudo se compararan dos métodos de análisis estudiando muestras de ensayo que contienen
sustancialmente diferentes cantidades de analito. Por ejemplo, suponga que se desea comparar dos
métodos para la determinación de la concentración de paracetamol en pastillas. Con este fin, se ana-
lizan diez pastillas de diez lotes diferentes para ver si difieren los resultados obtenidos por los dos
métodos. Como siempre existe variación entre las medidas debida al error aleatorio de la medida.
Además, las diferencias entre las tabletas y entre los métodos pueden contribuir también a la varia-
ción entre las medidas. Esto último es lo que interesa en este ejemplo: se desea saber si los métodos
producen resultados significativamente diferentes. Estudiar la diferencia entre las médias de los resul-
tados obtenidos con cada método no es apropiado en este caso porque no separa la variación debida

120
6 6.Intervalos de probabilidad e intervalos de confianza

al método de la que resulta de la variación entre las pastillas: se dice que los dos efectos se «con-
funden». Esta dificultad se soslaya observando la diferencia, d, entre cada par de resultados dados
por los dos métodos. Si no existen diferencias entre los dos métodos, entonces estas diferencias se
obtienen de una población con media µd = 0. Para probar la hipótesis nula, se prueba si d¯ difiere
significativamente de cero utilizando el estadístico t.
Para contrastar si n resultados emparejados se extraen de la misma población, es decir, H0 : µd =
0, se calcula el estadístico t:


t= √ (6.56)
s(d)/ n

donde d¯ y S(d) son la media y la desviación estándar, respectivamente, de d, la diferencia entre los
valores que forman cada par de medidas. El número de grados de libertad de t es ν = n − 1.
Los contrastes por parejas descritos no requieren que las precisiones de los dos métodos sean igua-
les. Suponen que las dife rencias, d, están distribuidas normalmente. En efecto, esto exige que cada
conjunto de medidas se distribuya normalmente y que la precisión y sesgo (si acaso) de cada método
sean constantes en el intervalo de valores en que se realizaron las medidas. Los datos pueden constar
de medidas individuales, como en o de medias de medidas repetidas. Sin embargo, es necesario que
se realice el mismo número de medidas sobre cada muestra por el primer método y análogamente por
el segundo método: es decir, n medidas de cada muestra por el método 1 y por el método 2, donde
m y n deben ser iguales. Hay diferentes circunstancias por las cuales puede ser necesario o deseable
diseñar un experimento, de manera que cada muestra sea analizada por cada uno de los dos métodos,
proporcionando resultados que están emparejados de forma natural.
Algunos ejemplos son:

1. La cantidad de muestra disponible a examen es suficiente para sólo una determinación por cada
método.

2. Las muestras a examen pueden presentarse durante un extenso período de tiempo por lo que es
necesario eliminar los efectos de las variaciones en condiciones ambientales como temperatura,
presión, etc.

3. Los métodos se van a comparar utilizando una amplia variedad de muestras de diferente proce-
dencia y posiblemente con concentraciones muy distintas

Ejemplo 7. Contraste de datos emparejados


Los datos de la tabla recogen los resultados de medias de la concentración de paracetamol (en
mg) para un lote de 10 pastillas

Lote 1 2 3 4 5 6 7 8 9 10
UV 84.63 84.38 84.08 84.41 83.82 83.55 83.92 83.69 84.06 84.03
NIR 83.15 83.72 83.84 84.20 83.92 84.16 84.02 83.60 84.13 84.24

¿Hay una diferencia significativa entre los resultados obtenidos por los dos métodos?

121
6.7 6.7. Análisis de datos emparejados

Las diferencias entre los pares de válores (restando el segundo al primero son):

Lote 1 2 3 4 5 6 7 8 9 10
UV 84.63 84.38 84.08 84.41 83.82 83.55 83.92 83.69 84.06 84.03
NIR 83.15 83.72 83.84 84.20 83.92 84.16 84.02 83.60 84.13 84.24
d +1.48 +0.66 +0.24 +0.21 -0.10 -0.61 -0.10 +0.09 -0.07 -0.21

Estos valores tienen una media d¯ = 0,159 y desviación típica s(d) = 0,570.
Si H0 : µd = 0,de acuerdo con la ecuación 6.56


texp = √ < t0,95 (ν = 9)
s(d)/ n

texp = 0,88 que es menor que el valor crítico t0,95 (ν = 9) = 2,26. Es decir, ambos métodos no
proporcionan resultados significativamente diferentes para la concentración de paracetamol.

122
6 6.Intervalos de probabilidad e intervalos de confianza

6.8. Ejercicios y problemas


Cuestión 6.1 Indique la mejor respuesta
La variable aleatoria x̄ esta distribuida de acuerdo con una distribución

(a) normal

(b) t de Student con ν = n grados de libertad

(c) t de Student con ν = n − 1 grados de libertad

(d) χ2 con ν = n − 1 grados de libertad

(e) F con ν1 = n − 1 y ν2 = n grados de libertad

(f) Ninguna de las anteriores

Cuestión 6.2 Indique la mejor respuesta



La variable aleatoria y = (x̄ − µx )/(s(x)/ n) esta distribuida de acuerdo con una distribución

(a) normal

(b) t de Student con ν = n grados de libertad

(c) t de Student con ν = n − 1 grados de libertad

(d) χ2 con ν = n − 1 grados de libertad

(e) F con ν1 = n − 1 y ν2 = n grados de libertad

(f) Ninguna de las anteriores

Cuestión 6.3 Indique la mejor respuesta


La variable aleatoria s2 (x) de datos que siguen una distribución normal esta distribuida de acuer-
do con una distribución

(a) normal

(b) t de Student con ν = n grados de libertad

(c) t de Student con ν = n − 1 grados de libertad

(d) χ2 con ν = n − 1 grados de libertad

(e) F con ν1 = n − 1 y ν2 = n grados de libertad

(f) Ninguna de las anteriores

123
6.8 6.8. Ejercicios y problemas

Cuestión 6.4 Verdadero o falso. Jusitfique la respuesta.


Sea x una estima del parámetro poblacional ξ.
El intervalo de probabilidad de la estima x del parámetro ξ con un nivel de probabilidad p es el
intervalo de valores de x que cumple
Se define como el intervalo de probabilidad de la estima x del parámetro ξ con un nivel de
probabilidad p al intervalo de valores de x

xmı́n = ξ − emı́n 6 x 6 ξ + emáx = xmáx (6.57)

que cumple

P (xmı́n 6 x 6 xmáx ) = p (6.58)

Hay infinitos intervalos de probabilidad que cumple esta condición

Cuestión 6.5 Indique aquellas afirmaciones que sean correctas


Un intervalo de probabilidad simétrico

(a) sólo existe para datos que siguen distribuciones de probabilidad simétricos

(b) está centrado alrededor de la media

(c) para x̄ está centrado en µx

(d) para x está centrado en µx

(e) para s2 (x) no está centrado en σ 2 (x)


1−p 1−p
(f) cumple que ➠ P (xmáx 6 x) = 2
y ➠ P (xmáx 6 x) = 2

Cuestión 6.6 Indique la mejor respuesta


Los límites x1 y x2 del intervalo de probabilidad simétrico

xmı́n = ξ − emı́n 6 x 6 ξ + emáx = xmáx (6.59)


con nivel de probabilidad p son

(a) constantes

(b) números aleatorios

(c) Ninguna de las anteriores. Justifique la respuesta

Cuestión 6.7 Defina intervalo de confianza.

Cuestión 6.8 Cuando se trabaja con intervalos de confianza, ¿qué indicamos con el nivel de con-
fianza del intervalo?.

124
6 6.Intervalos de probabilidad e intervalos de confianza

Cuestión 6.9 Indique aquellas afirmaciones que sean correctas


Los intervalos de confianza con nivel de confianza 1 − α para la media pueden calcularse como
σ(x)
(a) x̄ ± z1− α2 · √
n

σ(x)
(b) µx ± z1− α2 · √
n

s(x)
(c) x̄ ± t1− α2 (ν = n − 1) · √
n

s(x)
(d) µx ± t1− α2 (ν = n − 1) · √
n

Problema 6.1 Para investigar la reproducibilidad de un método para la determinación de selenio en


alimentos, se realizaron nueve medidas sobre un lote de arroz tostado, con los siguientes resultados:
0,07 0,07 0,08 0,07 0,07 0,08 0,08 0,09 0,08 µg.g−1
Calcular la media, desviación estándar y desviación estándar relativa de estos resultados.
La desviación estándar relativa se define como 100 × s(x)/x̄.

Problema 6.2 Siete medidas del pH de una solución reguladora proporcionaron los siguientes resul-
tados:
5,12 5,20 5,15 5,17 5,16 5,19 5,15
Calcular los límites de confianza para el verdadero pH al nivel de confianza del (i) 95
(Suponer que no existen errores sistemáticos.)

Problema 6.3 Diez análisis repetidos de la concentración de mercurio en una muestra de condensa-
do de gas comercial proporcionaron los siguientes resultados:
23,3 22,5 21,9 21,5 19,9 21,3 21,7 23,8 22,6 24,7 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99

Problema 6.4 Seis análisis repetidos de otra muestra proporcionaron los siguientes valores:
13,8 14,0 13,2 11,9 12,0 12,1 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99

Problema 6.5 Se midió la concentración de plomo en el fluido sanguíneo para una muestra de 50
niños de un colegio próximo a una calle con mucho tráfico. La media muestral fue 10.12 ng.ml−1 y la
desviación estándar fue 0.64 ng.ml−1 .
Calcular el intervalo de confianza al 95 % para la concentración media de plomo de todos los
niños de la escuela.

Problema 6.6 Considere los datos del problema 6.5.


¿Qué tamaño debería tener la muestra para reducir la longitud del intervalo de confianza a 0.2
ng.ml−1 (es decir: ±0,1 ng.ml−1 )?

125
6.8 6.8. Ejercicios y problemas

Problema 6.7 Para la evaluación de un método para la determinación de fluoreno en agua de mar,
se adicionó a una muestra sintética de agua de mar 50 ng.ml−1 de fluoreno.
Diez muestras repetidas de la concentración de fluoreno en la muestra tuvieron una media de 49.5
ng.ml−1 con una desviación estándar de 1.5 ng.ml−1 .
Calcule los límites de confianza de la media al 95 %.
¿Está el valor adicionado de 50 ng.ml−1 dentro de los límites de confianza al 95 % ?

Problema 6.8 Se utilizó una disolución 0.1 M de ácido para valorar 10 ml de una solución de álcali
0.1 M , registrándose los siguientes volúmenes de ácido:
9,88 10,18 10,23 10,39 10,21 ml
Calcule los límites de confianza de la media al 95 % y utilícelos para decidir si existe alguna
evidencia de error sistemático.

Problema 6.9 En un método nuevo para determinar selenourea en agua, se obtuvieron los valores
para muesstras de agua de grifo adicionadas con 50 ng.ml−1 de selenourea

50.4 50.7 49.1 49.0 51.1

¿Hay alguna evidencia de error sistemático?

Problema 6.10 En una comparación de dos métodos para la determinación de cromo en muestras
de hierba de centeno se obtuvieron los siguientes resultados (mg.Kg−1 )

Método 1 Media = 1.48 d.e. = 0.28


Método 2 Media = 2.33 d.e. = 0.31

Para cada método se realizaron 5 determinaciones. ¿Estos dos métodos proporcionan resultados
cuyas medias difieren significativamente?

Problema 6.11 En una serie de experimentos para la determinación de estaño en productos ali-
menticios las muestras fueron llevadas a ebullición con HCl a reflujo para diferentes tiempos. Los
resultados fueron:

Tiempo de reflujo (min) Estaño encontrado


30 55 57 59 56 56 59
75 57 55 58 59 59 59

¿Es significativa la diferencia entre las cantidades encontradas obtenidas para los dos de ebulli-
ción?

Problema 6.12 Los datos de la siguiente tabla proporcionan la concentración de tiol (mM) en el
lisado sanguíneo de dos grupos de voluntarios siendo el primer grupo "normal el segundo sufriendo
2

artritis reumatoide
¿Es significativa la diferencia entre las cantidades de tiol en sangre encontradas para los distintos
grupos de voluntarios?.

126
6 6.Intervalos de probabilidad e intervalos de confianza

Normal 1.84 1.92 1.94 1.92 1.85 1.91 2.07


Reumatoide 2.81 4.06 3.62 3.27 3.27 3.76

Problema 6.13 Para evaluar un método espectrofotométrico para determinar titanio, se aplicó el
método a muestras de aleaciones conteniendo diferentes cantidades certificadas de titanio. Los resul-
tados ( % Ti) se muestran a continuación.

Muestra Valor celtificado Media Desviación estándar


1 0.496 0.482 0.0257
2 0.995 1.009 0.0248
3 1.493 1.505 0.0287
4 1.990 2.002 0.0212

Para cada aleación se realizaron 8 determinaciones repetidas.


Para cada aleación, contraste si el valor medio difiere significativamente del valor certificado.

Problema 6.14 La tabla recoge los resultados de la medida de una propiedad mediante dos técnicas
experimentales diferentes.

Lote Ensayo espectrométrico UV Espectroscopía de reflectancia en el IR cercano


1 84.63 83.15
2 84.38 83.72
3 84.08 83.84
4 84.41 84.20
5 83.82 83.92
6 83.55 84.16
7 83.92 84.02
8 83.69 83.60
9 84.06 84.13
10 84.03 84.24

¿Son las diferencias entre pares de medidas significativas?.

Problema 6.15 Los siguientes datos proporcionan la recuperación de brofnuro adicionado a mues-
tras con contenido vegetal, medido mediante un método cromatográfico gas-líquido. La cantidad de
bromuro potásico añadido a cada tipo de vegetal fue la misma.

Tomate (µg.g−1 ) 777 790 759 790 770 758 764


Pepino (µg.g−1 ) 782 773 778 765 789 797 782

(a) Contrastar si la recuperación en los dos vegetales tiene varianzas, que difieran significativa-
mente.
(b) Contrastar si las tasas de recuperación medias difieren significativamente.
Siete medidas del pH de una solución reguladora proporcionaron los siguientes resultados:

127
6.8 6.8. Ejercicios y problemas

Problema 6.16 La siguiente tabla proporciona la concentración de norepinefrina (µmol por g de


creatinina) en la orina de voluntarios sanos de veinte años.

Hombres 0.48 0.36 0.55 0.45 0.46 0.47


Mujeres 0.35 0.37 0.27 0.29

¿Existe evidencia que la concentración de norepinefrina difiera entre sexos?

Problema 6.17 Seis análisis repetidos de otra muestra proporcionaron los siguientes valores:
13,8 14,0 13,2 11,9 12,0 12,1 ng.ml−1
Calcular la media, desviación estándar, desviación estándar relativa de estos resultados y límites de
confianza de la media al 99

Problema 6.18 La siguiente tabla recoge resultados de un trabajo en el que fueron comparados dos
métodos diferentes para la determinación de cromo en materiales orgánicos.

Agujas de pino Método 1 media= 2.15 d.e. = 0.26


Método 2 media =2.45 d.e. = 0.14
Hojas de haya Método 1 media= 5.12 d.e. = 0.80
Método 2 media =7.27 d.e. = 0.44
Planta acuática Método 1 media= 23.08 d.e. = 2.63
Método 2 media =32.01 d.e. = 4.66

En cada caso la media es el promedio de 5 valores.


Para cada material probar si la media de los resultados obtenidos por los dos métodos difiere
significativamente.

Problema 6.19 Un nuevo procedimiento enzimático de análisis por inyección en flujo para determi-
nar peróxido de hidrógeno en agua fue comparado con un método volumétrico redox convencional
con permanganato potásico aplicando ambos métodos a muestras de peróxido de uso farmacéutico.
La siguiente tabla proporciona la cantidad de peróxido de hidrógeno, en mg.ml−1 . Cada valor es
la media de cuatro réplicas.

Muestra Método enzimático Método del permanganato


1 31.1 32.6
2 29.6 31.0
3 31.0 30.3

Probar si los resultados obtenidos por ambos métodos difieren significativamente.

Problema 6.20 Las siguientes cifras se refieren a la concentración de albúmina, en gl−1 , en el suero
sanguíneo de 16 adultos sanos:

Hombres 37 39 37 42 39 45 42 39
Mujeres 44 40 39 45 47 47 43 41

¿Difiere significativamente la concentración media para hombres y mujeres?.

128
6 6.Intervalos de probabilidad e intervalos de confianza

Problema 6.21 Se comparó un nuevo método espectroscópico de absorción atómica de llama para
determinar antimonio en la atmósfera con el método colorimétrico recomendado. Para muestras de
atmósfera urbana, se obtuvieron los siguientes resultados:

Antimonio encontrado (mg.m−3 )


Muestra Método nuevo Método estándar
1 22.2 25.0
2 19.2 19.5
3 15.7 16.6
4 20.4 21.3
5 19.6 20.7
6 15.7 16.8

¿Hay diferencias significativas entre los resultados obtenidos por los dos métodos?

129
6.9 6.9. Lecturas recomendadas

6.9. Lecturas recomendadas


Para completar la preparación de este tema recomendamos la lectura de:

☞ Capítulo 3. Contrates de significación. del texto de Miller y Miller[3]. XX

☞ Chapter 7. Point Estimators, Confidence Intervals del texto de Graham[2]


Útil para completar el estudio del tema

☞ Chapter 6. The Precission and Accuracy of Measurements del texto de Mandel[4]


Útil para completar el estudio del tema

130
7

Cálculo de errores

Contenidos ✍ Calculo de errores en medidas directas. Cálculo de errores. Deses-


timación de medidas: el test Q de Dixon. El test de la τ de Thompson
modificada.
✍ Calculo de errores en medidas indirectas Error de escala: determina-
ción del error máximo y más probable. Error aleatorio. Combinación de
errores.
✍ Media ponderada de medidas independientes
Objetivos ✓ Reconocer
✓ Reconocer
✓ Realizar
✓ Comprender
✓ Conocer
✓ Comprender
✓ Utilizar

131
7.1 7.1. Cálculo de errores en medidas directas

7.1. Cálculo de errores en medidas directas


En general podemos expresar el resultado de una medida como

x = µ ± εi
donde la incertidumbre, εi , podemos expresarla como

εi = εsistemtico + εescala + εaleatorio


Nuestro objetivo es estimar la magnitud de cada una de estas incertidumbres que pasaremos a
discutir una a una.

7.1.1. Errores de escala


La contribución del error de escala a la incertidumbre la podemos considerar constante para cada
medida. Utilizaremos como valor del error de escala la mitad de la escala de medida del aparato, a no
ser que las especificaciones del aparato indiquen lo contrario.

7.1.2. Errores de sistemáticos


La determinación de los errores sistemáticos no es siempre sencilla. En los casos más benignos
son constantes o varían de manera conocida (por ejemplo, si utilizamos un aparato mal calibrado)
y las medidas pueden corregirse. En general, para acotar los errores sistemáticos es necesario hacer
experimentos de calibrado y utilizar técnicas de diseño de experimentos.
En este curso supondremos que los errores sistemáticos están enmascarados por otras fuentes de
error.

7.1.3. Errores accidentales o aleatorios


Para estimar su valor tenemos que proponer un modelo para la función de distribución de proba-
bilidad de las medidas. En adelante supondremos que nuestras medidas están distribuidas de acuerdo
con una función de distribución gaussiana o que podemos utilizar el teorema del límite central. Para
decidir si la incertidumbre en las medidas se ajusta a este modelo debemos hacer uso de las técnicas
de ensayo de hipótesis y diseño de experimentos.
Supongamos que tenemos n medidas independientes x1 , x1 , . . ., xn de una magnitud obtenidas
en un mismo aparato, utilizando el mismo método e iguales condiciones iniciales. Esta condición
equivale a decir que las medidas son muestras de la misma población y están caracterizadas por
la misma distribución de probabilidad. Si suponemos que los errores están distribuidos de acuerdo
con una distribución gausiana, el valor de la magnitud a determinar coincidirá con su media, µ. La
incertidumbre en las medidas estará relacionada con su desviación típica, σ(x), que es una medida de
la dispersión de los datos alrededor de la media di = xi − µ.
Si no conocemos ni µ ni σ(x) sólo podemos estimar su valor. Para determinar las estimas de µ
y σ(x) tenemos que utilizar métodos de determinación de estimas. Frecuentemente se utilizan las
técnicas de máxima verosimilitud y el método de mínimos cuadrados. Aplicando estos métodos se
obtiene:

132
7 7.Cálculo de errores

(1) La estima de la media general de la magnitud coincide con la media aritmética x̄, de las obser-
vaciones:
n
1X
x̄ = xi
n i=1

(2) ) La estima de la varianza de las medidas es la varianza muestral

n
1 X
2
s (x) = (xi − x̄)2
n − 1 i=1

(3) y la varianza de la media muestral viene dada por

s2 (x)
s2 (x̄) =
n

Para estimar el grado de proximidad de la media muestral,x̄, a la media poblacional, µ, utilizare-


mos el intervalo de confianza de la media. Los límites del intervalo de confianza se fijan de manera
que la media está contenida en este intervalo con una probabilidad predeterminada. En general se
emplean valores del coeficiente de confianza, 1 − α , entre 1 − α = 0,95 y 1 − α = 0,99.
Indicaremos el resultado de nuestras medidas como

σ(x)
x̄ ± k1− α2 · √ (7.1)
n

si conocemos, σ, ó si σ(x) es desconocida.

s(x)
x̄ ± t1− α2 (ν = n − 1) · √ (7.2)
n

Note que k = 1,96(1 − α = 0,95) y k = 2,575(1 − α = 0,95).

Ejemplo 1. Cálculo de incertidumbres (I)


En la determinación de la molaridad de una disolución de ácido sulfúrico por valoración con
hidróxido sódico de concentración conocida, se han obtenido los siguientes resultados: 0.4311,
0.4315, 0.4310, 0.4313, 0.4312 y 0.4311 M.
Determine el valor medio, la desviación típica de las medidas, la desviación típica de la media
muestral y la incertidumbre (error accidental) con un nivel de confianza del 95 %.

133
7.2 7.1. Cálculo de errores en medidas directas

i xi di = xi − x̄ di2
1 0.4311 −110−3 1,10−6
2 0.4315 +310−3 9,10−6
3 0.4310 −210−3 4,10−6
4 0.4313 +110−3 1,10−6
5 0.4312 010−3 0,10−6
6 0.4311 −110−3 1,10−6
X X X
n=6 xi = 2,5872 di = 0 d2i = 1,6 10−5
sP
d2i s(x)
x̄ = 0,4312 M s(x) = = 1.789910−3 M s(x̄) = √ = 7,30410−4
n−1 n
Dado que σ(x) es desconocida.

s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
t.975 (ν = 5) = 2,57
[H2 SO4 ] = 0,431 ± 0,002 M

Ejemplo 2. Cálculo de incertidumbres (II)


Diez medidas del cociente de áreas de dos picos en un experimento de cromatografía líquida
dieron los siguientes resultados: 0.4911, 0.4898, 0.4923, 0.4919, 0.4999, 0.4961, 0.4947, 0.4986,
0.4902, 0.4822.
Determine el valor medio, la desviación típica de las medidas, la desviación típica de la media
muestral y la incertidumbre (error accidental) con un nivel de confianza del 95 %.
X X X
n = 10 xi = 4,9268 di = 0 d2i = 2,3 10−4
sP
d2i s(x)
x̄ = 0,4927 s(x) = = 0,0051 s(x̄) = √ = 0,0016
n−1 n
Dado que σ(x) es desconocida.

s(x)
x̄ ± t1− α2 (ν = n − 1) · √
n
t.975 (ν = 9) = 2,26
x = 0,4927 ± 2,26 · 0,0016 = 0,4927 ± 0,0036

134
7 7.Cálculo de errores

7.2. Desestimación de medidas


Puede suceder que algunas medidas se alejen demasiado del resto por lo que pueden considerarse
como poco representativas de las magnitudes que se quieren medir. Estas medidas deben eliminarse
ya que utilizarlas afecta al valor de las estimas de las magnitudes que queremos calcular.
Consideramos que una medida es errática cuando la probabilidad de obtener ese valor es muy baja.
Podemos considerar que una medida es poco probable cuando está fuera del intervalo de confianza,
sin embargo este criterio sólo es fiable si el número de medidas es relativamente grande (n >10) o se
conoce µ con gran exactitud.
Cuando el número de observaciones es pequeño tenemos que utilizar otro criterio.Vamos a consi-
derar dos métodos para detectar medidas erráticas:

El ensayo de la Q de Dixon

La técnica de la τ de Thompson modificada

7.2.1. El ensayo de la Q de Dixon

En este método se comparan la diferencia entre el valor sospechoso y la medida más próxima a
éste con el rango de las medidas (diferencia entre el mayor y menor valores observados: xmax y xmin ).
La variable que utilizamos como referencia es el cociente de ambas magnitudes, la Q de Dixon:

xsospechoso − xmás próximo


Q= (7.3)
xmáximo − xmínimo

Si el valor de Q es mayor que el valor crítico de Q para un nivel de confianza del 95 % desestima-
remos el valor sospechoso.

n 4 5 6 7 8 9 10
Qcrit 0.831 0.717 0.621 0.570 0.524 0.492 0.464

Cuadro 7.1: Valores críticos de Q con un nivel de confianza del 95 %

Ejemplo 3. Desestimación de valores mediante el método de la Q de Dixon


En la medida de una cinética de primer orden se obtuvieron los siguientes valores de k (s−1 ):
4.51, 4.54, 4.52, 4.66, 4.51, 4.50, 4.48, 4.49, 4.51, 4.52.
Determine el valor de k. Verifique si tiene que despreciar alguna de las observaciones.

135
7.2 7.2. Desestimación de medidas

A partir de los datos experimentales podemos obtener

i 1 2 3 4 5 6 7 8 9 10
ki 4.51 4.54 4.52 4.66 4.51 4.50 4.48 4.49 4.51 4.52
ki − k̄ 0.01 0.02 0.00 0.14 0.01 0.02 0.04 0.03 0.00 0.01

k̄ = 4.52 s−1 , s(k) = 0.05 s−1 , s(k̄) = 0.02 s−1


Para la medida 4, k4 − k̄  s(k). Esta medida parece sospechosa.
Determinaremos si hay que despreciar la medida 4:
4,66 − 4,54
Qexp = = 0,67 > Qcrit (n = 10) = 0,452
4,66 − 4,48
Descartamos la medida de k= 4.66 y repetimos el cálculo de Qexp .
4,54 − 4,52
Qexp = = 0,33 < Qcrit (n = 9) = 0,492
4,54 − 4,48
No descartamos ningún otro dato. Repitiendo los calculo obtenemos k̄ = 4.51 s−1 , s(k) = 0.018
s−1 , s(k̄) = 0.006 s−1 .

k = 4,51 ± 0,01 s−1


con un nivel de confianza del 95 %.

Sin embargo, este método no es útil si en la muestra están presentes dos valores erráticos muy
próximos o muy separados entre si. Por ejemplo considere los valores:

2.1 2.0 2.1 2.3 2.9 2.3 3.1 2.2 2.0 2.3

En este caso

3,1 − 2,9
Qexp = = 0,18 < Qcrit (n = 10) = 0,464
3,1 − 2,0
el método no es capaz de discernir la presencia de dos valores erráticos muy próximos. Es necesario
aplicar técnicas que tenga en cuenta la posibilidad de observar dos o más valores erráticos.

7.2.2. La técnica de la τ de Thompson modificada


Este es el método recomendado en el documento Measurement Uncertainty (ANSI/ASME, 1986).
En este método se siguen los siguientes pasos:

(1) Se calcula la media x̄ y la desviación típica s(x) de las n medidas.

(2) Se ordenan las medidas de menor a mayor.

(3) Los valores mínimo y máximo son marcados como posibles valores erráticos (outliers).

136
7 7.Cálculo de errores

Figura 7.1: Ilustración de un ejemplo donde el test Q de Dixon no es capaz de discirminar los datos
erráticos. Este ejemplo ilustra la importancia de hacer una representación gráfica de los datos.

(4) Para es los dos valores sospechosos se calcula el valor absoluto de su desviación respecto de la
media:
δi = |xi − x̄| (7.4)

(5) El mayor valor de δi se compara con el producto τ · s(x), donde τ depende del número de
medidas realizadas (ver tabla 7.2).

(6) Si δi > τ · s(x) se desecha xi y se repiten los pasos (1) a (5) hasta que el valor con mayor δi
cumpla δi < τ · s(x)

n 3 4 5 6 7 8 9 10 11 12 13
τ 1.150 1.393 1.572 1.656 1.711 1.749 1.777 1.798 1.815 1.829 1.840
Cuadro 7.2: Valores de la τ de Thompson para distintos números de medidas

137
7.3 7.3. Cálculo de errores de medidas indirectas

Ejemplo 4. Desestimación de valores mediante el método de τ de Thompson modificada


Nueve medidas de conductividad de una disolución dieron los siguientes resultados: 12.02,
12.05, 11.96, 11.99, 12.10, 12.03, 12.00, 11.95, 12.16 mS.
Determine si hay algun valor errático
(1) Calculamos c̄ y s(x).

c = 12.03 mS
s(c) = 0.07 mS
(2) Calculamos δmin y δmax .

δmin = |cmin - c| = |11.95 - 12.03| = 0.08 mS


δmax = |cmax - c| = |12.16 - 12.03| = 0.13 mS
(3) Calculamos el valor crítico de δ. Con n = 9, τ = 1,777.

δcrit = 1,777 × 0,07 = 0,12


(4) Rechazamos el valor xmax .
Cuando repetimos el proceso obtenemos c̄= 12.01 mS, s(c) = 0.05 mS, y ningún valor deber
desecharse.

7.3. Cálculo de errores de medidas indirectas


En este caso la magnitud que queremos determinar, φ, no se puede medir directamente sino que
se expresa como una función de n magnitudes mensurables θ1 , θ2 , . . ., θn .
Como de las magnitudes θ1 , θ2 , . . ., θn tienen un error experimental, sólo podemos obtener sus
estimas experimentales x̄1 , x̄2 , . . ., x̄n .
¿Cómo podemos estimar el valor de φ y acotar su incertidumbre?. Se puede demostrar que una
estima quasi-insesgada de φ es

y = f (x̄1 , x̄2 , ..., x̄n ) (7.5)


Al igual que para medidas directas podemos escribir

y = φ + ε(y) (7.6)
donde

ε(y) = εsist (y) + εescala (y) + εaleatorio (y) (7.7)


Como en el estudio de las magnitudes directas ignoramos los errores sistemáticos. Si fueran co-
nocidos su tratamiento seria semejante al error de escala.

138
7 7.Cálculo de errores

A la hora de evaluar la incertidumbre de las medidas podemos considerar tres casos:

Sólo es necesario considerar el error de escala. Este es el caso en el que no podemos estimar
εaleatorio , o εescala  εaleatorio .

Sólo es necesario considerar el error aleatorio: εescala  εaleatorio .

Las magnitudes de εescala y εaleatorio son comparables y no podemos despreciar ninguno.

139
7.3 7.3. Cálculo de errores de medidas indirectas

140
Parte I

Apéndices

141
APÉNDICE A

Tablas estadísticas

A.1. Área bajo la curva normal tipificada

143
A.2 A.1. Área bajo la curva normal tipificada

144
A A.Tablas estadísticas

A.2. Valores de las percentilas tp para un distribución t de Stu-


dent con ν grados de lbertad

145
A.3A.3. Valores de las percentilas χ2p para un distribución χ2 de Student con ν grados de lbertad

A.3. Valores de las percentilas χ2p para un distribución χ2 de Stu-


dent con ν grados de lbertad

146
A A.Tablas estadísticas

A.4. Valores de las percentilas F0,95(ν1, ν2) para un distribución


F
Recuerde que ν1 es el número de grados de libertad del numerador y ν2 es el número de grados de
libertad del denominador.

147
A.5 A.5. Valores de las percentilas F0,99 (ν1 , ν2 ) para un distribución F

A.5. Valores de las percentilas F0,99(ν1, ν2) para un distribución


F
Recuerde que ν1 es el número de grados de libertad del numerador y ν2 es el número de grados de
libertad del denominador.

148
Bibliografía

[1] P. R. Bevington and D. K. Robinson. Data Reduction and Error Analysis for the Physical Scien-
ces. Second edition. McGraw-Hill, New York, 1994.

[2] Richard C. Graham. Data Analisis for the Chemical Sciences. VCH, New York, 1993. X.

[3] Jane C. Miller James N. Miller. Estadística y Quimiometría para Química Analítica. Prentice
Hall, Madrid, 2002. X.

[4] John Mandel. The Statistical Analysis of Experimental Data. Dover, New York, 1984.

[5] R. Alu Srinivasan Murray R. Siegel, John Schiller. Probabilidad y Estadística. Colección
Schaum. McGraw-Hill, Bogotá, 2a edition, 2001.

[6] R.H. Myers R. Walpole. Probabilidad y Estadística. McGraw-Hill, Madrid, 1992.

[7] V. P. Spiridonov and A. A. Lopatkin. Tratamiento matemático de datos fisicoquímicos. Segunda


edición. MIR, Moscú, 1983. TC X.

149
Índice alfabético

desestimación de medidas, 135 Intervalos de confianza, 109, 112


Q Dixon, 135 de diferencia de las medias, 117
distribución de la media, 113
uniforme, 50 de la varianza, 116
binomial, 51 definición, 109
χ2 , 84 diferencia de la media para datos empare-
de Bernuilli, 51 jados, 120
de Poisson, 55 intervalos de probabilidad
relación con distribución binomial, 57 definición, 106
relación con distribución normal, 58, 80 para las medias, 108
F de Fisher, 88 para las medidas, 107
Gaussiana, 70 para las varianzas, 108
normal, 70
ley de los grandes números, 18
t de Student, 80
relación con distribución normal, 80 media muestral, x̄, 39, 133
uniforme continua, 69 mediana, 44
medida errática, 135
error moda, 44
error de escala, 7
error de truncamiento, 11 precisión, 8
error absoluto, 6 prueba de Bernuilli, 51
espacio muestral, 16
esperanza matemática redondeo, 11
media, 35, 39
sesgo, 8
µx , 39
momentos centrales, 35 teorema de Moivre, 55, 79
momentos de una distribución, 35 teorema del límite central, 78
momentos respecto del origen, 35
propiedades, 34, 35 varianza, σ 2 (x), 39
varianza, 35 varianza muestral, s2 (x), 42, 133
exactitud, 8

incertidumbre, 6

150

También podría gustarte