Documentos de Académico
Documentos de Profesional
Documentos de Cultura
para Ingenieros
Versin 1.3, junio de 2012
Universidad de Jan
Versin 1.3
Junio de 2012
Dpto de Estadstica e I.O. Universidad de Jan
1. Introduccin 11
1.1. Qu signica Estadstica? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2. La Estadstica en el mbito de la Ciencia y la Ingeniera . . . . . . . . . . . . . . . . . . . . . 12
1.2.1. Ejemplo de las capas de xido de silicio . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2. Ejemplo de la bombilla de bajo consumo . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.3. Ejemplo de los niveles de plomo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.4. Ejemplo de los cojinetes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.5. Ejemplo de la absorcin de un compuesto a distintas dosis y en distintos tiempos de
absorcin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.6. Ejemplo de los accidentes laborales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.7. Ejemplo de la cobertura de la antena de telefona mvil . . . . . . . . . . . . . . . . . 15
1.2.8. Ejemplo de la seal aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3. Deniciones bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
I Estadstica descriptiva 17
2. El tratamiento de los datos. Estadstica descriptiva 19
2.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2. Tipos de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. Mtodos grcos y numricos para describir datos cualitativos . . . . . . . . . . . . . . . . . . 20
2.4. Mtodos grcos para describir datos cuantitativos . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5. Mtodos numricos para describir datos cuantitativos . . . . . . . . . . . . . . . . . . . . . . 25
2.5.1. Medidas de tendencia central . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.1.1. Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.5.1.2. Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5.1.3. Moda o intervalo modal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.5.2. Cuantiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5.3. Medidas de variacin o dispersin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3
Dpto de Estadstica e I.O. Universidad de Jan
II Clculo de Probabilidades 37
3. Probabilidad 39
3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2. Experimentos aleatorios y experimentos determinsticos . . . . . . . . . . . . . . . . . . . . . 40
3.3. Denicin de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.1. lgebra de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3.2. Espacio muestral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.3.3. Funcin de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.4. Interpretacin frecuentista de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5. Interpretacin subjetiva de la probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.6. Espacio muestral con resultados equiprobables. Frmula de Laplace . . . . . . . . . . . . . . 46
3.7. Probabilidad condicionada. Independencia de sucesos . . . . . . . . . . . . . . . . . . . . . . . 46
3.8. Teorema de la probabilidad total y Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . 51
3.9. Ms sobre el Teorema de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.9.1. Ejemplo del juez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.9.2. Ejemplo de la mquina de deteccin de fallos . . . . . . . . . . . . . . . . . . . . . . . 57
El objeto fundamental de la edicin de este documento es facilitar a los alumnos de ingeniera de la Escuela
Politcnica Superior de Linares el desarrollo de los contenidos tericos de la asignatura Estadstica. Desde un
punto de vista menos local, espero que sea til, en alguna medida, a todo aquel que necesite conocimientos
bsicos de las tcnicas estadsticas ms usuales en el ambiente cientco-tecnolgico.
A todos ellos, alumnos y lectores en general, quiero facilitarles el privilegio de aprender de quienes yo he
aprendido, sugirindoles cuatro manuales que para m han sido referencias fundamentales. Se trata, en primer
lugar, del magnco libro de Sheldon M. Ross, Introduccin a la Estadstica. En l puede encontrarse la
mayor parte de lo que vamos a estudiar aqu, explicado de forma sencilla y clara, pero tambin comentarios
histricos, reseas bibliogrcas sobre matemticos y estadsticos relevantes y ejemplos muy apropiados.
En segundo lugar, recomiendo los trabajos de William Navidi, Estadstica para ingenieros y cientcos, y
Jay Devore, Probabilidad y estadstica para ingeniera y ciencias, sobre todo por la actualidad de muchos
de sus ejemplos y por cmo enfatizan el carcter aplicado, prctico, de la Estadstica en el mbito de la
Ciencia y la Tecnologa. Finalmente, debo mencionar tambin el libro de Mendenhal & Sincich, Probabilidad
y Estadstica para Ingeniera y Ciencias, que incluye, como los dos anteriores, unos ejemplos y ejercicios
propuestos magncos.
En el actual contexto del Espacio Europeo de Educacin Superior, la asignatura Estadstica tiene, en la mayor
parte de los grados en ingeniera, un carcter bsico y una dotacin de 6 crditos ECTS. As ocurre, por
ejemplo, en las ramas de industriales o telecomunicaciones que se imparten en la Universidad de Jan. Otras
ramas, como la de ingeniera civil/minera, han optado por incluirla como asignatura obligatoria, compartida
con una asignatura de ampliacin de matemticas en la que se proponen 3 crditos ECTS de estadstica. Con
todo, creo que estos apuntes pueden adaptarse a esos distintos contextos, aclarando qu temas pueden ser
ms adecuados para cada titulacin. En concreto:
1. Para las distintas especialidades de la rama de industriales seran oportunos los captulos 1, 2, 3, 4, 6,
7, 8, 9 y 10. El captulo 9, sobre contrastes no paramtricos puede darse a modo de seminario, si el
desarrollo de la docencia as lo sugiere. Sin embargo, el captulo 10, sobre regresin lineal simple, me
parece imprescindible en la formacin de un futuro ingeniero industrial.
2. En los grados de la rama de telecomunicaciones, creo que son necesarios los captulos 1, 2, 3, 4, 5, 6,
7, 8 y 11. Resulta as el temario quiz ms exigente, debido a la necesidad de introducir un captulo
sobre vectores aleatorios previo a otro sobre procesos estocsticos. Queda a iniciativa del docente la
posibilidad de recortar algunos aspectos en los temas tratados en aras a hacer ms ligera la carga
docente.
3. Finalmente, en los grados de la rama civil y minera, donde la dotacin de crditos es menor, creo que
9
Dpto de Estadstica e I.O. Universidad de Jan
son adecuados los captulos 1, 2, 3, 4, 6, 7, 8 y 10, si bien eliminando algunos de sus apartados, cuestin
sta que dejo, de nuevo, a juicio del docente. Tambin sugiero que se trabajen los problemas sobre estos
captulos directamente en el contexto de unas prcticas con ordenador.
Slo me queda pedir disculpas de antemano por las erratas que, probablemente, contienen estas pginas. Os
ruego que me las hagis llegar para corregirlas en posteriores ediciones.
Introduccin
Llegar un da en el que el razonamiento estadstico ser tan necesario para el ciudadano como
ahora lo es la habilidad de leer y escribir
Resumen. El captulo incluye una introduccin del trmino Estadstica y presenta los conceptos ms bsicos
relativos a poblaciones y muestras.
Palabras clave: estadstica, poblacin, poblacin tangible, poblacin conceptual, variable, muestra, muestra
aleatoria simple.
1. Estudio de los datos cuantitativos de la poblacin, de los recursos naturales e industriales, del trco o
3. Rama de la matemtica que utiliza grandes conjuntos de datos numricos para obtener inferencias
Probablemente el ms comn de los signicados conocidos de la palabra sea el segundo, y por ello solemos
ver en los medios de comunicacin que cualquier recopilacin de cifras referentes a algn asunto es llamado
(de forma muy reduccionista) estadstica o estadsticas.
Sin embargo, el valor real de la Estadstica como ciencia tiene que ver mucho ms con la primera y la tercera
acepcin del DRAE. Concretamente, el primero de los signicados se corresponde con lo que vamos a estudiar
como Estadstica Descriptiva, donde la Estadstica se utiliza para resumir, describir y explorar datos, y el
tercero con lo que denominaremos Inferencia Estadstica, donde lo que se pretende mediante la Estadstica
1 http://buscon.rae.es/draeI/SrvltGUIBusUsual?LEMA=estad %C3 %ADstica
11
Dpto de Estadstica e I.O. Universidad de Jan
es utilizar datos de un conjunto reducido de casos para inferir caractersticas de stos al conjunto de todos
ellos.
Duracin 8 aos .
Debo reconocer de que tengo mis dudas. Para empezar, es que a los 8 aos, de repente, la lmpara se
rompe? Por otra parte, creo que todos nosotros hemos experimentado el hecho de que stas lmparas que
supuestamente tienen una duracin mayor que las tradicionales lmparas incandescentes (segn el envoltorio,
8 veces mayor), sin embargo, se rompen con facilidad. Luego, qu quiere decir exactamente el envoltorio al
armar que su duracin es de 8 aos?
Serie Placa A
1 1 90.00 92.20 94.90 92.70 91.6 88.20 92.00 98.20 96.00
1 2 91.80 94.50 93.90 77.30 92.0 89.90 87.90 92.80 93.30
1 3 90.30 91.10 93.30 93.50 87.2 88.10 90.10 91.90 94.50
1 4 92.60 90.30 92.80 91.60 92.7 91.70 89.30 95.50 93.60
1 5 91.10 89.80 91.50 91.50 90.6 93.10 88.90 92.50 92.40
1 6 76.10 90.20 96.80 84.60 93.3 95.70 90.90 100.30 95.20
1 7 92.40 91.70 91.60 91.10 88.0 92.40 88.70 92.90 92.60
1 8 91.30 90.10 95.40 89.60 90.7 95.80 91.70 97.90 95.70
1 9 96.70 93.70 93.90 87.90 90.4 92.00 90.50 95.20 94.30
1 10 92.00 94.60 93.70 94.00 89.3 90.10 91.30 92.70 94.50
1 11 94.10 91.50 95.30 92.80 93.4 92.20 89.40 94.50 95.40
1 12 91.70 97.40 95.10 96.70 77.5 91.40 90.50 95.20 93.10
2 1 93.00 89.90 93.60 89.00 93.6 90.90 89.80 92.40 93.00
2 2 91.40 90.60 92.20 91.90 92.4 87.60 88.90 90.90 92.80
2 3 91.90 91.80 92.80 96.40 93.8 86.50 92.70 90.90 92.80
2 4 90.60 91.30 94.90 88.30 87.9 92.20 90.70 91.30 93.60
2 5 93.10 91.80 94.60 88.90 90.0 97.90 92.10 91.60 98.40
2 6 90.80 91.50 91.50 91.50 94.0 91.00 92.10 91.80 94.00
2 7 88.00 91.80 90.50 90.40 90.3 91.50 89.40 93.20 93.90
2 8 88.30 96.00 92.80 93.70 89.6 89.60 90.20 95.30 93.00
2 9 94.20 92.20 95.80 92.50 91.0 91.40 92.80 93.60 91.00
2 10 101.50 103.10 103.20 103.50 96.1 102.50 102.00 106.70 105.40
2 11 92.80 90.80 92.20 91.70 89.0 88.50 87.50 93.80 91.40
2 12 92.10 93.40 94.00 94.70 90.8 92.10 91.20 92.30 91.10
En realidad, nosotros deberemos aprender a analizar este problema, asumiendo que la duracin de esta
bombilla no es un valor jo y conocido, sino que est sujeto a incertidumbre. Lo que haremos ser dotarnos
de un modelo matemtico que nos permita valorar si es probable o no que una lmpara ANTE se rompa
antes de un ao, despus de tres aos, etc.
2. Si se basa slo en los datos del artculo, esa estimacin ser slo eso, una estimacin basada en esa
muestra, que es de slo 42 datos. Debera, por tanto obtener tambin una estimacin del error que est
cometiendo al hacer la estimacin. Con ambos resultados, la estimacin en s y una cuanticacin del
error que podra cometer con ella, incluso podr obtener un rango donde la verdadera proporcin se
encuentra, con un alto nivel de conanza.
Lo que los investigadores se cuestionan es si la cantidad de compuesto por un lado y el tiempo de exposicin
al que se somete por otro, inuyen en el porcentaje que se absorbe. De ser as, sera interesante estimar
el porcentaje de absorcin de personas que se sometan a una exposicin de una determinada cantidad, por
ejemplo, durante 8 horas.
Con esa informacin, los responsables de seguridad de la empresa deben decidir si hay franjas horarias donde
los accidentes son ms probables o si, por el contrario, stos ocurren absolutamente al azar.
Una poblacin es tangible si consta de elementos fsicos reales que forman un conjunto nito.
Por ejemplo, si estamos considerando el estudio de la altura de los alumnos de la Escuela, el conjunto de
estos alumnos es una poblacin tangible.
Una poblacin conceptual no tiene elementos reales, sino que sus casos se obtienen por la repeticin de un
experimento.
Por ejemplo, cuando plantebamos las pruebas sobre placas de silicio, vemos que hay tantos casos como prue-
bas puedan hacerse, lo que supone un conjunto innito de casos. En poblaciones conceptuales es imposible,
por tanto, conocer todos los casos, y tenemos que conformarnos con muestras de los mismos.
Si consideramos la poblacin de todos los alumnos de la Escuela, podemos jarnos en la variable altura.
Si consideramos el supuesto de las pruebas sobre placas de silicio, podemos considerar la variable espesor
de la capa de xido de silicio generada.
Estadstica descriptiva
17
Captulo 2
descriptiva
Es un error capital el teorizar antes de poseer datos. Insensiblemente uno comienza a alterar
los hechos para encajarlos en las teoras, en lugar encajar las teoras en los hechos
Resumen. En este captulo aprenderemos mtodos para resumir y describir conjuntos de datos a travs de
distintos tipos de tablas, grcos y medidas estadsticas.
Palabras clave: datos cuantitativos, datos cualitativos, datos discretos, datos continuos, distribucin de
frecuencias, diagrama de barras, diagrama de sectores, histograma, media, mediana, moda, cuantiles, varianza,
desviacin tpica, asimetra, datos atpicos.
2.1. Introduccin
Obtenidos a travs de encuestas, experimentos o cualquier otro conjunto de medidas, los datos estadsticos
suelen ser tan numerosos que resultan prcticamente intiles si no son resumidos de forma adecuada. Para
ello la Estadstica utiliza tanto tcnicas grcas como numricas, algunas de las cuales describimos en este
captulo.
Podemos decir que existe una clasicacin, un tanto articial, de los datos, segn se reeran a una poblacin
tangible, en cuyo caso se conocern todos los casos, o a una poblacin conceptual, en cuyo caso slo se
conocer una muestra (aleatoria simple). Sin embargo, esta clasicacin no tiene ningn efecto en lo relativo
a lo que vamos a estudiar en este captulo.
Los datos cuantitativos son los que representan una cantidad reejada en una escala numrica. A su vez,
pueden clasicarse como datos cuantitativos discretos si se reeren al conteo de alguna caracterstica, o
datos cuantitativos continuos si se reeren a una medida.
Los datos cualitativos o categricos se reeren a caractersticas de la poblacin que no pueden asociarse
a cantidades con signicado numrico, sino a caractersticas que slo pueden clasicarse.
En el ejemplo de los cojinetes, el dimetro de los cojinetes es una variable cuantitativa continua.
En el ejemplo de los niveles de plomo, se est analizando si una muestra contiene niveles detecta-
bles o no. Se trata, por tanto, de una variable cualitativa con dos categoras: s contiene niveles
Supongamos que tenemos una variable cualitativa, que toma una serie de posibles valores (categoras). El
nmero de veces que se da cada valor es la distribucin de frecuencias de la variable. Si en vez de dar el
nmero de veces nos jamos en la proporcin de veces, tenemos la distribucin de frecuencias relativas.
Las representaciones grcas ms usuales son los diagramas de barras y los diagramas de sectores.
Los diagramas de barras son una representacin de cada una de las categoras de la variable mediante una
barra colocada sobre el eje X y cuya altura sea la frecuencia o la frecuencia relativa de dichas categoras.
Los diagramas de sectores son crculos divididos en tantos sectores como categoras, sectores cuyo ngulo
debe ser proporcional a la frecuencia de cada categora.
Ejemplo. Tomamos como poblacin los 98 reactores nucleares ms grandes en todo el mundo. Nos
jamos en la variable o dato referente al pas donde estn localizados.
Los datos seran
Blgica, Blgica, Blgica, Blgica, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia,
Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Francia, Finlandia, Finlandia, Alemania, Alemania, Alemania, Alemania,
Alemania, Alemania, Alemania, Holanda, Japn, Japn, Japn, Japn, Japn, Japn, Japn, Japn, Japn, Japn, Japn, Suecia, Suecia, Suecia,
Suiza, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados
Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados
Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados
Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados
Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados Unidos, Estados
Las distribuciones de frecuencias y de frecuencias relativas podemos resumirlas en una tabla de fre-
cuencias como la que aparece en el Cuadro 2.1.
Por su parte, las representaciones mediante diagramas de barras y sectores de estos datos aparecen en la
Figura 2.1 y la Figura 2.2 respectivamente.
Ejemplo. En una empresa con cadena de montaje donde se empaquetan piezas en cajas se realiza
un estudio sobre la calidad de produccin. Los datos siguientes informan sobre el nmero de piezas
defectuosas encontradas en una muestra de cajas examinadas:
000000111111111222222222233333334444444555566666777889
40
30
20
10
0
EEUU
Blgica
Alemania
Suiza
Suecia
Finlandia Japn
Holanda
Francia
Sin embargo, la mayora de variables cuantitativas son de tipo continuo, de manera que toman demasiados
valores como para que la representacin de su distribucin de frecuencias sea til1 . Por ello el mtodo grco
ms comn y tradicional para datos cuantitativos es el histograma.
El histograma es una variante del diagrama de barras donde se agrupan los valores de la variable en intervalos
para que estos intervalos tengan frecuencias mayores que uno.
Para obtener un histograma de forma manual deben seguirse los siguientes pasos:
1. Calculamos el nmero, N , de intervalos que vamos a utilizar. Se recomienda que sea aproximadamente
igual a la raz cuadrada del nmero de datos. Sin embargo, los programas estadsticos suelen utilizar
otro mtodo, llamado Mtodo de Sturges, en el que N = dlog2 n + 1e, donde n es el nmero de datos y
[] es la funcin parte entera.
1 Si toma muchos valores, muy probablemente la mayor parte de ellos slo aparezca una vez, por lo que la distribucin de
frecuencias ser casi siempre constante e igual a 1.
10
8
6
4
2
0
0 1 2 3 4 5 6 7 8 9
2. Calculamos el rango, R, del histograma, que ser ligeramente ms amplio que el rango de los datos.
El histograma debe comenzar en un nmero (xm ) ligeramente por debajo del mnimo de los datos y
terminar en un nmero (xM ) ligeramente por encima del mximo. El rango del histograma ser, por
tanto, R = xM xm .
3. Calculamos la longitud, L, de los intervalos, como el cociente entre el rango del histograma y el nmero
de intervalos, es decir, L = N.
R
I1 = [xm , xm + L)
I2 = [xm + L, xm + 2L)
I3 = [xm + 2L, xm + 3L)
...
IN = [xm + N L, xM ).
5. Para cada intervalo, contamos el nmero de datos que hay en l, es decir, la frecuencia del intervalo.
6. El histograma es un diagrama de barras donde en el eje X se colocan los intervalos y sobre ellos se
construyen barras cuya altura sea la frecuencia o la frecuencia relativa del intervalo. En este caso, las
barras deben dibujarse sin espacio entre ellas. En ocasiones, en vez de tomar la frecuencia relativa como
altura de las barras, se toma dicha frecuencia relativa como rea de las barras: en ese caso, se habla de
un histograma en escala de densidad.
Nota. Por cuestiones que detallaremos ms adelante es importante destacar que el porcentaje de datos
que cae dentro de un intervalo es proporcional al rea de la barra que se construye sobre ese intervalo.
Por ejemplo, si el rea de una barra es el 30 % del rea total del intervalo, entonces el 30 % de los datos
estn en dicho intervalo.
Tiempos de procesado
9
8
7
6
Frecuencia
5
4
3
2
1
Por otra parte, qu pasara si tomamos un nmero muy grande de datos? El nmero de intervalos
del histograma sera tambin muy grande, y las barras seran muy estrechas, de manera que en vez de
parecer un diagrama de barras, parecera la grca de una funcin real de variable real. Hablaremos de
esta funcin y del rea debajo de ella en breve. Por cierto, cmo se calcula el rea bajo esta funcin?
Ejemplo. Los datos siguientes corresponden al tiempo necesario para procesar 25 trabajos en una CPU.
1.17 1.61 1.16 1.38 3.53 1.23 3.76 1.94 0.96 4.75
0.15 2.41 0.71 0.02 1.59 0.19 0.82 0.47 2.16 2.01
0.92 0.75 2.59 3.07 1.4
2. El mnimo de los datos es 0.02 y el mximo 4.75, de manera que podemos considerar como rango
del histograma el intervalo [0, 4.8], cuya longitud (rango del histograma) es 4.8.
I1 = [0, 0.96)
I2 = [0.96, 1.92)
I3 = [1.92, 2.88)
I4 = [2.88, 3.84)
I5 = [3.84, 4.8)
estn los datos (medidas de posicin), cmo de agrupados estn los datos (medidas de dispersin) y qu
2.5.1.1. Media
Sea un conjunto de datos de una variable cuantitativa, x1 , ..., xn . La media de los datos es
Pn
i=1 xi
x = .
n
Esta medida es la ms comn dentro de las de tendencia central y corresponde al centro de gravedad de los
datos.
Es inmediato comprobar que si se realiza un cambio de origen y escala sobre los datos, del tipo y = ax + b,
la media sufre el mismo cambio, es decir, y = ax + b.
De igual forma, si tenemos datos de la suma de dos o ms variables, la media de la suma es la suma de las
medias de cada variable.
2.5.1.2. Mediana
Sea un conjunto de datos de una variable cuantitativa, x1 , ..., xn . Ordenemos la muestra de menor a mayor,
x(1) , ..., x(n) .
La mediana es el valor de la variable que deja el mismo nmero de datos antes y despus que l, una vez
ordenados estos.
Si n es par, la mediana es la media aritmtica de las dos observaciones centrales. Cuando n es par, los dos
x n +x n
( ) ( +1)
datos que estn en el centro de la muestra ocupan las posiciones n2 y n2 +1. Es decir: Me = 2 2 2 .
La mediana corresponde exactamente con la idea de valor central de los datos. De hecho, puede ser un valor
ms representativo de stos que la media, ya que es ms robusta que la media. Vemos qu signica esto en
un ejemplo.
0012345
Su media es 0+0+1+2+3+4+5
7 = 2.1429, y su mediana 2.
Pero imaginemos que por error o por casualidad obtenemos un nuevo dato enormemente grande en
relacin al resto de datos, 80. En ese caso, la media sera
0 + 0 + 1 + 2 + 3 + 4 + 5 + 80
= 11.875
8
y la mediana 2.5. Es decir, un solo dato puede desplazar enormemente la media, hasta convertirla en una
medida poco representativa, pero slo desplazar ligeramente la mediana. Ese es el motivo por el que se
dice que la mediana es una medida robusta.
En principio la moda se dene como el valor ms frecuente de los datos. Lo que ocurre es que si stos son
datos de una variable continua o discreta con muchos valores, puede que los datos apenas se repitan. En ese
caso, en el que, como vimos en las representaciones grcas, se debe agrupar por intervalos, no debe darse
un valor como moda, sino un intervalo modal, aqul con mayor frecuencia asociada.
26 Prof. Dr. Antonio Jos Sez Castillo
Apuntes de Estadstica para Ingenieros
2.5.2. Cuantiles
Los cuantiles son medidas de posicin pero no necesariamente ligados al centro de los datos. La idea a la
que responden es muy sencilla y muy prctica. Se trata de valorar de forma relativa cmo es un dato respecto
del conjunto global de todos los datos.
Si, por ejemplo, un nio de 4 aos pesa 13 kilos, est desnutrido? est sano? La respuesta debe ser que
depende. Dnde vive el nio? Es importante porque, por ejemplo, en Estados Unidos los nios son en general
ms grandes que, por ejemplo, en Japn. Quiz ms que el peso nos interese saber qu posicin relativa tiene
el peso del nio dentro de la poblacin de la que forma parte. Por ejemplo, si nos dicen que el nio est entre
el 1 % de los nios que menos pesan, probablemente tiene un problema de crecimiento.
El cuantil p (Qp ) de unos datos (0 p 1), sera un valor de la variable situado de modo que el 100p % de
los valores sean menores o iguales que l y el resto (100(1 p) %) mayores.
No obstante, en la prctica vamos a encontrar un problema para encontrar cuantiles, sobre todo con pocos
datos: lo ms habitual es que no exista el valor exacto que deje a la izquierda el 100p % de los valores y el
resto a la derecha. Por ese motivo, los programas estadsticos utilizan unas frmulas de interpolacin para
obtener el valor del cuantil entre los dos valores de los datos que lo contienen. En nuestro caso, a la hora
de obtener cuantiles, la aplicacin de esas frmulas de interpolacin a mano haran muy lentos y pesados
los clculos, por lo que vamos a aplicar un convenio mucho ms sencillo: aproximaremos el valor del cuantil
correspondiente de la siguiente forma:
x(k) +x(k+1)
1. Si el 100p % de n, donde n es el nmero de datos, es un entero, k , entonces Qp = 2 .
No olvidemos, sin embargo, que los programas estadsticos van a utilizar las frmulas de interpolacin para
calcular el valor de los cuantiles, de manera que no debe extraar si se observan pequeas diferencias al
comparar nuestros resultados a mano con los de estos programas.
Existen diversos nombres para referirse a algunos tipos de cuantiles. Entre ellos:
Los percentiles son los cuantiles que dividen la muestra en 100 partes, es decir, son los cuantiles
0.01 (percentil 1), 0.02 (percentil 2), ..., 0.99 (percentil 99). Si notamos por P al percentil , con
= 1, 2, 3, ..., 99, se tiene que P = Q/100 . En Estadstica Descriptiva es ms frecuente hablar de
percentiles que de cuantiles porque se reeren a cantidades entre 0 y 100, en tanto por ciento, que son
ms habituales de valorar por todo el mundo.
Los cuartiles dividen a la poblacin en cuatro partes iguales, es decir, corresponden a los cuantiles
0.25, 0.5 (mediana) y 0.75.
Ejemplo. Consideremos de nuevo los datos correspondientes al tiempo de procesado de 25 tareas en una
CPU. Ahora los hemos ordenado de menor a mayor (en 5 las):
Dados unos datos de una variable cuantitativa, x1 , ..., xn , la varianza muestral2 de esos datos es
Pn 2
(xi x)
s2n1 = i=1
.
n1
Nota. Para calcular a mano la varianza resulta ms cmodo desarrollar un poco su frmula, como vamos
a ver:
Pn Pn Pn Pn
x)2
i=1 (xi x2i 2x i=1 xi + nx2 x2 2xnx + nx2
s2n1 = = i=1
= i=1 i
n1 n1 n1
Pn
x2 nx2
= i=1 i .
n1
Cuanto mayor sea la varianza de unos datos, ms dispersos, heterogneos o variables son esos datos. Cuanto
ms pequea sea una varianza de unos datos, ms agrupados u homogneos son dichos datos.
Ejemplo. Una muestra aleatoria simple de la altura de 5 personas arroja los siguientes resultados:
8.8
x = = 1.76
5
y
15.493 5 1.762
s2n1 = = 0.00125
4
En lo que respecta al comportamiento de la varianza muestral frente a cambios de origen y escala, slo le
afectan los segundos. Es decir, si tenemos que y = ax + b, se verica que s2y;n1 = a2 s2x;n1 .
Finalmente, si bien habamos comentado que en el caso de la media, si tenemos la suma de varias variables,
la media total es la suma de las medias de cada variable, no ocurre as con la varianza en general.
Como acabamos de decir, debemos proporcionar cada media junto con alguna medida de dispersin, prefe-
rentemente la desviacin tpica. Una forma de valorar en trminos relativos cmo es de dispersa una variable
es precisamente proporcionar el cociente entre la desviacin tpica y la media (en valor absoluto), lo que se
conoce como coeciente de variacin.
Dado un conjunto de datos de media x y desviacin tpica sn1 , se dene su coeciente de variacin como
sn1
CV = .
|x|
La principal ventaja del coeciente de variacin es que no tiene unidades de medida, lo que hace ms fcil
su interpretacin.
Ejemplo. Para los datos de tiempo de procesado en una CPU de 25 tareas, la varianza es 1.42, luego su
desviacin estandar es 1.19, y el coeciente de variacin 1.19
1.63 = 0.73. Por tanto, la desviacin estndar es
algo ms del 70 % de la media. Esto indica que los datos no estn muy concentrados en torno a la media,
probablemente debido a la presencia de los valores altos que hemos comentado antes.
Nota. El coeciente de variacin, tal y como est denido, slo tiene sentido para conjuntos de datos
con el mismo signo, es decir, todos positivos o todos negativos. Si hubiera datos de distinto signo, la
media podra estar prxima a cero o ser cero, imposibilitando que aparezca en el denominador.
Nota. Suele ser frecuente el error de pensar que el coeciente de variacin no puede ser mayor que 1, lo
cual es rigurosamente falso. Si lo expresamos en porcentaje, el coeciente de variacin puede ser superior
al 100 % sin ms que la desviacin tpica sea mayor que la media, cosa bastante frecuente, por cierto.
Esa situacin en la que los datos estn repartidos de igual forma a uno y otro lado de la media se conoce
como simetra, y se dice en ese caso que la distribucin de los datos es simtrica. En ese caso, adems, su
mediana, su moda y su media coinciden.
Por contra, se dice que una distribucin es asimtrica a la derecha si las frecuencias (absolutas o relativas)
descienden ms lentamente por la derecha que por la izquierda. Si las frecuencias descienden ms lentamente
por la izquierda que por la derecha diremos que la distribucin es asimtrica a la izquierda.
Para valorar la simetra de unos datos se suele utilizar el coeciente de asimetra de Fisher:
Pn 3
i=1 (xi x)
n1
As = .
s3n1
Obsrvese que para evitar el problema de la unidad y hacer que la medida sea escalar y por lo tanto relativa,
dividimos por el cubo de su desviacin tpica. De esta forma podemos valorar si unos datos son ms o menos
simtricos que otros, aunque no estn medidos en la misma unidad de medida. La interpretacin de este
coeciente de asimetra es la siguiente:
Tanto mayor sea el coeciente en valor absoluto, ms asimtricos sern los datos.
Ejemplo. Para los datos de tiempo de procesado en una CPU de 25 tareas, el coeciente de asimetra
de Fisher es 0.91, lo que, como habamos visto y comentado con anterioridad, pone de maniesto que la
distribucin es asimtrica a la derecha, debido a la presencia de tiempos de procesado bastante altos en
relacin al resto.
en captulos posteriores que los parmetros muestrales se utilizan en la prctica para aproximar o estimar los
parmetros poblacionales.
En general, una observacin que es inusualmente grande o pequea en relacin con los dems valores de un
conjunto de datos se denomina dato atpico o fuera de rango.
Estos valores son atribuibles, por lo general, a una de las siguientes causas:
A continuacin vamos a proponer dos maneras de determinar si un dato es un valor fuera de rango.
1. Se calculan los cuartiles primero y tercero, es decir, los percentiles 25 y 75, P25 y P75 . Se calcula el
llamado rango intercuartlico (IR o RI ), IR = P75 P25 .
2. Se consideran datos atpicos aquellos inferiores a P25 1.5IR o superiores a P75 + 1.5IR.
Ejemplo. Vamos a ver si hay algn dato atpico entre los datos de tiempo de procesado en una CPU de
25 tareas.
Dado que el histograma no tena forma de campana, el mtodo de la regla emprica no es el mtodo ms
adecuado para la deteccin de valores atpicos.
Por su parte, P50 = 1.38, P25 = 0.82 y P75 = 2.16. Por tanto, IR = 2.160.82 = 1.34, y el intervalo fuera
del cal consideramos valores fuera de rango es [0.82 1.5 1.34, 2.16 + 1.5 1.34] = [1.19, 4.17]. De
esta forma, el valor 4.75 es un valor fuera de rango.
Hay una versin grca de este mtodo para detectar valores atpicos mediante los percentiles: se llama
diagrama de caja o diagrama de cajas y bigotes o (en ingls) boxplot. Este diagrama incluye en un
grco:
2. El valor de los percentiles 25 y 75, cuartiles primero y tercero respectivamente (Q1 y Q3 ): son los lados
inferior y superior de la caja.
3. El diagrama no representa los lmites P25 1.5 IR y P75 + 1.5 IR. En su lugar, seala los ltimos
puntos no atpicos por debajo (Li ) y por encima (Ls ), es decir, seala el ltimo dato por encima de
P25 1.5 IR y el ltimo dato por debajo de P75 + 1.5 IR, y los representa como bigotes que salen
de la caja.
asimetria de -1.79), mientras que los de la segunda serie son claramente asimtricos a la derecha (coeciente
de asimetra de 1.71). Dado que no era esperable que surgieran diferencias entre las dos series, debemos
preguntarnos qu pas.
Para tratar de analizar ms profundamente los datos, vamos a proporcionar tambin los dos diagramas de
caja de ambas series. Aparecen en la Figura 2.8. Con ellas, vamos a resumir ahora las decisiones que los
autores tomaron en vista de los resultados y las conclusiones a las que llegaron.
Obsrvese que las diferencias entre las series no afectan sorprendentemente al conjunto de las muestras, sino
slo a los valores atpicos que se ven en ambos diagramas de caja. Eso probara que, en efecto, no hay ninguna
diferencia sistemtica entre las series.
La siguiente tarea es la de inspeccionar los datos atpicos. Si miramos con atencin los datos, vemos que las
8 mediciones ms grandes de la segunda serie ocurrieron en la placa 10. Al ver este hecho, los autores del
trabajo inspeccionaron esta placa y descubrieron que se haba contaminado con un residuo de la pelcula, lo
que ocasion esas mediciones tan grandes del espesor. De hecho, los ingenieros eliminaron esa placa y toda
la serie entera por razones tcnicas. En la primera serie, encontraron tambin que las tres mediciones ms
bajas se haban debido a un calibrador mal congurado, por lo que las eliminaron. No se pudo determinar
causa alguna a la existencia de los dos datos atpicos restantes, por lo que permanecieron en el anlisis. Por
ltimo, ntese que despus de este proceso de depuracin de los datos que el anlisis mediante Estadstica
Descriptiva ha motivado, la distribucin de los datos tiene una evidente forma de campana.
Figura 2.8: Diagramas de caja de los datos del espesor de las capas de dixido de silicio
Clculo de Probabilidades
37
Captulo 3
Probabilidad
Vemos que la teora de la probabilidad en el fondo slo es sentido comn reducido a clculo; nos
hace apreciar con exactitud lo que las mentes razonables toman por un tipo de instinto, incluso
sin ser capaces de darse cuenta[...] Es sorprendente que esta ciencia, que surgi del anlisis de los
juegos de azar, llegara a ser el objeto ms importante del conocimiento humano[...] Las principales
cuestiones de la vida son, en gran medida, meros problemas de probabilidad.
Resumen. El captulo proporciona un tratamiento de los experimentos cuyos resultados no se pueden predecir
con certeza a travs del concepto de probabilidad. Se analizan las propiedades de la probabilidad y se introduce
tambin el concepto de probabilidad condicionada, que surge cuando un suceso modica la asignacin de
probabilidades previa.
Palabras clave: experimento aleatorio, experimento determinstico, espacio muestral, suceso, probabilidad,
probabilidad condicionada, independencia de sucesos.
3.1. Introduccin
En nuestra vida cotidiana asociamos usualmente el concepto de Probabilidad a su calicativo probable,
considerando probables aquellos eventos en los que tenemos un alto grado de creencia en su ocurrencia.
En esta lnea, Probabilidad es un concepto asociado a la medida del azar. Tambin pensamos en el azar
vinculado, fundamentalmente, con los juegos de azar, pero desde esa ptica tan reducida se nos escapan otros
muchsimos ejemplos de fenmenos de la vida cotidiana o asociados a disciplinas de distintas ciencias donde
el azar juega un papel fundamental. Por citar algunos:
Qu nmero de unidades de produccin salen cada da de una cadena de montaje? No existe un nmero
jo que pueda ser conocido a priori, sino un conjunto de posibles valores que podran darse, cada uno
de ellos con un cierto grado de certeza.
39
Dpto de Estadstica e I.O. Universidad de Jan
Cul es la posicin de un objeto detectado mediante GPS? Dicho sistema obtiene, realmente, una
estimacin de dicha posicin, pero existen mrgenes de error que determinan una regin del plano
donde el objeto se encuentra con alta probabilidad.
Qu ruido se adhiere a una seal que se enva desde un emisor a un receptor? Dependiendo de las
caractersticas del canal, dicho ruido ser ms o menos relevante, pero su presencia no podr ser conocida
a priori, y deber ser diferenciada de la seal primitiva, sin que se conozca sta, teniendo en cuenta que
se trata de un ruido aleatorio.
En todos estos ejemplos el azar es un factor insoslayable para conocer el comportamiento del fenmeno en
estudio.
En general, un experimento del que se conocen todos sus posibles resultados y que, repetido en las mismas
condiciones, no siempre proporciona los mismos resultados se conoce como experimento aleatorio.
En contraposicin, un experimento determinstico es aquel donde las mismas condiciones aseguran que
se obtengan los mismos resultados.
1 Es mejor que aceptemos desde el principio que la Estadstica no es la ciencia de la adivinacin: tan slo se ocupa de
cuanticar cmo de incierto es un evento y, ocasionalmente, de proponer estrategias de prediccin basadas en dicha medida de
la incertidumbre.
Si A B , entonces A B = B.
A A =
A A =
c
(Ac ) = A
=
Si B A A B
Si A = B A = B.
A B = A B
A B = A B.
El conjunto formado por todos los posibles resultados del experimento aleatorio recibe el nombre de espacio
muestral, y lo notaremos habitualmente como .
Cualquier subconjunto de un espacio muestral recibe el nombre de suceso o evento.
Hablaremos de ensayo o realizacin de un experimento aleatorio rerindonos a una ejecucin de dicho
experimento. As, diremos que en un ensayo ocurre un suceso A si se observa en dicho ensayo cualquier
resultado incluido en el suceso A.
Una observacin importante es que el espacio muestral no tiene por qu ser nico, sino que depender de lo
que deseemos observar del experimento aleatorio. Vamos a poner este hecho de maniesto en los siguientes
ejemplos.
Ejemplo. Un experimento habitual en Biologa consiste en extraer, por ejemplo, peces de un ro, hasta
dar con un pez de una especie que se desea estudiar. El nmero de peces que habra que extraer hasta
conseguir el ejemplar deseado de la especie en estudio formara el espacio muestral, = {1, 2, 3, ...}, si es
que el investigador desea observar exactamente el nmero de peces hasta extraer ese ejemplar deseado.
Obsrvese que se trata de un conjunto no acotado, pero numerable.
Como ejemplos de posibles sucesos de inters podramos poner los eventos {1,2,3,4,5}, {mayor o igual a
5},...
Supongamos ahora que el investigador slo est interesado en comprobar si hacen falta ms de 5 ex-
tracciones para obtener un ejemplar de la especie en estudio. En ese caso, el espacio muestral sera
= {> 5, 5}.
En estos ltimos ejemplos podemos ver que hay dos grandes tipos de espacios muestrales segn el nmero de
sucesos elementales.
Un espacio muestral se dice discreto si est formado por un conjunto nito o innito numerable de sucesos
elementales.
Por el contrario, un espacio muestral se dice continuo si est formado por un conjunto no numerable de
sucesos elementales.
Nota. Hay que notar que se puede dar ms de una funcin de probabilidad asociada al mismo espacio
muestral. Por ejemplo, asociado al espacio muestral = {cara, cruz}, del lanzamiento de una moneda,
pueden darse un nmero innito no numerable de medidas de la probabilidad; concretamente, asociadas
a cada eleccin
P [cara] = p
P [cruz] = 1 p,
para cada p [0, 1] . Aunque si la moneda no est cargada, como sucede habitualmente, se considera el
caso en que p = 12 .
Ejemplo. Volviendo sobre el lanzamiento del dado, si ste no est cargado, podemos denir la siguiente
funcin de probabilidad:
1
P [{i}] = , i = 1, 2, ..., 6.
6
Como consecuencia de la denicin se verican, entre otras, las siguientes propiedades, que adems facilitan
bastante los clculos:
P [] = 0.
Ejemplo. El circuito que aparece en la Figura 3.1 est constituido por dos interruptores (switches ) en
paralelo. La probabilidad de que cualquiera de ellos est cerrado es de 12 .
Para que pase corriente a travs del circuito basta con que pase corriente por alguno de los dos interrup-
tores, esto es, que al menos uno de ellos est cerrado. Por tanto, si notamos por E al suceso que pase
corriente a travs del circuito y Ei al suceso que el interruptor i est cerrado, entonces,
Para conocer esta probabilidad de forma exacta necesitamos saber cmo actan de forma conjunta ambos
circuitos.
nA
P [A] = lm ,
n n
Esta interpretacin frecuentista de la probabilidad permite inferir lo que podemos llamar frecuencias espe-
radas. Si un evento A tiene asignada una probabilidad P [A], entonces, si repetimos el experimento aleatorio
n veces, lo ms esperable es que el nmero de veces que se de el evento A ser n P [A] . Ms adelante
podremos matizar con ms rigor a qu nos referimos con lo ms esperable.
Ejemplo. Siguiendo con el ejemplo de la moneda, si la lanzamos 348 veces, lo esperable es que salgan
alrededor de 348 0.5 = 174 caras.
La interpretacin subjetiva de la probabilidad tiene que ver con la vinculacin de este concepto con el grado
de incertidumbre que tenemos sobre las cosas. Si tenemos un experimento aleatorio, el resultado de dicho
experimento es incierto. La probabilidad de un resultado del experimento es el grado de creencia que yo tengo
en la ocurrencia de dicho resultado. Ese grado de creencia es personal, luego es subjetivo, pero lgicamente,
deber estar acorde con la informacin que tenemos sobre el experimento.
NA
P [A] = ,
N
Ejemplo. Consideremos el experimento aleatorio de extraer una carta de una baraja espaola. Sea el suceso
A : obtener una sota, el suceso B1 : obtener una gura y el suceso B2 : obtener una carta de copas.
Las distintas probabilidades, condicionadas o no, bajo la denicin clsica, son las siguientes:
4 sotas 1
P [A] = =
40 cartas 10
4 sotas 1
P [A | B1 ] = =
12 f iguras 3
1 sota de copas 1
P [A | B2 ] = = .
10 copas 10
Como puede verse, B1 modica la probabilidad a priori, pero no as B2 . Puede decirse que B2 no ofrece
informacin acerca de A, o que A y B2 son independientes.
Vamos a dar a continuacin una denicin de probabilidad condicionada que responde a esta idea de
recalcular la probabilidad en funcin de la informacin existente.
Una funcin de probabilidad condicionada P [/B ] es una funcin de probabilidad en toda regla: por tanto,
cumple las mismas propiedades que cualquier funcin de probabilidad sin condicionar.
Como hemos comentado, la idea de la probabilidad condicionada es utilizar la informacin que nos da un
suceso conocido sobre la ocurrencia de otro suceso. Pero, como ya hemos puesto de maniesto en un ejemplo,
no siempre un suceso da informacin sobre otro. En este caso se dice que ambos sucesos son independientes.
Por tanto:
Ejemplo. Continuando con el Ejemplo 3.3.3, lo ms lgico es pensar que los dos interruptores actan
de forma independiente, en cuyo caso P [E1 E2 ] = P [E1 ] P [E2 ] y tenemos que,
1 1
P [E] = + P [E1 E1 ]
2 2
1 1 11 3
= + = .
2 2 22 4
Nota. Es muy importante no confundir la probabilidad condicionada de un suceso a otro con la probabili-
dad de la interseccin de ambos sucesos. En la Figura 3.2 puede verse la diferencia entre las probabilidades
condicionadas entre dos sucesos y la probabilidad de su interseccin. En trminos coloquiales, podemos
analizar estas probabilidades como el cociente entre una parte y un todo. Cuando la probabilidad es
condicionada ese todo es el suceso que condiciona. Cuando la probabilidad no es condicionada, ese todo
Nota. Tambin suele ser bastante comn la confusin entre sucesos independientes y sucesos incompa-
tibles o mutuamente excluyentes.
En este sentido, recordemos que dos sucesos A y B son incompatibles o mutuamente excluyentes si
A B = , en cuyo caso P [A B] = 0.
Por su parte, A y B sern independientes si P [A B] = P [A] P [B].
Las diferencias entre ambos conceptos son obvias.
Ejemplo. La probabilidad de que el producto no sea elaborado a tiempo es 0.05. Se solicitan tres pedidos
del producto con la suciente separacin en el tiempo como para considerarlos eventos independientes.
= P E1 E2 E3 + P E1 E2 E3 + P E1 E2 E3
Ejemplo. Consideremos un proceso industrial como el que se esquematiza en la Figura 3.3. En dicho
esquema se pone de maniesto que una unidad ser producidad con xito si pasa en primer lugar un
chequeo previo (A); despus puede ser montada directamente (B), redimensionada (C) y despus montada
(D) o adaptada (E) y despus montada (F); posteriormente debe ser pintada (G) y nalmente embalada
(H). Consideremos que las probabilidades de pasar exitosamente cada subproceso son todas ellas iguales
a 0.95, y que los subprocesos tienen lugar de forma independiente unos de otros. Vamos a calcular en
esas condiciones la probabilidad de que una unidad sea exitosamente producida.
Si nos damos cuenta, A, G y H son ineludibles, mientras que una unidad puede ser producida si pasa
por B, por C y D o por E y F. En notacin de conjuntos, la unidad ser producida si se da
A (B C D E F ) G H.
Como los procesos son independientes unos de otros, no tenemos problemas con las probabilidades de las
intersecciones, pero tenemos que calcular la probabilidad de una unin de tres conjuntos, BC DEF .
En general,
En nuestro caso,
P [B C D E F ] = P [B] + P [C D] + P [E F ]
P [B C D] P [B E F ] P [C D E F ]
+ P [B C D E F ]
= 0.95 + 2 0.952 20.953 0.954 + 0.955
= 0.9995247
En estos ejemplos, el clculo de la probabilidad de las intersecciones ha resultado trivial porque los sucesos son
independientes. Son embargo, esto no siempre ocurre. Cmo podemos, en general, obtener la probabilidad
de la interseccin de dos o ms sucesos no necesariamente independientes?
P [A B] = P [A|B] P [B]
directamente de la denicin de probabilidad condicionada. A partir de esta frmula, por induccin, se puede
obtener la llamada frmula producto, que se enuncia de la siguiente forma: si A1 , A2 , ..., An son sucesos de
un espacio muestral no necesariamente independientes, se verica
P [A1 A2 ... An ] = P [A1 ]P [A2 |A1 ]...P [An |A1 A2 ... An1 ]
Ejemplo. Un lote de 50 arandelas contiene 30 arandelas cuyo grosor excede las especicaciones de diseo.
Suponga que se seleccionan 3 arandelas al azar y sin reemplazo del lote.
1. Cul es la probabilidad de que las tres arandelas seleccionadas sean ms gruesas que las especi-
caciones de diseo?
Comenzamos notando los sucesos Ai : la -sima arandela extraida es ms gruesa que las especi-
caciones de diseo, i = 1, 2, 3.
Entonces, nos piden
2. Cul es la probabilidad de que la tercera arandela seleccionada sea ms gruesa que las especica-
ciones de diseo si las dos primeras fueron ms delgadas que la especicacin?
30
P A3 /A1 A2 = .
48
Teorema de la Probabilidad Total. Sea P una funcin de probabilidad en un espacio muestral. Sea
{A1 , ..., AN } F una particin del espacio muestral y sea B un suceso cualquiera. Entonces,
Ejemplo. Supongamos que tenemos 4 cajas con componentes electrnicas dentro. La caja 1 contiene
2000 componentes, con un 5 % de defectuosas; la caja 2 contiene 500 componentes, con un 40 % de
defectuosas; las cajas 3 y 4 contienen 1000 componentes, con un 10 % de defectuosas.
2000 4
P [C1 ] = =
2000 + 500 + 1000 + 1000 9
500 1
P [C2 ] = =
2000 + 500 + 1000 + 1000 9
1000 2
P [C3 ] = =
2000 + 500 + 1000 + 1000 9
1000 2
P [C4 ] = =
2000 + 500 + 1000 + 1000 9
2. Si se escoge una componente al azar y resulta ser defectuosa, cul es la probabilidad de que
pertenezca a la caja 1?
P [D | C1 ] P [C1 ] 0.05 49
P [C1 | D] = = = 0.2
P [D] 0.11111
Ejemplo. Se disponen tres cajas donde se almacenan acumuladores segn aparece en el Cuadro 3.2.
Se escoge al azar una caja y de ella, a su vez, un acumulador.
P [0.01F ] = P [0.01F / c1] P [c1] + P [0.01F / c2] P [c2] + P [0.01F / c3] P [c3]
20 1 95 1 25 1 5903
= + + = = 0.23078.
145 3 210 3 245 3 25 578
Por su parte,
P [1.0F ] = P [1.0F / c1] P [c1] + P [1.0F / c2] P [c2] + P [1.0F / c3] P [c3]
70 1 80 1 145 1 6205
= + + = = 0.48518,
145 3 210 3 245 3 12 789
luego
70 1
145 3 2058
P [c1 / 1.0F ] = 6205 = = 0.33167.
12 789
6205
Ejemplo. Siguiendo con el ejemplo de las arandelas con grosor fuera de las especicaciones de diseo,
cul es la probabilidad de que la tercera arandela seleccionada sea ms gruesa que las especicaciones
de diseo?
P [A3 ] = P [A3 |A1 A2 ]P [A1 A2 ] + P [A3 |A1 A2 ]P [A1 A2 ]
= P [A3 |A1 A2 ]P [A1 ]P [A2 |A1 ] + P [A3 |A1 A2 ]P [A1 ]P [A2 |A1 ]
+P [A3 |A1 A2 ]P [A1 ]P [A2 |A1 ] + P [A3 |A1 A2 ]P [A1 ]P [A2 |A1 ]
28 30 29 29 20 30
= +
48 50 49 48 50 49
29 30 20 30 20 19
+ + .
48 50 49 48 50 49
se tiene que
1 1 1
P [X = 1] = , P [X = 2] = y P [X = 3] = .
6 3 2
Ahora, utilizando el teorema de la probabilidad total,
P [Y = 1 / X = 1] P [X = 1]
P [X = 1 / Y = 1] = .
P [Y = 1]
Por su parte,
P [Y = 1] = P [Y = 1 / X = 1] P [X = 1]
+ P [Y = 1 / X = 2] P [X = 2]
+ P [Y = 1 / X = 3] P [X = 3]
1
= + + ,
6 6 4
luego
1
6 1 +
P [X = 1 / Y = 1] =
=2 .
1
6 + 6 + 4
2 + 2 2 3
que tenemos nueva informacin que nos dar pistas acerca de si A ha ocurrido o no, y que dicha informacin
est recogida en un suceso que llamaremos B1 . En ese caso, podramos y deberamos actualizar la probabilidad
de A basndonos en esta nueva informacin, proporcionando una nueva probabilidad de A que tenga en cuenta
B1 , es decir, P [A |B1 ], que llamaremos probabilidad a posteriori.
En esa actualizacin de la probabilidad es donde entra el Teorema de Bayes, ya que nos dice que
P [B1 |A ] P [A]
P [A |B1 ] = .
P [B1 |A ] P [A] + P [B1 |A ] P A
Es muy importante observar que en este cociente P [A |B1 ] ocupa el lugar que antes ocupaba la probabilidad
a priori. Adems, esta segunda probabilidad a posteriori podra considerarse como la nueva probabilidad a
priori para una nueva aplicacin del teorema basada en el conocimiento de nueva informacin dada por un
suceso B3 . Este proceso de actualizacin de las probabilidades a priori basada en la informacin disponible
puede realizarse cuantas veces sea necesario.
Vamos a ilustrar esto en un par de ejemplos.
Es decir, ahora piensa que el sospechoso es culpable con un 99.9548 % de certeza. Fijmonos en que nuestra
probabilidad a priori aparece en los trminos 0.1 en el numerador y 0.1 y 0.9 en el denominador. Esa, 0.1,
era la probabilidad que tenamos antes de la prueba de que fuera culpable (y 0.9 de que fuera inocente);
despus de la prueba esa probabilidad es 0.999548 de que sea culpable (y 0.000452 de que sea inocente).
Sin embargo, el sospechoso insiste en su inocencia, y propone someterse a una prueba de un detector de
mentiras. Los expertos saben que un culpable es capaz de engaar a esta mquina en el 10 % de las veces, y
que la mquina dir el 1 % de las veces que un inocente miente. Nuestro sospechoso se somete a la mquina y
sta dice que es inocente. Cul ser ahora la probabilidad que el juez asigna a la culpabilidad del sospechoso?
Teniendo en cuenta que:
debe aplicar de nuevo el Teorema de Bayes, considerando ahora que la probabilidad a priori de que sea
culpable es 99.9548 %:
Es decir, an con esa prueba negativa, el juez an tiene un 99.55431 % de certidumbre de que el sospechoso
es culpable. De nuevo, podemos resumir este paso diciendo que antes de la segunda prueba nuestra
probabilidad de que fuera culpable era de 0.999548 (que aparece en la frmula ocupando la posicin de la
probabilidad a priori), mientras que despus de la segunda prueba esa probabilidad es 0.9955431.
El proceso puede verse resumido en el Cuadro 3.3.
P [Culpable]
Antes de Despus de
la prueba la prueba
1 prueba: ADN + 0.1
P [ADN +|culpable ]0.1
P [ADN +|culpable ]0.1+P [ADN +|inocente ](10.1) = 0.999548
2 prueba: maquina 0.999548
P [maquina|culpable ]0.999548
P [maquina|culpable ]0.999548+P [maquina|inocente ](10.999548) = 0.9955431
Cuadro 3.3: Esquema del proceso iterativo del teorema de Bayes en el ejemplo del juez. La probabilidad a
priori (antes de cada prueba) es la que se utiliza en la frmula para obtener la probabilidad a posteriori
(desps de cada prueba). La probabilidad a posteriori (despus) de una prueba es la probabilidad a priori
(antes) de la siguiente prueba.
Supongamos que una pieza pasa las tres veces y da no defectuosa: cul es la probabilidad de que realmente
sea no defectuosa?
Vamos a empezar notando adecuadamente los sucesos. Notaremos D al suceso ser defectuosa y por + a dar
positivo como defectuosa en la prueba de la mquina. Sabemos que:
P [+ |D ] = 0.9 y
P [+ |D ] = 0.05.
La probabilidad a priori de que una pieza sea no defectuosa es de 0.95, pero si es detectada como defectuosa
una primera vez, dicha probabilidad pasa a ser
P [+ |D ] P D
P D |+ =
P [+ |D ] P D + P [+ |D ] P [D]
0.95 0.95
= = 0.9944904.
0.95 0.95 + 0.1 0.05
Esa probabilidad pasa a ser la probabilidad a priori para la segunda vez que da no defectuosa. Por tanto, la
probabilidad de que sea no defectuosa si da negativo por segunda vez es
P [+ |D ] 0.9944904
P D |++ =
P [+ |D ] 0.9944904 + P [+ |D ] (1 0.9944904)
0.95 0.9944904
= = 0.9994172.
0.95 0.9944904 + 0.1 (1 0.9944904)
P [+ |D ] 0.9994172
P D |+++ =
P [+ |D ] 0.9994172 + P [+ |D ] (1 0.9994172)
0.95 0.9994172
= = 0.9999386.
0.95 0.9994172 + 0.1 (1 0.9994172)
Como podemos ver, si una pieza da no defectuosa tres veces, la probabilidad de que sea realmente no
defectuosa es altsima, del orden del 99.99 %, as que el mtodo ideado por el responsable de calidad parece
consistente.
P D
Antes de Despus de
la prueba la prueba
1 prueba: + 0.95 P [+|D ]0.95
P [+|D ]0.95+P [+|D ](10.95) = 0.9944904
2 prueba: + 0.9944904 P [+|D ]0.9944904
P [+|D ]0.9944904+P [+|D ](10.9944904) = 0.9994172
3 prueba: + 0.9994172 P [+|D ]0.9994172
P [+|D ]0.9994172+P [+|D ](10.9994172) = 0.9999386
Cuadro 3.4: Esquema del proceso iterativo del teorema de Bayes en el ejemplo de la mquina de deteccin
de fallos. La probabilidad a priori (antes de cada prueba) es la que se utiliza en la frmula para obtener la
probabilidad a posteriori (desps de cada prueba). La probabilidad a posteriori (despus) de una prueba es
la probabilidad a priori (antes) de la siguiente prueba.
distribuciones de probabilidad
Mas a pesar de todo eso, aunque la mala suerte exista, muy pocos reporteros veteranos creen de
verdad en ella. En la guerra, las cosas suelen discurrir ms bien segn la ley de las probabilidades:
tanto va el cntaro a la fuente que al nal hace bang.
Resumen. En este captulo continuamos con el estudio de la probabilidad, utilizando el concepto de variable
aleatoria para referirnos a experimentos donde el resultado queda caracterizado por un valor numrico. Se
presentan algunos de los modelos ms habituales de asignacin de probabilidades y sus propiedades ms
relevantes.
Palabras clave: variable aleatoria, variable discreta, funcin masa de probabilidad, variable continua, funcin
de densidad de probabilidad, funcin de distribucin, media, varianza, distribucin binomial, distribucin
de Poisson, distribucin geomtrica, distribucin uniforme, distribucin exponencial, distribucin Gamma,
distribucin normal.
4.1. Introduccin
En el tema anterior hemos visto que la Estadstica se ocupa de experimentos aleatorios. En general, en Ciencia
y Tecnologa se suele analizar cualquier experimento mediante una o varias medidas del mismo. Por ejemplo,
se analiza un objeto segn su peso, su volumen, su densidad, su contenido de agua...; o se analiza el trco
de Internet segn el nmero de conexiones a un servidor, el volumen total de trco generado, la velocidad...
En estos sencillos ejemplos observamos que se ha descrito un fenmeno fsico, como puede ser un objeto o
el estado de una red de comunicaciones en un momento dado, mediante uno o varios nmeros o variables.
Cuando ese fenmeno es de tipo aleatorio, vamos a llamar a esa asignacin variable aleatoria .
Consideremos un experimento probabilstico con un espacio muestral en el que se ha denido una funcin
de probabilidad P [] .
61
Dpto de Estadstica e I.O. Universidad de Jan
Una variable aleatoria (a partir de ahora v.a.) es un nmero real asociado al resultado de un experimento
aleatorio. Se trata, por tanto, de una funcin real con dominio en el espacio muestral, X : R.
Podemos pensar en una v.a. como en una variable asociada a una poblacin conceptual, ya que slo podr
observarse cuando se tomen muestras suyas.
En la notacin que vamos a utilizar representaremos las variables aleatorias como funciones siempre en
maysculas, y a sus valores concretos siempre en minscula. Es decir, si queremos referirnos a una v.a. antes
de observar su valor, podemos notarla como X, por ejemplo; pero una vez que se observa el valor de dicha
variable (ya no es, por tanto, algo aleatorio), debemos notar a ese valor en minscula, por ejemplo, como x.
Por ejemplo, podemos decir que la variable aleatoria X que corresponde a la puntuacin obtenida al lanzar el
dado puede tomar los valores x = 1, 2, 3, 4, 5, 6. Podremos preguntarnos por la probabilidad de que X tome
el valor x = 4 o de que X 6. Si lanzamos el dado y observamos que ha salido un 6, diremos que x = 6.
No olvidemos que el objeto de la Estadstica con respecto a la observacin de fenmenos aleatorios es medir
la certidumbre o la incertidumbre asociada a sus posibles resultados. Al describir estos resultados mediante
variables aleatorias, lo que tenemos son resultados numricos sujetos a incertidumbre. El objetivo ahora es
cuanticar la probabilidad de esos resultados numricos de alguna forma.
Se dice que una v.a. es discreta si el conjunto de todos los valores que puede tomar es un conjunto, a lo
sumo, numerable (discreto).
f (x) = P [X = x] ,
para cada x R.
Nota. Obsrvese que una funcin masa de una v.a. discreta est denida en todos los puntos de la recta
real, pero slo valdr distinto de cero en un conjunto, a lo sumo, numerable, que corresponde con los
nicos valores que pueden darse de la variable.
2.
P
xR f (x) = 1.
Si el tamao, N , de la muestra es grande, esta funcin tiende a la autntica, es decir, para cada x R.
Ejemplo. En la Figura 4.1 aparece la funcin masa emprica correspondiente al lanzamiento de un dado
600 veces. Esta funcin emprica aparece representada en barras verticales, mientras que la funcin masa
terica, f (x) = 16 , para x = 1, 2, 3, 4, 5, 6 aparece representada como una lnea horizontal. Puede apreciar-
se cmo proporcionan probabilidades tericas y empricas bastante parecidas. No obstante, deberamos
concluir a la luz de estos 600 datos que el dado no est cargado?
Dada una v.a. discreta, X , con funcin masa de probabilidad f (x), se dene su media o esperanza matemtica
como
X
EX = x f (x).
x
Figura 4.1: Funcin masa emprica de una muestra de 600 lanzamientos de un dado.
Como en el caso de la media muestral de unos datos, la media de una v.a. se interpreta como el centro de
gravedad de los valores que puede tomar la variable, con la diferencia que en una media muestral, el peso de
cada valor lo da la frecuencia de dicho valor en los datos y aqu el peso lo determina la probabilidad, dada
por la funcin masa.
Dada una v.a. discreta, X , con funcin masa de probabilidad f (x), se dene su varianza como
X
V arX = (x EX)2 f (x).
x
Al igual que ocurre con la varianza muestral es conveniente denir la desviacin tpica de una v.a., como
= V arX , que tiene las mismas unidades que la media y que se puede interpretar como una media del
grado de variacin del conjunto de valores que puede tomar la v.a. respecto del valor de la media.
probabilidad asociada a los resultados de la variable la vamos a llamar a partir de ahora distribucin de
probabilidad de una v.a. Dmonos cuenta que, como acabamos de comentar, para determinar la distribucin
de probabilidad de una v.a. slo tenemos que dar su funcin funcin masa de probabilidad.
Sin embargo, debemos tener en cuenta que en la vida real nadie conoce cul es la autntica distribucin de
probabilidad de una v.a., porque nadie sabe a priori cul es la funcin masa de dicha variable. Todo lo ms,
podemos calcular la funcin masa emprica a partir de los datos de una muestra. An as, llegar el momento
de pasar al lmite, es decir, de inducir una frmula terica que corresponda a la distribucin de probabilidad
que proponemos y que se parezca a la distribucin emprica de los datos de la muestra.
Para ayudar a ese paso al lmite, en Estadstica se estudian modelos tericos de distribuciones de pro-
babilidad. Se trata de frmulas tericas de funciones masa que pueden resultar adecuadas para determinadas
variables aleatorias.
Hay una metfora que puede ayudar a entender cmo se asigna una distribucin de probabilidad y sobre la que
abundaremos en lo sucesivo: qu ocurre cuando queremos comprar unos pantalones? En general acudimos
a una tienda de moda y:
1. De entre una serie de modelos, elegimos el modelo que creemos que mejor nos va.
2. Buscamos la talla que hace que mejor se ajuste a nosotros, segn nuestras caractersticas.
nuestras caractersticas son las posibles observaciones que tenemos sobre la v.a. que, por ejemplo,
pueden determinar una distribucin emprica asociada a una muestra;
los modelos de la tienda, entre los que elegimos el que ms nos gusta, son los modelos tericos que
vamos a empezar a estudiar a continuacin;
y la talla que hace que los pantalones se ajusten a nosotros adecuadamente son los parmetros de los
modelos tericos.
En lo que resta de este captulo vamos a describir algunos de los modelos tericos de probabilidad ms
habituales en el mbito de las Ingenieras, comenzando por el caso de v.a. discretas.
Sea X una v.a. discreta que toma los valores x = 0, 1, ..., n, donde n es un nmero natural conocido. Se dice
que X sigue una distribucin binomial de parmetros n y p (y se nota X B (n, p)) si su funcin masa
es
!
n nx
f (x) = px (1 p)
x
n! nx
= px (1 p) , x = 0, 1, 2, ..., n.
x! (n x)!
0.4
B(10,0.25)
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
0.4
B(10,0.5)
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
0.4
B(10,0.75)
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
EX = np
V arX = np (1 p) .
que ocurre con probabilidad constante p. En ese caso, la variable aleatoria X que mide el nmero de xitos
sigue una B (n, p).
En esta caracterizacin es importante observar que las dos hiptesis fundamentales de esta distribucin son:
x 0 1 2 3 4
4 4 4 4 4
0 4
1 3
2 2
3 1
0 0.2 0.8 1 0.2 0.8 2 0.2 0.8 3 0.2 0.8 4 0.24 0.80
P [X = x]
= 0.41 = 0.41 = 0.15 = 0.03 = 0.00
Ejemplo. Consideremos como v.a. el nmero de das a la semana que un joven de hoy consu-
me alcohol. Podramos pensar que se trata de una v.a. con distribucin B (7, p), donde p =
numero medio de das de consumo
7 ? Probablemente no, porque
1. Puede darse el efecto resaca, es decir, si se consume mucho un da, huir del alcohol al da siguiente; o
el efecto inverso un clavo quita otro clavo ; o ...; en denitiva, circunstancias que rompan la hiptesis
de independencia en el consumo en das distintos.
2. Est claro que la probabilidad de consumir un martes no es, en general, la misma que un sbado.
Tampoco todos los jvenes tienen la misma probabilidad de consumir alcohol un da cualquiera.
Sea X una v.a. discreta, que puede tomar los valores x = 0, 1, 2, ... Se dice que X sigue una distribucin
de Poisson de parmetro (y se nota X P ()) si su funcin masa es
x
f (x) = e , x = 0, 1, 2, ...
x!
EX =
V arX = .
Ejemplo. La distribucin de Poisson suele utilizarse como modelo para el nmero de accidentes ocurridos
en los individuos de una poblacin a lo largo de un periodo de tiempo. Lo que mucha gente no termina
de asumir es que hacer esa suposicin equivale a decir que todos esos individuos tienen el mismo riesgo
de tener un accidente y que el hecho de que un individuo tenga un accidente no modica para nada la
probabilidad de sufrir un nuevo accidente. Es evidente que en muchas situaciones de la vida real eso no
es cierto, as que el modelo no ser adecuado en ellas.
Ejemplo. Otra aplicacin muy comn de la distribucin de Poisson es al nmero de partculas por unidad
de volumen en un uido cuando una disolucin est realmente bien disuelta. En caso de que los datos
indiquen que la distribucin de Poisson no es adecuada, podramos de hecho inferir que la disolucin no
est bien disuelta.
Sin embargo, hay que decir que aunque este uso de la distribucin de Poisson es muy comn, es evidente
que la hiptesis de que el promedio debe ser constante, no se da en estas aplicaciones, ya que uno de
los fenmenos ms conocidos en telecomunicaciones es el de la hora cargada : no es el mismo promedio de
llamadas el que se produce a las 12 del medioda que a las 3 de la maana. Lo que se suele hacer es aplicar
uno de los principios ms importantes aunque menos escritos de la ingeniera, la ley de Murphy (si algo
puede ir mal, preprate para ello, porque en algun momento ir mal ): as, las redes de telecomunicaciones
suelen dimensionarse para ser capaces de funcionar en el peor de los escenarios posibles, es decir, cuando
el promedio de solicitudes es el que se da en la hora cargada.
En esta segunda caracterizacin se suele considerar aceptable la aproximacin si n > 20 y p < 0.05. Si
n > 100, la aproximacin es generalmente excelente siempre y cuando np < 10. Hay que tener en cuenta que
para esos valores de los parmetros, la distribucin binomial tendra bastantes problemas para ser computada,
ya que se exigira, entre otros clculos, el clculo de n! para un valor de n alto, por lo que la aproximacin
es muy til.
Ejemplo. Supongamos que un fabricante de maquinaria pesada tiene instalados en el campo 3840
generadores de gran tamao. Si la probabilidad de que cualquiera de ellos falle durante el ao en curso
es de 1200 ,
1
determinemos la probabilidad de que
e3.2 3.24
P [X = 4] = = 0.178 09
4!
Por su parte,
e3.2 3.20 e3.2 3.21
P [X > 1] = 1 P [X = 0, 1] = 1 = 0.828 80
0! 1!
0.4
P(1)
0.3
0.2
0.1
0
5 0 5 10 15 20 25
0.2
P(5)
0.15
0.1
0.05
0
5 0 5 10 15 20 25
0.2
P(10)
0.15
0.1
0.05
0
5 0 5 10 15 20 25
Sea X una v.a. discreta que puede tomar los valores x = 0, 1, 2, ... Se dice que sigue una distribucin
geomtrica de parmetro p (y se nota X Geo (p)), con 0 < p < 1, si su funcin masa es
x
f (x) = p (1 p) , para x = 0, 1, 2, ...
1p
EX =
p
1p
V arX = .
p2
0.4
Geo(0.25)
0.3
0.2
0.1
0
5 0 5 10 15 20 25
0.8
Geo(0.5)
0.6
0.4
0.2
0
5 0 5 10 15 20 25
0.8
Geo(0.75)
0.6
0.4
0.2
0
5 0 5 10 15 20 25
Ejemplo. Siguiendo con un ejemplo anterior, sobre el ingeniero que enva dgitos a travs de un canal
imperfecto, ahora se plantea cuntos dgitos se recibirn correctamente hasta que uno se cruce, sabiendo
que la probabilidad de que uno cualquiera lo haga es de 0.2.
La variable de inters ahora es Y : n de dgitos que se reciben bien hasta el primero que se cruza. Esta
variable tiene como modelo de probabilidad una distribucin Geo(0.2). Gracias a este modelo, podemos
decirle, por ejemplo, que la probabilidad de que enve bien dos y que falle el tercero es de
Sea una v.a. discreta que puede tomar los valores x = 0, 1, 2, ... Se dice que X sigue una distribucin
binomial negativa de parmetros a y p (y se nota X BN (a, p)), con a > 0 y 0 < p < 1, si su funcin
masa es
(a + x) x
f (x) = pa (1 p) para x = 0, 1, 2, ...
(a) (x + 1)
donde (x) = 0
sx1 es ds es la funcin gamma.
1p
EX = a
p
1p
V arX = a 2
p
(k + x 1)! k x
f (x) = p (1 p) para x = 0, 1, 2, ...
(k 1)!x!
!
k+x1 x
= pk (1 p) para x = 0, 1, 2, ...
k1
Caracterizacin de la distribucin binomial negativa. Sean X1 , ..., Xn v.a. independientesa con distri-
Pn
bucin Geo (p). En ese caso, X = i=1 Xi sigue una BN (n, p). De nuevo obsrvese que el primer parmetro
es un entero.
a Podemos quedarnos por ahora con la idea de que v.a. independientes son aquellas tales que el resultado de cualquiera de
ellas no afecta al resto.
8 8
X X (2 + z 1)!
P [Z 8] = P [Z = z] = 0.22 0.8z = 0.62
z=0 z=0
(2 1)!z!
0.1 0.06
BN(2.5,0.25) BN(5,0.25)
0.04
0.05
0.02
0 0
10 0 10 20 30 40 10 0 10 20 30 40
0.4 0.2
BN(2.5,0.5) BN(5,0.5)
0.3 0.15
0.2 0.1
0.1 0.05
0 0
10 0 10 20 30 40 10 0 10 20 30 40
0.8 0.4
BN(2.5,0.75) BN(5,0.75)
0.6 0.3
0.4 0.2
0.2 0.1
0 0
10 0 10 20 30 40 10 0 10 20 30 40
Una variable aleatoria es continua si el conjunto de valores que puede tomar slo puede encerrarse en
intervalos, formando, por tanto, un conjunto con un nmero innito no numerable de elementos.
4.4.2. Histograma
Hay una diferencia fundamental entre las variables discretas y las continuas: en las discretas podemos, al
menos, numerar los posibles valores y contar el nmero de veces que sale cada valor posible en una muestra.
Sin embargo, por el carcter que tienen los intervalos de nmeros reales, por muy grande que fuera la muestra
0.8
0.8
0.6
0.6
Densidad
Densidad
0.4
0.4
0.2
0.2
0.0
0.0
0 1 2 3 4 5 6 0 2 4 6 8
que tomramos de una variable continua, jams tendramos ms de un valor de algunos puntos que puede
tomar la variable1 .
Por esa razn, en una variable continua no podemos denir una funcin masa emprica, precisamente porque
los valores de una variable continua no tienen masa de probabilidad.
Sin embargo, como sabemos, existe una representacin anloga a la funcin masa emprica que permite
aproximar las probabilidades de los valores de una variable continua: el histograma.
Vamos a considerar un sencillo ejemplo para ilustrar esta cuestin: mediante R simulamos dos muestras de
una variable, una con N = 100 valores y otra con N = 1000. Histogramas asociados a estas muestras, con
10 y 31 intervalos, respectivamente, aparecen en la Figura 4.6. Teniendo en cuenta que el rea de las barras
representa la frecuencia relativa con que se dan los valores de los sucesivos intervalos en la muestra, en estos
histogramas podemos ver que la variable toma mayoritariamente valores cercanos a cero; tanto ms lejano al
cero es un valor, menos probable parece ser. Este descenso de la probabilidad es adems, muy acusado, casi
exponencial.
Por otra parte, obsrvese que al pasar de 100 datos en la muestra a 1000 datos, el histograma esboza la forma
de una funcin real de variable real. En general, cuanto mayor es N ms se aproximan los histogramas a la
forma de una funcin continua. Vamos a ir viendo cul es la utilidad de esa funcin desde el punto de vista
del Clculo de Probabilidades.
Si en el histograma de la izquierda de la Figura 4.6 quisiramos calcular la probabilidad en la muestra de
alguno de los intervalos que denen el grco, la respuesta sera el rea de la barra sobre dicho intervalo. Si
quisiramos la probabilidad en la muestra de varios intervalos, sumaramos las reas de las barras.
El problema es que para que las probabilidades en la muestra se parezcan a las verdaderas probabilidades
es necesario que el tamao de la muestra sea grande, cuanto mayor, mejor. En ese caso, tendramos un
1 Esto sucedera siempre que tomemos un nmero suciente de decimales en cada valor.
histograma ms parecido al de la derecha de la Figura 4.6. En l, de nuevo, si queremos, por ejemplo, calcular
P [a < X < b] ,
deberamos sumar las reas de las barras que forman el intervalo (a, b), si es que hay intervalos que forman,
exactamente, el intervalo (a, b) .
Pero si el tamao de la muestra es lo sucientemente amplio para poder pasar al lmite y encontrar una
funcin real de variable real f (x) que represente la lnea que dene el histograma, calcular una probabilidad
del tipo P [a < X < b] sumando las reas de las barras de los intervalos innitesimales que forman el intervalo
(a, b) equivale a integrar dicha funcin en el intervalo (a, b), es decir,
b
P [a < X < b] = f (x) dx.
a
Dada una v.a. continua, X , la funcin de densidad de probabilidad de X es aquella funcin f (x) tal
que para cualesquiera a, b R o a, b = ,
b
P [a < X < b] = f (x) dx
a
Nota. Dado que a efectos del clculo de integrales un punto no afecta al resultado de la integral, si
a, b R, podemos decir que
b
P [a < X < b] = f (x) ,
a
b
P [a X < b] = f (x) ,
a
b
P [a < X b] = f (x) ,
a
b
P [a X b] = f (x) .
a
Este hecho pone de maniesto que los valores concretos de una variable aleatoria continua no tienen
masa de probabilidad, ya que x0
P [X = x0 ] = f (x) dx = 0,
x0
pero s tienen densidad de probabilidad, f (x0 ). Esta densidad de probabilidad representa la probabilidad
de los intervalos innitesimales de valores alrededor de x0 . As, aunque P [X = x0 ] = 0, si f (x0 ) toma
un valor alto, querr decir que los valores alrededor de x0 son muy probables.
Si X es una v.a. continua con funcin de densidad f (x) y funcin de distribucin F (x), entonces
1. lmx F (x) = 0.
2. lmx F (x) = 1.
3. F es creciente.
4. F es continua.
5. f (x) = F 0 (x) .
Ejemplo. Considrese una variable aleatoria continua, X, con funcin de densidad f (x) = cea|x| .
Vamos a calcular la constante c, la funcin de distribucin y P [X 0].
En primer lugar,
0
1= f (x) dx = f (x) dx + f (x) dx
0
0
2c
= c exp (ax) dx + c exp (ax) dx = ,
0 a
Ejemplo. Consideremos una v.a. continua con funcin de distribucin dada por
0 si x < 0
F (x) = x si 0 x < 1 .
1 si x 1
Grcamente, ambas funciones aparecen en la Figura 4.8. En esta variable, todos los puntos tienen la
misma densidad de probabilidad, indicando que todos los intervalos de la misma longitud, dentro de
[0, 1] , tienen la misma probabilidad.
Concretamente, si tenemos una variable aleatoria X y una muestra suya de tamao N, (x1 , ..., xN ) , la funcin
de distribucin emprica se dene como
numero de valores x
SN (x) = .
N
Esta funcin se utiliza para aproximarse a la funcin de distribucin, ya que para un gran nmero de valores,
lm SN (x) = F (x) ,
N
para cada x.
Ejemplo. En el ejemplo anterior se hablaba de una variable aleatoria continua cuya funcin de distri-
bucin es
0 si x < 0
F (x) = x si x [0, 1] .
1 si x > 1
En la Figura 4.9 hemos representado dos funciones de distribucin empricas asociadas a sendas muestras
de tamao N = 10 (izquierda) y N = 100 (derecha).
Obsrvese que cuando aumenta el tamao de la muestra (N ), la funcin de distribucin emprica se
parece cada vez ms a la funcin de distribucin.
Sea X una v.a. continua con funcin de densidad f (x). Se dene su media o esperanza matemtica como
EX = x f (x)dx.
La interpretacin de la media de una v.a. continua es, de nuevo, la de un valor central alrededor del que se
dan el conjunto de realizaciones de la v.a. Otra interpretacin es la de valor esperado, en el sentido de que
78 Prof. Dr. Antonio Jos Sez Castillo
Apuntes de Estadstica para Ingenieros
Calculemos su media:
x2
1
EX = x dx
x1 x 2 x1
2 x2
1 x 1 x2 x21
= = 2
x2 x1 2 x1 2 x2 x1
1 (x2 x1 ) (x2 + x1 ) 1
= = (x1 + x2 ) ,
2 x2 x1 2
Calculemos su media:
EX = x ex dx
0
u=x
dv = ex dx
= x ex 0 + ex dx
0
1 x 1
=0+ e = .
0
Vamos a introducir ahora el concepto de varianza de una v.a. continua, que de nuevo se interpreta como una
medida de la concentracin de los valores de la v.a. en torno a su media.
Es decir, es la media de las desviaciones al cuadrado de los valores de la variable respecto de su media.
Como en el caso de las v.a. discretas, existe un mtodo ms cmodo para el clculo de cualquier varianza.
En concreto,
h i h i
2 2
V ar [X] = E (X EX) = E X 2 2X EX + (EX)
2 2
= E X 2 2 EX EX + (EX) = E X 2 (EX) .
x2
1 1 x32 x31
E X2 = x2
dx =
x1 x2 x1 3 x2 x1
x2 + x1 x2 + x21
= 2 .
3
x1 + x2
EX = ,
2
por tanto,
V ar [X] = E X 2 EX 2
2 2
x22 + x1 x2 + x21 (x1 + x2 ) (x2 x1 )
= = .
3 4 12
E [aX + b] = aE [X] + b
V ar [aX + b] = a2 V arX
Nota. Si tenemos una coleccin de variables aleatorias independientes, es decir, que son observadas sin
que ninguna de ellas pueda inuir sobre las otras, es muy til plantearse en ocasiones por la media y la
varianza de la suma de todas ellas.
Vamos a considerar las variables X1 , ..., Xn , que pueden ser discretas o continuas. Pues bien, se tiene que
la media de la suma es la suma de las medias y que la varianza de la suma es la suma de las varianzas;
es decir,
Se dice que una v.a. continua X que slo puede tomar valores en el intervalo (x1 , x2 ) sigue una distribucin
uniforme entre x1 y x2 (y se nota X U (x1 , x2 )) si su funcin de densidad es
(
1
x2 x1 si x1 < x < x2
f (x) = .
0 en otro caso
x1 + x2
EX =
2
2
(x2 x1 )
V arX = .
12
Caracterizacin de la distribucin uniforme. Si X es una v.a. tal que dos intervalos cualesquiera entre
x1 y x2 de la misma longitud, tienen la misma probabilidad, entonces X U (x1 , x2 ) .
El ejemplo ms habitual de esta variable es la variable uniforme en el intervalo (0, 1) ; valores simulados de
esta variable son los que se calculan con la orden RND de cualquier calculadora.
Sea X una v.a. continua que puede tomar valores x 0. Se dice que X sigue una distribucin exponencial
de parmetro (y se nota X exp ()) si su funcin de densidad
ex si x 0
f (x) = .
0 en otro caso
1 ex si x 0
F (x) = P [X x] = .
0 en otro caso
1
EX =
1
V arX = 2 .
Caracterizacin de la distribucin exponencial. Sea X P () una v.a. discreta que cuenta el nmero
de xitos en un determinado periodo de tiempo. En ese caso, el tiempo que pasa entre dos xitos consecutivos,
T , es una v.a. que sigue una exp ().
Ejemplo. Un elemento radiactivo emite partculas segn una variable de Poisson con un promedio de
15 partculas por minuto. En ese caso, el tiempo, T , que transcurre entre la emisin de una partcula y
la siguiente sigue una distribucin exponencial de parmetro = 15 partculas por minuto. Este modelo
nos permite, por ejemplo, calcular la probabilidad de que entre partcula y partcula pasen ms de 10
segundos, dado por
P [T > 10/60] = 15e15t dt = e15/6 .
1/6
Ejemplo. Recordemos que habamos comentado que la distribucin de Poisson se sola utilizar en el
contexto de las redes de comunicaciones como modelo para el nmero de solicitudes a un servidor por
unidad de tiempo. Segn esta caracterizacin que acabamos de ver, eso equivale a decir que el tiempo
que pasa entre dos solicitudes a un servidor sigue una distribucin exponencial.
Por ejemplo, supongamos que el nmero de conexiones a un servidor FTP sigue una distribucin de
Poisson de media 2.5 conexiones a la hora. En ese caso, podramos preguntarnos cul es la probabilidad
de que pasen ms de dos horas sin que se produzca ninguna conexin. Teniendo en cuenta que el tiempo
entre conexiones seguira una distribucin exponencial de parmetro 2.5, esa probabilidad sera
P [T > 2] = 2.5e2.5x dx = e5
2
o bien
P [T > 2] = 1 P [T 2] = 1 FT (2) = 1 1 e2.52 = e5 .
Hay una interesante y curiosa propiedad de la distribucin exponencial, conocida como propiedad de no
memoria. Si X es una v.a. con distribucin exp() y t y s son dos nmeros positivos. Entonces:
Ejemplo. El tiempo de vida, T , de un circuito, sigue una distribucin exponencial de media dos aos.
Calculemos la probabilidad de que un circuito dure ms de tres aos:
1
P [T > 3] = e 2 3
Supongamos que un circuito lleva 5 aos funcionando, y que nos planteamos la probabilidad de que an
funcione 3 aos ms. Segn la propiedad de no memoria, esa probabilidad es la misma que si el circuito
acabara de comenzar a funcionar, es decir,
1
P [T > 3 + 5|T > 5] = P [T > 3] = e 2 3
Desde un punto de vista prctico, parece poco creible, porque entendemos que los 5 aos previos de
funcionamiento deben haber afectado a la abilidad del circuito, pero si creemos que la distribucin del
tiempo de vida de ste es exponencial, tenemos que asumir esta propiedad.
Sea X una v.a. continua que puede tomar valores x 0. Se dice que X sigue una distribucin Gamma de
parmetros a y (y se nota X Gamma (a, )) si su funcin de densidad es
a1
(x) ex
f (x) = u (x) ,
(a)
donde (x) = 0
sx1 es ds es la funcin gamma.
1
exp(1)
0.5
0
0 2 4 6 8 10 12 14 16 18 20
0.2
exp(5)
0.15
0.1
0.05
0
0 2 4 6 8 10 12 14 16 18 20
0.1
exp(10)
0.05
0
0 2 4 6 8 10 12 14 16 18 20
Otro caso particular lo constituye la distribucin 2 con r grados de libertad, que no es ms que una
Gamma 2r , 12 . Esta distribucin se utiliza, por ejemplo, para evaluar la bondad del ajuste de una distribucin
a
EX =
a
V arX = 2 .
Caracterizacin de la distribucin Gamma. Sea X P () una v.a. discreta que cuenta el nmero de
xitos en un determinado periodo de tiempo. En ese caso, el tiempo que pasa entre el ksimo xito y el
k + r, T , es una v.a. que sigue una Gamma (r, ). Dado que r es un entero, en realidad es una Erlang (r, ).
Caracterizacin de la distribucin Gamma. Sean X1 , ..., Xn v.a. independientes con distribucin exp ().
Pn
En ese caso, X = i=1 Xi sigue una Gamma (n, ). De nuevo obsrvese que el primer parmetro es un entero,
luego se trata de una Erlang.
0.20
0.10
0.00
0 5 10 15 20 25 30 0 5 10 15 20 25 30
Gamma(2.5,0.2)
0.04
0.02
Gamma(5,0.2)
0.00
0 5 10 15 20 25 30 0 5 10 15 20 25 30
0.030
Gamma(2.5,0.1) Gamma(5,0.1)
0.000
0 5 10 15 20 25 30 0 5 10 15 20 25 30
Sea X una v.a. continua que puede tomar cualquier valor real. Se dice que X sigue una distribucin normal
o gaussiana, de parmetros y (y se nota X N (, )), si su funcin de densidad es
" #
2
1 (x )
f (x) = exp para todo x R.
2 2 2 2
Obsrvese que es la nica distribucin que hemos visto hasta ahora que toma todos los valores entre y
+.
Sea X N (, ). Entonces
EX =
V arX = 2 .
El propio nombre de la distribucin normal indica su frecuente uso en cualquier mbito cientco y tecnolgico.
Este uso tan extendido se justica por la frecuencia o normalidad con la que ciertos fenmenos tienden a
parecerse en su comportamiento a esta distribucin, ya que muchas variables aleatorias continuas presentan
una funcin de densidad cuya grca tiene forma de campana. Esto, a su vez, es debido a que hay muchas
variables asociadas a fenmenos naturales cuyas caractersticas son compatibles con el modelo aleatorio que
supone el modelo de la normal:
Caracteres morfolgicos de individuos (personas, animales, plantas, ...) de una especie (tallas, pesos,
envergaduras, dimetros, permetros, ...).
0.4 0.1
N(0,1) N(0,4)
0.3
0.2 0.05
0.1
0 0
10 5 0 5 10 10 5 0 5 10
0.4 0.1
N(1,1) N(1,4)
0.3
0.2 0.05
0.1
0 0
10 5 0 5 10 10 5 0 5 10
0.4 0.1
N(1,1) N(1,4)
0.3
0.2 0.05
0.1
0 0
10 5 0 5 10 10 5 0 5 10
Caracteres siolgicos (efecto de una misma dosis de un frmaco, o de una misma cantidad de abono).
Caracteres sociolgicos (consumo de cierto producto por un mismo grupo de individuos, puntuaciones
de examen...).
Otras distribuciones como la binomial o la de Poisson son aproximadas por la normal, ...
En general, como veremos enseguida, cualquier caracterstica que se obtenga como suma de muchos factores
independientes encuentra en la distribucin normal un modelo adecuado.
Existe otra razn ms pragmtica para el uso tan extendido de la distribucin normal: sus propiedades
matemticas son, como iremos viendo, casi inmejorables. Eso conduce a que casi siempre se trate de forzar al
modelo normal como modelo para cualquier variable aleatoria, lo cual, en ocasiones puede conducir a errores
importantes en las aplicaciones prcticas. Lo cierto es que tambin son frecuentes las aplicaciones en las que
los datos no siguen una distribucin normal. En ese caso puede ser relevante estudiar qu factores son los
que provocan la prdida de la normalidad y, en cualquier caso, pueden aplicarse tcnicas estadsticas que no
requieran de esa hiptesis.
X
Z= N (0, 1) ,
Esta conocida propiedad tiene una aplicacin prctica muy usual. Dadas las caractersticas de la densidad
gaussiana, no es posible calcular probabilidades asociadas a la normal de forma exacta, ya que las integrales
del tipo
b
"
2
#
1 (x )
exp dx
a 2 2 2 2
no pueden ser expresadas en trminos de las funciones usuales, y slo pueden calcularse por mtodos nu-
mricos. No obstante, existen tablas donde aparecen multitud de valores de la funcin de distribucin de la
distribucin N (0, 1) y a partir de ellos se pueden calcular otras tantas probabilidades, utilizando la propiedad
de tipicacin. Por ejemplo, si queremos calcular la probabilidad de que una variable X N (, ) est en
el intervalo [a, b], tenemos
a X b b a
P [a X b] = P = FZ FZ ,
donde FZ () es la funcin de distribucin de una variable Z N (0, 1), que puede evaluarse mediante el uso
de tablas. Vamos a verlo en un ejemplo.
Ejemplo. En el artculo ndices de relacin peso-talla como indicadores de masa muscular en el adulto
del sexo masculino de la revista Revista Cubana Aliment. Nutr. (1998;12(2):91-5) aparece un
colectivo de varones con un peso cuya media y desviacin estndar son, respectivamente, 65.6 y 11.7.
1. Cmo podemos, mediante las tablas de la N (0, 1), calcular, por ejemplo, la probabilidad de que
uno de esos varones pese ms de 76.25 kilos?
X 65.6 76.25 65.6
P [X > 76.25] = P >
11.7 11.7
= P [Z > 0.91] = 1 P [Z < 0.91] = 1 0.819
P [60 < X < 76.25] = P [X < 76.25] P [X < 60] = 0.819 (1 0.684)
Figura 4.13: Bsqueda de probabilidades en la tabla de la N (0, 1). Valor de la probabilidad a la izquierda de
0.91
4. Cunto pesar aquel varn tal que un 5 % de varones de ese colectivo pesan ms que l? Es decir,
cul ser el valor de x tal que P [X > x] = 0.05 o, equivalentemente, P [X < x] = 0.95. Dado que
X 65.6 x 65.6 x 65.6
P [X < x] = P < =P Z<
11.7 11.7 11.7
Figura 4.14: Bsqueda de valores z en la tabla de la N (0, 1). Valor de Z que deja a la derecha una probabilidad
de 0.95
Teorema Central del Lmite. Sean X1 , ..., XN v.a. independientes, todas ellas con la misma distribucin
de probabilidad, distribucin de media X y desviacin tpica X . En ese caso, la suma de estas variables
sigue aproximadamente una distribucin normal cuando N es elevado, es decir,
N
X
Xi N N X , N X .
i=1
Este teorema es el que proporciona una justicacin matemtica del porqu la distribucin gaussiana es un
modelo adecuado para un gran nmero de fenmenos reales en donde la v.a. observada en un momento dado
es el resultado de sumar un gran nmero de sucesos aleatorios elementales.
el siguiente experimento:
PN
Para N = 1, 2, 5 y 10, se ha simulado una muestra de 10000 datos de i=1 Xi , dibujando su histograma
140 250
N=1 N=2
120
200
100
80 150
60 100
40
50
20
0 0
0 0.2 0.4 0.6 0.8 1 0 0.5 1 1.5 2
300 350
N=5 N=10
250 300
250
200
200
150
150
100
100
50 50
0 0
0 1 2 3 4 5 0 2 4 6 8 10
en cada caso. Estos histogramas aparecen en la Figura 4.15. En ella se pone de maniesto como segn
N crece, el histograma se va pareciendo cada vez ms a una densidad gaussiana.
Ejemplo. Supongamos que estamos realizando un examen de 150 preguntas, cada una de ellas con una
puntuacin de 1 punto y que en funcin de cmo hemos estudiado, consideramos que la probabilidad
de contestar acertadamente una pregunta cualquiera es de 0.7. Dmonos cuenta que el resultado de una
pregunta cualquiera sigue una distribucin B (1, 0.7), cuya media es 1 0.7 = 0.7 y cuya varianza es
1 0.7 (1 0.7) = 0.21.
Por su parte, el resultado nal de la prueba ser la suma de las 150 puntuaciones. Podramos ver este
resultado segn una B (150, 0.7), pero los clculos seran muy tediosos debido a los factoriales de la funcin
masa de la distribucin binomial. En este caso, merece la pena que utilicemos el Teorema Central del
Lmite, segn el cul el resultado nal, X , seguira aproximadamente una distribucin
N 150 0.7, 150 0.21 ,
es decir, X N (105, 5.612) . As, si por ejemplo, nos planteamos cul es la probabilidad de aprobar,
sta ser
P [X > 75] = P [Z > 0.952] = 0.830.
Enunciando el Teorema Central del Lmite en trminos de la media, X , de las variables X1 , ..., XN , podemos
decir que si N es grande,
X N (, / N )
Ejemplo. Un ingeniero disea un aparato de medida que realiza una aproximacin ms imprecisa que
el aparato tradicional pero mucho ms barata. Para reducir el margen de error de la medida realizada,
el ingeniero propondr que se realicen un nmero determinado de medidas sobre el mismo objeto y que
se considere la media de estas medidas como valor nal de la medida del objeto.
Inicialmente, el ingeniero hace una valoracin que le lleva a concluir que el aparato est bien calibrado,
es decir, que la media de la medida del aparato coincide con la medida real, y que la desviacin tpica
de las medidas del aparato es igual a 0.75.
Cuntas medidas debe proponer el ingeniero para que el error de medida sea inferior a 0.1 con un 95 %
de probabilidad?
Empecemos considerando que cada medida, Xi , tiene como media el verdadero valor de la medida del
P n
Xi
objeto, x0 , y desviacin tpica 0.75. Por su parte, la medida nal ser X = i=1
n , donde realmente nos
interesa conocer el valor de n. Para ello, tengamos en cuenta que se nos pide que
P X x0 < 0.1 0.95.
y que, considerando el Teorema Central del Lmite, X N x0 , 0.75
n
. Por su parte,
0.1 n 0.1 n
P X x0 < 0.1 = P x0 0.1 < X < x0 + 0.1 = P <Z<
0.75 0.75
0.1 n
=12 1P Z < .
0.75
h i
0.1 n 0.1 n
Si queremos que P X x0 < 0.1 0.95, entonces P Z < 0.975, de donde 1.96 y
0.75 0.75
entonces, n 216.09.
Como conclusin, ms le vale al ingeniero disminuir la desviacin tpica del aparato de medida.
Ntese que, al ser la variable discreta, puede que no logremos obtener una igualdad del tipo
P
xi x f (x) =
p.
o lo que es lo mismo, como el valor x tal que F (x) = p, siendo F la funcin de distribucin de la
variable.
Es muy frecuente que la probabilidad p a la que se asocia un cuantil se exprese en porcentaje. En ese caso,
los cuantiles tambin se pueden llamar percentiles. Por ejemplo, el cuantil 0.5 es el percentil 50, la mediana.
Desde luego, lo ms importante es que interpretemos qu signica el cuantil p de una v.a. Como en Estadstica
Descriptiva, se reere al valor de la variable que deja por debajo de s una proporcin p de valores de la variable.
Entonces, si un valor concreto corresponde con un cuantil alto, podemos decir que realmente es un valor alto
dentro de la distribucin de probabilidad de la variable, y viceversa. Vamos a tratar de aclararlo con algunos
ejemplos.
Obsrvese que eso es algo que ocurrir con cualquier exponencial: la probabilidad de que se supere la
media es slo del 36.79 %. Dicho de otra forma, la media es el percentil 63 aproximadamente, lo que
implica que slo el 37 % aproximadamente de las lmparas superan su vida media... sorprendente?
1 eM e = 0.5,
Para terminar, animo a los lectores interesados a que busquen informacin sobre el cmputo de la vida
media de este tipo de lmparas, basado en la realizacin de pruebas aceleradas sobre una muestra (bastante
reducida, por cierto) de lmparas.
P [X 5.6] = 0.369,
el pediatra me dir que mi hijo est en el percentil 37, lo que quiere decir que es un peln bajo de peso, pero
dentro de niveles razonables.
2 Fuente: http://www.familia.cl/salud/curvas_de_crecimiento/curvas_de_crecimiento.htm
conjunta
Groucho Marx
Resumen. En el estudio de las variables aleatorias hemos pasado por alto el hecho de que un conjunto de
dos o ms variables puede verse afectado por una serie de relaciones entre ellas. El anlisis desde el punto
de vista estadstico de estas relaciones es el objetivo de este captulo. Como caso especial, describiremos de
forma detallada el modelo que para estas relaciones proporciona la distribucin normal multivariante
Palabras clave: distribucin conjunta, distribucin marginal, distribucin condicionada, covarianza, coe-
ciente de correlacin, normal multivariante.
5.1. Introduccin
El mundo real est repleto de relaciones a todos los niveles. Nosotros, por razones obvias, estaremos intere-
sados principalmente en las relaciones que afectan a variables que describen fenmenos propios del ambiente
cientco-tecnolgico. Estas relaciones pueden tener muy diversas tipologias. Por ejemplo, podramos pensar
en relaciones causa-efecto, como la que, por ejemplo, explicara que una pgina Web tenga un tamao con-
siderable debido a que lleva incrustado varios archivos de vdeo y audio, o la que se establece entre la edad
en aos de un vestigio y su contenido en carbono 141 . Pero no slo tendremos relaciones causa-efecto: por
ejemplo, sabemos que el peso y la estatura de un ser humano son variables muy relacionadas, hasta el punto
que no podemos decir que una persona este obesa slo con saber su peso, sino que debemos valorarlo en
relacin a su estatura.
Por otra parte, cuando un fenmeno es determinstico y est bien estudiado, las relaciones entre variables
son leyes ms o menos sencillas, pero, en cualquier caso, son inmutables. Por ejemplo,
masa
densidad = .
vol.
1 Relacin que, por cierto, sabemos que permite la datacin del vestigio.
97
Dpto de Estadstica e I.O. Universidad de Jan
Pero, qu ocurre cuando el fenmeno es aleatorio? Las variables en ese caso son aleatorias y las relaciones que
se puedan dar entre ellas no siempre tienen por qu obedecer a una ley objetiva e inamovible. Por ejemplo,
todos somos conscientes de que, como decamos, existe una relacin entre el peso y la altura de una persona,
pero no existe una razn de conversin capaz de calcular el peso exacto de alguien a partir de su altura. Es
evidente que el tiempo de descarga de una pgina web estar relacionado con el tamao de los archivos que
la conguran, pero cmo de evidente ? y de qu forma es esa relacin? Ambas preguntas tratarn de ser
contestadas a lo largo de este captulo.
Hablaremos de vectores aleatorios continuos o vectores aleatorios discretos cuando cada una de sus
variables sean continuas o discretas, respectivamente. Podran darse vectores mixtos, pero su tratamiento
estadstico no nos interesa por ahora.
Ejemplo. Consideremos el valor de una seal analgica que depende del tiempo, x (t). En esta notacin,
entendemos que el valor de la seal podra ser distinto en cada instante de tiempo t. Es muy frecuente
que la seal se observe realmente contaminada por un ruido aleatorio que tambin depender del tiempo,
N (t). En ese caso, si observamos la seal en los instantes t1 , ..., tN , el vector
x (t1 ) + N (t1 )
..
.
x (tn ) + N (tn )
es un vector aleatorio.
Ejemplo. Se estudia el tiempo que un usuario de Internet dedica a ver una pgina WEB (T ) en relacin
con variables como la cantidad de texto que contiene (T x), el nmero de imgenes (I) y animaciones
Flash (F ) de la pgina. Entonces, el vector
T
Tx
I
F
es un vector aleatorio.
Ejemplo. Se contabiliza la duracin de las llamadas telefnicas a una centralita. Para cada conjunto de
n-usuarios de la centralita, cada uno de ellos ocupa un tiempo Ti en su llamada. En ese caso, el vector
T1
.
.
.
Tn
es un vector aleatorio.
Sea (X1 , ..., XN ) un vector aleatorio discreto. Entonces, se dene su funcin masa conjunta como
Por su parte, si (X1 , ..., XN ) es un vector aleatorio continuo, entonces, su funcin de densidad conjunta
es una funcin tal que
P (X1 , ..., XN ) A RN =
... fX1 ,...,XN (x1 , ..., xN ) dx1 ...dxN
ARN
Por ello,
x
x y c
cex 1 ex dx = ,
1= ce e dy dx =
0 0 0 2
de donde c = 2.
En segundo lugar, por ejemplo, calculemos
1 1y
P [X + Y 1] = 2ex ey dxdy
0 y
1 h i
= 2ey ey e(1y) dy
0
1 2e + e2
= .
e2
Esta densidad constante en el rectngulo denido indica que la distribucin de probabilidad es uniforme
en dicho rectngulo. Vamos a calcular la probabilidad de que Y sea mayor que X (ver Figura 5.2)
3 5
1
P [Y > X] = dy dx
0 x 15
3
5x
= dx
0 15
x x2 3 7
= | = .
3 30 0 10
0
Sea (X1 , ..., XN ) un vector aleatorio y (Xi1 , ..., Xik ) un subvector de variables suyo. En ese caso:
Si el vector es continuo,
Y
fXi1 ,...,Xik (xi1 , ..., xik ) = ... fX1 ,...XN (x1 , ..., xn ) dxj .
/ (xi1 ,...,xik )
xj
/ (xi1 ,...,xik )
xj
Si el vector es discreto,
X
fXi1 ,...,Xik (xi1 , ..., xik ) = fX1 ,...XN (x1 , ..., xn ) .
/ (xi1 ,...,xik )
xj
Ejemplo. Sea el vector bidimensional (X, Y ) con funcin de densidad conjunta fX,Y (x, y) = x ex(y+1)
para x, y > 0.
La funcin de densidad marginal de X ,
fX (x) = fX,Y (x, y) dy = xex(y+1) dy = ex
0
para x > 0.
Anlogamente, la funcin de densidad marginal de Y ,
1
fY (y) = fX,Y (x, y) dx = xex(y+1) dx = 2
0 (1 + y)
para y > 0.
Ejemplo. Consideremos dos variables discretas, Q y G, cuya funcin masa, fQ,G (q, g) , viene dada por
y
0.06 + 0.04 si g = 0
si g = 1
0.18 + 0.12
fG (g) =
0.24 + 0.16 si g = 2
si g = 3
0.12 + 0.08
Ejemplo. En un ejemplo anterior considerbamos dos variables X e Y que tienen densidad conjunta
(
1
15 si 0 x 3, 0 y 5
fX,Y (x, y) = .
0 en otro caso
fY (y) = fX,Y (x, y) dx
( 3
1
0 15
dx si 0 y 5
=
0 en otro caso
(
1
5 si 0 y 5
= .
0 en otro caso
fY (y) = fX,Y (x, y) dx
( 1
2xdx si 1 y 1
|y|
=
0 en otro caso
(
1 |y| si 1 y 1
= .
0 en otro caso
Esta distribucin vendr caracterizada por su funcin masa o su funcin de densidad condicionadas, segn
sea el vector discreto o continuo, y tendr la expresin
fXi1 ,...,Xik ,Xj1 ,...,Xjl (xi1 , ..., xik , xj1 , ..., xjl )
fXi1 ,...,Xik |Xj1 =xj1 ,...,Xjl =xjl (xi1 , ..., xik ) = ,
fXj1 ,...,Xjl (xj1 , ..., xjl )
donde fXi1 ,...,Xik ,Xj1 ,...,Xjl (xi1 , ..., xik , xj1 , ..., xjl ) es la funcin masa o la funcin de densidad conjunta de
las variables Xi1 , ..., Xik , Xj1 , ..., Xjl y fXj1 ,...,Xjl (xj1 , ..., xjl ) es la funcin masa o la funcin de densidad
conjunta de las variables Xj1 , ..., Xjl .
En el caso ms habitual en el que el vector tenga dimensin dos, tenemos la densidad o la funcin masa de
X condicionada a Y = y,
fX,Y (x, y)
fX|Y =y (x) =
fY (y)
o la densidad o la funcin masa de Y condicionada a X = x,
fX,Y (x, y)
fY |X=x (y) = .
fX (x)
y\x 0 1 2
0 3/28 9/28 3/28
1 3/14 3/14 0
2 1/28 0 0
28 + 0 + 0 si x = 2
3
y
28 + 28 + 28 si y = 0
3 9 3
14 + 14 + 0 si y = 1
fY (y) = 3 3
28 + 0 + 0 si y = 2
1
Como ejemplos de las condicionadas (hay 6 en total) calculemos la funcin masa de X condicionada a
Y = 1 y la de Y condicionada a X = 1.
3
14
6 si x = 0
14
3
fX|Y =1 (x) = 14
6 si x = 1 .
14
0
si x = 2
6
14
9
28
15 si y = 0
28
3
fY |X=1 (y) = 14
15 si x = 1 .
28
0
si x = 2
15
28
Como es evidente, una vez que tenemos caracterizada la distribucin condicionada de una variable aleatoria
al valor de otra, cualquier caracterstica de dicha distribucin, como la media o la varianza, puede calcularse
a partir de su funcin masa o su funcin de densidad.
Ejemplo. Tal y como plantebamos al comienzo del captulo, supongamos que la posicin (X, Y ) de un
telfono mvil que recibe cobertura de una antena de telefona se encuentra dentro de un crculo de radio
r alrededor de esa antena, que supondremos sin prdida de generalidad que se encuentra en el origen
del plano. Vamos a suponer que esa posicin es completamente al azar dentro del crculo. Eso equivale a
considerar que la densidad conjunta debe ser constante en el crculo; para que su integral sea la unidad,
es evidente que
1
fX,Y (x, y) =
r2
si x2 + y 2 r2 y cero en cualquier punto fuera del crculo. Vamos a ver qu podemos averiguar sobre las
coordenadas X e Y por separado (marginales) y sobre cmo afectan la una a la otra (condicionadas).
En primer lugar,
r 2 x2
1 2 r 2 x2
fX (x) = dy =
r 2 x2 r2 r2
si r < x < r. La marginal de Y es anloga,
p
r2 y2 2
fY (y) =
r2
si r < y < r. Est claro que para cada coordenada por separado, los puntos ms densos, ms probables,
fX,Y (x, y0 ) 1
fX|Y =y0 (x) = = p
fY (y0 ) 2 r y02
2
fX,Y (x0 , y) 1
fY |X=x0 (y) = = p
fX (x0 ) 2 r2 x20
si r2 x20 < y < r2 x20 . Si nos damos cuenta, ambas son distribuciones uniformes, lo que equivale
p p
a decir que saber una coordenada no me da ninguna informacin sobre la otra coordenada.
Ejemplo. A las 12 de la noche de un da de la semana comienzan a ser registrados las nuevas llamadas
a un switch de telefona. Sea X el instante de llegada de la primera llamada, medida en segundos
transcurridos tras la medianoche. Sea Y el instante de llegada de la segunda llamada. En el modelo ms
habitual utilizado en telefona, X e Y son variables aleatorias continuas con densidad conjunta dada por
(
2 ey si 0 x < y
fX,Y (x, y) = ,
0 en otro caso
donde es una constante positiva. Vamos a calcular las distribuciones marginales y condicionadas que
pueden darse:
Marginal de X :
fX (x) = 2 ey dy = ex si 0 x,
x
Marginal de Y : y
fY (y) = 2 ey dx = 2 yey si y 0.
0
Si nos jamos, esta densidad es una Gamma (2, ), es decir una Erlang de parmetros 2 y .
fX,Y (x, y)
fY /X=x (y) = = e(yx) si y > x.
fX (x)
fX,Y (x, y) 1
fX/Y =y (x) = = si 0 x < y.
fY (y) y
Es decir, conocido el instante en que lleg la segunda llamada (y), no se sabe nada de cundo lleg
la primera llamada, ya que la distribucin de X condicionada a Y = y es uniforme en (0, y).
Ejemplo. Consideremos que la variable X representa el input de un canal de comunicacin, con posibles
valores +1 y 1 equiprobables, y sea Y el dgito que llega al destino, con valores tambin +1 y 1. El
canal es un canal binario simtrico con probabilidad de cruce del 5 %.
Con los datos expuestos podemos caracterizar mediante sus funciones masa las distribuciones marginales
de X e Y , la distribucin conjunta de ambos y las dos distribuciones condicionadas posibles de cada
variable respecto de la otra.
La distribucin marginal de X viene dada por
(
2 si x = 1
1
fX (x) =
2 si x = 1
1
es decir (
2 si y = 1
1
fY (y) =
2 si y = 1
1
fX,Y (x, y) = P [Y = y | X = x] P [X = x]
0.95 0.5 si x = +1, y = +1
0.05 0.5 si x = +1, y = 1
= 0.05 0.5 si x = 1, y = +1
0.95 0.5 si x = 1, y = 1
0 en otro caso
Esta denicin puede extenderse al caso en que tengamos dos variables aleatorias X e Y .
donde fX,Y (), fX () y fY () son funcin de densidad o funcin masa, dependiendo de si las variables son
discretas o continuas.
La interpretacin del hecho de que dos variables aleatorias sean estadsticamente independientes es que el
comportamiento de una no tiene ningn efecto sobre la otra y viceversa. Cabe preguntarse en ese caso, qu
sentido tiene una distribucin condicionada de una variable a otra que no guarda ninguna relacin con ella.
Vamos a comprobarlo calculando las distribuciones condicionadas de variables aleatorias estadsticamente
independientes:
fX,Y (x, y) fX (x) fY (y)
fX|Y =y (x) = = = fX (x) ;
fY (y) fY (y)
es decir, el comportamiento aleatorio de una variable aleatoria condicionada al valor de otra que es estads-
ticamente independiente de ella (descrito mediante la funcin fX|Y =y (x)) es completamente igual que si no
se condiciona a dicho valor (descrito por la funcin fX (x)).
Como
fX,Y (x, y) 6= fX (x) fY (y) ,
Como
fX,Y (x, y) = fX (x) fY (y) ,
Ejemplo. Supongamos que dos componentes electrnicas tienen una duracin cuya distribucin de pro-
babilidad puede considerarse exponencial de parmetro = 2 horas1 . Las componentes funcionan en
paralelo, por lo que podemos considerar que son independientes. Por lo tanto, su funcin de densidad
conjunta ser
fX,Y (x, y) = 2e2x 2e2y = 4e2(x+y)
si x, y > 0.
Cul ser la probabilidad de que alguna de las componentes dure ms de dos horas? Podemos plantearlo
como
donde se ha utilizado en la probabilidad de la interseccin el hecho de que las variables son independientes.
Ahora slo bastara recordar que P [X > 2] = e22 y P [Y > 2] = e22 .
Cul sera la probabilidad de que la duracin total de ambas componentes sea inferior a dos horas? La
duracin total vendra dada por X + Y , luego se nos pregunta por
2 2x
P [X + Y < 2] = 4e2(x+y) dydx
0 0
2 h i
= 2e2x 1 e2(2x) dx
0
2
2e2x 2e4 dx
=
0
= 1 e4 2e4 2
= 1 5e4
De la interpretacin que hemos dado de variables independientes se sigue de manera inmediata que si dos
variables aleatorias son independientes, esto es, no mantienen ninguna relacin, tampoco lo harn funciones
suyas. Este hecho se recoge en el siguiente resultado. Lo podemos enunciar ms formalmente diciendo que si
X e Y son variables aleatorias independientes y V = g (X) y W = h (Y ) son funciones suyas, entonces, V y
W tambin son independientes.
En el mbito de las Telecomunicaciones se dan numerosas situaciones donde aparece una variable aleatoria
W , suma de otras dos variables aleatorias (generalmente continuas) estadsticamente independientes, X
e Y, es decir, W = X + Y. Por ejemplo, se da cuando a una seal X se le adhiere un ruido que le es
completamente ajeno (independiente), Y . En ese caso, la suma representa la seal resultante y querremos
conocer su comportamiento aleatorio a partir del de X e Y . Esto se conoce como teorema de convolucin.
= fX fY (w)
= fX fY (w)
Ejemplo. Un sistema opera con una componente clave cuya duracin, T1 , sigue una distribucin ex-
ponencial de parmetro . Si esta componente falla, inmediatamente se pone en funcionamiento una
componente exactamente igual que hasta entonces ha funcionado en standby, cuya duracin notamos por
T2 , variable aleatoria independiente de T1 .
Si pretendemos conocer la distribucin de probabilidad de la duracin total del sistema, que vendr dada
por la variable aleatoria T = T1 + T2 , podemos poner en prctica el teorema de convolucin. Para ello,
tengamos en cuenta que
fTi (x) = ex , i = 1, 2,
para z > 0. Como vemos, se trata de una distribucin Erlang de parmetros 2 y . Si recordamos, esta
era una de las caracterizaciones de la distribucin Erlang, suma de exponenciales independientes.
0
En el caso de que en vez de dos variables aleatorias se tenga un vector X = (X1 , ..., XN ) , la manera natural
de extender el concepto de independencia es inmediata.
Si tenemos un vector aleatorio formado por las variables aleatorias X1 , ..., XN y g () es una funcin de estas
variables, entonces, la media o esperanza matemtica de esta funcin es
E [g (X1 , ..., XN )] = ... g (x1 , ..., xN ) fX1 ,...,XN (x1 , ..., xN ) dxN ... dx1
donde fX1 ,...,XN (x1 , ..., xN ) es la funcin de densidad o la funcin masa del vector aleatorio (entendiendo en
este ltimo caso la integral como una suma).
Como consecuencia inmediata de esta denicin, tenemos una primera e importante propiedad: este operador
esperanza multivariante tambin es lineal, en el sentido que se recoge en el siguiente resultado.
0
Concretamente, podemos formalizarlo diciendo que si tenemos un vector aleatorio (X1 , ..., XN ) y 1 , ..., N
escalares cualesquiera, entonces
es decir, la media de la suma ponderada es la suma ponderada de las medias. Podemos tratar de recordar
este resultado si pensamos que es exactamente la misma propiedad que tiene el operador integral, que parte
En este sentido, dado el vector aleatorio (X, Y ), se dene la correlacin entre X e Y como
La covarianza entre dos variables2 es una medida de la asociacin lineal existente entre ellas. Ser positiva si
la relacin entre ambas es directa (si crece una crece la otra) y negativa si es inversa (si crece una decrece la
otra); adems, ser tanto mayor en valor absoluto cuanto ms fuerte sea la relacin lineal existente.
Para poder valorar esta relacin lineal en trminos relativos se estandariza la covarianza, dando lugar a lo
que se conoce como coeciente de correlacin lineal:
Cov [X, Y ]
= p .
V ar [X] V ar [Y ]
Si es cero, indica una ausencia total de relacin lineal entre las variables.
Si es uno o menos uno indica una relacin lineal total entre las variables, directa o inversa segn lo
indique el signo (esto lo veremos enseguida).
En la medida en que est ms lejos del cero indica una relacin lineal ms intensa entre las variables.
Si dos variables aleatorias tienen covarianza cero o equivalentemente, si RXY = EX EY, se dicen que son
incorreladas. Por su parte, si dos variables aleatorias son tales que RXY = 0, se dice que son ortogonales.
Dos variables aleatorias son incorreladas si carecen de cualquier tipo de relacin lineal. Por otra parte, deni-
mos anteriormente el concepto de independencia entre variable aleatoria, que implicaba la ausencia de relacin
entre ellas. Tenemos, as, dos conceptos, independencia e incorrelacin, que estn bastante relacionados.
En concreto, dos variable aleatoria independientes, X e Y , son siempre incorreladas, es decir, X,Y = 0. La
razn es que, por ser independientes,
luego
RXY = xy fX (x) fY (y) dy dx
= xfX (x) dx yfY (y) dy = EX EY,
La pregunta obvia que surge a la luz de este resultado es: y al contrario? Dos variable aleatoria incorreladas
sern independientes? O equivalentemente, si dos variable aleatoria no tienen ninguna relacin de tipo lineal
(incorreladas), ocurrir que tampoco tienen ninguna relacin de ningn tipo (independientes)? La respuesta
es que no en general.
Ejemplo. Sea una variable aleatoria con distribucin uniforme en (0, 2). Sean
X = cos
Y = sin .
Se tiene que
2
1
EX = cos d = 0
0 2
2
1
EY = sin d = 0
0 2
2
1
E [XY ] = sin cos d
0 2
2
1
= sin 2d = 0,
2 0
por lo que X e Y son variables incorreladas. Sin embargo, puede demostrarse fcilmente que no son
independientes.
Nota. La relacin ms fuerte de tipo lineal que puede darse corresponde al caso en que una variable
aleatoria Y es exactamente una combinacin lineal de otra, X , es decir, Y = aX + b. En ese caso,
XY = 1 signo (a) .
luego
= a E X 2 EX 2 = aV arX
h i
2
V arY = E ((aX + b) (aEX + b))
h i h i
2 2
= E (aX aEX) = E a2 (X EX)
h i
2
= a2 E (X EX) = a2 V arX,
y
Cov (X, Y ) aV arX
XY = = = 1 signo (a) .
V arX V arY V arXa2 V arX
Cuando se tienen muestras de pares de variables aleatorias, podemos calcular la versin muestral del coe-
ciente de correlacin lineal. Esa versin muestral dar una estimacin del verdadero valor del coeciente de
correlacin (poblacional). Esta cuestin se aborda con ms detalle en el captulo de regresin. Aqu tan slo
queremos plasmar con ejemplos cmo se traduce el hecho de que dos variables tengan un mayor o menor
coeciente de correlacin. En la Figura 5.4 observamos representaciones conjuntas de muestras de pares de
variables en unos ejes cartesianos (nubes de puntos). Cada punto de cada eje cartesiano representa un valor
dado de la muestra del par (X, Y ). Aparecen 4 guras, correspondientes a 4 simulaciones de pares de variables
(X, Y ) con distintos coecientes de correlacin.
ro=1 ro=1
8 6
6 5
4
4
3
2
2
0
1
2 0
4 1
4 2 0 2 4 4 2 0 2 4
ro=0 ro=0.7075
4 6
3
4
2
1 2
0 0
1
2
2
3 4
4 2 0 2 4 4 2 0 2 4
Figura 5.4: Nubes de puntos correspondientes a distintos posibles coecientes de correlacin lineal.
Ejemplo. Sean X e Y las variable aleatoria que miden el tiempo que transcurre hasta la primera y la
segunda llamada, respectivamente, a una centralita telefnica. La densidad conjunta de estas variables
es fX,Y (x, y) = ey para 0 < x < y . En un ejemplo anterior ya vimos que, lgicamente, el tiempo hasta
la segunda llamada depende del tiempo hasta la primera llamada, pero en qu grado? Vamos a abordar
este problema calculando el coeciente de correlacin lineal entre ambas variables.
Cov(X,Y )
Como X,Y =
V arXV arY
, tenemos que calcular Cov (X, Y ), V arX y V arY.
E [XY ] = xyfX,Y (x, y) dxdy
y y
x2
= xyey dxdy = yey dy
0 0 0 2 0
3
y y
= e dy = 3.
0 2
fX (x) = fX,Y (x, y) dy = ey dy = ex , para x > 0,
x
luego
EX = xfX (x) dx = xex dx = 1.
0
y
fY (y) = fX,Y (x, y) dx = ey dx = yey , para y > 0,
0
luego
EY = yfY (y) dy = y 2 ey dy = 2.
0
Por tanto,
Cov (X, Y ) = 3 1 2 = 1.
Por su parte,
E X2 = 2
x2 ex dx = 2
x fX (x) dx =
0
V arX = 2 12 = 1
y
E Y2 = y 2 fY (y) dy = y 3 ey dy = 6
0
V arY = 6 22 = 2,
as que, nalmente,
1
X,Y = = 0.707.
12
El resultado indica que, en efecto, el grado de relacin lineal es alto y directo.
Las propiedades del operador esperanza son muy tiles en la prctica, por ejemplo, cuando se trata de conocer
la varianza de combinaciones lineales de varias variables. Veamos algn ejemplo al respecto y despus un
resultado general que los englobe todos.
h i
2 2
V ar (X1 + X2 ) = E (X1 + X2 ) E [X1 + X2 ]
2
= E X12 + E X22 + 2E [X1 X2 ] (EX1 + EX2 )
h i
2 2
V ar (X1 X2 ) = E (X1 X2 ) E [X1 X2 ]
2
= E X12 + E X22 2E [X1 X2 ] (EX1 EX2 )
PN
Podemos generalizar estos ejemplos en el siguiente resultado. Sea una suma de N variables, X = i=1 i Xi .
Entonces,
N X
X N
V ar [X] = i j Cov (Xi , Xj ) ,
i=1 j=1
PN
La demostracin es bien sencilla. Como X = i=1 i EXi ,
h 2 i
V ar [X] = E X X
" N
! N
!#
X X
=E i Xi Xi i Xi Xi
i=1 i=1
N X
X N
= i j E Xi Xi Xj Xj
i=1 j=1
N X
X N
= i j Cov (Xi , Xj )
i=1 j=1
N X
X N N
X
V ar [X] = i j Cov (Xi , Xj ) = i2 V ar [Xi ] ,
i=1 j=1 i=1
ya que (
0 si i 6= j
Cov [X, Y ] = .
V ar [Xi ] si i = j
0
Dado un vector de N variables, X = (X1 , ..., XN ) , se dene su vector de medias como
E [X1 ]
..
X =
.
,
E [XN ]
CX = (Ci,j )i,j=1,...,N ,
donde (
V ar (Xi ) si i = j
Ci,j = .
Cov (Xi , Xj ) si i 6= j
Esta matriz contiene las varianzas de cada variable del vector en la diagonal y en el elemento (i, j) la covarianza
entre la isima y la jsima variable.
Y = AX + b
CY = ACX A0 .
Ejemplo. Vamos a ver que la aplicacin de este resultado facilita bastante determinados clculos. Por
ejemplo, si queremos calcular V ar (X1 + X2 ), podemos tener en cuenta que
!
X1
X1 + X2 = 1 1 ,
X2
de manera que
! !
V arX1 Cov (X1 , X2 ) 1
V ar (X1 + X2 ) = 1 1
Cov (X1 , X2 ) V arX2 1
= V arX1 + V arX2 + 2Cov (X1 , X2 ) .
se tiene que
! !
V arX1 Cov (X1 , X2 ) 5
V ar (5X1 3X2 ) = 5 3
Cov (X1 , X2 ) V arX2 3
= 25V arX1 + 9V arX2 30Cov (X1 , X2 ) .
estar seguros de que se trata del caso ms interesante por dos motivos: porque aparece como modelo adecuado
en un gran nmero de fenmenos de la naturaleza y porque sus propiedades matemticas on inmejorables.
Un vector formado por N variables aleatorias X = (X1 , ..., XN ) se dice que sigue una distribucin normal
0
donde
CX = (Ci,j )i,j=1,...,N
(
V ar [Xi ] si i = j
Cij =
Cov [Xi , Xj ] si i 6= j
0
x = (x1 , ..., xN )
0
X = (EX1 , ..., EXN )
y se nota X NN (X ; CX ) .
Vamos a destacar algunas de las excelentes propiedades de la distribucin normal multivariante. Concreta-
mente, nos centraremos en los siguientes resultados:
0
Vamos a concretarlos. En primer lugar, si tenemos un vector XN 1 = (X1 , ..., XN ) con distribucin conjun-
tamente gaussiana de vector de medias y matriz de covarianzas CX , en ese caso, el subconjunto de variables
del vector, (Xi1 , ..., XiM ), con M < N tambin sigue distribucin conjuntamente gaussiana, de parmetros
0
(i1 , ..., iM ) y matriz de covarianzas constituida por las las y las columnas de CX correspondientes a las
variables Xi1 , ..., XiM .
Ejemplo. Sea un vector (X1 , X2 , X3 )0 gaussiano, de vector de medias cero y matriz de covarianzas
2 1 0
1 3 1 .
0 1 1
En aplicacin del resultado anterior, las marginales univariantes siguen las distribuciones siguientes:
X1 N (0, 2) , X2 N (0, 3) , X3 N (0, 1).
1
E [X |Y=y ] = X yM 1 Y
N 1 + (CXY )N M CY M M M 1
y matriz de varianzas-covarianzas
V ar X |Y=y = CX CXY CY1 CXY
0
,
Ejemplo. Como caso particular, vamos a describir con ms detalle el caso bivariante, tanto en lo que
respecta a su densidad como a las distribuciones marginales y condicionadas.
0
Sea por tanto un vector (X, Y )21 , con distribucin conjuntamente gaussiana de vector de medias
0
(X , Y ) y matriz de covarianzas
!
2
X X Y
C(X,Y ) = ,
X Y Y2
Cov(X,Y )
donde = es el coeciente de correlacin lineal. Entonces, det C(X,Y ) = X Y 1 2 y
2 2
X Y
XY
1
!
1 1 2
X
C(X,Y ) = .
1 2 XY 1
2
Y
1
fX,Y (x, y) = p
2X Y 1 2
( " #)
2 2
1 (x X ) 2 (x x ) (y Y ) (y Y )
exp 2 + .
2 (1 2 ) X X Y Y2
En lo que respecta a las distribuciones condicionadas, aplicando el ltimo resultado tenemos que
X 2
1 2
X | Y = y0 N X + (y0 Y ) ; X
Y
Y
(x0 X ) ; Y2 1 2 .
Y | X = x0 N Y +
X
Obsrvese que, curiosamente, la varianza condicionada no depende del valor que condiciona. Esto tendr
importantes repercusiones ms adelante.
Continuando con las propiedades, una de las ms tiles es su invarianza frente a transformaciones lineales.
0
Concretamente, si tenemos un vector aleatorio XN 1 = (X1 , ..., XN ) con distribucin gaussiana, vector de
medias X y matriz de covarianzas CX , entonces una combinacin lineal suya,
YM 1 = AM N XN 1 + bM 1
Ejemplo. Sean dos variable aleatoria X1 y X2 con distribucin conjuntamente gaussiana con medias
cero, varianzas X
2
1
= 4 y X
2
2
= 9 y covarianza, cX1 ,X2 = 3. Si estas variables se transforman linealmente
en las variables
Y1 = X1 2X2
Y2 = 3X1 + 4X2
y matriz de covarianzas
! ! ! ! !
Y2 1 cY1 ,Y2 1 2 4 3 1 3 28 66
= =
cY1 ,Y2 Y2 2 3 4 3 9 2 4 66 252
Otra de las ms importantes propiedades es que se trata del nico caso en el que independencia e incorrelacin
son equivalentes. Es decir, si XN 1 es un vector con distribucin conjuntamente gaussiana, entonces sus
componentes son incorreladas si y slo si son independientes.
La demostracin es sencilla. Ya sabemos que si son independientes son incorreladas (incluso si la distribucin
no es conjuntamente gaussiana). Por su parte, para probar que si son incorreladas entonces son independientes
slo hay que tener en cuenta que si son incorreladas, la matriz de covarianzas es diagonal y la densidad
conjunta puede expresarse como producto de las marginales, ya que
1 1 0 1
fX (x1 , ..., xN ) = q exp (x X ) CX (x X )
N 2
(2) det (CX )
( N 2 )
1 1X xi i
=q exp
N 2 i=1 i
(2) 12 ...N
2
N
Y
= fXi (xi ) .
i=1
0 0
donde x = (x1 , ..., xN ) , X = (1 , ..., N ) y
12 ... 0
. .. ..
CX = . . . .
.
2
0 ... N
Inferencia estadstica
125
Captulo 6
Distribuciones en el muestreo
Alexis Carrel
Resumen. En este captulo se pretende llamar la atencin acerca de que los parmetros muestrales son
en realidad variables aleatorias. Se analiza as la distribucin de probabilidad de la media muestral y de la
varianza muestral en diversas situaciones.
Palabras clave: distribuciones en el muestreo, t de Student, F de Snedecor.
6.1. Introduccin
Al estudiar el concepto de variable aleatoria, dijimos que viene motivado porque muchas de las variables que
se observan en la vida real, en el ambiente de las Ingenieras en particular, estn sujetas a incertidumbre.
Eso quiere decir que si nosotros obtenemos algunas observaciones de esas variables (muestras), los datos
no son iguales. Es ms, si obtenemos otras observaciones, las dos muestras tampoco sern ni mucho menos
idnticas.
Por tanto, al hablar de distribuciones tericas de probabilidad, lo que pretendamos era proponer un modelo
que permitiera calcular probabilidades asociadas, no a una muestra en particular de datos, sino a todas las
posibles muestras, con todos los posibles datos de la variable.
Recordemos el ejemplo que pusimos: las distribuciones de probabilidad son como un traje que elegimos para
ponernos cualquier da durante un periodo de tiempo amplio. En la medida que el traje de una variable,
su distribucin, le quede bien, los resultados que obtengamos mediante el clculo de probabilidades podrn
aplicarse a cualquier dato o conjunto de datos de la variable. Pero igualmente, si un traje (una distribucin
de probabilidad terica) no le queda bien a una variable, los resultados tericos, obtenidos a partir de una
funcin masa o una funcin de densidad tericas, pueden no ser realistas respecto a los resultados empricos
que se obtengan mediante muestras de la variable.
Qu nos queda por hacer a lo largo del curso? Dado que, en general, las distribuciones tericas de probabilidad
dependen de uno o ms parmetros, lo que nos ocupar gran parte del resto del curso es tratar de elegir
127
Dpto de Estadstica e I.O. Universidad de Jan
adecuadamente esos parmetros. En el ejemplo de los trajes podamos pensar que esto es como aprender a
escoger la talla del traje.
En este captulo vamos a comenzar con algunas cuestiones tericas acerca de lo que implica el proceso de
muestreo, previo a la eleccin de los parmetros y, posteriormente, nos vamos a centrar en resultados que
implica el muestreo de datos de variables que siguen una distribucin normal.
1. Que todos los elementos de la poblacin tengan las mismas posibilidades de salir en la muestra.
En ese caso, los valores que toma la variable en cada una de las observaciones de una muestra de tamao
n, X1 , ..., Xn , son en s mismos, variables aleatorias independientes que siguen la misma distribucin de
probabilidad, llamada distribucin poblacional. Esta distribucin es, en principio, desconocida, por lo
que se intentar utilizar la muestra para hacer inferencia sobre ella y, al menos, aproximar la forma de esta
distribucin.
Y si, sucesivamente, obtenemos una y otra muestra, obtendremos una y otra media muestral, y una y otra
desviacin tpica muestral. Por lo tanto, en realidad, lo que estamos viendo es que la media y la varianza
muestrales (y en general, cualquier parmetro de una muestra aleatoria simple) son, en realidad, variables
aleatorias que, como tales, deben tener su distribucin, su media, su varianza...
Un parmetro muestral es un parmetro (media, varianza, ...) referido a una muestra de una variable
aleatoria.
Un parmetro poblacional es un parmetro (media, varianza, ...) referido a la distribucin poblacional de
una variable aleatoria.
Pues bien, asociados a estos dos conceptos tenemos ahora las siguientes deniciones.
Sin embargo, el caso en el que resulta ms sencillo hacerlo es probablemente el ms importante. Como vamos
a ver, si la variable que observamos sigue una distribucin normal, podremos conocer de forma exacta las
distribuciones en el muestreo de los dos parmetros ms importantes, la media y la varianza.
Algunas de estas distribuciones aparecen por primera vez, as que debemos denirlas previamente. Por otra
parte, sus funciones de densidad son bastante poco tratables. Esto no es ningn problema hoy en da, gracias
al uso que podemos hacer de los ordenadores para cualquier clculo. Adems, para poder trabajar con ellas
cuando no tenemos un ordenador a mano, existen tablas que pueden ser impresas en papel con muchos valores
de sus funciones de distribucin.
Nota. Una de las primeras distribuciones en el muestreo ser la 2 . Recordemos que una distribucin 2 con
n grados de libertad es una distribucin Gamma de parmetros n
2 y 12 .
Si Z es una variable aleatoria normal estandar y S una 2 con n grados de libertad, siendo ambas indepen-
dientes, entonces
Z
t= p
S/n
sigue una distribucin llamada t de student con n grados de libertad.
Si S1 y S2 son variables aleatorias con distribucin 2 con n1 y n2 grados de libertad independientes, entonces
S1 /n1
F =
S2 /n2
Sea X1 , ..., Xn una muestra aleatoria simple de una variable N (, ). Entonces, el parmetro muestral
X
t=
Sn1 / n
Sea una muestra X1 , ..., Xn una muestra aleatoria simple de una variable N (, ). Entonces, el par-
metro muestral
2
(n 1) Sn1
2 =
2
sigue una 2 con n 1 grados de libertad.
Sean X1 , ..., Xn1 e Y1 , ..., Yn2 muestras aleatorias simples de variables independientes con distribuciones
N (1 , ) y N (2 , ). Entonces, el parmetro muestral
X Y (1 2 )
t= q ,
Sp n11 + n12
donde 2 2
1 2
(n1 1) Sn1 + (n2 1) Sn1
Sp2 = ,
n1 + n2 2
sigue una t de Student con n1 + n2 2 grados de libertad.
Sean X1 , ..., Xn1 e Y1 , ..., Yn2 muestras aleatorias simples de variables independientes con distribuciones
N (1 , ) y N (2 , ). Entonces, el parmetro muestral
(n1 + n2 2) Sp2
2 = ,
2
Sean X1 , ..., Xn1 e Y1 , ..., Yn2 muestras aleatorias simples de variables independientes con distribuciones
1
2
Sn1 /12
F = 2
2
Sn1 /22
distribucin
Datos, datos, datos! -grit impacientemente-. No puedo hacer ladrillos sin arcilla.
Resumen. Se describen las tcnicas ms usuales para estimar la media, la varianza y otros parmetros
poblacionales mediante valores aislados (estimacin puntual) o mediante intervalos de conanza.
Palabras clave: estimador puntual, mtodo de los momentos, mtodo de mxima verosimilitud, intervalo
de conanza, nivel de conanza.
7.1. Introduccin
En Estadstica hay tres formas de inferir un valor a un parmetro de una poblacin:
Ejemplo. El rendimiento de un equipo de trabajo en una cadena de produccin puede estar representado
por el nmero medio de componentes producidas. Supongamos que un ingeniero pretende proporcionar
informacin acerca de este promedio en su equipo. Existen varias posibilidades:
Podra proporcionar un intervalo de valores en el que tenga mucha conanza que se encuentra el
valor promedio.
133
Dpto de Estadstica e I.O. Universidad de Jan
Podra comparar el valor promedio de su equipo con un valor hipottico para, por ejemplo, demos-
trar a la empresa que tiene un mejor rendimiento que el promedio general de la empresa.
En este captulo nos centraremos en la primera y la segunda forma, que consisten en proporcionar un valor
que creemos que est cerca del parmetro (estimacin puntual) o en proporcionar un intervalo en el que
conamos que se encuentra el parmetro desconocido (estimacin por intervalos de conanza). La tercera
posibilidad se estudiar en el captulo de contrastes de hiptesis.
Un estimador puntual, , es una regla que nos dice cmo calcular una estimacin numrica de un parmetro
poblacional desconocido, , a partir de los datos de una muestra. El nmero concreto que resulta de un clculo,
para una muestra dada, se denomina estimacin puntual.
Ejemplo. Si deseamos obtener estimaciones de la media de una variable aleatoria, lo que parece ms lgico
sera utilizar como estimador la media muestral. Cada media muestral de cada muestra sera una estimacin
puntual de la media poblacional.
Qu sera deseable que le pasara a cualquier estimador? Qu buenas propiedades debera tener un buen
estimador? Vamos a ver dos de ellas.
En primer lugar, parece lgico pensar que si bien el estimador no proporcionar siempre el valor exacto del
parmetro, al menos deber establecer estimaciones que se equivoquen en igual medida por exceso que por
defecto. Este tipo de estimadores se denominan insesgados .
sesgo de un estimador a E
h i
Se denomina .
Observemos que para comprobar si un estimador es insesgado, en principio es necesario conocer su distribucin
en el muestreo, para poder calcular su esperanza matemtica.
Adems de la falta de sesgo, nos gustara que la distribucin de muestreo de un estimador tuviera poca
varianza, es decir, que la dispersin de las estimaciones con respecto al valor del parmetro poblacional, fuera
baja.
En este sentido, se dene el error estandar de un estimador como la desviacin tpica de dicho estimador,
y se nota s.e.
Hay que decir que no siempre es fcil encontrar este estimador, y que en ocasiones se admite un ligero sesgo
con tal que la varianza del estimador sea mnima.
Sea una v.a. X , y una muestra aleatoria suya, X1 , ..., XN . Entonces, la media muestral,
X1 + ... + XN
X =
N
X
s.e.(X) = .
N
El resultado establece algo que poda haberse intuido desde la denicin de la media o esperanza matemtica
de una distribucin de probabilidad: si tenemos unos datos (mas ) de una v.a., una estimacin adecuada de
la media de la v.a. es la media de los datos.
Hay que tener mucho cuidado con no confundir la media de la v.a., es decir, la media poblacional, con la
media de los datos de la muestra, es decir, con la media muestral.
Por otra parte, el error estandar hace referencia a X , que es un parmetro poblacional y, por lo tanto,
desconocido. Lo que se suele hacer es considerar la desviacin tpica muestral como una aproximacin de la
poblacional para evaluar este error estandar.
Sea una v.a. X y una muestra aleatoria simple suya, X1 , ..., XN . Entonces, la varianza muestral,
PN 2
2 i=1 Xi X
SX,N 1 =
N 1
Nota. Al hilo del comentario previo que hicimos sobre la media muestral como estimador natural de la
media, ahora quiz sorprenda que en el denominador de la varianza muestral aparezca N 1 y no N .
En este sentido, si consideramos el estimador
PN 2
2 i=1 Xi X
SX,N = ,
N
Ejemplo. Mediante R hemos generado una muestra aleatoria simple de 1000 valores de una distribucin
N (0, 1). Sabemos, por tanto, que la media (poblacional) de los datos es 0 y que la varianza (poblacional)
es 1. No obstante, vamos a suponer que desconocemos de qu distribucin proceden los datos y vamos a
tratar de ajustar una distribucin terica partiendo de los valores de la muestra:
Para empezar, debemos pensar en una distribucin adecuada. Para ello puede observarse el histograma
de los datos por si ste recuerda la forma de alguna funcin de densidad conocida. En este caso, el
histograma de la muestra aparece en la Figura 7.1, histograma que recuerda claramente la funcin de
densidad de una distribucin normal.
La pregunta inmediata una vez que se opta por ajustar mediante una distribucin normal es qu normal?
Es decir, qu media y qu varianza se proponen para la distribucin que queremos ajustar a estos datos?
Una respuesta a esta pregunta la proporcionan los estimadores insesgados que hemos encontrado para
estos parmetros. Concretamente,
x = 0.0133
y
s999 = 0.9813,
N (0.0133, 0.9813) .
La densidad de esta distribucin aparece tambin en la Figura 7.1, en trazo continuo, y se observa que
ajusta muy bien la forma del histograma.
Histograma de la muestra
0.5
0.4
0.3
Densidad
0.2
0.1
0.0
3 2 1 0 1 2 3
Figura 7.1: Histograma para la muestra x11000 con 30 intervalos y funcin de densidad de la distribucin
N (0.0133, 0.9813).
Supongamos que deseamos estimar una proporcin p, desconocida, que representa la probabilidad de un
suceso dentro de un espacio muestral. Para ello, se realizan N experimentos asociados al espacio muestral y
se cuenta el n de veces que ocurre ese suceso del cul queremos estimar su probabilidad, k . En ese caso, la
proporcin muestral,
k
p = ,
N
es un estimador insesgado de p. Adems, su error estandar es
r
p(1 p)
s.e.(p) =
N
Sobre el error estandar, obsrvese de nuevo que, dado que p es desconocido, en realidad la expresin de s.e.(p)
no puede evaluarse. Sin embargo, es bastante comn que si el tamao de la muestra, N , es grande, se utilice
el valor de la estimacin, p, en lugar de p en esa expresin.
De todas formas, obsrvese tambin que la funcin f (p) = p(1 p) es menor que 1
4 si 0 p 1, luego
r
1 1
s.e.(p) = .
4N 2 N
Ejemplo. Si el nmero de varones en una muestra de 1000 individuos de una poblacin es 507, podemos
aproximar la verdadera proporcin de varones en toda la poblacin mediante
507
p = = 0.507,
1000
estimacin sera 0.507 0.493/1000 = 0.01580984: en este caso, las diferencias son inapreciables.
p
x
p = .
n
Por cierto, este estimador coincide con el que habamos considerado en un principio, que era la proporcin
muestral, es decir, p = k/N , pero puede haber alguna confusin en la notacin. Veamos porqu.
Se supone que tenemos una muestra de tamao N de datos de una binomial de parmetro n, es decir,
tenemos n experimentos, N veces, o sea, un total de n N experimentos, con i xi xitos. Luego, en
P
efecto, P
x i xi
p = = ,
n nN
es decir, la proporcin muestral, cociente del n de xitos entre el n total de experimentos. No debemos
confundirnos con la expresin k/N que pusimos antes porque N no signica lo mismo en ambos casos.
1
p = .
1 + x
EX
= p,
V arX
se tiene que
EX
p EX 2
a = EX = EX V arX =
1p 1 VEX
arX
V arX EX
de donde se proponen como estimadores
x
p =
s2X,N 1
x2
a = .
s2X,N 1 x
Esta funcin masa o densidad representa en cierto modo la credibilidad de los datos de la muestra.
Dada una variable aleatoria X con funcin masa o funcin de densidad p (x) , que depende de uno
o dos parmetros, y una muestra aleatoria simple de X , x1 , ..., xn , la verosimilitud de la muestra
es la funcin
L = p (x1 ) ...p (xn ) ,
Nota. Dado que el mximo de una funcin coincide con el mximo de su logaritmo, suele ser muy til
maximizar el logaritmo de la funcin de verosimilitud en vez de la funcin de verosimilitud.
Ejemplo. Vamos a calcular el estimador mximo verosmil del parmetro p de una distribucin B (n, p)
basado en una muestra x1 , ..., xN .
En primer lugar, la funcin de verosimilitud es
N
Y n nx
Lx1 ,...,xN (p) = pxi (1 p) i
i=1
xi
N
!
Y n PN
nN N
P
i=1 xi
= p i=1 xi (1 p) .
i=1
x i
Su logaritmo resulta
N
! N
! N
!
Y n X X
ln Lx1 ,...,xN (p) = ln + xi ln p + nN xi ln (1 p) .
i=1
xi i=1 i=1
de donde PN x
p i=1 xi x
= PN = = n x .
1p nN i=1 xi n x 1 n
Luego el estimador es
x
p = .
n
Obsrvese que coincide con el estimador que obtuvimos por el mtodo de los momentos.
Ejemplo. Vamos a calcular el estimador mximo verosmil del parmetro de una distribucin exp ()
basado en una muestra x1 , ..., xN .
Funcin de verosimilitud:
N
Y PN
Lx1 ,...,xN () = exi = N e i=1 xi
.
i=1
N
X
ln Lx1 ,...,xN () = N ln xi .
i=1
N
N X
xi = 0,
i=1
de donde
N 1
= PN = .
i=1 xi x
De nuevo el estimador mximo verosmil coincide con el proporcionado por el mtodo de los momentos.
Ejemplo. En el caso de la distribucin normal, tenemos dos parmetros. Veamos cmo proceder en esta
situacin. Vamos a preocuparnos por los estimadores de la media y de la varianza:
La funcin de verosimilitud:
N N 2
(xi )2
Pn
Y 1 1 i=1 (xi )
Lx1 ,...,xN , 2 = e 22 = e 2 2 .
i=1 2 2 2 2
Su logaritmo:
PN 2
N N (xi )
ln Lx1 ,...,xN , 2 = ln (2) ln 2 i=1
.
2 2 2 2
Debemos maximizar esta funcin como funcin de y 2 . Para ello, derivamos respecto de ambas
variables e igualamos a cero:
PN
d 2 (xi )
ln Lx1 ,...,xN , = i=1 2
=0
d
PN 2
d 2
N 1 i=1 (xi )
ln Lx 1 ,...,xN
, = + 2 =0
d 2 2 2 2 ( 2 )
N
X N
X
(xi ) = xi N = 0,
i=1 i=1
de donde PN
i=1 xi
= = x.
N
Cuadro 7.1: Estimadores por el mtodo de los momentos y de mxima verosimilitud de los parmetros de las
distribuciones ms usuales.
de donde PN 2
2 (xi x)
= i=1
= s2n .
N
Nota. De nuevo hay que llamar la atencin sobre el hecho de que hemos buscado un estimador, de
mxima verosimilitud, de 2 , no de . Sin embargo, no es muy difcil demostrar que el estimador de
mxima verosimilitud de en la distribucin normal es la cuasidesviacin tpica muestral, sn .
Sea x1 , ..., xN una muestra de una determinada v.a. X cuya distribucin depende de un parmetro desconocido
. Un intervalo de conanza para con un nivel de signicacin , I (x1 , ..., xN ) , es un intervalo real
que depende de la muestra, pero que no depende de tal que
P [ I (x1 , ..., xN )] = 1 .
Confidence intervals based on z distribution Confidence intervals based on z distribution Confidence intervals based on z distribution
50
50
50
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
40
40
40
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
30
30
30
| | |
| | |
| | |
| | |
Index
Index
Index
| | |
| | |
| | |
| | |
| | |
| | |
20
20
20
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
10
10
10
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
| | |
0
0
0.4 0.2 0.0 0.2 0.4 0.6 0.6 0.4 0.2 0.0 0.2 0.4 0.6 1.0 0.5 0.0 0.5 1.0
Figura 7.2: Distintos intervalos de conanza para una media a un 68 % (izquierda), a un 90 % (centro) y
a un 99 % (derecha). Puede observarse que aumentar el nivel de conanza hace ms amplios los intervalos.
Tambin puede observarse que no todos los intervalos contienen a la media poblacional (0), pero que el n
de stos malos intervalos disminuye conforme aumentamos el nivel de conanza.
Obsrvese que la losofa de cualquier intervalo de conanza es proporcionar, basndonos en los datos, una
regin donde tengamos un determinado nivel de conanza en que el parmetro se encuentra. Como en el
caso de los estimadores puntuales, el intervalo de conanza es aleatorio, ya que depende de los datos de
una muestra. Adems, se da por hecho que existe la posibilidad de que el verdadero parmetro no quede
encerrado dentro del intervalo de conanza, cosa que ocurrira con probabilidad .
Nota. Al respecto de la interpretacin del nivel de conanza, tenemos que decir que, dado que desde el
comienzo del curso hemos adoptado una interpretacin frecuentista de la probabilidad, un intervalo de
conanza al 95 %, por ejemplo, garantiza que si tomamos 100 muestras el parmetro poblacional estar
dentro del intervalo en aproximadamente 95 intervalos construidos.
Sin embargo, esta interpretacin es absurda en la prctica, porque nosotros no tenemos 100 muestras,
sino slo una.
Nosotros tenemos los datos de una muestra. Con ellos construimos un intervalo de conanza. Y ahora slo
caben dos posibilidades: o el parmetro est dentro del intervalo o no lo est. El parmetro es constante,
y el intervalo tambin. No podemos repetir el experimento! Es por ello que se habla de intervalos de
conanza , interpretando que tenemos una conanza del 95 % en que el parmetro estar dentro.
Sea X una v.a. con distribucin normal de media desconocida y varianza 2 conocida. Sea una muestra
x = (x1 , ..., xN ) de X , y x la media muestral asociada. Entonces,
P x z1 2 , x + z1 2 = 1 ,
N N
a El valor de z debe buscarse en la tabla de la normal o calcularse con ayuda del ordenador.
1
2
con un (1 ) % de conanza.
No obstante, hay que reconocer que en la prctica es poco probable que se desconozca el valor de la media
y s se conozca el de la varianza, de manera que la aplicacin de este teorema es muy limitada. El siguiente
resultado responde precisamente a la necesidad de extender el anterior cuando se desconoce el valor de la
varianza.
Sea X una v.a. con distribucin normal de media y varianza 2 , ambas desconocidas. Sea una muestra
x = (x1 , ..., xN ) de X , la media muestral x y la varianza muestral s2X,N 1 . Entonces,
s s
s2X,N 1 s2X,N 1
P x t1 2 ;N 1 , x + t1 2 ;N 1 = 1 ,
N N
donde t;N a es el valor tal que FTN (t;N ) = , siendo TN una v.a. con distribucin T de Student con N
grados de libertad.
Ejemplo. Mediante R habamos simulado 1000 valores de una distribucin N (0, 1). La media y la
desviacin tpica muestrales de esos 1000 valores resultaron ser x = 0.0133 y s999 = 0.9813. Por tanto,
el intervalo de conanza que se establece al 95 % de conanza para la media es
0.9813
0.0133 1.96 = (0.074, 0.0475)
1000
Los dos resultados que acabamos de enunciar se basan en que se conoce la distribucin exacta de la muestra,
normal, lo que permite deducir que la media muestral sigue tambin, y de forma exacta, una distribucin
2
normal de media y varianza N . Sin embargo, gracias al teorema central del lmite se sabe que sea cual
sea la distribucin de las variables de la muestra aleatoria simple, la media muestral sigue aproximadamente
2
una distribucin normal de media y varianza N , ya que se obtiene como suma de v.a. independientes con
la misma distribucin. Por lo tanto, podemos obtener un intervalo de conanza aproximado para cualquier
media de cualquier distribucin, como se recoge en el siguiente resultado.
Sea X una v.a. con distribucin cualquiera de media , desconocida, y con varianza, 2 . Sea una muestra
x = (x1 , ..., xN ) de X y la media muestral, x. Entonces, si N es sucientemente elevado (N > 30 es suciente),
P x z1/2 , x + z1/2 ' 1 .
N N
En esta expresin, si es desconocida, puede sustituirse por la desviacin tpica muestral, sn1 .
Ejemplo. Para dimensionar el tamao del buer de un modem ADSL es necesario estimar el promedio
de paquetes de datos por milisegundo que recibe el modem.
Se considera que el tiempo (en milisegundos) que transcurre entre paquete y paquete sigue una distribu-
cin exponencial de parmetro . Obsrvese que la media de esta distribucin es = ,
1
tiempo medio
entre paquetes, por lo que es precisamente el promedio de paquetes por milisegundo que recibe el
modem. Por lo tanto, el objetivo es estimar el parmetro , que es el que se utilizar para dimensionar
el modem.
Mediante un snier acoplado al modem para capturar datos del trco, se toman datos de los tiempos
entre paquetes de 1001 paquetes, por lo que se tienen 1000 datos de tiempos entre paquetes. La media
de estos tiempos resulta ser x = 2.025, siendo la desviacin tpica muestral de 1.921.
En primer lugar, vamos a calcular un intervalo de conanza (al 95 %) para la media de la distribucin,
:
sn1 sn1 1.921
x z0.975 , x + z0.975 = 2.025 1.96 = (1.906, 2.144).
n n 1000
Sea p la probabilidad desconocida de un determinado evento, que llamaremos xito, que puede ocurrir en
un determinado experimento. Supongamos que tenemos una muestra de N realizaciones independientes del
experimento, y sea p = k
N la proporcin de xitos en la muestra. Entonces, si N es sucientemente elevado
(N > 30), se tiene que
" r r !#
p (1 p) p (1 p)
P p p z1/2 , p + z1/2 ' 1 .
N N
Ejemplo. La Junta de Andaluca pretende implantar un programa de ayuda a familias con familiares
dependientes. Dado que la mayor parte de los Servicios Sociales son competencia de los municipios, la
Junta proporcionar los medios econmicos, pero sern stos los encargados de ejecutar el programa.
Los Servicios Sociales de cualquier municipio asumen que, por errores inevitables, no todas las familias
a las que subvencionan reunen los requisitos exigidos, pero la Junta les responsabiliza de que esto no
ocurra en ms del 4 % de ellas. Si se supera este porcentaje, penalizar al municipio.
En un municipio se muestrean 200 familias y se detecta que 12 de ellas (6 %) no cumplen las condiciones
exigidas. Debe la Junta sancionar al municipio?
Si nos jamos slo en el valor de la estimacin puntual, 6 %, s debera hacerlo, pero no sera justo: 12
errores en una muestra de 200 pueden no ser una evidencia suciente de que el porcentaje superara el
4 %.
Consideremos un un intervalo de conanza para la proporcin de errores (5 % de signicacin) con los
datos obtenidos: r
0.06(1 0.06)
0.06 1.96 = (0.027, 0.093).
200
Por tanto, no hay evidencias de que el porcentaje sea superior al 4 % y no debe sancionarse al municipio.
Sea X una v.a. con distribucin gaussiana de media (desconocida) y varianza 2 . Sea una muestra
x = (x1 , ..., xN ) de X y la media muestral x. Entoncesa :
"P #
N 2 PN 2
i=1 (Xi x) i=1 (Xi x)
P < 2 < = 1 .
21 ;N 1 2 ;N 1
2 2
En esta expresin, 2;N corresponde con aquel valor tal que F2 2;N = , donde 2 sigue una distribucin
Ejemplo. En el ejemplo donde consideramos 1000 valores simulados de una N (0, 1) tenamos que x =
0.0133 y s999 = 0.9813. Por tanto, teniendo en cuenta que
N
X 2
(Xi x) = 999 s2999 ,
i=1
Puede que alguno de vosotros est pensando cul puede ser el inters de las estimaciones puntuales y, sobre
todo, mediante intervalos de conanza de la varianza. Probablemente todos tenemos muy claro qu es una
media, incluso una proporcin, pero quiz se nos escape la importancia prctica del concepto de varianza.
En este sentido, hay que decir que en el mbito de la Ingeniera la varianza se utiliza muchsimo en lo que
se conoce como control de calidad. Los japoneses son, en esto, los pioneros y quiz los mejores expertos. A
ellos se les atribuye un principio bsico del control de calidad en cualquier proceso bsico de produccin: la
reduccin de la varianza es la clave del xito en la produccin.
Pensemos en cualquier proceso de fabricacin genrico. En l se tratar de obtener un producto sujeto a unas
especicaciones concretas. Sin embargo, el error inherente a cualquier proceso experimental provocar:
1. Un aumento o una disminucin estructurales del producto con respecto a un valor objetivo. Esto podra
detectarse como un sesgo en la media de lo producido con respecto al valor objetivo.
2. Unas diferencias ms o menos importantes en los productos resultantes, que podran ser evaluadas
mediante la varianza.
De esas dos posibles problemticas, la ms compleja, sin duda es la segunda. Probablemente no es un grave
problema calibrar la mquina que produce para que la media se site en el valor objetivo, pero ser sin duda
ms complejo modicarla para que produzca de forma ms homognea, reduciendo as la varianza.
No obstante, no vamos a detallarlos aqu, aunque su interpretacin es anloga a la de los intervalos de conanza
que hemos visto. Cualquier paquete de software estadstico puede facilitar estos intervalos sin dicultad.
de lixiado, de las cuales 26 contienen niveles detectables de plomo. Una ingeniera desea obtener a partir de
esos datos una estimacin de la probabilidad de que una muestra de un basurero contenga niveles detectables
de plomo. No obstante, es consciente de que esa estimacin estar basada en esa muestra, que es de slo 42
datos, luego querr tambin obtener una estimacin del error que est cometiendo al hacer la estimacin.
Finalmente, se plantea si con la estimacin y el error de sta, podr obtener un rango donde la verdade-
ra probabilidad se encuentre con un alto nivel de conanza. Ahora estamos en condiciones de resolver este
problema.
En primer lugar, tenemos que obtener una estimacin de la proporcin de muestras (o probabilidad) que
contienen niveles detectables de plomo. Hemos visto que un estimador insesgado de mnima varianza, que
adems coincide con el estimador de mxima verosimilitud, de la proporcin es la proporcin muestral. En
nuestro caso, por tanto, podemos estimar la proporcin en p = 26 42 = 0.6190.. Adems, podemos estimar el
q
0.6190(10.6190)
error estndar de esta estimacin en s.e.(p) = 42 = 0.0749 y, en cualquier caso, decir que este
error estandar ser inferior a 1
2 42
= 0.0771. En resumen, tenemos una estimacin del 61.90 % con un error
estandar inferior a un 7.71 %.
Por ltimo, en funcin de esta estimacin y de su error estandar, puede armar con un 95 % de conanza
que el intervalo
0.6190 1.96 0.0749 = (0.4722, 0.7658)
contendr a la verdadera proporcin de muestras con niveles detectables de plomo. Esta ltima armacin
pone de maniesto que dar un intervalo de conanza con un nivel de signicacin aceptablemente bajo (5 %)
conduce a un intervalo muy amplio, lo que equivale a decir que an hay bastante incertidumbre con respecto
a la proporcin que estamos estimando. Por ello, deberamos recomendarle a la ingeniera que aumente el
tamao de la muestra.
La gran tragedia de la ciencia: la destruccin de una bella hiptesis por un antiesttico conjunto
de datos.
Thomas H. Huxley.
N. Moynihan
Resumen. En este captulo explicamos qu se entiende por contraste de hiptesis estadstica y aprendemos
a realizar contrastes de este tipo a partir de datos, referidos a algn parmetro poblacional desconocido.
Palabras clave: contraste de hiptesis, error tipo I, error tipo II, estadstico de contraste, p-valor, nivel de
signicacin, nivel de conanza.
8.1. Introduccin
Como apuntbamos en la introduccin del captulo anterior, las llamadas pruebas o contrastes de hip-
tesis se utilizan para inferir decisiones que se reeren a un parmetro poblacional basndose en muestras de
la variable. Vamos a comenzar a explicar el funcionamiento de un contraste de hiptesis con un ejemplo.
Ejemplo. Los cientcos recomiendan que para prever el calentamiento global, la concentracin de gases
de efecto invernadero no debe exceder las 350 partes por milln. Una organizacin de proteccin del medio
ambiente quiere determinar si el nivel medio, , de gases de efecto invernadero en una regin cumple con
las pautas requeridas, que establecen un lmite mximo de 350 partes por milln. Para ello tomar una
muestra de mediciones diarias de aire para decidir si se supera el lmite, es decir, si > 350 o no. Por
tanto, la organizacin desea encontrar apoyo para la hiptesis > 350, llamada hiptesis alternativa,
obteniendo pruebas en la muestra que indiquen que la hiptesis contraria, = 350 (o 350), llamada
hiptesis nula, es falsa.
Dicho de otra forma, la organizacin va a someter a juicio a la hiptesis nula 350. Partir de su
inocencia, suponiendo que es cierta, es decir, suponiendo que, en principio, no se superan los lmites de
149
Dpto de Estadstica e I.O. Universidad de Jan
presencia de gases de efecto invernadero, y slo la rechazar en favor de H1 si hay pruebas evidentes en
los datos de la muestra para ello.
La decisin de rechazar o no la hiptesis nula en favor de la alternativa deber basarse en la informacin
que da la muestra, a travs de alguna medida asociada a ella, que se denomina estadstico de contraste.
Por ejemplo, si se toman 30 lecturas de aire y la media muestral es mucho mayor que 350, lo lgico ser
rechazar la hiptesis nula en favor de > 350, pero si la media muestral es slo ligeramente mayor que
350 o menor que 350, no habr pruebas sucientes para rechazar 350 en favor de > 350.
La cuestin clave es en qu momento se decide rechazar la hiptesis nula en favor de la alternativa. En
nuestro ejemplo, en qu momento podemos decir que la media muestral es sucientemente mayor que
350. El conjunto de estos valores del estadstico de contraste, que permiten rechazar = 350 en favor de
> 350 se conoce como regin de rechazo.
A la luz de este ejemplo, vamos a tratar de denir de forma general los conceptos que acabamos de introducir.
Un contraste de hiptesis es una prueba que se basa en los datos de una muestra de una variable aleatoria
mediante la cul podemos rechazar una hiptesis sobre un parmetro de la poblacin, llamada hiptesis
nula (H0 ), en favor de una hiptesis contraria, llamada hiptesis alternativa (H1 ).
La prueba se basa en una transformacin de los datos de la muestra, lo que se denomina estadstico de
contraste.
Se rechazar la hiptesis nula en favor de la alternativa cuando el valor del estadstico de contraste se site
en una determinada regin, llamada regin de rechazo.
La hiptesis H0 se suele expresar como una igualdada , del tipo H0 : = 0 , donde es un parmetro de una
poblacin y 0 es un valor hipottico para ese parmetro. Por su parte, H1 puede tener tener dos formas:
H1 : > 0 , en cuyo caso se habla de contraste unilateral a la derecha o de una cola a la derecha o de
un extremo a la derecha, o H1 : < 0 , en cuyo caso se habla de contraste unilateral a la izquierda
o de una cola a la izquierda o de un extremo a la izquierda.
H1 : 6= 0 , en cuyo caso se habla de contraste bilateral o de dos colas o de dos extremos.
a De todas formas, tambin es frecuente expresar H0 como negacin exacta de H1 , en cuyo caso s puede ser una desigualdad
no estricta. Matemticamente no hay diferencias en estas dos posibilidades.
Uno de los aspectos ms importantes y que se suele prestar a mayor confusin se reere a qu hiptesis
considerar como H0 y cul como H1 . Una regla prctica para hacerlo correctamente puede ser la siguiente:
1. Si estamos intentando probar una hiptesis, sta debe considerarse como la hiptesis alternativa.
2. Por el contrario, si deseamos desacreditar una hiptesis, debemos incluir sta como hiptesis nula.
Ejemplo. Para una determinada edicacin se exige que los tubos de agua tengan una resistencia media
a la ruptura, , por encima de 30 kg por centmetro.
Como primera situacin, supongamos que un proveedor quiere facilitar un nuevo tipo de tubo para
ser utilizado en esta edicacin. Lo que deber hacer es poner a trabajar a sus ingenieros, que
deben realizar una prueba para decidir si esos tubos cumplen con las especicaciones requeridas.
En ese caso, deben proponer un contraste que incluya como hiptesis nula H0 : 30 frente a la
alternativa H1 : > 30. Si al realizar el contraste de hiptesis se rechaza H0 en favor de H1 , el
tubo podr ser utilizado, pero si no se puede rechazar H0 en favor de H1 , no se tienen sucientes
garantas sobre la calidad del tubo y no ser utilizado.
Como segunda situacin, un proveedor lleva suministrando su tipo de tubo desde hace aos, sin que
se hayan detectado, en principio, problemas con ellos. Sin embargo, un ingeniero que trabaja para
el gobierno controlando la calidad en las edicaciones viene teniendo sospechas de que ese tipo de
tubo no cumple con las exigencias requeridas. En ese caso, si quiere probar su hiptesis, el ingeniero
deber considerar un contraste de la hiptesis nula H0 : 30 frente a H1 : < 30. Dicho de
otra forma, slo podr contrastar su hiptesis si encuentra datos empricos que permitan rechazar
esa hiptesis nula en favor de su alternativa, que demuestren con un alto nivel de abilidad que el
proveedor que estaba siendo aceptado ahora no cumple con los requisitos.
De hecho, es importantsimo que desde el principio tengamos claro qu tipo de decisiones puede proporcio-
narnos un contraste de hiptesis. Aunque ya las hemos comentado, vamos a insistir en ellas. Son las dos
siguientes:
1. Si el valor del estadstico de contraste para los datos de la muestra cae en la regin de rechazo, podremos
armar con un determinado nivel de conanza que los datos de la muestra permiten rechazar la
hiptesis nula en favor de la alternativa.
2. Si el valor del estadstico de contraste para los datos de la muestra no cae en la regin de rechazo, no
podremos armar con el nivel de conanza exigido que los datos de la muestra permiten rechazar
la hiptesis nula en favor de la alternativa.
La clave radica en que entendamos desde el principio que la hiptesis nula carece de conanza. Es asumida
slo como punto de partida, pero ser abandonada cuando los datos empricos muestren evidencias claras
en su contra y a favor de la alternativa. La carga de la prueba de hiptesis radica siempre en la hiptesis
alternativa, que es la nica hiptesis en la que podremos garantizar un determinado nivel de conanza.
Se llama error tipo I o falso negativo a rechazar la hiptesis nula cuando es cierta, y su probabilidad se
nota por , llamado nivel de signicacin.
Se llama nivel de conanza a la probabilidad de aceptar la hiptesis nula cuando es cierta, es decir, 1 .
Estado real
H0 H1
Decisin en H0 Decisin correcta Error tipo II
el contraste H1 Error tipo I Decisin correcta
Se llama error tipo II o falso positivo a aceptar la hiptesis nula cuando es falsa, y su probabilidad se
nota por .
Cul de los dos errores es ms grave? Probablemente eso depende de cada contraste, pero en general, lo que
se pretende es acotar el error tipo I y tratar de minimizar el error tipo II, es decir, tratar de elegir contrastes
lo ms potentes posibles garantizando que la probabilidad del error tipo I es inferior a un determinado nivel.
Ejemplo. Un fabricante de minicomputadoras cree que puede vender cierto paquete de software a ms
del 20 % de quienes compran sus computadoras. Se seleccionaron al azar 10 posibles compradores de la
computadora y se les pregunt si estaban interesados en el paquete de software. De estas personas, 4
indicaron que pensaban comprar el paquete. Proporciona esta muestra sucientes pruebas de que ms
del 20 % de los compradores de la computadora adquirirn el paquete de software?
Si p es la verdadera proporcin de compradores que adquirirn el paquete de software, dado que deseamos
demostrar p > 0.2, tenemos que H0 : p = 0.2 y H1 : p > 0.2.
Sea X : nmero de posibles compradores de la muestra, en cuyo caso, X B (10, p). Utilizaremos el
valor de X como estadstico del contraste, rechazando H0 si X es grande.
Supongamos que establecemos como regin de rechazo x 4. En ese caso, dado que en la muestra x = 4,
rechazaramos H0 en favor de H1 , llegando a la conclusin de que el fabricante tiene razn.
Pero, cul es el nivel de conanza de este contraste? Calculemos la probabilidad de error tipo I. Para
ello, en el Cuadro 8.2 aparece la distribucin de probabilidad del estadstico de contraste que hemos
elegido, suponiendo que H0 es cierta, ya que debemos calcular
luego el nivel de conanza del contraste es del (1 0.12087) 100 % = 87.913 %. La conclusin sera que
a la luz de los datos podemos armar con un 87.913 % de conanza que p > 0.2.
Y si queremos un nivel de conanza mayor, es decir, una probabilidad de error tipo I menor? Debemos
reducir la regin de rechazo. Si ponemos como regin de rechazo x 5, ya no podremos rechazar H0 en
x P [X = x]
0 10
0 10
0 0.2 0.8 = 0.10737
1 10
1 0.2 1
0.89
= 0.26844 Regin de
2 10
2 0.2 2
0.88
= 0.30199 aceptacin
3 10
3 0.2 3
0.87
= 0.20133
4 10
4 5 50.2 4
0.86
= 0.08808
5 10
5 0.2 0.8 = 2.6424 102
6 10 6 4
6 0.2 0.8 = 5.505 10
3
Regin
7 10 7 3
7 0.2 0.8 = 7.8643 10
4
de
8 10 8 2
8 0.2 0.8 = 7.3728 10
5
rechazo
9 10 9 1
9 0.2 0.8 = 4.096 10
6
10 10 10 0
10 0.2 0.8 = 1.024 10
7
Cuadro 8.2: Funcin masa del estadstico de contraste suponiendo cierta H0 , es decir, suponiendo que p = 0.2.
luego el nivel de conanza sera 1 3.2793 102 100 % = 96.721 %, y la conclusin sera que a la
luz de los datos no podemos armar que p > 0.2 con un 96.721 % de conanza.
que el contraste se realiza mediante un estadstico que notaremos S , y que el valor del estadstico para la
muestra es s.
El p-valor asociado al contraste se dene como el mnimo nivel de signicacin con el que la hiptesis nula
sera rechazada en favor de la alternativa.
Ejemplo. En el Ejemplo 8.2 hemos visto cmo podemos rechazar la hiptesis nula con un 87.913 % de
conanza, pero no con un 96.721 %. Dicho de otra forma, podemos rechazar la hiptesis nula con un
nivel de signicacin del 12.087 %, pero no con un nivel de signicacin del 3.279 %. Esto implica que el
p-valor estar justo entre estos dos ltimos valores.
Dado que normalmente se elige como nivel de signicacin mximo = 0.05, se tiene que la regla de decisin
en un contraste con ese nivel de signicacin, dado el p-valor, sera la siguiente:
Si p < 0.05, rechazamos H0 en favor de H1 con ms de un 95 % de conanza.
Si p 0.05, no podemos rechazar H0 en favor de H1 con al menos un 95 % de conanza.
Sin embargo, esta regla de decisin, que es la ms habitual, es demasiado reduccionista si no se proporciona
el valor exacto del p-valor. La razn es que no es lo mismo rechazar una hiptesis con al menos un 95 % de
conanza si el p-valor es 0.049 que si es 0.001. Hay que proporcionar siempre el p-valor de un contraste, ya
que eso permite a cada lector decidir por s mismo.
En resumen, el p-valor permite utilizar cualquier otro nivel de signicacin, ya que si consideramos un nivel
de signicacin :
Si p < , rechazamos H0 en favor de H1 con ms de un (1 ) % de conanza.
Si p , no podemos rechazar H0 en favor de H1 con al menos un (1 ) % de conanza.
Como conclusin, siempre que hagamos un contraste de hiptesis, debemos facilitar el p-valor asociado.
Como nota nal sobre el concepto de p-valor, es importante sealar que, al contrario de lo que errneamente
se piensa en demasiadas ocasiones, el p-valor no es la probabilidad de la hiptesis nula. Mucha gente piensa
esto porque es cierto que cuando el p-valor es pequeo es cuando se rechaza la hiptesis nula. Sin embargo,
para empezar, no tiene sentido plantearnos la probabilidad de la hiptesis nula, ya que sta, o es cierta, o es
falsa: desde una perspectiva clsica de la probabilidad, se habla de la probabilidad de un suceso porque a
veces ocurre y a veces no, pero en este caso no podemos pensar as, ya que la hiptesis nula o se da o no se
da. En realidad, el p-valor lo que da es un indicio de la certidumbre que tenemos, de la conanza en que la
hiptesis nula sea verdad, teniendo en cuenta los datos de la muestra. Esta interpretacin tiene ms que ver
con la interpretacin subjetiva de la probabilidad de la que hablamos al principio de curso.
Hay que decir que, en relacin a esta interpretacin subjetiva de la probabilidad, existe una visin de la
Estadstica, llamada Estadstica Bayesiana, en la que el p-valor s puede entenderse como la probabilidad
de la hiptesis nula, pero entendiendo que medimos la probabilidad de la hiptesis nula, no porque pueda
ocurrir o no ocurrir en funcin del azar, sino porque tenemos incertidumbre sobre ella.
0.4
0.4
0.3
0.3
0.2
0.2
Regin de aceptacin Regin de aceptacin
0.1
0.1
1 1
0.0
0.0
3 2 1 0 1 2 3 3 2 1 0 1 2 3
Regin de aceptacin
0.1
2 1 2
0.0
3 2 1 0 1 2 3
Para comprender cmo se calcula el p-valor de un contraste es necesario distinguir entre contrastes unilaterales
o de una cola frente a contrastes bilaterales o de dos colas.
Como ya comentamos, los contrastes del tipo H0 : = 0 , frente a H1 : 6= 0 son contrastes bilaterales
o de dos colas, ya que el rechazo de la hiptesis nula en favor de la alternativa puede producirse porque el
estadstico de contraste toma valores muy altos o muy bajos. Por contra, los contrastes del tipo H0 : = 0 ,
frente a H1 : > 0 o H1 : < 0 son contrastes unilaterales o de una cola, ya que el rechazo de la
hiptesis nula en favor de la alternativa puede producirse slo si el estadstico de contraste toma valores muy
altos (cuando H1 : > 0 , llamado contraste a la derecha) o muy bajos (cuando H1 : < 0 , llamado
contraste a la izquierda).
Prof. Dr. Antonio Jos Sez Castillo 155
Dpto de Estadstica e I.O. Universidad de Jan
Por tanto, teniendo en cuenta la denicin de p-valor, su clculo se realiza de la siguiente forma:
Si el contraste es unilateral a la izquierda (H1 : < 0 ),
p = P [S s/H0 ] .
p = P [S > s/H0 ] .
Hay que decir que el uso del p-valor se ha extendido hasta convertirse en el mtodo ms habitual de toma
de las decisiones desde que el uso de los ordenadores y de los software de clculo estn a disposicin de la
mayora de los usuarios. Hoy en da casi nadie hace Estadstica a mano, y prcticamente todos los programas
estadsticos proporcionan el p-valor como dato para la toma de las decisiones.
En lo que resta del tema lo que vamos a hacer es enunciar distintos contrastes de hiptesis para la media, la
varianza o la proporcin de una poblacin y para comparar las medias, las varianzas y las proporciones en
dos poblaciones distintas. No nos vamos a centrar en los detalles de cmo se deducen sino slo en cmo se
utilizan en la prctica.
De todas formas, es importante hacer una aclaracin: cuando los datos proceden de una distribucin normal,
es muy sencillo obtener la distribucin del estadstico del contraste, gracias a los resultados que vimos en
el captulo de distribuciones en el muestreo. Sin embargo, si los datos no proceden de variables normales,
esta cuestin es muchsimo ms difcil. Afortunadamente, si el tamao de la muestra es grande, el Teorema
Central del Lmite garantiza que los parmetros que se basan en sumas basadas en las muestras siguen
aproximadamente una distribucin normal. Es por ello que en cada tipo de contraste que vamos a describir
a continuacin se distinguen aquellos que se basan en muestras grandes y los que se basan en muestras
reducidas, que slo podrn ser utilizados si la variable es normal.
En cada caso, vamos a acompaar el contraste con un ejemplo que comentaremos extensamente.
9.23 10.38 9.76 7.58 9.99 9.46 10.18 9.08 7.09 9.25
12.57 8.71 9.16 10.80 9.86 7.61 8.98 10.81 9.05 9.39
8.42 7.84 9.16 9.40 9.03 9.00 9.25 10.39 8.50 9.51
9.59 8.63 7.48 7.75 8.92 12.85 11.01 8.19 7.44 11.66
11.37 10.06 8.09 9.19 10.79 9.82 9.37 9.66 9.75 9.66
para tratar de discernir si los hmeros fsiles que encuentran en un yacimiento corresponden o no a una nueva
especie.
Supongamos que una especie comn en la zona donde se enclava un yacimiento, la Bichus localis, tiene una
razn media longitud/anchura de 9. Los arquelogos encargados del yacimiento han hallado 50 hmeros
fsiles, cuyos datos aparecen en el Cuadro 8.4. Tienen los arquelogos indicios sucientes para concluir que
han descubierto en el yacimiento una especie distinta de la Bichus localis ?
En primer lugar, observemos que no nos han especicado ningn nivel de signicacin en el enunciado. En
este caso, lo habitual es considerar = 0.05. En caso de que la decisin sea muy relevante, elegiramos un
nivel ms bajo.
A continuacin debemos plantear las hiptesis del contraste. En principio, la zona de la excavacin indica que
la especie del yacimiento debera ser la especie Bichus localis, salvo que demostremos lo contrario, es decir,
la hiptesis nula es H0 : = 9, donde por estamos notando la media de la razn longitud/anchura del
hmero de la especie del yacimiento. Como hiptesis alternativa nos planteamos que se trate de otra especie,
es decir H1 : 6= 9. Se trata, por tanto, de un contraste de dos colas.
Para realizarlo, debemos calcular en primer lugar el estadstico de contraste. ste, a su vez, requiere del
clculo de la media y de la desviacin tpica muestral de los datos. Estos valores son, respectivamente, 9.414
y 1.239. Por tanto,
9.414 9
z= = 2.363.
1.239/ 50
Ahora tenemos que plantearnos si este valor del estadstico nos permite rechazar la hiptesis nula en favor
de la alternativa o no. Podemos hacerlo de dos formas:
1. Obteniendo la regin de rechazo. Dado que z10.05/2 = 1.96, la regin de rechazo es |z| > 1.96. Vemos
que, en efecto, 2.363 > 1.96, por lo que podemos rechazar la hiptesis nula en favor de la alternativa
con un 95 % de conanza, concluyendo con ese nivel de conanza que se trata de una nueva especie.
Nos queda, sin embargo, la duda de saber qu hubiera pasado de tomar un nivel de signicacin ms
exigente; por ejemplo, = 0.01.
Dado que es inferior al 5 %, podemos rechazar la hiptesis nula en favor de la alternativa con un 95 % de
conanza, concluyendo con ese nivel de conanza que la razn media longitud/anchura de los hmeros
del yacimiento es distinta de la del Bichus localis, pero no podramos llegar a hacer esa armacin con
un 99 % de conanza (1 % de signicacin)1 .
encuentra como vapor a temperatura ambiente y es indisoluble en agua, no superan el mximo permitido por
la Directiva Europea de Calidad del Aire, cinco microgramos por metro cbico. sta es la principal conclusin
del estudio elaborado por un equipo de la Escuela Andaluza de Salud Pblica en el Campo de Gibraltar. La
noticia slo indicaba que el estudio se basaba en una muestra, dando el valor medio muestral en varias zonas
del Campo de Gibraltar, pero no el tamao ni la desviacin tpica muestral.
Para realizar el ejemplo, nosotros vamos a imaginar unos datos correspondientes a una muestra de 20 hogares
donde se midi la concentracin de benceno, arrojando una media muestral de 5.1 microgramos por metro
cbico y una desviacin tpica muestral de 1.7. Estoy seguro de que, en ese caso, el peridico habra sacado
grandes titulares sobre la contaminacin por benceno en los hogares del Campo de Gibraltar pero, podemos
armar que, en efecto, se superan los lmites de la Directiva Europea de Calidad del Aire?
En primer lugar, de nuevo no nos indican un nivel de signicacin con el que realizar la prueba. Escogemos,
en principio, = 0.05.
Tenemos que tener cuidado, porque el planteamiento de la prueba, tal y como se nos ha planteado, ser
contrastar la hiptesis nula H0 : = 5 frente a H1 : > 5, en cuyo caso, un error tipo I se traduce en
concluir que se viola la normativa cuando en realidad no lo hace, lo cul es grave porque genera alarma
injusticada en la poblacin, mientras que el error tipo II, el que no controlamos con el , es concluir que
1 Debe quedar claro que, estadsticamente, lo que hemos demostrado es que la razn media es distinta de 9. Son los arquelogos
los que deciden que eso implica una nueva especie.
se cumple la normativa cuando en realidad no lo hace, lo cual es gravsimo para la poblacin! Con esto
quiero incidir en una cuestin importante respecto a lo que se nos pide que demostremos: se nos dice que
nos planteemos si se superan los lmites de la normativa, en cuyo caso H1 debe ser > 5, pero en realidad,
deberamos plantearnos la pregunta de si podemos estar seguros de que se est por debajo de los lmites
mximos permitidos, es decir, deberamos probar H1 : < 5.
Centrndonos exclusivamente en lo que se nos pide en el enunciado, tenemos que H1 : > 5 determina que
se trata de una prueba unilateral a la derecha. El estadstico de contraste es
5.1 5
t= = 0.263.
1.7/ 20
1. Si queremos concluir con la regin de rechazo, sta est formada por los valores t > t0.95;19 = 1.729,
luego, dado que 0.263 < 1.729, no podemos armar con un 95 % de conanza que se est incumpliendo
la normativa.
2. El p-valor es an ms informativo. Su valor es p = P [T19 > 0.263] = 0.398, por lo que tendramos
que llegar hasta casi un 40 % de signicacin para rechazar la hiptesis nula en favor de la alternativa
armando que se incumple la normativa.
Por lo tanto, tal y como est planteado el problema, no podemos armar que se est incumpliendo la normativa
(con un 5 % de signicacin), por ms que un valor muestral de la media, 5.1, parezca indicar que s. Lo
que yo recomendara a los responsables del cumplimiento la normativa es que aumentaran el tamao de la
muestra, ya que, por ejemplo, si esos mismos datos correspondieran a 1000 hogares en vez de a 20, s se
podra armar con un 95 % de conanza que se incumple la normativa.
Regin de
z < z |z| > z1/2 z > z1
rechazo
p-valor P [Z < z] 2P [Z > |z|] P [Z > z]
Supuestos n1 , n2 30. Muestreo independiente y aleatorio
El estadstico es
1255 1330
z=q = 1.41.
2152 2382
50 + 30
1. La regin de rechazo es z < z0.05 = 1.65. Dado que z = 1.41 no cae en esta regin, no podemos
rechazar la hiptesis nula en favor de la alternativa con = 0.05, es decir, no tenemos un 95 % de
conanza en que el nuevo proceso haya disminuido el tiempo medio de produccin. No obstante, esta
respuesta deja abierta la pregunta, si no un 95 % de conanza, cunta?.
2. Dado que el p-valor es p = P [Z < 1.41] = 0.079 > 0.05, no podemos rechazar la hiptesis nula en
favor de la alternativa con el nivel de signicacin = 0.05.
Hay que decir que no hemos podido probar lo que se sospechaba, que el nuevo proceso reduca el tiempo
medio de produccin, pero los datos apuntan en esta direccin. Desde el punto de vista estadstico, deberamos
recomendar al ingeniero que aumente el tamao de las muestras porque es posible que en ese caso s pueda
probar esa hiptesis.
8.5.2. Con muestras pequeas (n1 < 30 o n2 < 30) y varianzas iguales
El resumen aparece en el Cuadro 8.8. A propsito de la hiptesis de la igualdad de las varianzas, sta debe
basarse en razones no estadsticas. Lo habitual es que se suponga que son iguales porque el experto que est
realizando el contraste tiene razones experimentales para hacerlo, razones ajenas a la estadstica.
Vamos a considerar como ejemplo el de un ingeniero que desea comparar dos equipos de trabajo para analizar
si se comportan de forma homognea. Para ello realiza una prueba de destreza entre los trabajadores de
ambos equipos: 13 del equipo 1 y 15 del equipo 2, cuyas puntuaciones aparecen en el Cuadro 8.9. Hay
indicios sucientes de que existan diferencias entre las puntuaciones medias de los dos equipos? ( = 0.05).
t= , sp =
de contraste n1 +n2 2
r
s2p n1 + n1
1 2
Regin de
t < t;n1 +n2 2 |t| > t1/2;n1 +n2 2 t > t1;n1 +n2 2
Rechazo
p-valor P [Tn1 +n2 2 < t] 2P [Tn1 +n2 2 > |t|] P [Tn1 +n2 2 > t]
Muestreo independiente y aleatorio. Variables normales.
Supuestos
12 = 22
Equipo 1 59 73 74 61 92 60 84 54 73 47 102 75 33
Equipo 2 71 63 40 34 38 48 60 75 47 41 44 86 53 68 39
Nos piden que contrastemos la igualdad de las medias (H0 : 1 = 2 ), frente a la alternativa H1 : 1 6= 2 ,
por lo que se trata de un contraste bilateral.
En primer lugar, obtenemos los estadsticos muestrales de ambos equipos. Las medias son, respectivamente,
68.2 y 53.8, mientras que las desviaciones tpicas muestrales son 18.6 y 15.8. Con estos valores podemos
calcular s2p :
12 18.6 + 14 15.8
s2p = = 294.09.
13 + 15 2
Con este valor ya podemos calcular el estadstico de contraste:
68.2 53.8
t= q = 2.22.
1 1
294.09( 13 + 15 )
Aunque no hemos dicho nada al respecto, vamos a suponer que las varianzas son iguales. Esto no parece
descabellado si admitimos que las condiciones en que trabajan ambos equipos determinan que no debe haber
diferencias en la variabilidad de sus puntuaciones. Esta hiptesis debe ser admitida y propuesta por el experto
(en este caso, el ingeniero) que maneja los datos.
Para obtener la conclusin, como siempre, vamos a obtener la regin de rechazo y valorar el p-valor:
1. La regin de rechazo es |t| > t0.975;26 = 2.055. Dado que t = 2.22 cae en esa regin, podemos rechazar
la igualdad de las medias con un 95 % de conanza.
2. Dado que el p-valor, p = 2P [T26 > 2.22] = 0.035 es inferior a 0.05, podemos rechazar la igualdad de las
medias con un 95 % de conanza. De hecho, podramos llegar a un 96.5 %.
Unilateral a Unilateral
Tipo de prueba Bilateral
la izquierda a la derecha
H0 : 1 2 = D0 H0 : 1 2 = D0 H0 : 1 2 = D0
Hiptesis
H1 : 1 2 < D0 H1 : 1 2 6= D0 H1 : 1 2 > D0
Estadstico (xy)D0
t=
de contraste
r
2 2
1
n (s1n1 ) +(s2n1 )
Regin de
t < t;2(n1) |t| > t1/2;2(n1) t > t1;2(n1)
rechazo
p-valor P [T;2(n1) < t] 2P [T;2(n1) > |t|] P [T;2(n1) > t]
Las dos muestras se recogen de forma independiente y aleatoria
Supuestos Ambas variables siguen distribuciones aproximadamente normales
Las muestras tienen el mismo tamao, n1 = n2 = n
Cuadro 8.10: Contraste para la igualdad de medias con muestras pequeas varianzas distintas y mismo
tamao muestral
Unilateral a Unilateral
Tipo de prueba Bilateral
la izquierda a la derecha
H0 : 1 2 = D0 H0 : 1 2 = D0 H0 : 1 2 = D0
Hiptesis
H1 : 1 2 < D0 H1 : 1 2 6= D0 H1 : 1 2 > D0
2 2 !2
(s1n1 ) + (s2n1 )
Estadstico (xy)D0
n1 n2
t= ,v =
de contraste 2 2 2 2
s
(s1n1 )
2
( s2 )
2
(
s1
n1 ) (s2n1 )
+ n1
n1 n2
n1 n2
n1 1 + n2 1
Regin
t < t;v |t| > t1/2;v t > t1;v
de rechazo
p-valor P [Tv < t] 2P [Tv > |t|] P [Tv > t]
Las dos muestras se recogen de forma independiente y aleatoria
Supuestos
Ambas variables siguen distribuciones aproximadamente normales
Cuadro 8.11: Contraste para la igualdad de medias con muestras pequeas, varianzas distintas y distinto
tamao muestral
Cuadro 8.12: Contraste para la igualdad de medias en poblaciones apareadas con muestra grande
Cuadro 8.13: Contraste para la igualdad de medias en poblaciones apareadas y muestra pequea
ponente no deseado2 . Antes de sacarlo al mercado necesita un estudio de casos-controles que demuestre su
ecacia.
El estudio de casos controles consiste en encontrar un nmero determinado de parejas de personas con
caractersticas siolgicas parecidas; en este caso, la ms importante de estas caractersticas sera que las
parejas caso-control tengan al inicio del estudio el mismo o muy parecido nivel de presencia en sangre del
componente no deseado: en cada una de esas parejas, una acta como caso, tomando la medicacin en estudio,
y la otra como control, tomando un producto inocuo llamado placebo. Ninguna de las dos personas, ni siquiera
el mdico o el farmacetico que controla el proceso, sabe quin es el caso y quin el control. Slo quien recopila
y analiza los resultados, sin contacto alguno con el paciente, tiene esos datos. Esta metodologa se conoce
como doble ciego y evita que el conocimiento de que se est administrando la medicina provoque un efecto
en s mismo. Los datos aparecen en el Cuadro 8.14.
Un anlisis costo-benecio de la empresa farmacetica muestra que ser benecioso sacar al mercado el
producto si la disminucin media del componente perjudicial es de al menos 2 puntos. Realicemos una nueva
prueba para ayudar a la compaa a tomar la decisin correcta. Los datos son la disminucin de presencia
en sangre del componente no deseado despus de tomar el medicamento o el placebo.
Empecemos por la notacin. Vamos a llamar muestra 1 a la del medicamento y muestra 2 a la del placebo.
Con esta notacin, nos piden que contrastemos H0 : 1 2 = 2 frente a H1 : 1 > 2 +2, o equivalentemente,
H1 : 1 2 > 2. En ese caso, el estadstico de contraste es
3.21 2
t= = 3.375
1.134/ 10
y el p-valor asociado es p = P [T9 > 3.375] = 0.004. Vemos que la signicacin determina un p-valor inferior,
por ejemplo, a = 0.05, por lo que podemos concluir con ese nivel de signicacin que la mejora es superior,
en media, a 2 puntos y, por tanto, el medicamento es rentable.
Unilateral a Unilateral
Tipo de prueba Bilateral
la izquierda a la derecha
H0 : p = p0 H0 : p = p 0 H0 : p = p0
Hiptesis
H1 : p < p0 H1 : p 6= p0 H1 : p > p0
Estadstico q pp0
z=
de contraste p0 (1p0 )
n
p-valor P [Z < z] 2P [Z > |z|] P [Z > z]
Regin
z < z |z| > z1/2 z > z1
de rechazo
Supuestos np0 , n (1 p0 ) 10
0.7 0.6
z=q = 2.236.
0.60.4
120
Por su parte, la regin de rechazo sera |z| > 1.96 para un = 0.05, luego en efecto, podemos concluir que la
proporcin de varones causantes de accidentes es superior a la proporcin de varones conductores en general.
El p-valor, de hecho, es 0.013.
Vamos a analizar con mucho detalle otro ejemplo sobre igualdad de proporciones. De todas formas, lo que
quiero enfatizaros con el ejemplo no est relacionado en s con el hecho de que se reera a una proporcin.
Una marca de nueces arma que, como mximo, el 6 % de las nueces estn vacas. Se eligieron 300 nueces
al azar y se detectaron 21 vacas. Con un nivel de signicacin del 5 %, se puede aceptar la armacin de
la marca?
En primer lugar, pedir un nivel de signicacin del 5 % es equivalente a pedir un nivel de conanza del
95 % ... sobre qu? Nos preguntan si se puede aceptar la armacin de la marca con un nivel de
signicacin del 5 %, es decir, con un nivel de conanza del 95 %. Eso implica que queremos
probar con amplias garantas que la marca no miente, y la nica forma de hacerlo es poner su hiptesis
(p < 0.06) en la hiptesis alternativa. Por tanto, tendramos H0 : p 0.06 frente a lo que arma la
marca, H1 : p < 0.06.
Ahora bien, jmonos que la proporcin muestral de nueces vacas es p = 21/300 = 0.07. Es decir, nos
piden que veamos si una proporcin muestral de 0.07 da suciente conanza (95 % para ser exactos) de
que p < 0.06... No da ninguna! Ni siquiera hace falta hacer el contraste con nmeros. Jams podremos
rechazar la hiptesis nula en favor de la hiptesis de la marca, es decir, en absoluto podemos armar
lo que dice la marca, p < 0.06, con un 95 % de conanza. De todas formas, por si hay algn incrdulo,
el estadstico de contraste sera z =
0.070.06
0.060.94
= 0.729. La regin de rechazo, dado que es un test a la
300
izquierda, sera z < z0.05 = 1.645. Como vemos, el valor del estadstico de contraste est en la cola de
la derecha y la regin de rechazo en la de la izquierda. Por eso deca antes que es imposible rechazar la
hiptesis nula en favor de la alternativa, independientemente del nivel de conanza requerido.
Hasta ahora hemos demostrado que la marca no puede armar que la proporcin de nueces vacas es
inferior al 6 % con un 95 % de conanza. De hecho, no lo puede armar con ningn nivel de conanza,
porque los datos tomados proporcionan una estimacin de 0.07 que va justo en contra de su hiptesis.
Pero vamos a suponer que nos ponemos gallitos y decimos: es ms, podra demostrar que hay eviden-
cias empricas que proporcionan un 95 % de conanza en que la compaa miente, siendo en realidad
la proporcin de nueces vacas superior al 6 % . Ahora somos nosotros los que armamos otra cosa:
armamos p > 0.06 con un 95 % de conanza, lo que equivale a decir que hemos planteado un nuevo
contraste de hiptesis en el que H0 : p 0.06 frente a H1 : p > 0.06. Las cuentas estn casi hechas, ya
que el valor del estadstico de contraste es el mismo, z = 0.729, mientras que la regin de rechazo es
z > z0.95 = 1.645. Ahora el valor del estadstico, es decir, la informacin que nos dan los datos (21 de
300 nueces vacas), s es coherente con la hiptesis alternativa, de ah que est en la misma cola que la
regin de rechazo... pero no cae en ella!. Por lo tanto, no tenemos sucientes evidencias en los datos
para rechazar la hiptesis nula en favor de la alternativa con un 95 % de conanza, as que no podemos
demostrar con ese nivel de conanza que la marca miente.
En resumen, aunque parezca paradjico, no tenemos sucientes evidencias en los datos para armar
que la compaa dice la verdad, pero tampoco para demostrar que miente. La diferencia entre ambas
hiptesis radica en que no tenemos ninguna conanza en la armacin de la compaa, y s alguna
conanza en la armacin contraria. Cunta conanza tenemos en la armacin contraria p > 0.06?
Ese valor viene dado por el p-valor, P [Z > 0.729] = 0.233, que determina que el nivel de conanza en
p > 0.06 es (1 0.233) 100 % = 72.9 %.
Finalmente, alguien podra pensar, y entonces qu hacemos? . Desde el punto de vista estadstico
lo nico que podemos recomendar es aumentar el tamao de la muestra, es decir, romper ms de 300
nueces para tomar la decisin. Aparentemente, la informacin recogida con 300 nueces parece indicar
Regin
z < z |z| > z1/2 z > z1
de rechazo
p-valor P [Z < z] 2P [Z > |z|] P [Z > z]
Supuestos Al menos 10 xitos y 10 fracasos
que la marca miente. De hecho, si la proporcin muestral de 0.07 proviniera de una muestra de 1600
nueces en vez de 300, s hubiramos podido demostrar con un 95 % de conanza que la marca miente.
Est claro que el valor del estadstico es bestial, sin necesidad de valorar la regin de rechazo, que sera
z > z0.95 = 1.645, luego podemos rechazar la hiptesis nula en favor de la alternativa con, al menos, el 95 %
de conanza. El p-valor, p = P [Z > 904.29] = 0 indica que la conanza es, de hecho, bastante mayor.
No puedo resistirme a concluir el ejemplo sin recordar que lo que la DGT realmente querr dar a entender
es que el alcohol es el causante de los accidentes de trco, pero que eso no puede ser demostrado con el
contraste.
3 http://www.dgt.es/educacionvial/imagenes/educacionvial/recursos/dgt/EduVial/50/40/index.htm
Unilateral a Unilateral
Tipo de prueba Bilateral
la izquierda a la derecha
H0 : 2 = 02 H0 : 2 = 02 H0 : 2 = 02
Hiptesis
H1 : 2 < 02 H1 : 2 6= 02 H1 : 2 > 02
Estadstico (n1)s2n1
2 =
de contraste 02
2 < 2/2;n1 o
Rechazo 2 < 2;n1 2 > 21;n1
2 > 21/2;n1
p-valor P [2n1 < 2 ] 2min(P [2n1 < 2 ], P [2n1 > 2 ]) P [2n1 > 2 ]
Supuestos Distribucin de probabilidad aproximadamente normal
Las empresa Sidel arma que su mquina de llenado HEMA posee una desviacin tpica en el llenado de
contenedores de 500ml de producto homogneo inferior a 0.8 gr.4 Vamos a suponer que el supervisor de control
de calidad quiere realizar una comprobacin al respecto. Recopila para ello una muestra del llenado de 50
contenedores, obteniendo una varianza muestral de 0.6 Esta informacin proporciona pruebas sucientes de
que la desviacin tpica de su proceso de llenado es realmente inferior a 0.8gr.?
Planteamos, en primer lugar, las hiptesis del contraste. Se nos pide que contrastemos H0 : = 0.8 o,
equivalentemente, H0 : 2 = 0.64 frente a la alternativa H1 : 2 < 0.64. Se trata, por tanto, de un test
unilateral a la izquierda. El estadstico de contraste es
49 0.6
2 = = 45.938.
0.64
1. Dado que 20.05;9 = 33.930, y 2 = 45.938 > 20.05;9 = 33.930, no podemos concluir con al menos un
95 % de conanza que, en efecto, la desviacin tpica de la cantidad de llenado es inferior a 0.8gr.
2. Dado que el p-valor es p = P [249 < 45.938] = 0.4, bastante alto, tenemos muy serias dudas acerca de
que, en efecto, la desviacin tpica sea realmente inferior a 0.8gr.
Ojo: antes de que la empresa Sidel se enfade con nosotros, no olvidemos que los datos son imaginarios: slo
son reales las especicaciones tcnicas de < 0.8gr.
Unilateral a Unilateral
Tipo Bilateral
la izquierda a la derecha
12 12 12
H0 : 22
=1 H0 : 22
=1 H0 : 22
=1
Hiptesis 12 12 12
H1 : 22
<1 H1 : 22
6= 1 H1 : 22
>1
2
(s1n1 )
Estadstico f= 2
(s2n1 )
f < f/2;n1 1,n2 1 o
Rechazo f < f;n1 1,n2 1 f > f1;n1 1,n2 1
f > f1/2;n1 1,n2 1
p-valor P [Fn1 1,n2 1 < f ] 2min(P [Fn1 1,n2 1 < f ], P [Fn1 1,n2 1 > f ]) P [Fn1 1,n2 1 > f ]
Las dos muestras se recogen de forma independiente y aleatoria
Supuestos
Ambas variables siguen distribuciones aproximadamente normales
si ambas variables son normales. El resumen del contraste aparece en el Cuadro 8.18. En l, fp;v1 ,v2 es el
valor de una F de v1 y v2 grados de libertad5 tal que P [F < fp;v1 ,v2 ] = p.
Para practicar sobre el contraste, consideremos que se han realizado 20 mediciones de la dureza en la escala
Vickers de acero con alto contenido en cromo y otras 20 mediciones independientes de la dureza de una
soldadura producida sobre ese metal. Las desviaciones estndar de las muestras de dureza del metal y de
dureza de la soldadura sobre ste fue de 12.06HV y 11.41HV , respectivamente. Podemos suponer que
las durezas corresponden a variables normales e independientes. Podemos concluir que la dureza del metal
bsico es ms variable que la dureza medida en la soldadura?
Vamos a llamar a la dureza sobre el acero, X , y a la dureza sobre la soldadura, Y . Se nos pide que contrastemos
2
X
2
H0 : X = Y2 frente a la alternativa H1 : X
2
> Y2 o, equivalentemente, H1 : 2
Y
> 1. Se trata, por tanto, de
una prueba unilateral a la derecha. El estadstico de contraste es
12.062
f= = 1.1172.
11.412
Vamos a tomar un nivel de signicacin de = 0.05. La regin crtica viene delimitada por el valor f0.95;19,19 =
2.168. Dado que f = 1.1172 < f0.95;19,19 = 2.168, no podemos concluir al nivel de signicacin = 0.05 que
la dureza del metal bsico sea ms variable que la dureza medida en la soldadura.
El p-valor, por su parte, es p = P [F19,19 > 1.1172] = 0.4058.
frente a
H1 : no todas las medias son iguales.
Obsrvese que la alternativa no dice que todas las medias sean distintas sino tan slo que al menos dos de
ellas sean diferentes.
Denotemos por xi1 , ..., xini a la muestra isima, y xi y s2i,ni 1 a su media y su varianza muestral, con
i = 1, ..., m.
Este contraste se denomina ANOVA como acrnimo de Analysis of Variance, ya que, como vamos a ver, se
basa en analizar a qu se debe la variabilidad total que presentan los datos, si al azar o a las diferencias entre
las poblaciones de las que proceden las muestras.
Supongamos que juntamos todas las muestras, obteniendo una nica muestra global de tamao
m
X
N= ni ,
i=1
1. En primer lugar, los datos varan globalmente respecto a la media total. Una medida de esta variacin
es la suma de los cuadrados totales,
ni
m X
X 2
SCT = xij x .
i=1 j=1
2. Por otro lado, puede haber diferencias entre las medias de cada grupo y la media total. Podemos medir
estas diferencias con la suma de los cuadrados entre-grupos:
m
X 2
SCE = ni (xi x) .
i=1
Si la hiptesis nula fuera cierta, slo habra pequeas diferencias muestrales entre las medias de cada
muestra, en cuyo caso, la SCE sera pequea. Si fuera falsa, habra muchas diferencias entre las medias
y con respecto a la media total, en cuyo caso SCE sera grande.
3. Por ltimo, debido a la variabilidad inherente a toda muestra, los datos de cada muestra van a va-
riar respecto a su media particular. Como medida de esta variacin consideramos la suma de los
cuadrados dentro de los grupos o intra-grupos:
ni
m X m
X 2 X
SCD = xij xi = (ni 1) s2i,ni 1 .
i=1 j=1 i=1
La clave en estas consideraciones lo constituye la siguiente igualdad, conocida como teorema de particin
de la varianza:
SCT = SCE + SCD.
Teniendo en cuenta este resultado, el ANOVA consiste en ver si SCE es signicativamente grande respecto
de SCD. Para ello basta considerar que, suponiendo que la hiptesis nula es cierta:
SCT
2 sigue una 2 con N 1 grados de libertad.
SCE
2 sigue una 2 con m 1 grados de libertad.
SCD
2 sigue una 2 con N m grados de libertad.
que, suponiendo que la hiptesis nula es cierta, sigue una F de Snedecor con m 1 y N m grados de
libertad.
Por lo tanto, el test podemos resumirlo de la siguiente forma:
1. Calculamos Pm Pni
i=1 j=1 xij
x =
N
y con ella
m
X m
X
2
SCE = ni (xi x) = ni x2i N x2 .
i=1 i=1
2. Calculamos
ni
m X m
X 2 X
SCD = xij xi = (ni 1) s2i,ni 1 .
i=1 j=1 i=1
4. Tomamos la decisin:
En primer lugar, observemos que los tamaos muestrales son iguales: n1 = ... = n4 = 5.
Por otra parte, tenemos:
2 2
SCE = 5 (253.8 262.5) + ... + 5 (262.0 262.5) = 743.4
Por tanto,
743.4
41
F = 1023.6 = 3.8734.
204
Por su parte, el valor de F3,16;0.95 es 3.2389, de manera que podemos armar que existen diferencias
signicativas entre las durezas de los 4 compuestos, con un 95 % de conanza.
Ejemplo. En Biologa Molecular se estudia la relacin que puede tener el nivel de expresin de un gen
con la posibilidad de padecer un tipo de cncer. Un investigador consigue analizar el nivel de expresin de
10 genes en una muestra de pacientes y realiza 10 contrastes de hiptesis donde la hiptesis alternativa de
cada uno de ellos dice que un gen est relacionado con la posibilidad de padecer ese cncer. Los p-valores
obtenidos son los siguientes:
(0.1, 0.01, 0.21, 0.06, 0.32, 0.24, 0.45, 0.7, 0.08, 0.0003)
En principio, tendramos evidencias de que el 2 y el ltimo gen estn signicativamente relacionados con
ese tipo de cncer. Sin embargo, debemos corregir el efecto de la realizacin de las 10 pruebas simultneas.
Aplicando el mtodo de Bonferroni, debemos multiplicar por 10 los p-valores. En ese caso, el segundo
gen ya no puede ser considerado estadsticamente signicativo para el riesgo de padecer el cncer (0.01
10 > 0.05); por el contrario, dado que 0.0003 10 < 0.05, el ltimo gen sigue siendo considerado
signicativamente relacionado con el cncer.
tiene dos mquinas distintas para ello. Le interesa que los cojinetes producidos tengan dimetros similares,
independientemente de la mquina que los produce, pero tiene sospechas de que est produciendo algn pro-
blema de falta de calibracin entre ellas. Para analizar esta cuestin, extrae una muestra de 120 cojinetes que
se fabricaron en la mquina A, y encuentra que la media del dimetro es de 5.068 mm y que su desviacin
estndar es de 0.011 mm. Realiza el mismo experimento con la mquina B sobre 65 cojinetes y encuentra que
la media y la desviacin estndar son, respectivamente, 5.072 mm y 0.007 mm. Puede el ingeniero concluir
que los cojinetes producidos por las mquinas tienen dimetros medios signicativamente diferentes?
En este caso, afortunadamente tenemos un tamao muestral que va a permitir obviar la hiptesis de normali-
dad. Vemos que se plantea un supuesto que puede ser analizado a travs de la media, en concreto, comparando
la media de ambas mquinas. Si llamamos X al dimetro de la mquina A e Y al dimetro de la mquina
B, tenemos que contrastar H0 : X = Y frente a H1 : X 6= Y .
El estadstico de contraste es
5.068 5.072
z=q = 3.013.
0.0112 0.0072
120 + 65
El p-valor asociado es 2 P [Z < 3.361] = 0.002, luego tenemos evidencias de que, en efecto, el dimetro
medio de ambas mquinas es distinto.
Todos aprendemos de la experiencia, y la leccin en esta ocasin es que nunca se debe perder
de vista la alternativa.
Resumen. Continuando con los contraste de hiptesis, presentamos en este captulo nuevos contrastes que
permitirn decidir si un ajuste mediante una distribucin terica es vlido y valorar si existe relacin entre
variables cualitativas.
Palabras clave: bondad de ajuste, test 2 de bondad de ajuste, test de bondad de ajuste de Kolmogorov-
Smirno, test 2 de independencia.
9.1. Introduccin
Todos los contrastes que hemos descrito en el captulo anterior se basan, directa o indirectamente (a travs
del teorema central del lmite) en que los datos se ajustan a la distribucin normal, haciendo inferencia de
una u otra forma sobre sus parmetros. En este captulo vamos a considerar contrastes que no necesitan
de tal hiptesis, por lo que no se enuncian como contrastes sobre algn parmetro desconocido: de ah que
formen parte de los llamados contrastes no paramtricos o contrastes de hiptesis no paramtricas.
173
Dpto de Estadstica e I.O. Universidad de Jan
frente a la alternativa
facilitando adems un p-valor que permitir, adems, comparar la bondad de distintos ajustes.
Decir, por ltimo, que aunque estos dos contrastes de hiptesis pueden aplicarse a cualquier tipo de variables
estn especialmente indicados para variables de tipo discreto o cualitativo en el caso del primero de ellos (test
2 de bondad de ajuste) y para variables de tipo continuo en el segundo (test de Kolmogorov-Smirnov).
Ejemplo. Supongamos que un tahur del Missisipi quiere probar un dado para ver si es adecuado para
jugar honestamente con l. En ese caso, si notamos por pi a la probabilidad de que en el lanzamiento del
dado resulte el valor i = 1, 2, ..., 6, el tahur quiere probar la hiptesis
1
H0 : p1 = ... = p6 =
6
Por otra parte, si el dado fuera justo (hiptesis H0 ), en 600 lanzamientos deberan darse aproximadamente
100 de cada resultado posible. stas frecuencias se denominan frecuencias esperadas.
El tahur tomar la decisin con respecto al dado a partir de la comparacin de las frecuencias observadas
y las esperadas (ver Cuadro 9.1). Qu decidiras t a la luz de esos datos?
A continuacin, vamos a describir el test 2 , que permite realizar pruebas de este tipo. Como hemos comentado
en la introduccin, con ella podremos juzgar ajustes de los que hemos logrado en el captulo de estimacin
puntual, pero tambin podremos utilizarla en ejemplos como el que acabamos de ver, en el que el experto
est interesado en contrastar datos experimentales con respecto a una distribucin terica que le resulta de
inters.
En primer lugar y de forma ms general, supongamos que tenemos una muestra de tamao N de una v.a.
discreta o cualitativa, X , ajustada a un modelo dado por una distribucin.
Consideremos una particin del conjunto de valores que puede tomar la variable: S1 , ..., Sr . En principio,
esta particin podran ser simplemente todos y cada uno de los valores que toma la variable X , pero, como
veremos, es posible que tengamos que agrupar algunos de ellos.
Seguidamente, consideremos la probabilidad, segn la distribucin dada por el ajuste que queremos evaluar,
de cada una de estas partes,
pi = P [X Si /H0 ] > 0.
De igual forma, calculemos Oi , el nmero de observaciones de la muestra que caen en cada conjunto Si .
La idea del test es comparar el nmero de observaciones Oi que caen realmente en cada conjunto Si con el
nmero esperado de observaciones que deberan caer en Si si el ajuste es el dado por nuestro modelo, que
sera N pi . Para ello, una medida que compara estas dos cantidades viene dada por
r 2
X (Oi N pi )
D= .
i=1
N pi
Si, para una muestra dada, esta v.a. toma un valor d muy alto, indica que los valores observados no cuadran
con el ajuste que hemos propuesto (con lo cul se rechazara la hiptesis nula en favor de la alternativa);
si, por el contrario, toma un valor d bajo, indica que nuestro ajuste corresponde bien con los datos de la
muestra, por lo que es aceptable la hiptesis nula.
El problema nal es decidir cundo el valor de la v.a. D, d, es lo sucientemente alto como para que nos
resulte inaceptable el ajuste. Para decidirlo hay que tener en cuenta que cuando N es razonablemente alto y
la hiptesis H 0 es cierta, la distribucin de probabilidad de D es 2 con r k 1 grados de libertad, es decir,
N >>
D/H0 2rk1 ,
donde k es el nmero de parmetros que han sido estimados en el ajuste. Teniendo en cuenta este resultado,
se calcula bajo esta distribucin la probabilidad de que se de un valor todava ms alto que d (el p-valor, por
tanto),
p = P [D > d/H0 ] .
1. Se enuncia el test:
2. Si en la muestra se dan los valores x1 , ..., xm , se calculan las frecuencias esperadas segn el ajuste
propuesto de cada valor xi , N P [X = xi ], i = 1, ..., m. Si alguna de estas frecuencias es inferior
a 5, se agrupa con alguna de la ms cercana hasta que sumen una frecuencia mayor o igual a 5. Se
construye as la particin del conjunto de valores posibles para X , S1 , ...Sr , cuyas frecuencias esperadas
xi 0 1 2 3 4 5 6
Frec. obs. 42 28 13 5 7 3 2
son todas mayores o iguales a 5. En realidad, esto es slo una recomendacin que puede relajarse: si
alguna frecuencia esperada es slo ligeramente inferior a 5, no es especialmente grave.
p = P [D > d/H0 ] ,
b) Si p 0.05, se concluye que no hay evidencias en contra de armar que los datos se ajustan a la
distribucin dada.
Ejemplo. Los datos que se presentan en el Cuadro 9.2 constituyen una muestra aleatoria simple del
tiempo en ms. que transcurre entre la llegada de paquetes transmitidos por un determinado protocolo.
En la tabla aparecen los valores junto al nmero de veces que han sido observados en la muestra.
Se sospecha que una distribucin geomtrica puede ajustar bien esos datos. Vamos a realizar ese ajuste
y contrastar si es aceptable mediante el test de la chi-cuadrado.
En primer lugar, para ajustar una distribucin geomtrica debemos estimar el parmetro de la misma.
Vamos a hacerlo de forma sencilla por el mtodo de los momentos. El valor de la media de la distribucin
es $EX= de donde p = 1
1+EX . Por tanto, nuestro estimador ser
1
p = .
1 + x
Por su parte,
0 42 + 1 28 + 2 13 + 3 5 + 4 7 + 5 3 + 6 2
x = = 1.24,
100
luego $
As pues, deseamos contrastar en qu medida el ajuste de una Geo (0.4464) es vlido para los datos de
la muestra. Es decir, deseamos contrastar H0 : X Geo (0.4464) frente a la alternativa H1 : X 9
Geo (0.4464) .
Vamos a calcular cules son las probabilidades tericas segn esa distribucin de los valores observados
en la muestra:
0
P [X = 0] = 0.4464 (1 0.4464) = 0.4464
1
P [X = 1] = 0.4464 (1 0.4464) = 0.2471
2
P [X = 2] = 0.4464 (1 0.4464) = 0.1368
3
P [X = 3] = 0.4464 (1 0.4464) = 0.0757
4
P [X = 4] = 0.4464 (1 0.4464) = 0.0419
5
P [X = 5] = 0.4464 (1 0.4464) = 0.0232
6
P [X = 6] = 0.4464 (1 0.4464) = 0.0128
Ahora tenemos que construir la particin de los valores de la variable que, como sabemos, son 0,1,... Hay
que tener en cuenta que debemos procurar que las frecuencias esperadas sean superiores o iguales a 5.
Como hay 100 observaciones, ser necesario agrupar los valores 4 en adelante en un solo conjunto. Vamos
a resumir este planteamiento en el Cuadro 9.3 donde, adems, aparecen los residuos al cuadrado entre
las frecuencias observadas y esperadas, necesarios para calcular el estadstico del test.
El valor de ste se calcula a partir de los resultados de la tabla de la siguiente manera:
Finalmente, el p-valor se calcula como P [D > 1.7973] , donde D sigue una 2511 , es decir, una Gamma
de parmetros (5 1 1)/2 y 1/2. Por tanto,
1 1
32 1 1 x
2 2x e 2
p valor = 3
dx = 0.61552.
1.7973 2
Al ser superior (muy superior, de hecho) a 0.05, podemos armar que no hay evidencias en los datos de
la muestra en contra de que stos sigan una distribucin Geo (0.4464).
2
xi Oi N pi (Oi N pi )
2
0 42 44.64 (42 44.64) = 6.969 6
2
1 28 27.71 (28 27.71) = 0 .0841
2
2 13 13.68 (13 13.68) = 0.462 4
2
3 5 7.57 (5 7.57) = 6.604 9
2
4 12 9.38 (12 9.38) = 6.864 4
A la hora de calcular este mximo debemos tener en cuenta que la variable x es de tipo continuo.
La hiptesis nula a contrastar es
Se rechazar la hiptesis nula en favor de la alternativa cuando el p-valor asociado al valor que tome DN sea
inferior a 0.05.
Esquemticamente, el proceso en el desarrollo del test puede resumirse en los siguientes pasos:
2. Construimos la funcin de distribucin emprica, que en cada valor de la muestra viene dado por
SN x(i) = Ni .
4. Se rechazar la hiptesis nula en favor de la alternativa si p = P [DN > dN ] < 0.05, con un (1 p)
100 % de conanza.
ajuste. Una metodologa adecuada para ello es conocida como Mtodos de Monte Carlo, aunque excede los
contenidos de estos apuntes. Debo advertir que muchos de los paquetes estadsticos ms habituales pueden
inducir a error en el clculo de este p-valor, ya que proporcionan por defecto aqul correspondiente a un
ajuste en el que no se estime ningn parmetro en la distribucin bajo la hiptesis nula, dando lugar a una
sobreestimacin de dicho p-valor.
1.4647 0.4995 0.7216 0.1151 0.2717 0.7842 3.9898 0.1967 0.8103 0.4854
0.2333 0.0814 0.3035 1.7358 0.9021 0.0667 0.0868 0.8909 0.1124 0.0512
Ejemplo. Los datos que aparecen en el Cuadro 9.4 corresponden al tiempo en sec. entre conexiones a
un servidor. Nos planteamos si una distribucin exponencial es adecuada para su ajuste.
En primer lugar hemos de decidir cul es el ajuste propuesto. El estimador mximo verosmil del par-
metro de una exponencial coincide con el estimador del mtodo de los momentos, = m1 .
1
En este
caso, = 1/0.6902 = 1. 448 9.
Para calcular el valor del estadstico del contraste, debemos evaluar la funcin de distribucin de una
exp (1.4489),
F (x) = 1 e1.4489x , x 0
con la funcin de distribucin emprica. El Cuadro 9.5 muestra ambas funciones de distribucin. De ella
se deduce que el valor del estadstico de contraste es 0.172 72. El p-valor asociado (calculado por Mtodos
de Monte Carlo con R) toma el valor
Por tanto, no hay en los datos evidencia en contra de asumir que siguen una distribucin exp (1.4489).
La Figura 9.1 muestra en una vertiente grca la bondad del ajuste y el punto donde se alcanza la
distancia mxima entre las funcin de distribucin terica y emprica.
i i1 i i1
x(i) F x(i) 20 20 x(i) F x(i) 20 20
0.0512 7.1499 102 0.05 0 0.4854 0.50505 0.55 0.5
0.0667 9.2119 102 0.1 0.05 0.4995 0.51506 0.6 0.55
0.0814 0.11125 0.15 0.1 0.7216 0.64849 0.65 0.6
0.0868 0.11818 0.2 0.15 0.7842 0.67897 0.7 0.65
0.1124 0.15029 0.25 0.2 0.8103 0.69089 0.75 0.7
0.1151 0.1536 0.3 0.25 0.8909 0.72496 0.8 0.75
0.1967 0.24798 0.25 0.3 0.9021 0.72938 0.85 0.8
0.2333 0.28682 0.4 0.35 1.4647 0.88023 0.9 0.85
0.2717 0.32542 0.45 0.4 1.7358 0.91914 0.95 0.9
0.3035 0.3558 0.5 0.45 3.9898 0.99691 1 0.95
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
0 0.5 1 1.5 2 2.5 3 3.5 4
Figura 9.1: Funciones de distribucin terica y emprica. Valor donde se da el estadstico de Kolmogorov-
Smirnof.
Ejemplo. Est relacionada la ideologa poltica con el gnero del votante? Es decir, nos planteamos si
el que una persona se declare de izquierdas o de derechas depende de si es varn o mujer. Existen dos
variables cualitativas o caractersticas que dividen a la poblacin. Lo que nos interesa es si esa divisin
est o no relacionada. Sern ms conservadoras las mujeres?
Consideremos en general una poblacin en la que cada individuo se clasica de acuerdo con dos caractersticas,
designadas como X e Y . Supongamos que los posibles valores de X son x1 , ..., xr y los posibles valores de Y
son y1 , ..., ys .
Denotemos por pij a la proporcin de individuos de la poblacin cuyas caractersticas son simultneamente
xi e yj . Denotemos adems, como pi. a la proporcin de individuos con caracterstica xi y p.j a la proporcin
de individuos con caracterstica yj . En trminos de probabilidades, tendremos que si se elige un individuo al
azar,
P [X = xi , Y = yj ] = pij
s
X
P [X = xi ] = pi. = pij
j=1
r
X
P [Y = yj ] = p.j = pij .
i=1
Lo que pretendemos contrastar es si las dos caractersticas son independientes, es decir, si para todo i y para
todo j ,
P [X = xi , Y = yj ] = P [X = xi ] P [Y = yj ] ,
es decir, si
pij = pi. p.j .
frente a
H1 : pij 6= pi. p.j para algn valor de i y j .
Para llevar a cabo el contraste tomaremos una muestra de la poblacin de tamao n. Denotemos por nij los
individuos de esa muestra que toman simultneamente el valor xi y el valor yj (frecuencias observadas),
Ps Pr
ni. = j=1 nij los individuos de la muestra que toman el valor xi y n.j = i=1 nij los que toman el valor
yj .
De esta forma,
nij
pij =
n
ser un estimador basado en la muestra de pij ,
ni.
pi. =
n
n.j
p.j =
n
eij = n pi . p.j .
Suponiendo que la hiptesis nula es cierta, la distribucin del estadstico del contraste es 2 con (r 1) (s 1)
grados de libertad, por lo que decidiremos en funcin del p-valor asociado,
p = P [D > d/H0 ] ,
Hay que hacer una ltima observacin: para que en efecto D 2 con (r 1) (s 1) es necesario que todas
(o casi todas) las frecuencias esperadas eij sean mayores o iguales a 5. Si alguna o algunas de ellas no lo
son, la distribucin 2 podra no ser adecuada y el resultado del test incorrecto. Para que esto no ocurra es
recomendable que el tamao de la muestra sea grande.
Este tipo de tablas se conocen como tablas de contingencia. Contiene los valores que hemos notado
nij y, en los mrgenes inferior y lateral derecho, los valores ni. y n.j .
Vamos a ver si el gnero est relacionado con la ideologa. Si no fuera as, si la ideologa fuera independiente
del gnero, se tendra en una muestra de 300 individuos las frecuencias esperadas seran
Por su parte, 2(21)(31);0.95 = 5.991, de manera que podemos rechazar la hiptesis nula en favor de la
alternativa, armando con un 95 % de conanza que el genero est relacionado con la ideologa. En qu
sentido lo estar?
Si nos centramos slo en los de izquierdas, tenemos que el porcentaje de hombres y mujeres es de
68
120 100 % = 56.667 % y de 52
120 100 % = 43.333 %, respectivamente.
Si nos centramos slo en los de derechas, tenemos que el porcentaje de hombres y mujeres es de
56
128 100 % = 43.75 % y de 72
128 100 % = 56.25 %, respectivamente.
Finalmente, si nos centramos slo en los de centro, tenemos que el porcentaje de hombres y mujeres
es de 32
52 100 = 61.538 % y de 20
52 100 = 38.462 %, respectivamente.
Lo que parece que ocurre es que las mujeres tienen mayor preferencia por la derecha. Sin embargo, esta
armacin no se ha contrastado, sino que se basa simplemente en datos descriptivos1 .
laborales son ms frecuentes. Para estudiar este fenmeno, contabilizan los accidentes laborales que sufren
los trabajadores segn franjas horarias, durante un ao. Los resultados aparecen en la tabla.
Con esa informacin, los responsables de seguridad de la empresa deben decidir si hay franjas horarias donde
los accidentes son ms probables o si, por el contrario, stos ocurren absolutamente al azar.
En primer lugar debemos plantearnos la hiptesis que queremos contrastar. El hecho de que ocurran los
accidentes absolutamente al azar vendra a decir que la probabilidad de ocurrencia es la misma en cada franja
horaria (puesto que todas ellas tienen la misma amplitud). Por ello, si notamos pi a la probabilidad de que
ocurra un accidente en la i-sima franja horaria, nos planteamos como hiptesis nula H0 : p1 = ... = p4 = 1
4
frente a la alternativa de que no todas las probabilidades sean iguales.
Para realizar el contraste podemos considerar un contraste de bondad de ajuste en el que la distribucin de
probabilidad sea una uniforme discreta, que no tiene parmetros.
(47 219 (1/4))2 (52 219 (1/4))2 (57 219 (1/4))2 (63 219 (1/4))2
2 = + + + = 2.571.
219 (1/4) 219 (1/4) 219 (1/4) 219 (1/4)
Por su parte, el p-valor es p = P [2401 > 2.571] = 0.462, por lo que no tenemos evidencias en estos datos
que hagan pensar en que hay franjas horarias ms propicias a los accidentes.
Un poltico debe ser capaz de predecir lo que pasar maana, y la semana, el mes y el ao
prximos. Y tambin debe ser capaz de explicar por qu no acert.
Winston Churchill
Resumen. En este captulo se describe el modelo de regresin lineal simple, que asume que entre dos variables
dadas existe una relacin de tipo lineal contaminada por un error aleatorio. Aprenderemos a estimar dicho
modelo y, a partir de estas estimaciones y bajo determinadas hiptesis, podremos extraer predicciones del
modelo e inferir la fortaleza de dicha relacin lineal.
Palabras clave: regresin lineal simple, variable dependiente, variable independiente, error aleatorio, nube
de puntos, principio de mnimos cuadrados, coeciente de correlacin lineal, coeciente de determinacin
lineal, bondad del ajuste, prediccin, estimacin.
10.1. Introduccin
Uno de los aspectos ms relevantes que aborda la Estadstica se reere al anlisis de las relaciones que se dan
entre dos variables aleatorias. El anlisis de estas relaciones est muy frecuentemente ligado al anlisis de
una variable, llamada variable
dependiente (Y ) , y del efecto que sobre ella tiene otra (u otras) variable(s),
llamada(s) variable(s) independiente(s) (X), y permite responder a dos cuestiones bsicas:
Si, en efecto, esa relacin es signicativa, cmo es? y podemos aprovechar esa relacin para predecir
valores de la variable dependiente a partir de valores observados de la variable independiente? Ms an,
podemos inferir caractersticas sobre esa relacin y con el fenmeno que subyace a ella?
Ejemplo. Un equipo de investigadores que trabajan en seguridad en el trabajo est tratando de analizar
cmo la piel absorbe un cierto componente qumico peligroso. Para ello, coloca diferentes volmenes del
compuesto qumico sobre diferentes segmentos de piel durante distintos intervalos de tiempo, midiendo
al cabo de ese tiempo el porcentaje de volumen absorbido del compuesto. El diseo del experimento se ha
185
Dpto de Estadstica e I.O. Universidad de Jan
realizado para que la interaccin esperable entre el tiempo y el volumen no inuya sobre los resultados.
Los datos aparecen en el Cuadro 10.1
Lo que los investigadores se cuestionan es si la cantidad de compuesto por un lado y el tiempo de
exposicin al que se somete por otro, inuyen en el porcentaje que se absorbe. De ser as, sera interesante
estimar el porcentaje de absorcin de personas que se sometan a una exposicin de una determinada
cantidad, por ejemplo, durante 8 horas.
En una primera aproximacin al problema, podemos observar una representacin grca de los datos en
los diagramas de dispersin o nubes de puntos de la Figura 10.1. Qu armaramos? Parece que s hay
una relacin lineal ms o menos clara (pero no denitiva) entre el tiempo de exposicin y el porcentaje
de absorcin, pero la hay entre el volumen y el porcentaje de absorcin?
Un modelo de regresin lineal simple para una variable, Y (variable dependiente), dada otra variable, X
(variable independiente), es un modelo matemtico que permite obtener una frmula capaz de relacionar
Y con X basada slo en relaciones lineales, del tipo
Y = 0 + 1 X + .
En esta expresin:
Y representa a la variable dependiente, es decir, a aquella variable que deseamos estudiar en relacin
con otras.
X representa a la variable independiente, es decir, aquellas que creemos que puede afectar en alguna
medida a la variable dependiente. La estamos notando en mayscula, indicando que podra ser una
variable aleatoria, pero habitualmente se considera que es una constante que el investigador puede jar
a su antojo en distintos valores.
representa el error aleatorio, es decir, aquella cantidad (aleatoria) que provoca que la relacin entre
la variable dependiente y la variable independiente no sea perfecta, sino que est sujeta a incertidumbre.
Porcentaje.Absorbido
Porcentaje.Absorbido
80
80
70
70
60
60
50
50
5 15 0 2 4
Tiempo Volumen
Hay que tener en cuenta que el valor de ser siempre desconocido hasta que se observen los valores de X e
Y , de manera que el modelo de prediccin ser realmente
Y = 0 + 1 X.
Lo que en primer lugar resultara deseable de un modelo de regresin es que estos errores aleatorios ocurran en
la misma medida por exceso que por defecto, sea cual sea el valor de X , de manera que E [/X=x ] = E [] = 0
y, por tanto,
E [Y /X=x ] = 0 + 1 x + E [/X=x ]
= 0 + 1 x.
Es decir, las medias de los valores de Y para un valor de X dado son una recta.
La Figura 10.2 representa una nube de puntos y la recta de regresin que los ajusta de unos datos genricos.
Podemos ver el valor concreto de = y E [Y /X=x ] para un dato, supuesto que hemos obtenido un modelo
de regresin. En ella se puede ver tambin la interpretacin de los coecientes del modelo:
0 es la ordenada al origen del modelo, es decir, el punto donde la recta intercepta o corta al eje y.
105
100
yi
i
0 + 1xi
95
y
90
85
xi
50 60 70 80 90 100
Nota. Es evidente que la utilidad de un modelo de regresin lineal tiene sentido siempre que la relacin
hipottica entre X e Y sea de tipo lineal, pero qu ocurre si en vez de ser de este tipo es de otro tipo
(exponencial, logartmico, hiperblico...)?
En primer lugar, es absolutamente conveniente dibujar el diagrama de dispersin antes de comenzar a
tratar de obtener un modelo de regresin lineal, ya que si la forma de este diagrama sugiere un perl
distinto al de una recta quiz deberamos plantearnos otro tipo de modelo.
Y, por otra parte, si se observa que el diagrama de dispersin es de otro tipo conocido, puede optarse
por realizar un cambio de variable para considerar un modelo lineal. Existen tcnicas muy sencillas para
esta cuestin, pero no las veremos aqu.
El razonamiento que motiva el mtodo de mnimos cuadrados es el siguiente: si tenemos una muestra de
buscaremos valores estimados de 0 y 1 , que notaremos por 0 y 1 , de manera que en el modelo ajustado,
yx = 0 + 1 x
E [Y /X=x ] = 0 + 1 x,
es decir buscamos
0 , 1 = arg mn SSE .
0 ,1
La solucin de ese problema de mnimo se obtiene por el mecanismo habitual: se deriva SSE respecto de 0
SSxy
y 1 , se iguala a cero y se despejan estos. La solucin es 1 = SSxx y 0 = y 1 x, donde
n
X n
X
SSxy = (xi x) (yi y) = xi yi nxy
i=1 i=1
Xn n
X
2
SSxx = (xi x) = x2i nx2 .
i=1 i=1
En este sentido, se dene como medida de la calidad del ajuste de la recta de regresin el error estandar del
ajuste como
v
uP 2
t i yi 0 + 1 x
r u
SSE
se = =
n2 n2
s
SSyy 1 SSxy
= .
n2
Cuanto mayor sea esta cantidad, peor son las predicciones de la recta de regresin.
Ejemplo. Para los datos sobre el ejemplo de la absorcin del compuesto, vamos a calcular e interpretar
las dos rectas de regresin posibles.
En primer lugar, vamos a considerar la recta de regresin para explicar el porcentaje de absorcin (y)
conocido el volumen de sustancia (x):
luego
SSxy
1 = = 0.97
SSxx
0 = y 1 x = 63.69,
yx = 63.69 + 0.97 x.
La interpretacin de 1 = 0.97 es que el porcentaje de absorcin, Y , aumenta en promedio 0.97 por cada
incremento de 1 unidad de volumen de compuesto. La interpretacin de 0 = 63.69 sera la del valor
promedio de Y cuando x = 0, pero es que en este caso este supuesto no tiene sentido, as que no debe
tenerse en cuenta.
Vamos con la recta de regresin para explicar el porcentaje de absorcin (y ) en funcin del tiempo de
exposicin (x):
SSxy = 1187.96, SSxx = 744
luego
SSxy
1 = = 1.60
SSxx
0 = y 1 x = 46.82,
yx = 46.82 + 1.60 x.
Por cada incremento de una unidad del tiempo de exposicin, el porcentaje de absorcin aumenta en
media 1.60.
Ahora vamos a representar las nubes de puntos de nuevo con sus rectas de regresin ajustadas. De
esa manera podremos comprobar de una forma grca cmo de buenas son las rectas en cuanto a su
capacidad de ajuste de los datos. Los resultados aparecen en la Figura 10.3. Podemos ver que el ajuste
es mucho mejor cuando la variable explicativa es el tiempo de absorcin, mientras que si la variable
explicativa es el volumen, la recta no puede pasar cerca de los datos.
Nota. Hay que hacer una observacin importante que suele conducir a frecuentes errores. La recta de
regresin para la variable dependiente Y , dada la variable independiente X no es la misma que la recta
de regresin de X dada Y . La razn es muy sencilla: para obtener la recta de regresin de Y dado X
debemos minimizar
n
X 2
yi 0 + 1 xi ,
i=1
SSxy
1 =
SSyy
0 = x 1 y,
Es importante que, para terminar este apartado, recordemos que 0 y 1 son slo estimaciones de 0 y 1 ,
estimaciones basadas en los datos que se han obtenido en la muestra.
Una forma de hacernos conscientes de que se trata de estimaciones y no de valores exactos (es imposible
conocer el valor exacto de ningn parmetro poblacional) es proporcionar las estimaciones de los errores
estandar de las estimaciones de 0 y 1 . Se conoce que dichas estimaciones son:
s
s2e
s.e. 1 =
SSxx
s
x2
1
s.e. 0 = s2e +
n SSxx
Ejemplo. En el ejemplo de los datos de absorcin hemos estimado los coecientes de las dos rectas
de regresin del porcentaje de absorcin en funcin del volumen y del tiempo de absorcin. Vamos
a completar ese anlisis con el clculo de los errores estandares de esas estimaciones. Los resultados
aparecen resumidos en la siguiente tabla:
Modelo 0 s.e. 0 1 s.e. 1
% absorcion = 0 + 1 V olumen 63.69 8.80 0.97 2.83
% absorcion = 0 + 1 T iempo 46.82 3.16 1.60 0.21
Obsrvese que los errores estandar en el modelo en funcin del volumen son mayores proporcionalmente
que en el modelo en funcin del tiempo de absorcin.
1. Que las medias de Y para cada valor de x se ajusten ms o menos a una lnea recta, algo fcilmente
comprobable con una nube de puntos. Si el aspecto de esta nube no recuerda a una lnea recta sino a
otro tipo de funcin, lgicamente no haremos regresin lineal.
2. Que los errores tengan media cero, independientemente del valor de x, lo que, por otra parte, no es una
hiptesis sino ms bien un requerimiento lgico al modelo.
Lo que ahora vamos a hacer es aadir algunos supuestos al modelo de manera que cuando stos se cumplan,
las propiedades de los estimadores de los coecientes del modelo sean muy buenas. Esto nos va a permitir
hacer inferencia sobre estos coecientes y sobre las estimaciones que pueden darse de los valores de la variable
dependiente.
Los supuestos que podemos aadir se reeren al error del modelo, la variable .
Supuesto 1. Tal y como ya hemos dicho, E [/X=x ] = E [] = 0, lo que implica que E [Y /X=x ] = 0 + 1 x.
Supuesto 2. La varianza de tambin es constante para cualquier valor de x dado, es decir, V ar (/X=x ) = 2
para todo x.
Supuesto 4. Los errores son independientes unos de otros, es decir, la magnitud de un error no inuye en
absoluto en la magnitud de otros errores.
En resumen, todos los supuestos pueden resumirse diciendo que |X=x N (0, 2 ) y son independientes entre
s.
Estos supuestos son restrictivos, por lo que deben comprobarse cuando se aplica la tcnica. Si el tamao de
la muestra es grande, la hiptesis de normalidad de los residuos estar bastante garantizada por el teorema
central del lmite. En cuanto a la varianza constante respecto a los valores de x, un incumplimiento moderado
no es grave, pero s si las diferencias son evidentes.
Existen tcnicas especcas para evaluar en qu medida se cumplen estas hiptesis. Tambin existen pro-
cedimientos para corregir el incumplimiento de estos supuestos. Estos aspectos sern tratados al nal del
tema.
estaramos equivocados: si la recta de regresin trata de explicar y en funcin de x, cunto vara y conforme
vara x? Dado que la pendiente de esa recta es cero o prcticamente cero, por mucho que cambies x, eso
no afecta al valor de y , es decir, x no inuye nada sobre y! Sin embargo, en la nube de puntos de la
derecha, a pesar de que aparentemente el ajuste es peor, la recta ajustada s tiene pendiente distinta de cero,
luego el hecho de que y vare viene dado en buena parte por el hecho de que x vara, y ello ocurre porque la
pendiente de esa recta es distinta de cero. As pues, no lo olvidemos: decir que dos variables estn relacionadas
linealmente equivale a decir que la pendiente de la recta de regresin que ajusta una en funcin de la otra es
distinta de cero.
Pues bien, dados los supuestos descritos en la seccin anterior, es posible obtener un contraste de este tipo,
tal y como se resumen en el Cuadro 10.2. En ella, si, en efecto, lo que deseamos es contrastar si el efecto de
la variable independiente es o no signicativo para la variable dependiente, el valor de b1 ser cero.
Ejemplo. Para los datos del ejemplo sobre la absorcin, partamos del deseo de comprobar si al volumen
y/o el tiempo de exposicin inuan sobre el porcentaje de absorcin. Las nubes de puntos y el ajuste de
la recta ya nos dieron pistas: daba la impresin de que el tiempo de absorcin s inua en el porcentaje
de absorcin, pero no quedaba tan claro si el volumen lo haca. Es el momento de comprobarlo.
Nos planteamos en primer lugar si el tiempo de exposicin inuye o no sobre el porcentaje de absorcin,
es decir, nos planteamos si en el modelo lineal
Unilateral a Unilateral
Tipo de prueba Bilateral
la izquierda a la derecha
H 0 : 1 = b1 H0 : 1 = b1 H0 : 1 = b1
Hiptesis
H1 : 1 < b1 H1 : 1 6= b1 H1 : 1 > b1
Estadstico SSyy 1 SSxy
t = 21 b1 , s2e = = SSE
de contraste se /SSxx n2 n2
Regin
t < t;n2 |t| > t1/2;n2 t > t1;n2
de rechazo
p-valor P [Tn2 < t] 2P [Tn2 > |t|] P [T > t]
Supuestos Los dados en la Seccin 10.3
1 = 1.6
SSyy 1 SSxy
s2e = = 32.82
n2
t0.975;92 = 2.364624, t0.025;302 = 2.364624
1.6 0
t= p = 7.60,
32.82/744
luego, como caba esperar, podemos armar a la luz de los datos y con un 95 % de conanza que el
efecto del tiempo de exposicin sobre el porcentaje de absorcin es signicativo. El p-valor, de hecho, es
p = 2P [T7 > 7.60] = 0.000126.
Vamos ahora a analizar si el efecto lineal del volumen sobre el porcentaje de absorcin es signicativo.
Es decir, ahora nos planteamos si en el modelo lineal
1 = 0.97
SSyy 1 SSxy
s2e = = 298.77
n2
t0.975;92 = 2.364624, t0.025;302 = 2.364624
0.97 0
t= p = 0.34,
298.77/37.31
luego, como caba esperar, no podemos armar a la luz de los datos y con un 95 % de conanza que el
efecto del volumen sobre el porcentaje de absorcin sea signicativo. El p-valor, de hecho, es p = 2P [T7 >
0.34] = 0.741.
En vista de los resultados, a partir de ahora dejaremos de considerar el efecto del volumen sobre el
porcentaje de absorcin, y slo tendremos en cuenta el efecto del tiempo de exposicin.
x 0 10 20 30 40 50 60 70 80 90 100
y 1 12 20 29 38 48 61 68 79 91 97
Lo ideal, lo deseado, sera que y = x, es decir, que el modelo lineal que explica y en funcin de x tuviera
coecientes 0 = 0 y 1 = 1. Por ahora vamos a centrarnos en el primer paso en la comprobacin de que
el espectrmetro est bien calibrado, que implica contrastar que 1 = 1. Para ello,
por lo tanto,
0.976 1
t= p = 1.639.
1.964/11000
Dado que t1 0.05
2 ;112
= t0.975;9 = 2.262 y |1.639| < 2.262, no hay razones para concluir que 1 6= 1.
As pues, el modelo podra ser
y = 0 + x,
y = x,
es decir, que lo que mida el espectrmetro coincida con la cantidad real de CO en el aire. Como hemos
dicho, eso ocurrira si 0 = 0, lo que equivale a decir que en ausencia de CO, el espectrmetro est a
cero.
Adems del contraste de hiptesis, es trivial proporcionar un intervalo de conanza para la pendiente, ya que
conocemos su estimacin, su error estandar y la distribucin en el muestreo (t-student, como aparece en el
contraste). Concretamente,
h i
P 1 1 t1 2 ;n2 s.e. 1 , 1 + t1 2 ;n2 s.e. 1 = 1 .
Ejemplo. En el ejemplo que acabamos de ver sobre la calibracin del espectrmetro, el intervalo de
conanza para 1 es (0.94, 1.01). Como podemos ver, el valor 1 = 1 es un valor conable del intervalo,
luego raticamos que no podemos armar que el espectrmetro est mal calibrado.
Unilateral a Unilateral
Tipo de prueba Bilateral
la izquierda a la derecha
H 0 : 0 = b0 H0 : 0 = b0 H0 : 0 = b0
Hiptesis
H1 : 0 < b0 H1 : 0 6= b0 H1 : 0 > b0
Estadstico 0 b0 SSyy 1 SSxy SSE
t= , s2e = =
de contraste
r
1 x2
n2 n2
s2e n + SSxx
Regin
t < t;n2 |t| > t1/2;n2 t > t1;n2
de rechazo
p-valor P [Tn2 < t] 2P [Tn2 > |t|] P [T > t]
Supuestos Los dados en la Seccin 10.3
Ejemplo. En el ejemplo anterior, vamos a contrastar si, en efecto, 0 = 0, lo que equivaldr a concluir
que no hay razones para pensar que el espectrmetro est mal calibrado. Para ello,
0 = y 1 x = 0.636
por lo tanto,
0.636 0
t= q = 0.746.
1 502
2.286 11 + 11000
Comoquiera que 0.746 < t0.975;9 = 2.261, tampoco tenemos razones para pensar que 0 = 0 con un 95 %
de conanza, luego, en resumen, no existen razones para pensar que el espectrmetro est mal calibrado.
Ejemplo. Imaginemos que deseamos comprobar experimentalmente que, tal y como predice la ley de
Ohm, la tensin (V ) entre los extremos de una resistencia y la intensidad de corriente (I ) que circula
por ella se relacionan siguiendo la ley
V = R I,
donde R es el valor de la resistencia. Nosotros vamos a realizar la comprobacin con una misma resistencia,
variando los valores de la intensidad, por lo que la ecuacin equivale a
V = 0 + 1 I,
que nuestros aparatos de medida estn bien calibrados, puesto que la ley de Ohm obliga a que 0 = 0.
Vamos all:
SSxx = 5105.90
SSyy = 107.25
SSxy = 739.49
1 = 0.14
0 = 0.25
s2e = 0.022
As pues,
0.25 0
t= q = 3.531.
1 33.142
0.022 11 + 5105.90
Dado que t0.975,9 = 2.262, tenemos que rechazar la hiptesis H0 : 0 = 0, lo que contradice la ley de
Ohm! Lo que este anlisis pone de maniesto es que tenemos algn problema en nuestras mediciones.
Dejemos un poco de lado este ltimo resultado. Si queremos estimar el valor de la resistencia, una
estimacin puntual es, como hemos visto, R = 1 = 0.14, y un intervalo de conanza al 95 % de conanza
(omitimos los detalles de los clculos) resulta ser (0.141, 0.149).
Finalmente, podemos tambin proporcionar un intervalo de conanza para la ordenada en el origen, dado
por h i
P 0 0 t1 2 ;n2 s.e. 0 , 0 + t1 2 ;n2 s.e. 0 = 1 .
Dada una muestra de valores de dos variables (x1 , y1 ) , ..., (xn , yn ), el coeciente de correlacin lineal
muestral r se dene como
SSxy SSxx
r= p =p 1 .
SSxx SSyy SSyy
Un valor positivo de r implica que Y tiende a aumentar cuando X aumenta, y esa tendencia es ms
acusada cuanto ms cercano est r de 1.
Un valor negativo de r implica que Y disminuye cuando X aumenta, y esa tendencia es ms acusada
cuanto ms cercano est r de -1.
Nota. En la Figura 10.5 aparecen algunos de los supuestos que acabamos de enunciar respecto a los
distintos valores de r. Hay que hacer hincapi en que r slo es capaz de descubrir la presencia de relacin
de tipo lineal. Si, como en el ltimo grco a la derecha de esta gura, la relacin entre X e Y no es de
tipo lineal, r no es adecuado como indicador de la fuerza de esa relacin.
Nota. En la Figura 10.6 aparece un valor atpico entre un conjunto de datos con una relacin lineal ms
que evidente. Por culpa de este dato, el coeciente de correlacin lineal ser bajo. Qu debe hacerse en
0
100
20
10000
60 40 20
80
10
60
6000
0
40
10
2000
20
20
100
0
30
0
0 20 60 100 0 20 60 100 0 20 60 100 0 20 60 100
Correlacin lineal positiva fuerte Correlacin lineal negativa fuerte Ausencia de correlacin lineal Correlacin parablica
este caso? En general, no se deben eliminar datos de una muestra, pero podra ocurrir que datos atpicos
correspondan a errores en la toma de las muestras, en el registro de los datos o, incluso, que realmente no
procedan de la misma poblacin que el resto de los datos: en ese caso, eliminarlos podra estar justicado
de cara a analizar de una forma ms precisa la relacin lineal entre los datos.
Nota. Correlacin frente a causalidad. Hay que hacer una advertencia importante acerca de las inter-
pretaciones del coeciente de correlacin lineal. Es muy frecuente que se utilice para justicar relaciones
causa-efecto, y eso es un grave error. r slo indica presencia de relacin entre las variables, pero eso no
permite inferir, por ejemplo, que un incremento de X sea la causa de un incremento o una disminucin
de Y .
Ejemplo. Para los datos del ejemplo sobre la absorcin, calculemos r e interpretmoslo.
En el caso del porcentaje de absorcin en funcin del volumen de compuesto,
36.24
r= = 0.129;
37.30 2126.61
vemos que la relacin es muy pequea; de hecho, comprobamos mediante un contraste de hiptesis sobre
1 que era no signicativa.
En el caso del porcentaje de absorcin en funcin del tiempo de absorcin,
36.24
r= = 0.944.
744 2126.61
Esta relacin s resulta ser muy fuerte y en sentido directo. Por eso al realizar el test sobre 1 , ste s
result ser signicativo.
No podemos olvidar que el coeciente de correlacin lineal muestral, r, mide la correlacin entre los valores
10
LS Line
8
6
Add Point
y
Delete Point
2
0
Move Point
0 2 4 6 8 10
de X y de Y en la muestra. Existe un coeciente de correlacin lineal similar pero que se reere a todos los
posibles valores de la variable. Evidentemente, r es un estimador de este coeciente poblacional.
Inmediatamente surge la cuestin de las inferencias. Podemos y debemos utilizar r para hacer inferencias
sobre . De todas formas, en realidad estas inferencias son equivalentes a las que hacemos sobre 1 , ya que la
relacin entre 1 y provoca que la hiptesis H0 : 1 = 0 sea equivalente a la hiptesis H0 : = 0. Podemos,
por lo tanto, utilizar el contraste resumido en el Cuadro 10.2 para b1 = 0 y teniendo en cuenta que
r n2
t= .
1 r2
Recordemos lo que habamos observado en la Figura 10.4. All tenamos una recta, la de la izquierda, que
aparentemente era buena, mientras que la de la derecha aparentemente era peor. Sin embargo, ya dijimos que
eso era inexacto. En realidad nosotros no deseamos comprobar exactamente si los puntos estn o no en torno
a la recta de regresin, sino en qu medida la recta de regresin explica Y en funcin de X .
Vamos a entrar en detalles. Necesitamos que la recta explique Y en funcin de X porque Y tiene datos que
presentan una cierta variabilidad: cunta variabilidad? Cuando denimos la varianza, esa variabilidad la
medimos como
n
X 2
SSyy = (yi y) ,
i=1
de tal manera que cuanto ms varen los datos de Y mayor ser SSyy . Por otra parte, cuando ajustamos por
la recta de regresin yx = 0 + 1 x, medimos el error que cometemos en el ajuste con
n
X 2
SSE = (yi yx ) .
i=1
Vamos a ponernos en las dos situaciones lmite que pueden darse en cuanto a la precisin de una recta de
regresin:
Si X no tiene ningn tipo de relacin lineal con Y , entonces = 0, en cuyo caso 1 = V arY
V arX
=0y
la recta es simplemente
yi = 0 + 1 xi
= y.
Es decir, si X no tiene ningn tipo de relacin lineal con Y , entonces la mejor prediccin que podemos
dar por el mtodo de mnimos cuadrados es la media. Adems, en ese caso
n
X 2
SSE = (yi yi )
i=1
n
X 2
= (yi y) = SSyy ,
i=1
es decir, SSE es el total de la variacin de los valores de Y . Est claro que esta es la peor de las
situaciones posibles de cara a la precisin.
Si la relacin lineal entre X e Y es total, entonces = 1, en cuyo caso 1 = V arY .
V arX
Adems, si la
La idea de la medida que vamos a utilizar es cuanticar en qu medida estamos ms cerca o ms lejos de
estas dos situaciones. Dado que SSE , que es la medida del error de la recta de regresin, puede ir de 0 (mejor
situacin posible) a SSyy (peor situacin posible), tan slo tenemos que relativizar en una escala cmoda una
medida de este error.
Ntese que la notacin es r al cuadrado, ya que, en efecto, en una regresin lineal simple coincide con el
coeciente de correlacin lineal al cuadrado.
Por lo tanto, la interpretacin de r2 es la medida en que X contribuye a la explicacin de Y en una escala de
0 a 1, donde el 0 indica que el error es el total de la variacin de los valores de Y y el 1 es la precisin total,
el error 0. La medida suele darse en porcentaje. Dicho de otra forma:
yx = 0 + 1 x
Ambas cantidades estn sujetas a incertidumbre, que ser tanto mayor cuanto ms variabilidad tenga Y, y/o
peor sea el ajuste mediante la recta de regresin.
Lo que vamos a ver en esta seccin para concluir el tema es cmo establecer regiones de conanza para estas
predicciones de los valores de Y y para las estimaciones de los valores medios de Y dados valores de X . Estos
resultados requieren que se veriquen los supuestos adicionales sobre los errores dados en la seccin 10.3.
Podemos garantizar con un (1 ) 100 % de conanza que cuando X = x, el valor medio de Y se encuentra
en el intervalo
s s
2 2
yx t1/2;n2 se 1 (x x) 1 (x x)
+ , yx + t1/2;n2 se + ,
n SSxx n SSxx
Asimismo, podemos garantizar con un (1 )100 % de conanza que cuando X = x, el valor Y se encuentra
en el intervalo
s s
2 2
yx t1/2;n2 se 1 (x x) 1 (x x)
1+ + , yx + t1/2;n2 se 1+ + ,
n SSxx n SSxx
Nota. No debemos olvidar que los modelos de regresin que podemos estimar lo son a partir de los datos
de una muestra de valores de X e Y . A partir de estos modelos podemos obtener, como acabamos de
recordar, predicciones y estimaciones para valores dados de X. Dado que el modelo se basa precisamente
en esos valores de la muestra, no es conveniente hacer predicciones y estimaciones para valores de X
que se encuentren fuera del rango de valores de X en la muestra.
Ejemplo. En la Figura 10.7 aparece la recta de regresin para los datos del ejemplo sobre la absorcin
del compuesto junto con lneas que contienen los intervalos de conanza al 95 % para las predicciones y
las estimaciones asociadas a los distintos valores de X .
110
105
100
Resistencia
observed
95 fit
conf int
pred int
90
85
80
x
50 60 70 80 90 100
Velocidad
Figura 10.7: Recta de regresin con intervalos de conanza al 95 % para las predicciones (franjas ms exte-
riores) y para las estimaciones (franjas interiores) en el ejemplo de la absorcin.
Obsrvese que la amplitud de los intervalos se hace mayor en los valores ms extremos de X . Es decir,
los errores en las estimaciones y en las predicciones son mayores en estos valores ms extremos. Esto
debe ser un motivo a aadir al comentario anterior para no hacer estimaciones ni predicciones fuera del
rango de valores de X en la muestra.
Por otra parte, nos plantebamos al comienzo de captulo que sera de inters estimar el porcentaje de
absorcin que tendr alguien que se someta a un tiempo de exposicin al compuesto de 8 horas. Eso es
una prediccin, as que como estimacin puntual daremos
Por el contrario, imaginemos que los trabajadores de una empresa van a estar sometidos todos ellos a
un tiempo de exposicin de 8 horas. En ese caso, no tiene sentido que nos planteemos una prediccin
para saber cul va a ser su porcentaje de absorcin, ya que cada uno de ellos tendr un porcentaje
distinto; lo que s tiene sentido es que nos planteemos cul va a ser el porcentaje medio de absorcin de
los trabajadores sometidos a 8 horas de exposicin al compuesto. Esto es un ejemplo de la estimacin
de un valor promedio. La estimacin puntual es la misma que en la prediccin, es decir, 59.59, pero el
intervalo de conanza al 95 % es
s s
2
yx t1/2;n2 se 1 (x x)2
= 59.59 2.36 5.73 1 (8 12)
+ + = (54.66, 64.52) .
n SSxx 9 744
i = yi yi
1. Si la media de los residuos es cero, la nube de puntos de la grca debe hacernos pensar en una recta de
regresin horizontal situada en el cero, indicando que sea cual sea el valor yi , la media de los residuos
es cero.
2. Si los errores son independientes, no debe observarse ningn patrn en la grca, es decir, ningn efecto
en ella que haga pensar en algn tipo de relacin entre yi y i .
3. Si los errores tienen una varianza constante (se habla entonces de homocedasticidad), la dispersin
vertical de los puntos de la grca no debe variar segn vare el eje X. En caso contrario, se habla de
heterocedasticidad.
Una ltima observacin: si se dan todas las condiciones que acabamos de mencionar sobre la grca de
residuos frente a valores ajustados, entonces es probable, pero no se tiene la seguridad, de que los supuestos
del modelo sean ciertos.
Residuals vs Fitted
5
5
4
0
Residuals
5
15 10
50 55 60 65 70 75 80 85
Fitted values
lm(Porcentaje.Absorbido ~ Tiempo)
Figura 10.8: Grca de valores ajustados vs residuos en el ejemplo de la absorcin
Ejemplo. Por ltima vez vamos a considerar el ejemplo de la absorcin. En la Figura 10.8 aparece el
grco de residuos vs valores ajustados y podemos ver que a primer vista parece que se dan las condiciones
requeridas:
1. Los puntos se sitan en torno al eje Y = 0, indicando que la media de los residuos parece ser cero.
3. No se observa mayor variabilidad en algunas partes del grco. Hay que tener en cuenta que son
muy pocos datos para sacar conclusiones.
Procesos aleatorios
209
Captulo 11
Procesos aleatorios
The best material model of a cat is another, or preferably the same, cat.
Resumen. Los procesos aleatorios suponen el ltimo paso en la utilizacin de modelos matemticos para
describir fenmenos reales no determinsticos: concretamente, se trata de fenmenos aleatorios que dependen
del tiempo. Se describen principalmente en trminos de sus medias y sus covarianzas. En este captulo se
incluyen adems algunos de los ejemplos ms comunes de tipos de procesos y su comportamiento cuando se
transmiten a travs de sistemas lineales invariantes en el tiempo.
Palabras clave. Procesos aleatorios, funcin media, funcin de autocorrelacin, funcin de autocovarian-
za, procesos estacionarios, procesos gaussianos, proceso de Poisson, sistemas lineales, densidad espectral de
potencia.
11.1. Introduccin
En muchos experimentos de tipo aleatorio el resultado es una funcin del tiempo (o del espacio).
Por ejemplo,
en sistemas de reconocimiento de voz las decisiones se toman sobre la base de una onda que reproduce
las caractersticas de la voz del interlocutor, pero la forma en que el mismo interlocutor dice una misma
palabra sufre ligeras variaciones cada vez que lo hace;
en un sistema de comunicacin tpico, la seal de entrada es una onda que evoluciona con el tiempo
y que se introduce en un canal donde es contaminada por un ruido aleatorio, de tal manera que es
imposible separar cul es el mensaje original con absoluta certeza.
...
211
Dpto de Estadstica e I.O. Universidad de Jan
Desde un punto de vista matemtico, todos estos ejemplos tienen en comn que el fenmeno puede ser visto
como unas funciones que dependen del tiempo, pero que son desconocidas a priori, porque dependen del
azar. En este contexto vamos a denir el concepto de proceso aleatorio. Nuestro objetivo, como en captulos
anteriores dedicados a variables y vectores aleatorios, es describir desde un punto de vista estadstico el
fenmeno, proporcionando medidas de posicin, medidas sobre la variabilidad, etc.
11.1.1. Denicin
Consideremos un experimento aleatorio sobre un espacio muestral . Supongamos que para cada resultado
posible, A, tenemos una observacin del fenmeno dada por una funcin real de variable real, x (t, A), con
t I R. Habitualmente, t representa al tiempo, pero tambin puede referirse a otras magnitudes fsicas.
Para cada A vamos a denominar a x (t, A) realizacin o funcin muestral.
Obsrvese que para cada t0 I , X (t, ) es una variable aleatoria. Pues bien, al conjunto
{X (t, A) : t I, A }
que a cada suceso posible le asigna un nmero real. Por su parte, un vector aleatorio es bsicamente una
funcin
X : RN
que a cada suceso posible le asigna un vector real. Finalmente, un proceso aleatorio es bsicamente una
funcin
X : {funciones reales de vble real}
{X (t, A) : t I, A } ,
En el caso de procesos en tiempo discreto se suele escribir Xn o X [n] rerindonos a la notacin ms general
X (n). Por otra parte, el conjunto I normalmente es el conjunto de los enteros o de los enteros positivos,
aunque tambin puede ser un subconjunto de stos.
En algunos libros los procesos en tiempo discreto tambin son denominados secuencias aleatorias.
{X (t, A) : t I, A } ,
En el caso de procesos en tiempo continuo, I es normalmente el conjunto de los reales positivos o un subcon-
junto de stos.
Si nos damos cuenta, esta primera clasicacin de los p.a. la hemos hecho en funcin del carcter discreto
o continuo del tiempo, es decir, del conjunto I . Existe otra clasicacin posible en funcin de cmo son las
variables aleatorias del proceso, discretas o continuas. Sin embargo, ambos tipos de procesos, con variables
discretas o con variables continuas, pueden estudiarse casi siempre de forma conjunta. Por ello slo distin-
guiremos p.a. con variables discretas y p.a. con variables continuas si es necesario. En este sentido, cuando
nos reramos a la funcin masa (si el p.a. es de variables discretas) o a la funcin de densidad (si el p.a. es
de variables continuas), hablaremos en general de funcin de densidad.
Ejemplo. Sea una variable aleatoria uniforme en (1, 1). Denimos el proceso en tiempo continuo
X (t, ) como
X (t, ) = cos (2t) .
Sus funciones muestrales son ondas sinusoidales de amplitud aleatoria en (1, 1) (Figura 11.2).
Ejemplo. Sea una variable aleatoria uniforme en (, ). Denimos el proceso en tiempo continuo
X (t, ) como
X (t, ) = cos (2t + ) .
Sus funciones muestrales son versiones desplazadas aleatoriamente de cos (2t) (Figura 11.3).
En general, para especicar cmo es un p.a. de forma precisa es necesario caracterizar la distribucin de
probabilidad de cualquier subconjunto de variables del proceso. Es decir, si X (t) es un p.a., es necesario
conocer cul es la distribucin de cualquier vector del tipo
Sin embargo, no siempre es fcil conocer todas las posibles distribuciones de todos los posibles vectores de
variables del proceso. Por ello, para tener una descripcin ms sencilla aunque puede que incompleta del
proceso, se acude a las medias, a las varianzas y a las covarianzas de sus variables.
Sea un p.a. X (t). Se dene la funcin media o simplemente la media de X (t) como
X (t) = x (t) = E [X (t)] = xfX(t) (x) dx,
para cada t I.
Ntese que, como su nombre indica, se trata de una funcin determinstica. No tiene ninguna componente
aleatoria. Ntese tambin que aunque se est escribiendo el smbolo integral, podramos estar rerindonos
a una variable discreta, en cuyo caso se tratara de una suma.
Ntese, de cara al clculo, que la diferencia entre ambas funciones tan slo es el producto de las medias1 .
De hecho, si el proceso est centrado en media, es decir, si su media es constantemente cero, ambas
funciones coinciden.
Por otra parte, la varianza de las variables del proceso puede obtenerse como
V ar (X (t)) = CX (t, t) .
La interpretacin de la funcin de autocovarianza CX (t, s) es la de una funcin que proporciona una medida
de la interdependencia lineal entre dos v.a. del proceso, X (t) y X (s), que distan = s t unidades de
tiempo. De hecho, ya sabemos que podramos analizar esta relacin mediante el coeciente de correlacin
lineal
CX (t, s)
X (t, s) = p .
CX (t, t) CX (s, s)
Aparentemente es esperable que tanto ms rpidamente cambie el proceso, ms decrezca la autocorrelacin
conforme aumenta , aunque por ejemplo, los procesos peridicos no cumplen esa propiedad.
En el campo de la teora de la seal aletatoria, a partir de la funcin de autocorrelacin se puede distinguir
una seal cuyos valores cambian muy rpidamente frente a una seal con variaciones ms suaves. En el primer
caso, la funcin de autocorrelacin y de autocovarianza en instantes t y t + decrecern lentamente con ,
mientras que en el segundo, ese descenso ser mucho ms rpido. En otras palabras, cuando la autocorrelacin
(o la autocovarianza) es alta, entre dos instantes cercanos del proceso tendremos valorer similares, pero cuando
es baja, podremos tener fuertes diferencias entre valores cercanos en el tiempo.
La gran importancia de estas funciones asociadas a un proceso, media y autocovarianza (o autocorrelacin),
es por tanto que aportan toda la informacin acerca de la relacin lineal que existe entre dos v.a. cualesquiera
del proceso. Como hemos dicho, en la prctica, resulta extremadamente complicado conocer completamente
la distribucin de un proceso y, cuando esto ocurre, no siempre es sencillo utilizar las tcnicas del clculo
de probabilidades para el tratamiento de estos procesos. Sin embargo, tan slo con la informacin dada por
la funcin media y la funcin de autocorrelacin pueden ofrecerse resultados muy relevantes acerca de los
procesos, tal y como hemos visto en el caso de variables y vectores aleatorios.
Ejemplo. La seal recibida por un receptor AM de radio es una seal sinusoidal con fase aleatoria, dada
por X (t) = A cos (2fc t + ) , donde A y fc son constantes y es una v.a. uniforme en (, ) .
1 Esta frmula es la misma que cuando veamos la covarianza entre dos variables, calculable como la media del producto menos
el producto de las medias.
En ese caso,
1 A =
E [X (t)] = A cos (2fc t + ) d = [sin (2fc t + )]=
2 2
A
= (sin (2fc t) cos () + cos (2fc t) sin () sin (2fc t) cos () cos (2fc t) sin ())
2
A
= [0 + 0] = 0.
2
A2 A2
= E [cos (4fc t + 2fc + 2)] + E [cos (2fc )]
2 2
A2 1 A2
= cos (4fc t + 2fc + 2) d + cos (2fc )
2 2 2
A2 A2 A2
= 0+ cos (2fc ) = cos (2fc ) .
2 2 2
Por tanto,
A2
CX (t, t + ) = RX (t, t + ) mX (t) mX (t + ) = cos (2fc ) .
2
Sea un p.a. X (t). Si para cada n instantes de tiempo, t1 , ..., tn , las v.a. del proceso en esos instantes son
independientes, es decir,
4
0 1 2 3 4 5 6 7 8 9 10
Figura 11.4: Funcin muestral de un proceso independiente formado por v.a gaussianas de media cero y
varianza uno.
Sea un p.a. X (t). Se dice que tiene incrementos independientes si cualquier conjunto de N v.a. del proceso,
X (t1 ) , X (t2 ) , ..., X (tN ), con t1 < t2 < ... < tN son tales que los incrementos
Un proceso X (t) se dice markoviano o de Markov si para cualesquiera t1 < ... < tn < tn+1 instantes
consecutivos de tiempo se verica
fX(tn+1 )|X(t1 )=x1 ,...,X(tn )=xn (xn+1 ) = fX(tn+1 )|X(tn )=xn (xn+1 ) .
Esta denicin se suele enunciar coloquialmente diciendo que un proceso de Markov es aquel cuyo futuro no
Es importante destacar que la primera de las condiciones es irrelevante, ya que siempre se puede centrar en
media un proceso para que sta sea cero, constante. Es decir, en la prctica es indiferente estudiar un proceso
X (t) con funcin media X (t) que estudiar el proceso Y (t) = X (t) X (t), con media cero.
La propiedad ms exigente y realmente importante es la segunda. Viene a decir que la relacin entre variables
aleatorias del proceso slo depende de la distancia en el tiempo que las separa.
Nota. Vamos a hacer una puntualizacin muy importante respecto a la notacin que emplearemos en
adelante. Acabamos de ver que si un proceso es dbilmente estacionario, sus funciones de autocovarianza
y de autocorrelacin, C (s, t) y R (s, t) no dependen en realidad de s y de t, sino tan slo de t s. Por
eso introducimos la notacin
C (t, s) C (s t)
R (t, s) = R (s t) .
Por lo tanto, qu queremos decir si escribimos directamente C ( ) o R ( )? Que tenemos un p.a. dbil-
mente estacionario y que hablamos de
C ( ) = C (t, t + )
R ( ) = R (t, t + ) .
Por otra parte, la peculiaridad que dene a los procesos dbilmente estacionarios le conere a su funcin
de autocorrelacin y autocovarianza dos propiedades interesantes: sea X (t) un proceso estacionario (dbil).
Entonces, si notamos RX ( ) = E [X (t) X (t + )] para todo t, su funcin de autocorrelacin y por CX ( ) a
su funcin de autocovarianza:
Ejemplo. En el ejemplo del oscilador vimos que la seal recibida por un receptor AM de radio es una
seal sinusoidal con fase aleatoria, dada por X (t) = A cos (2fc t + ) , donde A y fc son constantes y
es una v.a. uniforme en (, ) tiene por funcin media
E [X (t)] = 0
A2
RX (t, t + ) = cos (2fc ) .
2
C (m, n) = mn (m, n) p (1 p) ,
Ejemplo. Vamos a considerar un proceso en tiempo discreto e independiente, Xn , con media cero y
varianza constante e igual a 2 . Vamos a considerar tambin otro proceso que en cada instante de
tiempo considera la media de X en ese instante y el anterior, es decir,
Xn + Xn1
Yn = .
2
En primer lugar, dado que E [Xn ] = 0 para todo n, lo mismo ocurre con Yn , es decir,
Xn + Xn1
E [Yn ] = E = 0.
2
Podemos decir, por tanto, que el proceso Yn tambin es dbilmente estacionario, porque su media es
constante (cero) y CY (n, n + m) no depende de n sino tan slo de m.
Hasta ahora quiz no lo habamos pensado, pero ms all de los tpicos ejemplos, cmo podramos tratar de
calcular o estimar al menos estas cantidades? Si aplicamos lo que hemos aprendido hasta ahora, estimaramos,
por ejemplo, la media con la media muestral, pero para ello necesitaramos una muestra muy grande de
funciones muestrales del proceso, y eso no siempre ocurre. De hecho, no es nada rara la situacin en la que,
en realidad, slo es posible observar una nica funcin muestral del proceso.
Ahora bien, dada una nica funcin muestral de un proceso, x (t), en esa funcin hay muchos datos, tantos
como instantes de tiempo t hayamos sido capaces de observar. No podra ocurrir que utilizramos todos esos
datos que hay en x (t)para estimar las medias y las autocorrelaciones? Por ejemplo, si tenemos observada la
seal x (t) en un montn de valores t1 , ...tn , qu tendr que ver
con la media del proceso mX ? De hecho, si n es muy grande y corresponde a un intervalo de observacin
[T, T ], tendramos que
T
x (t1 ) + ... + x (tn ) 1
' x (t) dt.
n 2T T
Ahora no es una integral sobre los valores de x (integral estadstica ) sino sobre el tiempo.
En el caso de la autocorrelacin pasara igual, tendramos que podramos observar un montn de pares de
valores de la seal en los instantes t1 , ..., tn y t1 + , ..., tn + en el intervalo [T, T ] y con ellos podramos
estimar T
1 x (t1 ) x (t1 + ) + ... + x (tn ) x (tn + )
x (t) x (t + ) dt ' .
2T T n
Lo que no sabemos, en general, es si esa integral tiene algo que ver con RX ( ), que es una integral estadstica.
Pues bien, se dice que un proceso estacionario es ergdico cuando las funciones que entraan valores espe-
rados a lo largo de las realizaciones (integrales o promedios estadsticos ) pueden obtenerse tambin a partir
de una sola funcin muestral x (t). Es decir, que una sola realizacin es representativa de todo el proceso.
Ms concretamente, un proceso ser ergdico en media y en autocorrelacin si
T
1
limT x (t) dt = mX
2T T
y
T
1
limT x (t) x (t + ) dt = RX ( ) .
2T T
Un ruido blanco es un proceso N (t) centrado, dbilmente estacionario e incorrelado con varianza 2 .
N0
Por
tanto, su funcin de autocovarianza (y autocorrelacin) ser
N0
2 si = 0
CN (t, t + ) = .
0 en otro caso
N0
CN ( ) = ( ) .
2
La justicacin de que este sea un modelo habitual para los ruidos, considerando que los valores del ruido
estn incorrelados unos con otros, es que suelen ser debidos a fenmenos completamente aleatorios y caticos,
por lo que no es esperable que exista relacin entre valores del ruido, ni siquiera cuando stos son muy cercanos
en el tiempo.
Un p.a. X (t) se dice proceso gaussiano si cualquier coleccin de variables del proceso tiene distribucin
conjuntamente gaussiana. Es decir, si cualquier coleccin X (t1 ) , ..., X (tn ) tiene funcin de densidad conjunta
1 1 0 1
fX(t1 ),...,X(tn ) (x1 , ..., xn ) = p n exp (x ) C (x ) ,
(2) det (C) 2
donde
0
x = (x1 , ..., xn ) ,
0
= (E [X (t1 )] , ..., E [X (tn )]) ,
C = (Ci,j )i,j=1,..,n ,
Cij = Cov [X (ti ) , X (tj )] .
Ntese que un proceso gaussiano est completamente descrito una vez que se conocen su funcin media y su
autocovarianza o su autocorrelacin.
Existen dos razones fundamentales por las que, como hemos comentado, los procesos gaussianos son la familia
de procesos ms relevante:
Por una parte, las propiedades analticas que verican los hacen fcilmente manejables, como veremos
a continuacin.
Por otra parte, estos procesos han demostrado ser un excelente modelo matemtico para gran nmero
de experimentos o fenmenos reales (resultado amparado en el Teorema Central del Lmite).
Ejemplo. Es muy habitual considerar que los ruidos blancos son gaussianos. En ese caso, si consideramos
ruidos blancos gaussianos, sus variables no slo son incorreladas, sino que tambin son independientes.
Ejemplo. Sea un proceso gaussiano X (t) dbilmente estacionario con E [X (t)] = 4 y autocorrelacin
RX ( ) = 25e3| | + 16. Obsrvese que la autocorrelacin (y la autocovarianza) decrece rpidamente con
el paso del tiempo.
Si deseamos caracterizar la distribucin de probabilidad de tres v.a. del proceso, observadas en los
instantes t0 , t1 = t0 + 1
2 y t2 = t1 + 1
2 = t0 + 1, necesitamos las medias, E [X (ti )] = 4 y la matriz de
covarianzas, dada a partir de CX ( ) = 25e3| | .
25 25e3/2 25e6/2
CX(t0 ),X(t1 ),X(t2 ) = 25e3/2 25 25e3/2 .
25e6/2 25e3/2 25
CX (t1 , t2 ) CX (t2 , t3 )
CX (t1 , t3 ) = ,
CX (t2 , t2 )
Algunos de los ejemplos ms comunes en el campo de las Telecomunicaciones son el proceso que cuenta el
nmero de llamadas recibidas en una centralita telefnica o el que cuenta el nmero de visitas a una pgina
WEB. En otros mbitos, como la Fsica, estos procesos pueden servir, por ejemplo, para contabilizar el
nmero de partculas emitidas por un cuerpo.
donde T [n] es un proceso en tiempo discreto que representa el momento de la nsima llegada que cuenta
el proceso y
0 si t < t
0
u (t t0 ) =
1 si t t
0
es la funcin umbral.
Alternativamente, puede decirse que el proceso de Poisson es aqul en el que los tiempos entre
llegadas,
[n] = T [n] T [n 1] ,
Sea N (t) un proceso de Poisson de parmetro . Entonces, para todo t se tiene que N (t) P (t).
Sea N (t) un proceso de Poisson de parmetro . Entonces, el proceso tiene incrementos independientes
y para cualesquiera t1 < t2 , el incremento N (t2 )N (t1 ) sigue una distribucin de Poisson de parmetro
(t2 t1 ).
CN (t1 , t2 ) = mn (t1 , t2 ) .
Sea N (t) un proceso de Poisson de parmetro . Entonces, para cualesquiera t1 < ... < tk ,
Sean N1 (t) p.a. de Poisson de parmetro 1 , N2 (t) p.a. de Poisson de parmetro 2 , ambos indepen-
dientes. Entonces, N1 (t) + N2 (t) es un p.a. de Poisson de parmetro 1 + 2 . Esta propiedad se conoce
como propiedad aditiva.
Sea N (t) un p.a. de Poisson de parmetro . Supongamos que de todos los eventos que cuenta el
proceso, slo consideramos una parte de ellos; concretamente los que presentan una caracterstica que
tiene probabilidad p entre todos los eventos. En ese caso, si notamos por Np (t) al proceso que cuenta
los eventos con la caracterstica dada, dicho proceso es de Poisson de parmetro p. Esta propiedad
se conoce como propiedad de descomposicin.
Ejemplo. Es frecuente considerar que el proceso que cuenta el nmero de partculas emitidas por un
material radiactivo es un proceso de Poisson. Vamos a suponer por tanto, que estamos observando el
comportamiento de un determinado material del que se conoce que emite a razn de partculas por
segundo.
Supongamos que se observa el proceso que cuenta el nmero de partculas emitidas desde un instante
t hasta el instante t + T0 . Si en ese intervalo de tiempo se supera un umbral de N0 partculas, debera
sonar una seal de alarma. En ese caso, la probabilidad de que la alarma suene es
k N
0 k
X (T0 ) X (T0 )
P [N (t + T0 ) N (t) > N0 ] = eT0 =1 eT0 ,
k! k!
k=N0 +1 k=0
Ejemplo. El nmero de visitas a la pgina WEB de una empresa que desea vender sus productos a
travs de INTERNET es adecuadamente descrito mediante un proceso de Poisson. Sabiendo que durante
una hora se reciben un promedio de 5 visitas,
apenas un 8 % de probabilidad.
3. La empresa absorbe otra empresa del sector y opta por establecer un enlace directamente desde la
pgina de su lial a la propia, garantizndose que todos los clientes de la lial visitan su pgina.
Si el promedio de clientes que visitaban la pgina de la lial era de 2 clientes a la hora, cul es la
probabilidad de que tras la fusin no se reciba ninguna visita en 10 minutos?
Al hacerse con los clientes de la otra empresa (notemos por M (t) al proceso de Poisson que contaba
sus visitas, de parmetro = 2 visitas/hora), lo que ha ocurrido es que ahora el nmero de visitas
a la WEB de la empresa es la suma de ambos procesos: T (t) = N (t) + M (t) .
Suponiendo que los procesos de Poisson que contaban las visitas a ambas empresas fueran inde-
pendientes, se tiene que T (t), en virtud de la propiedad aditiva del proceso de Poisson, es tambin
un proceso de Poisson, de parmetro = 5 + 2 = 7 visitas/hora. Por tanto,
1 0
7 16 7 6
1
P T =0 =e = 0.3114,
6 0!
[DeVore, J. L. (2004)] DeVore, J. L. (2004). Probabilidad y estadstica para ingeniera y ciencias (6 edicin).
Thomson.
[Johnson, R. A. (1997)] Johnson, R. A. (1997). Probabilidad y estadstica para Ingenieros (5 edicin). Pren-
tice Hall.
[Leon-Garcia, A.] Leon-Garcia, A. (1994). Probability and Random Processes for Electrical Engineering (2nd
edition). Addison-Wesley.
[Lipschutz, S. & Schiller, J. (2000)] Lipschutz, S. & Schiller, J. (2000). Introduccin a la Probabilidad y la
Estadstica. McGraw-Hill.
[Mendenhal, W & Sincich, T. (1997)] Mendenhal, W & Sincich, T. (1997). Probabilidad y Estadstica para
Ingeniera y Ciencias (4 edicin). Prentice Hall.
[Spiegel et al. (2010)] Spiegel, M. R., Schiller, J. y Srinivasan, R. A. (2010). Probabilidad y estadstica (3
edicin), serie Schaum. McGraw-Hill.
[Walpole, R. E et al (1998)] Walpole, R. E., Myers, R. H. & Myers, S. L. (1998). Probabilidad y Estadstica
para Ingenieros (6 edicin). Prentice Hall.
229
ndice alfabtico
230
Apuntes de Estadstica para Ingenieros
Matriz de correlaciones, 118 Variable aleatoria, 61, 62, 65, 87, 127129, 138, 139,
Matriz de varianzas-covarianzas, 118 142, 150, 189
Media, 25, 64, 135, 156 Variable aleatoria continua, 73, 76, 78
Media muestral, 25, 26, 2831, 34, 64, 81, 87, 128, Variable aleatoria discreta, 6264
129, 135, 144146, 150, 156, 169, 217 Varianza muestral, 28, 29, 64, 81, 129, 135, 136, 144,
Media poblacional, 34, 63, 64, 78, 80, 81, 90, 91, 129, 156, 162, 167, 169
135, 144147, 150, 156, 192, 199, 202 Varianza poblacional, 63, 64, 78, 80, 81, 129, 134136,
Mediana, 26, 28, 31, 35 138, 144148, 156, 167, 170, 193, 202, 212
Moda, 26, 31 Vector aleatorio, 98
muestra, 15 Vector de medias, 118
Muestra aleatoria simple, 20, 29, 33, 36, 37, 63, 65,
74, 183, 196, 197
Ortogonalidad, 112
Tabla de frecuencias, 21
Teorema de Bayes, 5355
Teorema de la probabilidad total, 5355
Test chi2 de bondad de ajuste, 176, 178
Test chi2 de independencia, 181
Test de Kolmogorov-Smirno, 179, 191, 192, 196, 198
202
Valores z , 34, 90