Está en la página 1de 55

6.

Principales leyes de distribucin de


variables aleatorias
6.2 Introduccin
Como complemento al captulo anterior en el que definimos todos los conceptos
relativos a variables aleatorias, describimos en ste las principales leyes de probabilidad
que encontramos en las aplicaciones del clculo de probabilidades. Atendiendo a la
clasificacin de las v.a. en discretas y continuas describiremos las principales leyes de
probabilidad de cada una de ellas, las cuales constituirn el soporte subyacente de la
inferencia estadstica y a las que ser necesario hacer referencia en el estudio de dicho
bloque. Iniciamos este captulo con el estudio de las distribuciones para v.a. discretas.

6.4 Distribuciones discretas


6.4.2 Distribucin de Bernoulli
Consiste en realizar un experimento aleatorio una sla vez y observar si cierto suceso
ocurre o no, siendo p la probabilidad de que esto sea as (xito) y q=1-p el que no lo sea
(fracaso). En realidad no se trata ms que de una variable dicotmica, es decir que
nicamente puede tomar dos modalidades, es por ello que el hecho de llamar xito o
fracaso a los posibles resultados de las pruebas obedece ms una tradicin literaria o
histrica, en el estudio de las v.a., que a la situacin real que pueda derivarse del
resultado. Podramos por tanto definir este experimento mediante una v.a. discreta Xque
toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se denota

Un ejemplo tpico de este tipo de variables aleatorias consiste en lanzar una moneda al
aire y considerar la v.a.

Para una v.a. de Bernouilli, tenemos que su funcin de probabilidad es:

y su funcin de distribucin:

Su funcin caracterstica es:

Los principales momentos de la X los podemos calcular directamente

o bien usando la funcin caracterstica y la proposicin de la pgina

6.4.2.1 Observacin
En este caso tan simple no se aprecia la ventaja de usar la funcin caracterstica en el
clculo de momentos, pero en las prximas leyes de probabilidad que son ms
complicadas, esta ventaja se har manifiesta.

6.4.4 Distribucin binomial


Se dice que una v.a. X sigue una ley binomial de parmetros n y p,
la suma de n v.a. independientes de Bernouilli con el mismo parmetro, p:

, si es

Esta definicin puede interpretarse en el siguiente sentido: Supongamos que realizamos


n pruebas de Bernouilli, Xi, donde en todas ellas, la probabilidad de xito es la misma
(p), y queremos calcular el nmero de xitos, X, obtenidos el el total de las n pruebas.
Su ley de probabilidad es6.1 En la Figura 6.1 se representa la funcin de probabilidad de
una variable binomial.

Figura: Funcin de probabilidad de una variable binomial


cunado n es pequeo.

Figura: Funcin de probabilidad de una variable binomial


cuando n es grande.

Por tanto, su funcin de distribucin es

El modo ms simple de calcular la funcin caracterstica nos lo da el teorema de la


pgina , que afirma que la funcin caracterstica de la suma de variables
independientes es el producto de las funciones caractersticas de estas:

Los principales momentos de X los calculamos ms fcilmente a partir de


pgina 5) que de su propia definicin:

6.4.4.1 Ejemplo

(prop.

Un mdico aplica un test a 10 alumnos de un colegio para detectar una enfermedad cuya
incidencia sobre una poblacin de nios es del

. La sensibilidad del test es del

y la especificidad del
. Cual es la probabilidad de que exactamente a cuatro
personas le de un resultado positivo? Si en la muestra hay cuatro personas a las que el
test le da positivo, cul es la probabilidad de que entre estas, exactamente dos estn
sanas? Calcular la probabilidad de que el test suministre un resultado incorrecto para
dos personas. Calcular la probabilidad de que el resultado sea correcto para ms de 7
personas.
Solucin:
Los datos de que disponemos son:

donde E, T+, y T- tienen el sentido que es obvio. Si queremos saber a cuantas personas el
test le dar un resultado positivo, tendremos que calcular
, para lo que podemos
usar el teorema de la probabilidad total (estar enfermo y no estarlo forman una
coleccin exhaustiva y excluyente de sucesos):

Sea X1 la v.a. que contabiliza el nmero de resultados positivos. Es claro que llamando
, se tiene que X sigue una distribucin binomial

Por ello la probabilidad de que a cuatro personas le de el resultado del test positivo es:

Si queremos calcular a cuantas personas les dar el test un resultado positivo aunque en
realidad estn sanas, hemos de calcular previamente
predictivo de falsos positivos:

, o sea, el ndice

Es importante observar este resultado. Antes de hacer los clculos no era previsible que
si a una persona el test le da positivo, en realidad tiene una probabilidad
aproximadamente del
de estar sana. Sea X2 la variable aleatoria que contabiliza al
nmero de personas al que el test le da positivo, pero que estn sanas en realidad.
Entonces

Por ltimo vamos a calcular la probabilidad p3 de que el test de un resultado errneo,


que es:

La variable aleatoria que contabiliza el nmero de resultados errneos del test es

Como la probabilidad de que el test sea correcto para ms de siete personas, es la de que
sea incorrecto para menos de 3, se tiene

6.4.6 Distribucin geomtrica ( o de fracasos)


Consideramos una sucesin de v.a. independientes de Bernouilli,

Una v.a. X sigue posee una distribucin geomtrica,


, si esta es la suma
del nmero de fracasos obtenidos hasta la aparicin del primer xito en la sucesin
. Por ejemplo

De este modo tenemos que la ley de probabilidad de X es

6.4.6.1 Observacin
Es sencillo comprobar que realmente f es una ley de probabilidad, es decir,
. Para ello basta observar que la sucesin
es una progresin
geomtrica de razn q, a la que podemos aplicar su frmula de sumacin:

6.4.6.2 Observacin
En la distribucin geomtrica el conjunto de posibles valores que puede tomar la
variable ( ) es infinito numerable, mientras que en la de Bernouilli y en la binomial,
estos eran en nmero finito.

La funcin caracterstica se calcula teniendo en cuenta que de nuevo aparece la


sumacin de los trminos de una progresin geomtrica, pero esta vez de razn eit q:

La media y varianza de esta variable aleatoria son:

6.4.6.3 Ejemplo
Un matrimonio quiere tener una hija, y por ello deciden tener hijos hasta el nacimiento
de una hija. Calcular el nmero esperado de hijos (entre varones y hembras) que tendr
el matrimonio. Calcular la probabilidad de que la pareja acabe teniendo tres hijos o ms.
Solucin: Este es un ejemplo de variable geomtrica. Vamos a suponer que la
probabilidad de tener un hijo varn es la misma que la de tener una hija hembra. Sea X
la v.a.

Es claro que

Sabemos que el nmero esperado de hijos varones es


nmero esperado en total entre hijos varones y la nia es 2.

, por tanto el

La probabilidad de que la pareja acabe teniendo tres o ms hijos, es la de que tenga 2 o


ms hijos varones (la nia est del tercer lugar en adelante), es decir,

Hemos preferido calcular la probabilidad pedida mediante el suceso complementario, ya


que sera ms complicado hacerlo mediante la suma infinita

6.4.6.4 Observacin
La distribucin exponencial tambin puede ser definida como el nmero de pruebas
realizadas hasta la obtencin del primer xito (como hubiese sido ms adecuado en el
ejemplo anterior). En este caso es un ejercicio sencillo comprobar que X slo puede
tomar valores naturales mayores o iguales a 1, y que:

6.4.8 Distribucin binomial negativa

Sobre una sucesin de v.a. de Bernouilli independientes,

se define la v.a. X como el nmero de fracasos obtenidos hasta la aparicin de r xitos


en la sucesin

. En este caso se dice que X sigue una ley de distribucin

binomial negativa de parmetros r y p y se denota del modo:


probabilidad se deduce siguiendo el esquema:
=1mm

Es decir,

De nuevo, el conjunto de posibles valores de esta v.a. discreta es


.
Su funcin caracterstica es

y sus momentos ms importantes los obtenemos derivando esta ltima:

. Su ley de

6.4.8.1 Ejemplo
Para tratar a un paciente de una afeccin de pulmn han de ser operados en operaciones
independientes sus 5 lbulos pulmonares. La tcnica a utilizar es tal que si todo va bien,
lo que ocurre con probabilidad de 7/11, el lbulo queda definitivamente sano, pero si no
es as se deber esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se
practicar la ciruga hasta que 4 de sus 5lbulos funcionen correctamente. Cul es el
valor esperado de intervenciones que se espera que deba padecer el paciente? Cul es
la probabilidad de que se necesiten 10 intervenciones?
Solucin: Este es un ejemplo claro de experimento aleatorio regido por una ley
binomial negativa, ya que se realizan intervenciones hasta que se obtengan 4 lbulos
sanos, y ste es el criterio que se utiliza para detener el proceso. Identificando los
parmetros se tiene:

Lo que nos interesa es medir el nmero de intervenciones, Y, ms que el nmero de


xitos hasta el r-simo fracaso. La relacin entre ambas v.a. es muy simple:
Y=X+r

Luego

Luego el nmero esperado de intervenciones que deber sufrir el paciente es de 11. La


probabilidad de que el nmero de intervenciones sea Y=10, es la de que X=10-4=6. Por
tanto:

6.4.8.2 Observacin
La distribucin binomial negativa tambin se puede definir como el nmero de pruebas
hasta la aparicin de r xitos. Como el nmero de pruebas contabiliza tanto los xitos
como los fracasos se tendra segn sta definicin que

6.4.10 Distribucin hipergeomtrica


Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de cartas
espaolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de oros (D=10
naipes de un mismo tipo). Supongamos que de esa baraja extraemos n=8 cartas de una
vez (sin reemplazamiento) y se nos plantea el problema de calcular la probabilidad de
que hayan k=2 oros (exactamente) en esa extraccin. La respuesta a este problema es

En lugar de usar como dato D es posible que tengamos la proporcin existente, p, entre
el nmero total de oros y el nmero de cartas de la baraja

de modo que podemos decir que

Este ejemplo sirve para representar el tipo de fenmenos que siguen una ley de
distribucin hipergeomtrica. Diremos en general que una v.a. X sigue una distribucin
hipergeomtrica de parmetros, N, n y p, lo que representamos del modo
, si su funcin de probabilidad es

6.4.10.1 Observacin
Cuando el tamao de la poblacin (N) es muy grande, la ley hipergeomtrica tiende a
aproximarse a la binomial:

El valor esperado de la hipergeomtrica es el mismo que el de la binomial,

sin embargo su varianza

no es exactamente la de la binomial, pues est corregida por un factor,


, que tiende
a 1 cuando
. A este factor se le denomina factor de correccin para poblacin
finita.

6.4.12 Distribucin de Poisson (o de los sucesos raros)


Una v.a. X posee una ley de distribucin de probabilidades del tipo Poisson cuando

Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir,
obtenindose como la distribucin lmite de una sucesin de variable binomiales,
, donde

,y

La demostracin de esto consiste en

(por tanto

).

En general utilizaremos la distribucin de Poisson como aproximacin de experimentos


binomiales donde el nmero de pruebas es muy alto, pero la probabilidad de xito muy
baja. A veces se suele utilizar como criterio de aproximacin:

La ley de Poisson la podemos encontrar tabulada en la tabla nmero 2, para ciertos


valores usuales de .
La funcin caracterstica de

es

de lo que se deduce que valor esperado y varianza coinciden

6.4.12.1 Ejemplo
Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular la
probabilidad de que en una ciudad con 500.000 habitantes haya ms de 3 personas con
dicha enfermedad. Calcular el nmero esperado de habitantes que la padecen.
Solucin: Si consideramos la v.a. X que contabiliza el nmero de personas que padecen
la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien
aproximado por un modelo de Poisson, de modo que

As el nmero esperado de personas que padecen la enfermedad es

. Como

, existe una gran dispersin, y no sera extrao encontrar que en realidad


hay muchas ms personas o menos que estn enfermas. La probabilidad de que haya
ms de tres personas enfermas es:

6.6 Reproductividad de familias de v.a.


Las variables aleatorias relacionadas entre si por uno o ms parmetros mediante f, o lo
que es equivalente segn el teorema de Fourier (pgina ), mediante su funcin
caracterstica, las hemos agrupado en familias de v.a. que hemos denotado de modo
genrico

. Para cualquier tipo de familia de v.a.

reproductiva respecto al parmetro p, si al considerar


donde
misma familia, pero con parmetro

, diremos que esta


independientes,

se tiene que la suma de todas ellas es una v.a. de la

Por ejemplo

no es reproductiva con respecto a p, ya que la suma de dos v.a. de

esa familia no sigue una distribucin de Bernouilli. Sin embargo la familia


es con respecto al parmetro , ya que

lo

Un modo sencillo de ver si una familia de distribuciones es reproductiva con respecto a


algn parmetro es analizar su funcin caracterstica utilizando el teorema de la pgina
. Por ejemplo el mismo resultado se puede obtener para la distribucin binomial
teniendo en cuenta que

Utilizando el mismo argumento, tenemos que otra distribuciones reproductiva es


.

6.8 Distribuciones continuas


En esta seccin estudiaremos las distribuciones ms importantes de v.a. continuas
unidimensionales. El soporte de una v.a. continua se define como aquella regin de
donde su densidad es no nula,

. Para las distribuciones que enunciaremos,

podr ser bien todo

o bien un segmento de la forma

6.8.2 Distribucin uniforme o rectangular


Se dice que una v.a. X posee una distribucin uniforme en el intervalo [a,b],

si su funcin de densidad es la siguiente:

Con esta ley de probabilidad, la probabilidad de que al hacer un experimento aleatorio,


el valor de X este comprendido en cierto subintervalo de [a,b] depende nicamente de la
longitud del mismo, no de su posicin. Cometiendo un pequeo abuso en el lenguaje,
podemos decir que en una distribucin uniforme la probabilidad de todos los puntos del
soporte es la misma 6.2.
Teniendo en cuenta que si

la funcin de distribucin de

es:

Figura: Funcin de densidad y de distribucin de

La funcin caracterstica es

Como esta distribucin es muy simple, vamos a calcular sus momentos ms usuales
directamente a partir de la definicin, en lugar de usar la funcin caracterstica:

6.8.4 Distribucin exponencial


La distribucin exponencial es el equivalente continuo de la distribucin geomtrica
discreta. Esta ley de distribucin describe procesos en los que:

Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra
en un instante tf, no depende del tiempo transcurrido anteriormente en el que no
ha pasado nada.

Ejemplos de este tipo de distribuciones son:

El tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento


de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la
datacin de fsiles o cualquier materia orgnica mediante la tcnica del carbono
14, C14;
El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de
un paciente;
En un proceso de Poisson donde se repite sucesivamente un experimento a
intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos
sucesos consecutivos sigue un modelo probabilstico exponencial. Por ejemplo,
el tiempo que transcurre entre que sufrimos dos veces una herida importante.

Concretando, si una v.a. continua X distribuida a lo largo de


de densidad es

, es tal que su funcin

se dice que sigue una distribucin exponencial de parmetro

Figura: Funcin de densidad, f, de una

Un clculo inmediato nos dice que si x>0,

luego la funcin de distribucin es:

Figura: Funcin de distribucin, F, de

, calculada como el rea que


deja por debajo de s la funcin de densidad.

Para calcular el valor esperado y la varianza de la distribucin exponencial, obtenemos


en primer lugar la funcin caracterstica

para despus, derivando por primera vez

y derivando por segunda vez,

Entonces la varianza vale

6.8.4.1 Ejemplo
En un experimento de laboratorio se utilizan 10 gramos de
. Sabiendo que la
duracin media de un tomo de esta materia es de 140 das, cuantos idas transcurrirn
hasta que haya desaparecido el

de este material?

Solucin: El tiempo T de desintegracin de un tomo de


distribucin exponencial:

es una v.a. de

Como el nmero de tomos de


existentes en una muestra de 10 gramos es
enorme, el histograma de frecuencias relativas formado por los tiempos de
desintegracin de cada uno de estos tomos debe ser extremadamente aproximado a la
curva de densidad, f. Del mismo modo, el polgono de frecuencias relativas acumuladas
debe ser muy aproximado a la curva de su funcin de distribucin F. Entonces el tiempo
que transcurre hasta que el
del material radiactivo se desintegra es el percentil 90,
t90, de la distribucin exponencial, es decir

Figura: Como el nmero de tomos (observaciones) es extremadamente alto en


10 gramos de materia, el histograma puede ser aproximado de modo excelente por
la funcin de densidad exponencial, y el polgono de frecuencias acumuladas por la
funcin de distribucin.

6.8.4.2 Ejemplo
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una
distribucin exponencial con media de 16 aos. Cul es la probabilidad de que a una
persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes
de 20 aos? Si el marcapasos lleva funcionando correctamente 5 aos en un paciente,
cul es la probabilidad de que haya que cambiarlo antes de

aos?

Solucin: Sea T la variable aleatoria que mide la duracin de un marcapasos en una


persona. Tenemos que

Entonces

En segundo lugar

Luego como era de esperar, por ser propio a un mecanismo exponencial,

o sea, en la duracin que se espera que tenga el objeto, no influye en nada el tiempo que
en la actualidad lleva funcionando. Es por ello que se dice que ``la distribucin
exponencial no tiene memoria".

6.8.6 Distribucin normal o gaussiana


La distribucin gaussiana, recibe tambin el nombre de distribucin normal, ya que una
gran mayora de las v.a continuas6.3 de la naturaleza siguen esta distribucin. Se dice
que una v.a. X sigue una distribucin normal de parmetros
representamos del modo

6.8.6.1 Observacin

6.4

, lo que

si su funcin de densidad es:

Estos dos parmetros y


coinciden adems con la media (esperanza) y la varianza
respectivamente de la distribucin como se demostrar ms adelante6.5:

La forma de la funcin de densidad es la llamada campana de Gauss.

Figura: Campana de Gauss o funcin de densidad de una v.a. de distribucin normal. El rea contenida
entre la grfica y el eje de abcisas vale 1.

Para el lector es un ejercicio interesante comprobar que sta alcanza un nico mximo
(moda) en

, que es simtrica con respecto al mismo, y por tanto

, con lo cual en coinciden la media, la mediana y la


moda, y por ltimo,calcular sus puntos de inflexin.
El soporte de la distribucin es todo , de modo que la mayor parte de la masa de
probabilidad (rea comprendida entre la curva y el eje de abcisas) se encuentra
concentrado alrededor de la media, y las ramas de la curva se extienden asintticamente
a los ejes, de modo que cualquier valor ``muy alejado" de la media es posible (aunque
poco probable).
La forma de la campana de Gauss depende de los parmetros

indica la posicin de la campana (parmetro de centralizacin);

Figura: Distribuciones gaussianas con diferentes medias e igual dispersin.

(o equivalentemente, ) ser el parmetro de dispersin. Cuanto menor sea,


mayor cantidad de masa de probabilidad habr concentrada alrededor de la
media (grafo de f muy apuntado cerca de
aplastado" ser.

) y cuanto mayor sea ``ms

Figura: Distribuciones gaussianas con igual media pero varianza diferente.

La funcin caracterstica de la distribucin normal, se comprueba ms adelante que es

Como consecuencia, la distribucin normal es reproductiva con respecto a los


parmetros

,y

, ya que

6.8.6.2 Observacin
Como se ha mencionado anteriormente, la ley de probabilidad gaussiana la encontramos
en la mayora de los fenmenos que observamos en la naturaleza, por ello gran parte de
lo que resta del curso lo vamos a dedicar a su estudio y a el de las distribuciones
asociadas a ella. Sin embargo, a pesar de su utilidad, hay que apuntar un hecho negativo
para esta ley de probabilidad:
La funcin

no posee primitiva6.6 conocida6.7.

Las consecuencias desde el punto de vista prctico son importantes, ya que eso impide
el que podamos escribir de modo sencillo la funcin de distribucin de la normal, y nos
tenemos que limitar a decir que:

sin poder hacer uso de ninguna expresin que la simplifique. Afortunadamente esto no
impide que para un valor de xfijo, F(x) pueda ser calculado. De hecho puede ser
calculado con tanta precisin (decimales) como se quiera, pero para esto se necesita usar
tcnicas de clculo numrico y ordenadores. Para la utilizacin en problemas prcticos
de la funcin de distribucin F, existen ciertas tablas donde se ofrecen (con varios
decimales de precisin) los valores F(x) para una serie limitada de valores xi dados.
Normalmente F se encuentra tabulada para una distribucin Z, normal de media 0 y
varianza 1 que se denomina distribucin normal tipificada:

En el caso de que tengamos una distribucin diferente


haciendo el siguiente cambio:

De manera general se tiene6.8:

6.8.6.3 Proposicin (Cambio de origen y escala)


Sean

. Entonces

, se obtiene Z

Este resultado puede ser utilizado del siguiente modo: Si


calcular

, y nos interesa

1.

Hacemos el cambio

y calculamos

2.
Usamos la tabla 3, relativa a la distribucin
aproximado)

para obtener (de modo

3.
Como

tenemos que el valor obtenido en la tabla, FZ(z) es la probabilidad buscada.

6.8.6.4 Ejemplo
Supongamos que cierto fenmeno pueda ser representado mediante una v.a.
, y queremos calcular la probabilidad de que Xtome un valor entre 39 y
48, es decir,

Comenzamos haciendo el cambio de variable

de modo que

Vamos ahora a demostrar algunas de las propiedades de la ley gaussiana que hemos
mencionado anteriormente.

6.8.6.5 Proposicin
Sea

. Entonces

Demostracin
Por ser la normal una ley de probabilidad se tiene que

es decir, esa integral es constante. Con lo cual, derivando la expresin anterior con
respecto a

se obtiene el valor 0:

luego

Para demostrar la igualdad entre la


pero esta vez derivando con respecto a

, basta con aplicar la misma tcnica,

Luego

Para demostrar el resultado relativo a la funcin caracterstica, consideramos en primer


lugar la v.a. tipificada de X,

y calculamos

Como

, por la proposicin 5 deducimos que

6.8.6.6 Aproximacin a la normal de la ley binomial


Se puede demostrar (teorema central del lmite) que una v.a. discreta con distribucin
binomial,
se puede aproximar mediante una distribucin normal si n es
suficientemente grande y p no est ni muy prximo a 0 ni a 1. Como el valor esperado y
la varianza de X son respectivamente

, la aproximacin consiste en decir que

. El convenio que se suele utilizar para poder realizar esta


aproximacin es:

aunque en realidad esta no da resultados muy precisos a menos que realmente nsea un
valor muy grande o

. Como ilustracin obsrvense las figuras 6.10 y 6.11.

Figura: Comparacin entre la funcin de densidad de una v.a. continua


con distribucin
de distribucin

y el diagrama de barras de una v.a. discreta


para casos en que la aproximacin normal de la

binomial es vlida. Es peor esta aproximacin cuando p est prximo a los


bordes del intervalo [0,1].

Figura: La misma comparacin que en la figura anterior, pero realizada


con parmetros con los que damos la aproximacin normal de la binomial es
mejor.

6.8.6.7 Ejemplo

Durante cierta epidemia de gripe, enferma el


de la poblacin. En un aula con 200
estudiantes de Medicina, cul es la probabilidad de que al menos 40 padezcan la
enfermedad? Calcular la probabilidad de que haya 60 estudiantes con gripe.
Solucin: La v.a. que contabiliza el nmero de alumnos que padece la gripe es

cuya media es
y su varianza es
. Realizar los clculos
con la ley binomial es muy engorroso, ya que intervienen nmeros combinatorios de
gran tamao, y potencias muy elevadas. Por ello utilizamos la aproximacin normal de
X, teniendo en cuenta que se verifican las condiciones necesarias para que el error sea
aceptable:

As aproximando la v.a. discreta binomial X, mediante la v.a. continua normal XN


tenemos:

Tambin es necesario calcular


como:

. Esta probabilidad se calcula exactamente

Dada la dificultad numrica para calcular esa cantidad, y como la distribucin binomial
no est habitualmente tabulada hasta valores tan altos, vamos a utilizar su aproximacin
normal, XN. Pero hay que prestar atencin al hecho de que XN es una v.a. continua, y por
tanto la probabilidad de cualquier punto es cero. En particular,

lo que ha de ser interpretado como un error de aproximacin. Hay mtodos ms


aproximados para calcular la probabilidad buscada. Por ejemplo, podemos aproximar
por el valor de la funcin de densidad de XN en ese punto (es en el nico
sentido en que se puede entender la funcin de densidad de la normal como una
aproximacin de una probabilidad). As:

Por ltimo, otra posibilidad es considerar un intervalo de longitud 1centrado en el valor


60 del que deseamos hallar su probabilidad y hacer:

6.8.6.8 Ejemplo

Segn un estudio, la altura de los varones de cierta ciudad es una v.a. X, que podemos
considerar que se distribuye segn una ley gaussiana de valor esperado
y
desviacin tpica
. Dar un intervalo para el que tengamos asegurado que el
de los habitantes de la ciudad estn comprendidos en l.

Solucin: Tenemos que

. Si buscamos un intervalo donde

estar seguros de que el


de los habitantes tengan sus alturas comprendidas en l hay
varias estrategias posibles:
1.
Podemos tomar el percentil 50, ya que este valor deja por debajo suya a la mitad,
0,5, de la masa de probabilidad. Este valor, x0,5, se definira como:

donde

El valor z0,5 lo podemos buscar en la tabla 3 (distribucin

) y se obtiene

Por tanto podemos decir que la mitad de la poblacin tiene una altura inferior a
. Este resultado era de esperar, ya que en la distribucin es
simtrica y habr una mitad de individuos con un peso inferior a la media y otro
con un peso superior (figura 6.12). Esto puede escribirse como:

El

de la poblacin tiene un peso comprendido en el intervalo


.

Figura: Intervalo donde tenemos asegurado que el 50% de la poblacin tiene un peso comprendido en l.
Como se observa, no es un tamao ptimo, en el sentido de que el intervalo es demasiado grande (longitud
infinita a la izquierda).

2.
Anlogamente podemos considerar el percentil 50, y tomar como intervalo
aquellos pesos que lo superan. Por las mismas razones que en el problema
anterior, podremos decir:
El

de la poblacin tiene un peso comprendido en el intervalo


.

3.
Los anteriores intervalos, an dando un resultado correcto, no son satisfactorios
en el sentido de que son muy grandes, y no tienen en cuenta la simetra de la
distribucin normal para tomar un intervalo cuyo centro sea . Vamos a utilizar
entonces otra tcnica que nos permita calcular el intervalo centrado en la media,
y que adems ser el ms pequeo posible que contenga al

de la poblacin.

Para ello observamos que la mayor parte de probabilidad est concentrada


siempre alrededor de la media en las leyes gaussianas. Entonces podemos tomar

un intervalo que contenga un


prximo a la media, y un

de probabilidad del lado izquierdo ms


del derecho (figura 6.13).

Figura: Intervalo donde tenemos asegurado que el 50% de la poblacin tiene un peso comprendido en l.
En este caso el intervalo es ms pequeo que el anterior y est centrado en

Esto se puede describir como el intervalo

donde x0,25 es el valor que deja por debajo de s al


de la masa de
probabilidad y x0,75 el que lo deja por encima (o lo que es lo mismo, el que deja
por debajo al
de las observaciones). Del mismo modo que antes estos
valores pueden ser buscados en una tabla de la distribucin normal, tipificando
en primera instancia para destipificar despus:

donde

En una tabla encontramos el valor z0,75, y se destipifica:

Anlogamente se calculara

donde

Por la simetra de la distribucin normal con respecto al origen, tenemos que


z0,25= - z0,75.Luego

En conclusin:

El
de la poblacin tiene un peso comprendido en el intervalo
[168,25,181,75].
De entre los tres intervalos que se han calculado el que tiene ms inters es el ltimo, ya
que es simtrico con respecto a la media, y es el ms pequeo de todos los posibles
(ms preciso). Este ejemplo es en realidad una introduccin a unas tcnicas de
inferencia estadstica que trataremos posteriormente, conocidas con el nombre de
``estimacin confidencial'' o ``clculo de intervalos de confianza''.

6.8.8 Distribucin
, la v.a. X=Z2 se distribuye segn una ley de

Si consideramos una v.a.


probabilidad distribucin

con un grado de libertad, lo que se representa como

Si tenemos n v.a. independientes

, la suma de sus cuadrados respectivos es

una distribucin que denominaremos ley de distribucin


.

La media y varianza de esta variable son respectivamente:

y su funcin de densidad es:

con n grados de libertad,

Los percentiles de esta distribucin que aparecen con ms frecuencia en la prctica los
podemos encontrar en la tabla 5.

Figura: Funcin de densidad de

Figura: Funcin de densidad de

para valores pequeos de n.

para valores grandes de n.

En consecuencia, si tenemos

, v.a. independientes, donde cada

, se tiene

6.8.8.1 Observacin
La ley de distribucin
muestra su importancia cuando queremos determinar la
variabilidad (sin signo) de cantidades que se distribuyen en torno a un valor central
siguiendo un mecanismo normal. Como ilustracin tenemos el siguiente ejemplo:

6.8.8.2 Ejemplo
Un instrumento para medir el nivel de glucemia en sangre, ofrece resultados bastantes
aproximados con la realidad, aunque existe cierta cantidad de error que se distribuye
de modo normal con media 0 y desviacin tpica
.

Se realizan mediciones de los niveles de glucemia dados por el instrumento en un grupo


de n=100 pacientes. Nos interesa medir la cantidad de error que se acumula en las
mediciones de todos los pacientes. Podemos plantear varias estrategias para medir los
errores acumulados. Entre ellas destacamos las siguientes:
1.
Definimos el error acumulado en las mediciones de todos los pacientes como

Cul es el valor esperado para E1?


2.
Definimos el error acumulado como la suma de los cuadrados de todos los
errores (cantidades positivas):

Cul es el valor esperado para E2?


A la vista de los resultados, cul de las dos cantidades, E1 y E2, le parece ms
conveniente utilizar en una estimacin del error cometido por un instrumento.
Solucin:
Suponiendo que todas las mediciones son independientes, se tiene que

De este modo, el valor esperado para E1 es 0, es decir, que los errores ei van a tender a
compensarse entre unos pacientes y otros. Obsrvese que si

no fuese conocido a

priori, podramos utilizar E1, para obtener una aproximacin de

Sin embargo, el resultado E1 no nos indica en qu medida hay mayor o menor


dispersin en los errores con respecto al 0. En cuanto a E2 podemos afirmar lo siguiente:

En este caso los errores no se compensan entre s, y si


``estimado" de modo aproximado mediante

no fuese conocido, podra ser

Sin embargo, no obtenemos ninguna informacin con respecto a

En conclusin, E1 podra ser utilizado para calcular de modo aproximado , y E2 para


calcular de modo aproximado
. Las dos cantidades tienen inters, y ninguna lo tiene
ms que la otra, pues ambas formas de medir el error nos aportan informacin.
El siguiente resultado ser de importancia ms adelante. Nos afirma que la media de
distribuciones normales independientes es normal pero con menor varianza y relaciona
los grados de libertad de una v.a. con distribucin
varianza (pgina ):

, con los de un estadstico como la

6.8.8.3 Teorema (Cochran)


Sean

v.a. independientes. Entonces

6.8.10 Distribucin de Student


La distribucin -Student se construye como un cociente entre una normal y la raz de
una

independientes. De modo preciso, llamamos distribucin t-Student con n

grados de libertad,

donde
,
v.a. independientes

a la de una v.a. T,

. Este tipo de distribuciones aparece cuando tenemos n+1

y nos interesa la distribucin de

La funcin de densidad de

es

Figura: Funcin de densidad de una de Student

La distribucin de Student tiene propiedades parecidas a

Es de media cero, y simtrica con respecto a la misma;


Es algo ms dispersa que la normal, pero la varianza decrece hasta 1 cuando el
nmero de grados de libertad aumenta;

Figura: Comparacin entre las funciones de densidad de

Para un nmero alto de grados de libertad se puede aproximar la distribucin de


Student por la normal, es decir,

Figura: Cuando aumentan los grados de libertad, la distribucin de Student se aproxima a la


distribucin normal tipificada.

Para calcular

en lugar de considerar una primitiva de esa funcin y determinar la integral


definida, buscaremos el resultado aproximado en una tabla de la distribucin
. Vase la tabla 4, al final del libro.

6.8.12 La distribucin de Snedecor


Otra de la distribuciones importantes asociadas a la normal es la que se define como
cociente de distribuciones
independientes. Sean
independientes. Decimos entonces que la variable

v.a.

sigue una distribucin de probabilidad de Snedecor, con (n,m) grados de libertad.


Obsrvese que

La forma ms habitual en que nos encontraremos esta distribucin ser en el caso en


que tengamos n+m v.a. independientes

y as

De esta ley de probabilidad lo que ms nos interesa es su funcin de distribucin:

y para ello, como en todas las distribuciones asociadas a la normal, disponemos de una
tabla (la nmero 6) donde encontrar aproximaciones a esas cantidades

Figura: Funcin de densidad de

Es claro que la distribucin de Snedecor no es simtrica, pues slo tienen densidad de


probabilidad distinta de cero, los punto de
. Otra propiedad interesante de la
distribucin de Snedecor es:

6.10 Problemas
Ejercicio 6..1. Para estudiar la regulacin hormonal de una lnea metablica se inyectan
ratas albinas con un frmaco que inhibe la sntesis de protenas del organismo. En
general, 4 de cada 20 ratas mueren a causa del frmaco antes de que el experimento
haya concluido. Si se trata a 10 animales con el frmaco, cul es la probabilidad de que
al menos 8 lleguen vivas al final del experimento?
Ejercicio 6..2. En una cierta poblacin se ha observado un nmero medio anual de
muertes por cncer de pulmn de 12. Si el nmero de muertes causadas por la
enfermedad sigue una distribucin de Poisson, cul es la probabilidad de que durante
el ao en curso:
1.
Haya exactamente 10 muertes por cncer de pulmn?
2.
15 o ms personas mueran a causa de la enfermedad?
3.
10 o menos personas mueran a causa de la enfermedad?

Ejercicio 6..3. Daando los cromosomas del vulo o del espermatozoide, pueden
causarse mutaciones que conducen a abortos, defectos de nacimiento, u otras
deficiencias genticas. La probabilidad de que tal mutacin se produzca por radiacin es
del 10%. De las siguientes 150 mutaciones causadas por cromosomas daados, cuntas
se esperara que se debiesen a radiaciones? Cul es la probabilidad de que solamente
10 se debiesen a radiaciones?
Ejercicio 6..4. Entre los diabticos, el nivel de glucosa en sangre X, en ayunas, puede
suponerse de distribucin aproximadamente normal, con media 106 mg/100 ml y
desviacin tpica 8 mg/100 ml, es decir

1.
Hallar
2.
Qu porcentaje de diabticos tienen niveles comprendidos entre 90 y 120 ?
3.
Hallar

4.
Hallar

5.
Hallar el punto x caracterizado por la propiedad de que el 25% de todos los
diabticos tiene un nivel de glucosa en ayunas inferior o igual a x.
Ejercicio 6..5. Una prueba de laboratorio para detectar herona en sangre tiene un 92%
de precisin. Si se analizan 72 muestras en un mes, cul es la probabilidad de que:
1.
60 o menos estn correctamente evaluadas?
2.
menos de 60 estn correctamente evaluadas?
3.
exactamente 60 estn correctamente evaluadas?
Ejercicio 6..6. El 10% de las personas tiene algn tipo de alergia. Se seleccionan
aleatoriamente 100 individuos y se les entrevista. Hallar la probabilidad de que, al
menos, 12 tengan algn tipo de alergia. Hallar la probabilidad de que, como mximo, 8
sean alrgicos a algo.
Ejercicio 6..7. La probabilidad de muerte resultante del uso de pldoras anticonceptivas
es de 3/100.000. De 1.000.000 de mujeres que utilizan este medio de control de
natalidad:
1.
Cuntas muertes debidas a esta causa se esperan?

2.
Cul es la probabilidad de que haya, como mximo, 25 de estas muertes?
3.
Cul es la probabilidad de que el nmero de muertes debidas a esta causa est
entre 25 y 35, inclusive?
Ejercicio 6..8. La probabilidad de presentar una caracterstica gentica es de 1/20.
1.
Tomando una muestra de 8 individuos, calcular la probabilidad de que 3
individuos presenten la caracterstica.
2.
Tomando una muestra de 80 personas, cul ser la probabilidad de que
aparezcan ms de 5 individuos con la caracterstica?
Ejercicio 6..9. Se supone que en una cierta poblacin humana el ndice ceflico i,
(cociente entre el dimetro transversal y el longitudinal expresado en tanto por ciento),
se distribuye segn una Normal. El 58% de los habitantes son dolicocfalos (i

75), el

38% son mesocfalos (75 < i 80) y el 4% son braquicfalos (i > 80). Hllese la media
y la desviacin tpica del ndice ceflico en esa poblacin.
Ejercicio 6..10. Se supone que la glucemia basal en individuos sanos, Xs sigue una
distribucin

mientras que en los diabticos Xd, sigue una distribucin

Si se conviene en clasificar como sanos al 2% de los diabticos:


1.
Por debajo de qu valor se considera sano a un individuo? Cuntos sanos
sern clasificados como diabticos?
2.
Se sabe que en la poblacin en general el 10% de los individuos son diabticos
cul es la probabilidad de que un individuo elegido al azar y diagnosticado
como diabtico, realmente lo sea?
Ejercicio 6..11. Supngase que se van a utilizar 20 ratas en un estudio de agentes
coagulantes de la sangre. Como primera experiencia, se dio un anticoagulante a 10 de
ellos, pero por inadvertencia se pusieron todas sin marcas en el mismo recinto. Se
necesitaron 12 ratas para la segunda fase del estudio y se les tom al azar sin
reemplazamiento. Cul es la probabilidad de que de las 12 elegidas 6 tengan la droga y
6 no la tengan?