Está en la página 1de 7

Tema 5

Distribuciones de probabilidad m as usuales


En este tema se estudiar an algunas de las distribuciones discretas y continuas m as comunes, que se pueden aplicar a una gran diversidad de problemas y campos cient cos.

Contenido
5.1. Distribuciones discretas m as usuales . . . . . . . . . . . . . . . . . 5.1.1. Distribuci on de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2. Distribuci on binomial . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.3. Distribuci on geom etrica . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.4. Distribuci on de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Distribuciones continuas m as usuales . . . . . . . . . . . . . . . . 5.2.1. Distribuci on uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2. Distribuci on normal . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.3. Distribuci on exponencial . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. Teorema del L mite Central . . . . . . . . . . . . . . . . . . . . . . Comentarios bibliogr acos . . . . . . . . . . . . . . . . . . . . . . . . . . Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 19 20 21 21 22 22 23 23 25 25 26

5.1.
5.1.1.

Distribuciones discretas m as usuales


Distribuci on de Bernoulli

Un experimento aleatorio se dice que es de Bernoulli cuando u nicamente puede tener dos resultados mutuamente excluyentes; uno de ellos se denomina exito y el otro fracaso. Ejemplos: Los resultados cara o cruz en el lanzamiento de una moneda. Las piezas defectuosa o no defectuosa en el control de calidad de un producto. 19

USUALES TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS

Curso 2007 - 08

Resultado exitoso o fallido de la petici on a un servidor. Sea X una v. a. asociada a un experimento de Bernoulli y que toma los valores: X ( exito) = 1 X (fracaso) = 0 entonces se dice que X sigue una distribuci on de Bernoulli X B (1, p). Su funci on de probabilidad viene dada por: Pr(X = 1) = p Propiedades: 1. = E (X ) = 0 q + 1 p = p. 2. 2 = Var(X ) = E (X 2 ) E 2 (X ) = p p2 = pq . Pr(X = 0) = 1 p = q

5.1.2.

Distribuci on binomial

Una sucesi on de n pruebas se dice que es de Bernoulli cuando los experimentos individuales verican las siguientes condiciones: 1. Las n pruebas son independientes. 2. Cada prueba es de Bernoulli. 3. La probabilidad p de exito es igual en todas las pruebas. La variable aleatoria denida como n umero de exitos en n pruebas, X B (n, p), se dice que sigue una distribuci on binomial de par ametros n, p. La variable puede tomar los valores {0, 1, 2, . . . , k, . . . , n} y su funci on de probabilidad es la siguiente: Pr(X = k) = Pr(k exitos en n pruebas) = donde n k nk p q k

n k

= n umero resultados posibles con k exitos pk q nk = P (cada resultado con k exitos)

Ejemplos: N umero de veces que aparece el resultado cara al lanzar una moneda diez veces. N umero de exitos en la recepci on de un mensaje enviado a 100 destinatarios. N umero de ordenadores en una subred que han sido infectados por un virus. Propiedades: Dpto. Estad stica e I.O. y D.M. 20

USUALES TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS

Curso 2007 - 08

1. X = X1 + X2 + + Xn , donde X1 , . . . , Xn son variables independientes todas ellas con distribuci on B (1, p). 2. = E (X ) = np. 3. 2 = Var(X ) = n p q . 4. Dadas X1 B (n1 , p) y X2 B (n2 , p) v.a. independientes, entonces X1 + X2 B (n1 + n2 , p).

5.1.3.

Distribuci on geom etrica

Sea X la variable aleatoria denida como el n umero de pruebas realizadas hasta que aparece por primera vez el resultado exito, en pruebas de Bernoulli; entonces se dice que X G(p) sigue una distribuci on geom etrica de par ametro p. Los valores que puede tomar esta variable son {1, 2, . . . , k, . . . } con probabilidades: Pr(X = k) = Pr(F1 F2 . . . Fk E ) = q k1 p Ejemplos: N umero de veces que ha sido necesario ejecutar un programa hasta que falla por primera vez. N umero de veces que ha sido necesario enviar un mensaje hasta que fue recibido por el destinatario. Propiedades: 1. = E (X ) = 1 p q . p2 si p > 0.

2. 2 = Var(X ) =

Una forma alternativa de representar este experimento es considerar la variable Y que cuenta el n umero de fracasos obtenidos hasta que aparece el primer exito; es evidente que la relaci on entre las dos variables viene dada por la expresi on X = Y + 1. La esperanza de Y es q E (Y ) = . La varianza, obviamente, es la misma. p

5.1.4.

Distribuci on de Poisson

La distribuci on de Poisson suele emplearse para representar experimentos en los que se analiza el n umero de veces que ocurre cierto suceso en un intervalo (en general de tiempo). Los requisitos que deben vericar estas experiencias son las siguientes: 1. Las condiciones experimentales deben ser constantes a lo largo de todo el intervalo. 2. Los resultados del experimento deben ser independientes cuando se reeren a intervalos disjuntos. Dpto. Estad stica e I.O. y D.M. 21

USUALES TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS

Curso 2007 - 08

3. La tasa media de aparici on del suceso, en cualquier intervalo de longitud uno, es constante y se representa por . 4. La probabilidad de que el suceso ocurra una sola vez en un intervalo de amplitud h sucientemente peque na, debe ser aproximadamente h. 5. La probabilidad de dos o m as ocurrencias del suceso, en un intervalo sucientemente peque no, debe ser pr acticamente cero. Bajo las anteriores condiciones la variable X = n umero de veces que ocurre el suceso, se dice que sigue una distribuci on de Poisson de par ametro , X P (). Los valores de la variable son {0, 1, 2, . . . k . . .} con probabilidades: Pr(X = k) = e Ejemplos: El n umero de part culas emitidas por una substancia radiactiva en una hora. El n umero de mensajes que llegan a un servidor de correo durante una hora. Propiedades: 1. = E (X ) = . 2. 2 = Var(X ) = . 3. Sean X1 P (1 ) y X2 P (2 ) v.a. independientes, entonces X1 + X2 P (1 + 2 ). k k! si k = 0, 1, 2, . . .

5.2.
5.2.1.

Distribuciones continuas m as usuales


Distribuci on uniforme

Una variable aleatoria X se dice que sigue una distribuci on uniforme en [a, b], donde a b son n umeros reales, X U (a, b), si tiene la siguiente funci on de densidad: 1 si a x b, 1 f (x) = ba ba 0 en otro caso. a b Esta distribuci on se puede emplear en problemas en los que la probabilidad se reparte por igual en todo el intervalo. Propiedades: 1. = E (X ) = b+a (punto medio del intervalo [a, b]). 2 (b a)2 . 12 22

2. 2 = Var(X ) =

Dpto. Estad stica e I.O. y D.M.

USUALES TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS

Curso 2007 - 08

5.2.2.

Distribuci on normal

Es la m as importante de las distribuciones continuas ya que permite describir un n umero muy grande de fen omenos aleatorios, como por ejemplo aquellos en los que intervienen un n umero elevado de factores no controlables, que act uan de manera independiente y con efectos peque nos. Una v.a. se dice que sigue una distribuci on normal X N (; ), si su funci on de densidad es:

f (x) =

1 2 2

exp

(x )2 2 2

x R

Propiedades: 1. E (X ) = . 2. Var(X ) = 2 . 3. Si X1 N (1 ; 1 ) y X2 N (2 ; 2 ) son v.a. independientes, entonces se verica que: 2 + 2 ). X = X1 + X2 N (1 + 2 ; 1 2 4. Sea X N (; ) entonces Y = a + bX , con b = 0, sigue una distribuci on normal N (a + b; |b| ). 5. La funci on de distribuci on de cualquier distribuci on N (; ) se puede calcular utilizando la distribuci on N (0; 1) o normal tipicada. P (X x) = P donde Z = cada. x X = P (Z z )

X x es la normal tipicada y z = se denomina puntuaci on tipi

6. La funci on de densidad de la normal no admite primitiva y su funci on de distribuci on se calcula de manera aproximada. En lugar de tener que realizar esos c alculos aproximados para cada par de valores y , la propiedad anterior permite emplear las tablas de la N (0; 1) para obtener la funci on de distribuci on de cualquier normal.

5.2.3.

Distribuci on exponencial

En un experimento de Poisson en el que se observa la ocurrencia de un suceso E en un intervalo de tiempo, donde > 0 representa el n umero medio de sucesos que ocurren por unidad de tiempo, puede ser de inter es el tiempo que transcurre entre dos sucesos consecutivos. Dpto. Estad stica e I.O. y D.M. 23

USUALES TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS

Curso 2007 - 08

En este caso, la v.a. T = tiempo entre dos sucesos consecutivos es continua y su distribuci on se calcula de la siguiente manera: P (T t) = 1 P (T > t) = 1 P (X = 0) = 1 et ya que el suceso (T > t) signica que en el intervalo (0, t] no apareci o en ninguna ocasi on el suceso E. Se dice entonces que T tiene distribuci on exponencial de par ametro , que se denotar a por T Exp() y su funci on de distribuci on viene dada por: FT (t) = y su funci on de densidad es: 1 et si t > 0, 0 en otro caso,

f (t) =

et si t > 0, 0 en otro caso.

Ejemplo: Tiempo que tarda una cierta cantidad de una substancia radiactiva en reducir su masa a la mitad. Tiempo transcurrido entre la llegada de dos clientes consecutivos a una tienda. Propiedades: 1. E (T ) = 1 . 1 . 2

2. Var(T ) =

3. Pr[T > (t + h) | T t] = Pr[T > h]. Esta probabilidad solo depende de la amplitud del intervalo [t, t + h), pero no del valor concreto de t y nos referiremos a ella diciendo que la distribuci on exponencial no tiene memoria. Para comprender el signicado intuitivo de esta propiedad supongamos que estamos analizando una variable que representa el tiempo transcurrido hasta que un sistema falla, como por ejemplo el tiempo de semi-desintegraci on de una materia radiactiva o la vida de una persona. Si esta variable se ajustase a una distribuci on exponencial, signicar a que la probabilidad de que el sistema dure diez a nos m as, es independiente de lo antiguo que sea. Esto puede ser cierto para una materia radiactiva, pero suele resultar falso para una persona. Dpto. Estad stica e I.O. y D.M. 24

USUALES TEMA 5. DISTRIBUCIONES DE PROBABILIDAD MAS

Curso 2007 - 08

5.3.

Teorema del L mite Central

Sean X1 , X2 , . . . , Xn variables aleatorias independientes e id enticamente distribuidas tales que E (Xi ) = y Var(Xi ) = 2 para todo i. Entonces, Sn = X1 + + Xn o equivalentemente = X1 + + Xn X n
aprox. aprox.

N (n, n). , n

La aproximaci on se considera v alida para valores grandes de n. Es importante recordar que seg un este resultado la suma de un n umero sucientemente grande de variables independientes del mismo tipo sigue una distribuci on normal, incluso en el caso de que se desconozca la distribuci on que siguen los sumandos Xi . Como consecuencia del Teorema del L mite Central, se obtienen las aproximaciones de las distribuciones binomial y de Poisson por la distribuci on normal. Si X B (n, p) entonces X = n TLC i=1 Xi donde cada Xi B (1, p). Por tanto, el permite aproximar la distribuci on de esta variable por la distribuci on N (np; npq) cuando n es sucientemente grande y p un valor ni pr oximo a 0 ni pr oximo a 1. En general se suele trabajar con la aproximaci on para n 30 y 0,1 < p < 0,9. Teniendo en cuenta la propiedad de reproductividad de la variable de Poisson, el TLC permite on de Poisson de par ametro mediante la distribuci on aproximar la distribuci N (, ), para valores grandes de . En la pr actica, se considera que si > 5 la aproximaci on a la normal es buena.

Comentarios bibliogr acos


El bloque correspondiente al C alculo de probabilidades, formado por los Temas 3, 4 y 5 del programa de la asignatura es desarrollado en mayor o menor profundidad por la mayor a de los textos de estad stica recomendados en la bibliograf a. Sirvan como ejemplo los siguientes: Temas 3, 4 y 6 de Introducci on a la Estad stica y sus aplicaciones. CAO ABAD, R. et al. Ediciones Pir amide, 2001. Tema 2, 3 y 4 de Probabilidad y Estad stica para Ingenier a y Ciencias. DEVORE, J.L. International Thomson Editores, 2002. SANCHEZ Temas 4 y 5 de Fundamentos de Estad stica. PENA DE RIVERA, D. Alianza Editorial, 2001. Temas 2, 3 y 4 de Probabilidad y Estad stica para Ingenier a. SCHEAFFER R.L. & McCLAVE J. Grupo Editorial Iberoamericano, 1993.

Dpto. Estad stica e I.O. y D.M.

25

También podría gustarte