Está en la página 1de 14

Distribuciones Probabilsticas

Curso de Estadstica TAE,2005 J.J. Gmez Cadenas

Distribucin Binomial
Considerar N observaciones independientes tales que: El resultado de cada experimento es acierto o fallo La probabilidad de acierto de un experimento dado es p El conjunto de observaciones N puede considerarse como una nica medida que puede caracterizarse por la variable aleatoria n : n = nmero de aciertos (0n N) El espacio de muestras S se define como el conjunto de posibles valores de n para N observaciones. Si repetimos el experimento muchas veces con N observaciones cada vez, los valores resultantes de n ocurren con frecuencias relativas determinadas por la distribucin binomial.

Derivacin de la forma de la distribucin binomial


Probabilidad de acierto para una observacin dada p Probabilidad de fallo 1-p Las observaciones son independientes Probabilidad de acierto y/o fallo de una secuencia de observaciones (en un orden dado) es el producto de las observaciones individuales. Ejemplo: aafaf P=pp(1-p)p(1-p)=p3(1-p)2 En general P, para una secuencia de n aciertos y (N-n) fallos pn(1-p)N-n Puesto que el orden de acierto/fallo es irrelevante (estamos interesados slo en el nmero total de aciertos n) calculamos el nmero de secuencias (permutaciones) con n xitos en N observaciones:

N! n!(N n)!

La distribucin binomial, es, entonces:

N! f (n; N, p) = p n (1 p)N n n!(N n)!


Donde, la notacin f(n; N,p) indica que n es una variable aleatoria, mientras que N y p son parmetros. Valor esperado y varianza (clculo no trivial):

N! E[n] = n p n (1 p)N n = Np n = 0 n!(N n)! V[n] = E[n 2 ] (E[n])2 = Np(1 p)


NB: E[n] y V[n] no son variables aleatorias sino constantes que dependen de los valores verdaderos (y posiblemente desconocidos) de p y N.

Ejemplo: Observamos N desintegraciones del . El nmero n de estas observaciones correspondientes a un determinado canal (e.g, ) sigue la distribucin binomial, con p igual a la relacin de semidesintegracin del canal

Distribucin Multinomial
Similar a la binomial, pero en lugar de 2 posibles resultados (acierto o fallo) hay m posibles resultados.

p = ( p1,..., pm ) tal que

p
i=1

=1

Para N observaciones queremos calcular la probabilidad de observar: n1 con resultado 1 n2 con resultado 2 nm con resultado m Esta probabilidad sigue la distribucin multinomial Ejemplo de multinomial: n = (n1,,nm) representa un histograma con m bins y N entradas en total

f (n; N, p) =

N! p1n1 p n2 ...p nm 2 m n1 !n2 !...nm !

Los ni individuales se distribuyen binomialmente con parmetros N,pi

Distribucin de Poisson
Considerar la distribucin binomial en el lmite: N p0 E[n]=Np Puede demostrarse que en este caso n sigue la distribucin de Poisson
n f (n; ) = e (0 n ) n! n E[n]= n e = n! n=0 n V[n]= (n- ) e = n! n=0
2

Para grande Poisson tiende a Gauss Ejemplos de Poisson: Nmero de desintegraciones de una cierta cantidad de material radioactivo en un tiempo fijo t, en el lmite: Nmero de desintegraciones posibles (e.g, nmero total de tomos) es muy grande Probabilidad de una desintegracin individual en t es muy pequea.

Distribucin uniforme
Considerar una variable continua aleatoria definida en todo R. La distribucin uniforme es:
1 f (x; , ) = 0

x
en otro caso

Es decir, podemos encontrar x con igual probabilidad entre y :


x 1 dx = ( + ) 0 2 1 1 1 V[x] = [x ( + )]2 dx = ( )2 0 2 12 E[x] =

Una propiedad importante de la distribucin uniforme es la de que cualquier variable aleatoria continua x con pdf f(x) y distribucin acumulativa F(x) puede transformarse en una nueva variable y distribuida uniforme entre 0 y 1 mediante el cambio de variable:

y = F(x)
dy d x = f (x ')dx ' = f (x) dx dx La pdf de y es: g(y) = f (x) dx dy dx = =1 0 y 1 dy dx dy

Usaremos esta propiedad de la distribucin uniforme en el tema relacionado con tcnicas de Monte Carlo.

Distribucin exponencial
1 f (x; ) = e , 0 x 1 E[x] = xe dx = 0 V[x] = 1 (x )2 e dx = 2 0
x x x

Ejemplo: El tiempo de desintegracin de una partcula inestable (medido en su sistema de referencia) sigue una distribucin exponencial

Distribucin de Gauss
(x )2 f (x; , ) = exp( ) 2 2 2 2 + 1 (x )2 E[x] = x exp( )dx = 2 2 2 2
2

V[x] =

(x )

(x )2 exp( )dx = 2 2 2 2 2 1

NB: A menudo y 2 se utlizan para denotar la media y la varianza de cualquier pdf, no slo la pdf gausiana. Distribucin de Gauss estndar:
= 0, = 1 (x) =
(x) = 1

x 2 exp( ) 2 2

(x ')dx '

Si y es Gausiana con y 2 entonces x=(y- )/ sigue (x).

Teorema del lmite central


Dadas n variables aleatorias independientes xi, con: medias i , varianzas i2 pdf arbitraria Su suma, en el lmite de n grande es una variable aleatoria distribuida gausianamente
yi = xi , n : yi est distribuida gausianamente
i =1 n

E[yi ]= i , V[yi ]= 2 i
i =1 i =1

El teorema del lmite central supone la justificacin formal para tratar los errores como variables aleatorias distribuidas gausianamente. Es aplicable siempre que el error total sea la suma de muchas contribuciones pequeas.

Distribucin de Gauss Multivariada


f ( x; ,V ) = E[xi ] = i cov[xi , x j ] = Vij n=2 f (x1, x2 ; 1, 2 , 1 , 2 , ) = 1 2 1 2 1 1 (2 )N /2 1 exp ( x )T V 1 ( x ) 1/ 2 V 2

x1 1 2 1 x2 2 2 x1 1 x2 2 exp ( ) +( ) 2( )( ) , 2 2 1 2 2(1 ) 1 cov[x1, x2 ] = coeficiente de correlacin ( 1 2 )

Distribucin 2
1 z n /2 1e z / 2 , n = 1, 2.,,, n /2 2 (n / 2) n nmero de grados de libertad f (z;n) = (x)= e-tt x1dt funcin Gamma
0

E[z]= z
0

1 z n /2 1e z / 2 dz = n n /2 2 (n / 2) 1 z n / 2 1e z /2 dz = 2n n /2 2 (n / 2)

V[z]= (z-n)2
0

Dadas N variables aleatorias independientes xi, distribuidas gausianamente, con media i y varianza i2, la variable:

(xi i )2 z= i2 i =1
N

Sigue la distribucin 2 para N grados de libertad. Como veremos, estas variables son las que utilizamos para estimar la calidad de un ajuste, particularmente con el mtodo de mnimos cuadrados

También podría gustarte