Está en la página 1de 14

Distribuciones Probabilsticas

Curso de Estadstica
TAE,2005
J.J. Gmez Cadenas
Distribucin Binomial
Considerar N observaciones independientes tales que:
El resultado de cada experimento es acierto o fallo
La probabilidad de acierto de un experimento dado es p
El conjunto de observaciones N puede considerarse como una nica medida
que puede caracterizarse por la variable aleatoria n :
n = nmero de aciertos (0!n !N)
El espacio de muestras S se define como el conjunto de posibles valores de n
para N observaciones.
Si repetimos el experimento muchas veces con N observaciones cada vez, los
valores resultantes de n ocurren con frecuencias relativas determinadas por la
distribucin binomial.
Derivacin de la forma de la distribucin binomial
Probabilidad de acierto para una observacin dada !p
Probabilidad de fallo !1-p
Las observaciones son independientes !Probabilidad de acierto y/o fallo de
una secuencia de observaciones (en un orden dado) es el producto de las
observaciones individuales.
Ejemplo: aafaf !P=pp(1-p)p(1-p)=p
3
(1-p)
2
En general P, para una secuencia de n aciertos y (N-n) fallos !p
n
(1-p)
N-n
Puesto que el orden de acierto/fallo es irrelevante (estamos interesados slo
en el nmero total de aciertos n) calculamos el nmero de secuencias
(permutaciones) con n xitos en N observaciones:
N!
n!(N ! n)!
La distribucin binomial, es, entonces:
f (n; N, p) =
N!
n!(N ! n)!
p
n
(1! p)
N!n
Donde, la notacin f(n; N,p) indica que n es una variable aleatoria, mientras que
N y p son parmetros.
Valor esperado y varianza (clculo no trivial):
E[n] = n
N!
n!(N ! n)!
p
n
(1! p)
N!n
n=0
"
#
= Np
V[n] = E[n
2
] ! (E[n])
2
= Np(1! p)
NB: E[n] y V[n] no son variables aleatorias sino constantes que dependen de los
valores verdaderos (y posiblemente desconocidos) de p y N.
Ejemplo: Observamos N desintegraciones del ".
El nmero n de estas observaciones correspondientes a un determinado canal
(e.g, #$) sigue la distribucin binomial, con p igual a la relacin de
semidesintegracin del canal
Distribucin Multinomial
Similar a la binomial, pero en lugar de 2 posibles resultados (acierto o fallo)
hay m posibles resultados.

!
p = ( p
1
,..., p
m
) tal que p
i
i=1
m
!
= 1
Para N observaciones queremos calcular la probabilidad de observar:
n
1
con resultado 1
n
2
con resultado 2

n
m
con resultado m
Esta probabilidad sigue la distribucin multinomial

f (
!
n; N,
!
p) =
N!
n
1
!n
2
!...n
m
!
p
1
n
1
p
2
n
2
...p
m
n
m
Ejemplo de multinomial: n = (n
1
,,n
m
)
representa un histograma con m bins y N
entradas en total
Los n
i
individuales se distribuyen
binomialmente con parmetros
N,p
i
Distribucin de Poisson
Considerar la distribucin binomial en el lmite:
N!%
p!0
E[n]=Np !$
Puede demostrarse que
en este caso n sigue la
distribucin de Poisson
f (n;!) =
!
n
n!
e
"!
(0 # n # $)
E[n]= n
n=0
$
%
!
n
n!
e
"!
= !
V[n]= (n-
n=0
$
%
!)
2
!
n
n!
e
"!
= !
Para $ grande Poisson tiende a Gauss
Ejemplos de Poisson: Nmero de
desintegraciones de una cierta cantidad de
material radioactivo en un tiempo fijo t, en el
lmite:
Nmero de desintegraciones posibles (e.g,
nmero total de tomos) es muy grande
Probabilidad de una desintegracin
individual en t es muy pequea.
Distribucin uniforme
Considerar una variable continua aleatoria definida en todo R. La
distribucin uniforme es:
f (x; !, ") =
1
" #!
! $ x $ "
0 en otro caso
%
&
'
(
'
Es decir, podemos encontrar x con igual probabilidad entre & y ':
E[x] =
x
! "#
0
!
$
dx =
1
2
(# + !)
V[x] = [x "
1
2
(# + !)]
2
1
! "#
0
!
$
dx =
1
12
(! "#)
2
Una propiedad importante de la distribucin uniforme es la de que cualquier
variable aleatoria continua x con pdf f(x) y distribucin acumulativa F(x)
puede transformarse en una nueva variable y distribuida uniforme entre 0 y 1
mediante el cambio de variable:
y = F(x)
dy
dx
=
d
dx
f (x')dx' = f (x)
!"
x
#
La pdf de y es:
g(y) = f (x)
dx
dy
=
dy
dx
dx
dy
= 1 0 $ y $1
Usaremos esta propiedad de la distribucin uniforme en el tema relacionado
con tcnicas de Monte Carlo.
Distribucin exponencial
f (x;!) =
1
!
e
"
x
!
, 0 # x # $
E[x] =
1
!
x
0
$
%
e
"
x
!
dx = !
V[x] =
1
!
(x " !)
2
0
$
%
e
"
x
!
dx = !
2
Ejemplo: El tiempo de desintegracin de una partcula inestable (medido en
su sistema de referencia) sigue una distribucin exponencial
Distribucin de Gauss
f (x; ,!
2
) =
1
2"!
2
exp(
#(x # )
2
2!
2
)
E[x] = x
#$
+$
%
1
2"!
2
exp(
#(x # )
2
2!
2
)dx =
V[x] = (x # )
2
#$
+$
%
1
2"!
2
exp(
#(x # )
2
2!
2
)dx = !
2
NB: A menudo y (
2
se utlizan para denotar la media y la varianza de
cualquier pdf, no slo la pdf gausiana.
Distribucin de Gauss estndar:
= 0, ! = 1"#(x) =
1
2$
exp(
%x
2
2
)
&(x) = #(x')dx'
%'
x
(
Si y es Gausiana con y (
2
entonces x=(y- )/( sigue )(x).
Teorema del lmite central
Dadas n variables aleatorias independientes x
i
, con:
medias
i
, varianzas (
i
2
pdf arbitraria
Su suma, en el lmite de n grande es una variable aleatoria distribuida
gausianamente
y
i
= x
i
i =1
n
!
, n "#: y
i
est distribuida gausianamente
E[y
i
]=
i
i =1
n
!
, V[y
i
]= $
2
i
i =1
n
!
El teorema del lmite central supone la justificacin formal para tratar los
errores como variables aleatorias distribuidas gausianamente. Es aplicable
siempre que el error total sea la suma de muchas contribuciones pequeas.
Distribucin de Gauss Multivariada

f (
!
x;
!
,V) =
1
(2!)
N /2
V
1/ 2
exp "
1
2
(
!
x "
!
)
T
V
"1
(
!
x "
!
)
#
$
%
&
'
(
E[x
i
] =
i
cov[x
i
, x
j
] = V
ij
n = 2
f (x
1
, x
2
;
1
,
2
,)
1
,)
2
, *) =
1
2!)
1
)
2
1" *
+exp "
1
2(1" *
2
)
(
x
1
"
1
)
1
)
2
+ (
x
2
"
2
)
2
)
2
" 2*(
x
1
"
1
)
1
)(
x
2
"
2
)
2
)
#
$
%
&
'
(
,
-
.
/
.
0
1
.
2
.
,
* =
cov[x
1
, x
2
]
()
1
)
2
)
coeficiente de correlacin
Distribucin *
2
f (z; n) =
1
2
n/2
!(n / 2)
z
n/2"1
e
"z/ 2
, n = 1, 2.,,,
n # nmero de grados de libertad
!(x)= e
-t
t
x"1
dt
0
$
%
# funcin Gamma
E[z]= z
1
2
n/2
!(n / 2)
z
n/2"1
e
"z/ 2
dz = n
0
$
%
V[z]= (z-n)
2
1
2
n/2
!(n / 2)
z
n/ 2"1
e
"z/2
dz = 2n
0
$
%
Dadas N variables aleatorias independientes x
i
, distribuidas gausianamente,
con media
i
y varianza (
i
2
, la variable:
z =
(x
i
!
i
)
2
"
i
2
i =1
N
#
Sigue la distribucin *
2
para N grados de libertad.
Como veremos, estas variables son las que utilizamos
para estimar la calidad de un ajuste, particularmente
con el mtodo de mnimos cuadrados

También podría gustarte