Documentos de Académico
Documentos de Profesional
Documentos de Cultura
atica
John F. Moreno T.
Maestra en Finanzas
Funci
on generadora de momentos
La funci
on generadora de momentos (o transforma de Laplace) de una v.a. X se define como:
mX (t) = E[etX ] =
etxfX (x)dx
La funci
on recibe este nombre porque:
dk mX (t)
k]
|
=
E[X
t=0
dtk
tR
mY (t) =
P
i Xi ,entonces:
mXi (t)
Pn
i=1 Xi ,
Como:
mX (t) =
Y
i
mX(t)
pet + q
(pet + q)n
t
e(e 1)
Normal(, 2)
Lognormal(, 2)
exp{t + 2t }
No esta definida
2 2
Otra funci
on que permite caracterizar a una variable
aleatoria es la funci
on caracterstica, la cual esta
definida como:
X (t) = E[eitX ] = E[cos(tX)] + iE[sen(tX)]
X (0) = 1
X
=
2
2
X
=
n
o, en forma equivalente
X
Z=
N (0, 1)
/ n
Ejemplo:
Se tiene la informaci
on de los retornos mensuales (Ri),
durante 10 a
nos (120 observaciones), de un fondo de inversi
on. La rentabilidad mensual promedio es de 2.3 %,
y la desviaci
on est
andar de la serie de rendimientos es
del 3.6 %. Cu
al es la desviaci
on est
andar del retorno
medio?
3,6 %
X
=
=
= 0,33 %
n
120
2, 3 %
R
> 1,5 %] = P Z =
P [R
> 2, 43 = 99, 25 %
0, 33 %
"
Nota:
Bajo las hip
otesis de teorema del lmite central, se tiene
que la variable aleatoria:
X
N (0, 1)
S/ n
donde S =
1 Pn (X X)
2 (desviaci
on muestral).
i
n1 i=1
El m
etodo Delta
Considere una sucesi
on de variables aleatorias Yn que
satisfacen:
Yn
N (0, 1)
n
g(Yn) g()
N (0, 1)
(|g 0()|)/ n
En otras palabras,
Yn N ,
2
n
X
N (0, 1).
/ n
n
Sea Wn = eX
, entonces g(s) = es y g 0(s) = es, y por el
m
etodo delta:
Wn N (e ; e2 2/n)
Inferencia Estadstica
1
G = f (x; , ) =
exp
2
(x )2
2 2
; R, > 0
G = {f (x; ) : }
donde es un par
ametro(s) desconocidos que toma
valores en un espacio de par
ametros .
La estadstica inferencial desarrolla m
etodos para
estimar el valor de estos par
ametros a partir de las
observaciones disponibles, y utilizando resultados de
la probabilidad.
La distribuci
on de es llamada distribuci
on muestral,
y la desviaci
on est
andar de es llamada error est
andar,
y se denota por:
se = se() =
V []
1 P E[X ] = p, luego p
es insesgado.
1. E[
p] = n
i
i
2. El error est
andar (se) es: se =
y el error estimado es es
=
V [
p] =
p(1 p)/n
p(1 p)/n
Ejercicio:
Muestre que si X1, ..., Xn v.a. iid Normal(, 2), enP Xi
P (XiX)
2
2
tonces X = i
yS = i
, son estimadon
n1
M
etodos de estimaci
on puntual
M
etodo de momentos:
El k-
esimo momento te
orico o poblacional de
una variable se define como:
k = E [X k ]
El k-
esimo momento muestral de una variable se
define como:
n
1 X
k =
[Xik ]
n i=1
1() =
1
2() =
2
......
k () =
k
Considerando tantas ecuaciones como par
ametros a
estimar.
Ejemplo:
X1, ..., Xn v.a. iid Bernulli(p). Entonces 1 = Ep[X] = p
Pn
1
y
1 = n i=1 Xi, luego
n
1 X
p =
Xi
n i=1
Ejemplo:
X1, ..., Xn v.a. iid Normal(, 2). Entonces 1 = E [X] =
y 2 = E [X 2] = V [X]+(E [X])2 = 2 +2. Se deben
resolver entonces las ecuaciones:
n
1 X
Xi
=
n i=1
n
1 X
2
2
+
=
Xi2
n i=1
La soluci
on es:
=X
n
1 X
2
2
=
(Xi X)
n i=1
M
etodo de m
axima verosimilitud:
L() =
n
Y
f (Xi; )
i=1
y la funci
on de log-verosimilitud como l() =
ln(L()).
La funci
on de verosimilitud es la funci
on de densidad
de los datos, tratada como una funci
on del par
ametro.
El estimador de m
axima verosimilitud , es el
valor de que maximiza L() o lo que es igual a
l().
Nota: Si se multiplica L() por cualquier constante positiva que no dependa de , el estimador no cambia,
raz
on por la cual se pueden omitir las constantes de la
funci
on de verosimilitud.
Ejemplo:
Sea X1, ..., Xn v.a. iid. Bernulli(p). Entonces la funci
on
masa de probabilidad de estas variables es fX (x) =
px(1 p)1x, para x = 0, 1. De esto, la funci
on de verosimilitud es:
L(p) =
n
Y
pXi (1 p)1Xi = p
i Xi (1 p)n
i Xi
i=1
l(p) =
X
i
Xi ln(p) + (n
Xi) ln(1 p)
on
Ejemplo: Sea X1, ..., Xn v.a. iid. N (, 2). La funci
de verosimilitud (ignorando algunas constantes) es:
L(, 2) =
n
Y
1
(Xi )2
exp
2 2
i=1
(
= n exp
1
2
(Xi )2
2
i=1
La funci
on de log-verosimilitud es:
)2
nS 2 n(X
l(, ) = n ln()
2
2
2 2
P
2
1
2
donde S = n
i (Xi X)
n
X
l(, )
=0
l(, )
=0
se concluye que:
=X
= S.
Estimaci
on por intervalos
Un intervalo de confianza al nivel 1 , para un
par
ametro , es un intervalo Cn = (a, b) donde a =
a(X1, ..., Xn) y b = b(X1, ..., Xn) son funciones de los
datos, tal que:
P ( Cn) 1
para todo
Cn = ( z/2se
; + z/2se)
entonces: P ( Cn) = 1 .
es es
= p(1 p)/n. Por el teorema del lmite central,
p N (p, se
2), y un intervalo de confianza para p, con
un nivel de confianza de 1 es:
p z/2se
= p z/2
p(1 p)
n
X
T =
t(n1)
s/ n
Un intervalo de confianza para , con un nivel de confianza de 1 es:
s
t/2,n1
X
n
(n 1)S 2
2
Pn
2
(Xi X)
i=1
=
2
La distribuci
on Chi-cuadrado es una funci
on densidad
de probabilidad cuyo
unico par
ametro v es el n
umero de
grados de libertad, con posibles valores v = 1, 2, 3, ....
Gr
afica de la densidad de Chi-cuadrado.
Sea 2
,v , el valor critico chi-cuadrado, que denota
el valor en el eje horizontal tal que del
area bajo la
curva de una chi-cuadrado con v grados de libertad
esta a la derecha de 2
,v .
Como:
"
P 2
1/2,n1 <
(n 1)S 2
2
< 2
/2,n1 = 1
se tiene que:
(n 1)S 2
2
/2,n1
< 2 <
(n 1)S 2
2
1/2,n1
=1
Prueba de hip
otesis
Hip
otesis estadsticas:
Hip
otesis nula (H0): es la hip
otesis que en principio se asume como verdadera.
Hip
otesis alternativa (Ha): contraria a H0.
Se rechaza H0 en favor de Ha si la evidencia muestral
hace pensar que H0 es falsa.
Procedimiento de prueba:
Regi
on de rechazo (R): Conjunto de valores del
estadstico de prueba para los cuales se rechaza H0.
X R RehazarH0
X
/ R No rehazarH0
H0 verdadera
H0 Falsa
No rechazar H0
Error tipo II
= P [Error tipo I]
Rechazar H0
Error tipo I
Si H0 : = 0 se denomina hip
otesis simple.
Si H0 : > 0 o H0 : < 0 se denomina hip
otesis compuesta.
Una prueba de la forma:
H0 : = 0 versus Ha : 6= 0
se denomina prueba de dos lados.
Una prueba de la forma:
H0 : 0 versus Ha : > 0
se denomina prueba de un lado.
Ejemplo:
Sea X1, ..., Xn N (, 2) donde es conocido. Se quiere probar H0 : 0 versus Ha : > 0.
Se considera la regi
on de rechazo:
>c
R = (x1, ..., xn) : X(x1, ..., xn) = X
= P [Error tipo I]
= P [Rechazar H0 cuando H0 verdadera]
> c cuando H0 verdadera]
= P [X
#
"
c
X
=P Z=
>
cuando > 0
/ n
/ n
!
c
=1
/ n
y para una fijo:
1(1 )
z
c=
=
n
n
Test de wald
Considere la prueba:
H0 : = 0 versus Ha : 6= 0
Asumiendo que es una estimador de asint
oticamete normal, es decir,
0
N (0, 1)
se
Ejemplo:(Comparaci
on de medias)
Sea X1, ..., Xm y Y1, .., Yn muestras aleatorias independientes de poblaciones con medias 1 y 2 respectivamente. La hip
otesis nula es H0 : 1 = 2, luego:
H0 : = 0 versus Ha : 6= 0
donde = 1 2.
Y
y que:
Tenemos que = X
se
=
2
s
s2
1+ 2
m
n
X
0
W =
=r
2
se
s2
1 + s2
m
n