Está en la página 1de 53

Estadstica Matem

atica
John F. Moreno T.

Maestra en Finanzas

Universidad Externado de Colombia

Funci
on generadora de momentos
La funci
on generadora de momentos (o transforma de Laplace) de una v.a. X se define como:
mX (t) = E[etX ] =

etxfX (x)dx

La funci
on recibe este nombre porque:

dk mX (t)
k]
|
=
E[X
t=0
dtk

tR

Algunas propiedades de la generadora de momentos


son:

Si X y Y son dos variables aleatorias tales que


mX (t) = mY (t),entonces X y Y tienen la misma
distribuci
on.

Si X1, X2, ..., Xn son v.a. independientes y Y =

mY (t) =

P
i Xi ,entonces:

mXi (t)

Si Y = aX+b, entonces mY (t) = ebtmX (at) (zEjercicio)

Ejemplo: Sea X Bin(n, p), entonces, X =


donde Xi Bernulli(p) independientes.

Pn
i=1 Xi ,

Como:

mXi (t) = E[etXi ] = (pet) + ((1 p)e0) = pet + q


donde q = 1 p, entonces:

mX (t) =

Y
i

mXi (t) = (pet + q)n

Ejemplo: Sean X1 Bin(n1, p) y X2 Bin(n2, p) independientes. Si Y = X1 + X2, entonces:

mY (t) = mX1 (t)mX2 (t) = (pet+q)n1 (pet+q)n2 = (pet+q)n1+n2


que es la forma de la funci
on generadora de momentos
de una binomial con par
ametros n1 + n2 y p.

Funciones generadoras de momentos de algunas


distribuciones
Distribuci
on
Bernulli(p)
Binomial(n, p)
Poisson()
Exponencial()

mX(t)
pet + q
(pet + q)n
t
e(e 1)

Normal(, 2)
Lognormal(, 2)

exp{t + 2t }
No esta definida

2 2

Otra funci
on que permite caracterizar a una variable
aleatoria es la funci
on caracterstica, la cual esta
definida como:
X (t) = E[eitX ] = E[cos(tX)] + iE[sen(tX)]

X (0) = 1

|X (t)| 1 para todo t.


dk X (t)
|t=0 = ik E[X k ]
k
dt

Si X (t) = Y (t) entonces X y Y tiene la misma


distribuci
on.

Teorema del lmite central

Sean X1, X2, ..., Xn variables aleatorias independientes e id


enticamente distribuidas de una distribuci
on
con media y varianza 2 6= 0. Entonces, si n es
suficientemente grande, la variable aleatoria:
n
1 X
=
X
Xi
n i=1

sigue una distribuci


on normal con par
ametros:

X
=

2
2
X
=
n

o, en forma equivalente

X
Z=
N (0, 1)
/ n

Ejemplo:
Se tiene la informaci
on de los retornos mensuales (Ri),
durante 10 a
nos (120 observaciones), de un fondo de inversi
on. La rentabilidad mensual promedio es de 2.3 %,
y la desviaci
on est
andar de la serie de rendimientos es
del 3.6 %. Cu
al es la desviaci
on est
andar del retorno
medio?

3,6 %

X
=
=
= 0,33 %

n
120

Si el administrador de la cartera se est


a comparando
contra una rentabilidad media mensual de 1,5 %. Cu
al
es la probabilidad de que el retorno medio del gestor de
la cartera supere el punto de referencia?

2, 3 %
R
> 1,5 %] = P Z =
P [R
> 2, 43 = 99, 25 %
0, 33 %
"

Nota:
Bajo las hip
otesis de teorema del lmite central, se tiene
que la variable aleatoria:


X
N (0, 1)
S/ n

donde S =

1 Pn (X X)
2 (desviaci
on muestral).
i
n1 i=1

El m
etodo Delta
Considere una sucesi
on de variables aleatorias Yn que
satisfacen:

Yn
N (0, 1)
n

y sea g una funci


on derivable, con g 0() 6= 0,entonces:

g(Yn) g()
N (0, 1)
(|g 0()|)/ n

En otras palabras,

Yn N ,

2
n

= g(Yn) N g(), (g 0(u))2

Ejemplo: Sean X1, ..., Xn variables


media y varianza 2. Por el TLC,

aleatorias iid, con

X
N (0, 1).
/ n

n
Sea Wn = eX
, entonces g(s) = es y g 0(s) = es, y por el
m
etodo delta:

Wn N (e ; e2 2/n)

Inferencia Estadstica

Un modelo estadstico G es un conjunto de distribuciones (densidades o regresiones) que buscan


describir un fen
omeno.
Un modelo param
etrico es una conjunto G que
puede ser caracterizado por un n
umero finito de
par
ametros.

Por ejemplo, si consideramos que un conjunto de observaciones vienen de una distribuci


on normal, entonces el
modelo es:

1
G = f (x; , ) =
exp
2

(x )2
2 2

; R, > 0

que es un modelo de dos par


ametros , .

De forma general, un modelo param


etrico toma la forma

G = {f (x; ) : }

donde es un par
ametro(s) desconocidos que toma
valores en un espacio de par
ametros .
La estadstica inferencial desarrolla m
etodos para
estimar el valor de estos par
ametros a partir de las
observaciones disponibles, y utilizando resultados de
la probabilidad.

Conceptos fundamentales de estadstica Inferencial


Estimaci
on puntual: Se refiere a un
unico n
umero
propuesto () como valor del par
ametro desconocido
().

Recordemos que es una cantidad fija desconocida,mientras


que va a depender de la muestra, luego
Dados X1, ..., Xn observaciones iid de alguna distribuci
on f (x, ), un estimador puntal de es alguna funci
on de X1, ..., Xn:

= g(X1, ..., Xn)

El sesgo de un estimador puntual es definido como:


Sesgo() = E ()
y decimos que el estimador es insesgado si
E () = .

La distribuci
on de es llamada distribuci
on muestral,
y la desviaci
on est
andar de es llamada error est
andar,
y se denota por:

se = se() =

V []

Ejemplo: Sea X1, ..., Xn v.a. iid Bernulli(p), y sea p =


P
i Xi /n.

1 P E[X ] = p, luego p
es insesgado.
1. E[
p] = n
i
i

2. El error est
andar (se) es: se =
y el error estimado es es
=

V [
p] =

p(1 p)/n

p(1 p)/n

Ejercicio:
Muestre que si X1, ..., Xn v.a. iid Normal(, 2), enP Xi
P (XiX)
2
2

tonces X = i
yS = i
, son estimadon

n1

res insesgados de y 2 respectivamente.

M
etodos de estimaci
on puntual
M
etodo de momentos:

El k-
esimo momento te
orico o poblacional de
una variable se define como:
k = E [X k ]

El k-
esimo momento muestral de una variable se
define como:
n
1 X

k =
[Xik ]
n i=1

El estimador de momentos , es definido como el


valor de tal que:

1() =
1
2() =
2
......
k () =
k
Considerando tantas ecuaciones como par
ametros a
estimar.

Ejemplo:
X1, ..., Xn v.a. iid Bernulli(p). Entonces 1 = Ep[X] = p
Pn
1
y
1 = n i=1 Xi, luego

n
1 X
p =
Xi
n i=1

Ejemplo:
X1, ..., Xn v.a. iid Normal(, 2). Entonces 1 = E [X] =
y 2 = E [X 2] = V [X]+(E [X])2 = 2 +2. Se deben
resolver entonces las ecuaciones:

n
1 X
Xi

=
n i=1

n
1 X
2
2

+
=
Xi2
n i=1

La soluci
on es:

=X

n
1 X
2
2

=
(Xi X)
n i=1

M
etodo de m
axima verosimilitud:

Dadas X1, ..., Xn v.a. iid, con funci


on de densidad
(masa) f (x; ). Se defina la funci
on de verosimilitud L como:

L() =

n
Y

f (Xi; )

i=1

y la funci
on de log-verosimilitud como l() =
ln(L()).

La funci
on de verosimilitud es la funci
on de densidad
de los datos, tratada como una funci
on del par
ametro.

El estimador de m
axima verosimilitud , es el
valor de que maximiza L() o lo que es igual a
l().

Nota: Si se multiplica L() por cualquier constante positiva que no dependa de , el estimador no cambia,
raz
on por la cual se pueden omitir las constantes de la
funci
on de verosimilitud.

Ejemplo:
Sea X1, ..., Xn v.a. iid. Bernulli(p). Entonces la funci
on
masa de probabilidad de estas variables es fX (x) =
px(1 p)1x, para x = 0, 1. De esto, la funci
on de verosimilitud es:

L(p) =

n
Y

pXi (1 p)1Xi = p

i Xi (1 p)n

i Xi

i=1

l(p) =

X
i

Xi ln(p) + (n

Xi) ln(1 p)

Se puede ver que al


on
P derivar e igualar a cero esta funci
X
i i
se tiene que: p = n

on
Ejemplo: Sea X1, ..., Xn v.a. iid. N (, 2). La funci
de verosimilitud (ignorando algunas constantes) es:

L(, 2) =

n
Y
1

(Xi )2
exp

2 2
i=1
(

= n exp

1
2
(Xi )2
2

i=1

La funci
on de log-verosimilitud es:

)2
nS 2 n(X
l(, ) = n ln()

2
2
2 2
P
2
1
2
donde S = n
i (Xi X)

n
X

Al resolver las ecuaciones:

l(, )
=0

l(, )
=0

se concluye que:

=X
= S.

Estimaci
on por intervalos
Un intervalo de confianza al nivel 1 , para un
par
ametro , es un intervalo Cn = (a, b) donde a =
a(X1, ..., Xn) y b = b(X1, ..., Xn) son funciones de los
datos, tal que:
P ( Cn) 1

para todo

Intervalos de confianza basados en la normal:


Supongamos que N (, se
2). Si denotamos por z/2 =
1(1(/2)), es decir, P [Z > z/2] = /2 y P [z/2 <
Z < z/2] = 1 , donde Z N (0, 1). Si:

Cn = ( z/2se
; + z/2se)

entonces: P ( Cn) = 1 .

Ejemplo 1: (Muestra grande)


P

Sea X1, ..., Xn v.a.


y sea p = i Xi/n.
q iid Bernulli(p),
q
p] = p(1 p)/n y el error estimado
Entonces, se = V [
q

es es
= p(1 p)/n. Por el teorema del lmite central,
p N (p, se
2), y un intervalo de confianza para p, con
un nivel de confianza de 1 es:

p z/2se
= p z/2

p(1 p)
n

Ejemplo 2: (Muestra peque


na-Poblaci
on normal)
Sea X1, ..., Xn v.a. iid Normal(, 2). El estadstico:


X
T =
t(n1)
s/ n
Un intervalo de confianza para , con un nivel de confianza de 1 es:

s
t/2,n1
X
n

Intervalos de confianza para la varianza poblacional


Sea X1, ..., Xn v.a. iid de una distribuci
on normal con
par
ametros y 2, entonces la variable aleatoria

(n 1)S 2
2

Pn
2
(Xi X)
i=1
=
2

tiene una distribuci


on chi-cuadrado (2) con n 1 grados de libertad.

La distribuci
on Chi-cuadrado es una funci
on densidad
de probabilidad cuyo
unico par
ametro v es el n
umero de
grados de libertad, con posibles valores v = 1, 2, 3, ....

Gr
afica de la densidad de Chi-cuadrado.

Sea 2
,v , el valor critico chi-cuadrado, que denota
el valor en el eje horizontal tal que del
area bajo la
curva de una chi-cuadrado con v grados de libertad
esta a la derecha de 2
,v .

Como:

"

P 2
1/2,n1 <

(n 1)S 2
2

< 2
/2,n1 = 1

se tiene que:

(n 1)S 2
2
/2,n1

< 2 <

(n 1)S 2
2
1/2,n1

=1

Un intervalo de confianza al 100(1 ) % para


la varianza 2 de una poblaci
on normal tiene lmite
inferior:
(n 1)S 2/2
/2,n1
y lmite superior
(n 1)S 2/2
1/2,n1
Lmites superiores e inferiores para 2 resultan de
reemplazar /2 por en cada caso.

Prueba de hip
otesis

Una prueba de hip


otesis estadstica es un procedimiento mediante el cual se utilizan los valores de una
muestra para determinar si se rechaza o no una afirmaci
on acerca de un par
ametro () (Hip
otesis nula), en
favor de una hip
otesis contraria (Hip
otesis alternativa).

Hip
otesis estadsticas:

Hip
otesis nula (H0): es la hip
otesis que en principio se asume como verdadera.
Hip
otesis alternativa (Ha): contraria a H0.
Se rechaza H0 en favor de Ha si la evidencia muestral
hace pensar que H0 es falsa.

Procedimiento de prueba:

Estadstico de prueba (X): Es una funci


on que
depende de los valores de la muestra.

Regi
on de rechazo (R): Conjunto de valores del
estadstico de prueba para los cuales se rechaza H0.

X R RehazarH0

X
/ R No rehazarH0

Nota: La forma de la regi


on de rechazo depende de
la forma de la hip
otesis alternativa y del error que se
puede cometer.

H0 verdadera
H0 Falsa

No rechazar H0

Error tipo II

= P [Error tipo I]

Rechazar H0
Error tipo I

= P [Error tipo II]

Si H0 : = 0 se denomina hip
otesis simple.
Si H0 : > 0 o H0 : < 0 se denomina hip
otesis compuesta.
Una prueba de la forma:
H0 : = 0 versus Ha : 6= 0
se denomina prueba de dos lados.
Una prueba de la forma:
H0 : 0 versus Ha : > 0
se denomina prueba de un lado.

Ejemplo:
Sea X1, ..., Xn N (, 2) donde es conocido. Se quiere probar H0 : 0 versus Ha : > 0.
Se considera la regi
on de rechazo:

>c
R = (x1, ..., xn) : X(x1, ..., xn) = X


entonces tenemos que:


Sea Z la estandarizaci
on de X,

= P [Error tipo I]
= P [Rechazar H0 cuando H0 verdadera]
> c cuando H0 verdadera]
= P [X
#
"

c
X
=P Z=
>
cuando > 0
/ n
/ n
!
c
=1

/ n
y para una fijo:

1(1 )
z
c=
=

n
n

Test de wald
Considere la prueba:
H0 : = 0 versus Ha : 6= 0
Asumiendo que es una estimador de asint
oticamete normal, es decir,
0
N (0, 1)
se

el test de Wald a nivel es: Rechazar H0 cuando


|W | > z/2, donde
0
W =
se

Ejemplo:(Comparaci
on de medias)
Sea X1, ..., Xm y Y1, .., Yn muestras aleatorias independientes de poblaciones con medias 1 y 2 respectivamente. La hip
otesis nula es H0 : 1 = 2, luego:

H0 : = 0 versus Ha : 6= 0

donde = 1 2.

Y
y que:
Tenemos que = X

se
=

2
s
s2
1+ 2
m
n

El test de Wald a nivel rechaza H0 cuando |W | > z/2,


donde:

X
0
W =
=r
2
se

s2
1 + s2
m
n

Supongamos que para todo nivel (0, 1) se tiene


una prueba de nivel con regi
on de rechazo R.
Entonces:
p valor = nf { : X R}
es decir, el p-valor es el m
as peque
no de los niveles
a los cuales se rechaza H0.

Informalmente, el p-valor es una medida de la evidencia


en contra de H0; a m
as peque
no el p-valor , m
as fuerte
es la evidencia en contra de H0.

0 el valor observado de un estad


stico
Sea w =
se

de Wald W . El p-valor esta determinado por

p valor = P [|Z| > |w|] = 2(|w|)


donde Z N (0, 1).

Teorema: Si una prueba de hip


otesis tiene un estadstico con distribuci
on continua, entonces bajo H0 : = 0,
el p valor tiene una distribuci
on uniforme (0,1). Si rechazamos H0 cuando el p-valor es menor que , la probabilidad del error tipo I es .

También podría gustarte