Está en la página 1de 22

Ejercicios Teora Estadstica

15 de junio de 2014
1. Capitulo 1: Statistical models, Goals, and Per-
formace Criteria
1.7 Muestre que Y c tiene la misma distribucion de Y +c, si y solo si,
la densidad o funcion de frecuencia p de Y satisface p(c +t) = p(c t)
para todo t. Ambas Y y p se dicen que son simetricas con respecto a
c.
Solucion
Supongamos Y es discreta
Supongamos que Y c tiene la misma distribucion de Y +c
P[y c = t] = P[y +c = t]
P[y = c +t] = P[y = c t]
p(c +t) = P(c t)x
Supongamos que p(c +t) = p(c t) para todo t
p(c +t) = P(c t)
P[y = c +t] = P[y = c t]
P[y c = t] = P[y +c = t]
De donde, Y c tiene la misma distribucion de Y +c
Supongamos Y es continua
1
Supongamos que Y c tiene la misma distribucion de Y +c
P[y c t] = P[y +c t]
P[y c +t] = P[y c t]
F(c +t) = 1 F(c t)
Derivandoaamboslados, p(c +t) = p(c t)(1)
p(c +t) = P(c t)x
Supongamos que p(c +t) = p(c t) para todo t
p[y c t] = P[y c +t]
=
_
c+t

p(y)dy
=
_
t

p(c +y)dy
=
_

t+c
p(y)dy
= P[y t +c]
= P[y +c t]
De donde, Y c tiene la misma distribucion de Y +c
1.1.13 Un modelo de riesgo proporcional. Sea f(t|z
i
) la densidad del tiempo de
supervivencia y
i
de un paciente con vector de covarianzas z
i
, se denen
las funciones de regresion de superviviencia y riesgo de y
i
como:
S
y
(t|z
i
) =
_

t
f(y|z
i
)dy , h(t|z
i
) =
f(t|z
i
)
S
y
(t|z
i
)
Sea T un tiempo de supervivencia con la densidad f
0
(t) y tasa de
riesgo h
0
(t) =
f
0
(t)
P(T>t)
.
El modelo de riesgos proporcionales de Cox es denido como:
h(t|z) = h
0
(t) exp{g(, z)} (1.7.2)
donde h
0
(t) se denomina la funcion de riesgo basal y g es conocida a
excepcion de un vector = (
1
, . . . ,
p
)
T
de incognitas. La eleccion
mas com un de g es la forma lineal g(, z) = z
T
. Establezca =
exp{g(, z)}.
2
[(a)]Demuestre que (1.7.2) es equivalente a S
y
(t|z) = S

T
(t). Solu-
cion: Al saber que T F
0
con F

0
= f
0
(funcion de densidad), la
funcion de riesgo es por denicion:
h
0
(t) =
f
0
(t)
P(T > t)
=
f
0
(t)
(1 F
0
(t))
,
y al expresarse en terminos de derivadas,
=

t
ln(1 F
0
(t)) =

t
ln(S
0
(t))
Dicho esto, se puede escribir que h
0
(t) =

t
ln(S
0
(t)) y despe-
jando S
0
(t),
ln(S
0
(t)) = c
_
t
s=0
h
0
(s)ds,
para cualquier cR (constante resultado de la integracion)
exp{ln(S
0
(t))} = exp{c
_
t
s=0
h
0
(s)ds}
Por lo que,
S
0
(t) = exp{c
_
t
s=0
h
0
(s)ds}
y como
F
0
(0) = 0, S
0
(0) = 1,
se tiene que:
c = 0 y S
0
(t) = exp{
_
t
s=0
h
0
(s)ds}
Ahora, asumiendo h(t|z) = h
0
(t) exp{g(, z)}, y utilizando los
resultados anteriores se puede ver que:
S(t|z) = exp{
_
t
S=0
h
0
(s) exp{g(, z)}ds}
y al desarrollar parte de la integral
S(t|z) = exp{exp{g(, z)}
_
t
S=0
h
0
(s)ds}
y por propiedades de la exponencial, e
xy
= (e
y
)
x
3
Luego,
S(t|z) =
_
exp{
_
t
S=0
h
0
(s)ds}
_
exp{g(,z)}
= S
0
(t)

ya que S
0
(t) = exp{
_
t
S=0
h
0
(s)ds} y = exp{g(, z)}, como se
denio anteriormente.
b) Asuma 1.7.2 y que F
0
(t) = P(T < t) se conoce y es estrictamente
creciente. Encuentre una funcion creciente Q(t) tal que la funcion
de regresion de supervivencia de y

= Q(y) no dependa de h
0
(t).
Solucion
Se puede denir Q(t) = ln(S
0
(t)), que es una funcion estricta-
mente creciente ya que [S
0
= 1F
0
] es estrictamente decreciente.
Entonces,
P(Q(y) > t) = P(ln(S
0
(y)) > t)
= P(S
0
(y) > e
t
) = P(y > S
1
0
(e
t
))
y utilizando el resultado del punto (a)
= S(S
1
0
(e
t
)) =
_
S
0
(S
1
0
(e
t
))

y al cancelarse S
0
S
1
0
= 1, resulta P(Q(y) > t) = (e
t
)

= e
t
,
que no depende de h
0
.
1.6.3 Sea X el n umero de fallas antes del primer exito en una secuencia de
ensayos Bernoulli con probabilidad de exito . Entonces P

(X = K) =
(1 )
K
, K = 0, 1, 2,

Esta es llamada la distribucion geometrica
(G())
[(a)]Mostrar que la familia de distribucion geometrica es una fa-
milia exponencial con T(x) = x Solucion: P(x, ) = (1 )
x
=
exp{xln(1 ) + ln()}, x 0, demostrando as que la fun-
cion de masa de probabilidad (P(x, )) forma una familia ex-
ponencial. Deducir del Teorema 1.6.1 que si X
1
, , X
n
es una
muestra de G(), entonces las distribuciones de

n
i=1
X
i
for-
man una familia exponencial uniparametrica. Solucion: Ahora
se tiene que P(X, ) = P(x
1
, , x
n
, ) = exp{

n
i=1
X
i
ln(1
) +nln()} formando as por denicion, una familia exponencial
4
uniparametrica. Demostrar que

n
i=1
X
i
en la parte (b) tiene una
distribucion binomial negativa con parametros (n, ) denidos
por P

n
i=1
X
i
= K] =
_
n+K1
K
_
(1)
K

n
, K = 0, 1, 2, . . . Sug-
erencia: Por Teorema 1.6.1 P

n
i=1
X
i
= K] = C
K
(1)
K

n
, 0 <
< 1. Si

K=0
C
K
w
K
=
1
(1w)
n
, 0 < w < 1, entonces C
K
=
1
K!

K
w
K
(1 w)
n
|
w=0
5
Solucion:
Siguiendo el teorema 1.6.1 del libro, se sabe que el estadstico su-
ciente T(x) =

n
i=1
X
i
, luego la forma de la familia exponencial
de la funcion de masa para T es:
P
T
(K, ) = e
K ln(1)+nln()

X:x
i
0
I
[

i
x
i
=m]
= C
K
e
K ln(1)+nln()
, K 0 ()
En terminos de combinatoria C
m
puede ser escrito como
_
n+K1
K
_
,
no obstante, otra va es encontrar C
K
por medio de funciones
generadoras de momentos, de la siguiente manera:
Dado que
E(e
tX
) =

(1 (1 )e
t
)
es la funcion generadora de momentos (FGM) de una geometrica,
la FGM de T es:

K=0
e
tK
P

_
n

i=1
X
i
= K
_
y utilizando la sugerencia resulta:

K=0
e
tK
C
k
(1 )
K

n
=
_

(1 (1 )e
t
)
_
n

K=0
(e
tK
)C
K
(1 )
K
=

n
(1 (1 )e
t
)
cancelando
n
y tomando (1 )e
t
= w,

K=0
C
K
w
K
=
1
(1 w)
n
luego utilizando nuevamente la sugerencia,
C
K
=
1
K!

K
w
K
(1 w)
n
|
w=0
=
_
n +K 1
K
_
Dicho esto, retomando ()
P
T
(K, ) = C
K
e
K ln(1)+nln()
, K 0
6
y ya conociendo, C
K
=
_
n+K1
K
_
, y por el punto (b), e
K ln(1)+nln()
=
exp(

n
i=1
X
i
ln(1 ) +nln()) = P(x
1
, . . . , x
n
, ) = (1 )
K

n
,
0 < < 1, entonces se tiene que:
P
T
(K, ) =
_
n +K 1
K
_
(1 )
K

n
,
demostrando as que la

n
i=1
X
i
tiene una distribucion binomial
negativa con parametros (n, ).
a) b) c) 1.4.5 De un ejemplo en el que el mejor predictor lineal de Y dado Z es una
constante (no tiene valor predictivo) mientras que el mejor predictor
de Y dado Z predice perfectamente.
Solucion:
Se sabe que si el mejor predictor lineal de Y dado Z es una constante
Cov(Y, Z) = 0, y que si el mejor predictor de Y dado Z predice Y
perfectamente, E(Y |Z) = Y Y = g(Z) (entendiendo este ultimo
termino como una funcion g denida en el rango Z, tal que g(Z) -el
predictor- esta cercano a Y )
Dicho esto, basta considerar Z N(0, 1) y Y = Z
2
Entonces E(Y |Z) = Y por independencia, y por la misma razon resul-
ta que Cov(Y ; Z) = 0, cumpliendose as,las condiciones del ejercicio
planteado.
5.4 a Muestre que T
1
y T
2
son estadsticas equivalentes, si y solo si, se
puede escribir T
2
= H(T
1
) para alguna transformacion 1-1, H del
rango de T
1
en el rango de T
2
. Cuales de las siguientes arma-
ciones son equivalentes?
Solucion
Supongamos que existe una funcion biyectiva f entre T
1
y T
2
T
1
(x) = T
1
(y) f(T
1
(x)) = f(T
1
(y))
T
2
(x) = T
2
(y)
De donde, T
1
y T
2
son estadsticas equivalentes
Supongamos que T
1
y T
2
son estadsticas equivalentes. Ya
que f es byectiva, entonces tiene inversa.
7
b

n
i=1
x
i
y

n
i=1
logx
i
, x
i
> 0
Solucion
Sea f(x) = log(x). Entonces f(

x
i
) = log(

x
i
) =

log x
i
. f
es una biyeccion, por lo cual son equivalentes.
c

n
i=1
x
i
y

n
i=1
logx
i
, x
i
> 0
Solucion Estas estadsticas no son equivalentes. Vamos a revisar
un contraejemplo: Si x
1
= 1 y x
2
= 4 entonces

x
i
= 5. Si
y
1
= 2 y y
2
= 3, entonces tambien tendramos

y
i
= 5. Pero
log 1 + log 4 = log 2 + log 3. Por lo cual la informacion contenida
en ambas estadsticas no es la misma.
d (

n
i=1
x
i
,

n
i=1
x
2
i
) y (

n
i=1
x
i
,

n
i=1
(x
i
x)
2
)
Solucion
(x
i
x)
2
= (x
2
1
2x
i
x +x
2
)
= (x
2
1
) 2xx
i
+nx
2
= (x
2
1
) 2(
1
n
x
i
)(x
i
) +n(
1
n
x
i
)
2
= (x
2
1
)
2
n
(x
i
)
2
+ (
1
n
(x
i
)
2
= (x
2
1
)
1
n
(x
i
)
2
Ya que se puede expresar de una unica forma la pareja [x
i
, (x
i

x)
2
] en terminos de la pareja [x
i
, x
2
i
], entonces una biyeccion
entre estas dos estadsticas existe y por lo cual son equivalentes.
e (

n
i=1
x
i
,

n
i=1
x
3
i
) y (

n
i=1
x
i
,

n
i=1
(x
i
x)
3
)
Solucion Esta pareja de estadsticas no son equivalente, veamos
un contraejemplo. Supongamos x
1
= 1, x
2
= 2, y x
3
= 3, tenemos
x
i
= 6 y x
3
i
= 36. Este es un sistema de 2 ecuaciones con 3
variables por lo cual tiene mas de una solucion posible.
5.14 Tenemos un modelo regular con nito.
a Suponga que la estadstica T(X) tiene la propiedad que para
cualquier distribucion en , la distribucion posterior de depende
8
de x solo a traves de T(X). Muestre que T(X) es suciente.
Solucion Por denicion, la distribucion a posterior de dado X
es (|X) =
()(X|)

()(X|)d
. Si la distribucion depende de X solo
a traves de T(X), entonces la funcion de probabilidad (X|)
tambien debe depender de X solo a traves de T(X), porque so-
lo en la funcion de probabilidad que aparece en la expresion de
la distribucion a posteriori de dado X. Y si la funcion (X|)
depende de X solo a traves de T(X), entonces todos los X que
tienen en com un T(X) pertenecen a la misma clase de informa-
cion, y su distribucion dada T(X) no dependera de . Entonces,
en este caso, T(X) es una estadstica suciente.
b Inversamente, muestre que si T(X) es suciente, para cualquier
distribucion a priori, la distribucion posterior depende de x solo
a traves de T(X)
Solucion Si T(X) es una estadstica suciente para , entonces
por el teorema de factorizacion, la distribucion de X dado puede
ser factorizado como (X|) = g(T(X).)h(X). De donde la dis-
tribucion posterior de dado X puede ser expresada de una forma
similar haciendo sustitucion
(|X) =
()g(T(X), )h(X)
_

()g(T(X), )h(X)d
Luego, en este caso, T(X) es una estadstica suciente.
6.7 Sea X = ((X
1
, Y
1
), . . . , (X
n
, Y
n
)) una muestra de una poblacion nor-
mal bivariada. Muestre que la distribucion de X forma una familia
exponencial de 5-parametros e identique , B, T, and h.
Solucion
9
xBin.Nor(, ), = (
1
,
2
,
1
,
2
, )
p(x, e) =
1
2
1

2
_
1
2
exp{
1
2(1
2
)
[
x
2
1
2x
1

1
+
2
i

2
1
2
x
1
x
2
x
1

2
x
2

1
+
1
|mu
2

2
+
x
2
2
2x
2

]}
=
1
2
1

2
_
1
2
exp{
1
2(1
2
)
[
x
2
1

2
1
+x
1
(
2
1

2
1

2
)
+x
1
x
2
(
2

2
) +x
2
(
2
2

2
) +x
2
2
(
1

2
2
) + (

2
1

2
1
2

2
+

2

2
2
)]}
Sea T
1
(x) = X
2
1
, T
2
(x) = X
1
, T
3
(x) = X
1
X
2
, T
4
(x) = X
2
, T
5
(x) = X
2
2
c
1
() =
1
2(1
2
)
2
1
c
2
() =
1
(1
2
)
(

2
1
+

2
)
c
3
() =

(1
2
)
1

2
c
4
() =
1
(1
2
)
(

2
2
+

2
)
c
5
() =
1
2(1
2
)
2
2
d() =
1
2(1
2
)
(

2
1

2
1
2

2
+

2
2

2
2
) ln(2
1

2
_
1
2
)s(x) = 0
) p(x, ) = exp{

5
i=1
c
i
()T
i
(x) +d() +S(x)}I
R
2(x), de donde p es
exponencial.
) Si X = (x
1
, . . . , x
m
) es una muestra aleatoria, c
(a)
j
= c
j
(), d
m
() =
md(), T
m
j
(x) =

m
i=1
T
j
(x
i
).
) T(x) = (

m
i=1
x
2
i1
,

m
i=1
x
i1
,

m
i=1
x
1i
x
2i
,

m
i=1
x
2
i2
,

m
i=1
x
i2
) es su-
ciente para = (
1
,
2
,
1
,
2
, )
1.6.33 Sea p(x, ) una familia exponencial canonica parametrica generada
por T(x) = x y h(x), xX R, y sea (x) una funcion no constante
decreciente. Demostrar que E

(x) es creciente en .
10
Sugerencia:

(X) = Cov

((X), X)
=
1
2
E
_
(X X

)[(X) (X

)]
_
donde X y X

son independientes e identicamente distribuidas como


X.
11
Solucion:
Sea
E(X) =
_
(X)p(X, )dX

(X) =
_
(X)

p(X, )dX
Y siguiendo la denicion de p(X, ) = h(X) exp{T(X) A()} =
exp{X A()}h(X), ya que T(X) = X entonces,
=
_
(X)

exp {X A()} h(X)dX


Desarrollando esta derivada (se notara ahora por facilidad e
X
, en vez
de exp{(X)})

e
{XA()}
h(X)
que se reduce a
_

e
XA()
_
h(X)
dado que h(X) no contiene , luego,

e
{XA()}
=

e
X
e
A()
= Xe
X
e
A()
+e
X
(

A())e
A()
=
_
X

A()

_
e
XA()
_
Retomando el ejercicio, ahora se tiene:

(X) =
_
(X)
_
X

A()

p(X,)
..
_
(e
XA()
)h(X)
_
dX
=
_
(X)
_
X

A()

P(X, )dX
= E

_
(X)(X

A())

y por el teorema 1.6.2 que arma E(T(X)) =



A() = E(X), entonces
12
E

[(X)(X E(X))] = Cov

((X), X)
Dicho esto, ahora se toma X, X

independientes p(X, )
Dado que es no decreciente, se tiene que:
(i) X

X (X) (X)
(ii) X X

(X) (X

)
que implica (X

X)((X

) (X)) 0 siempre, ya que en (i)


() () = (+), y (ii) (+) (+) = (+)
Al tomar esperanzas,
0 E

_
(X

X)((X

) (X))

= E

_
((X) ) (X ))((X

) (X))

y cuando = E(X),
= E

_
((X E(X))) (X E(X))((X

) (X))

= E

[(X

E(X))(X) (X

E(X))(X)
(X E(X))(X

) + (X E(X))(X)]
Desarrollando esperanzas
= Cov

(X

, (X

)) Cov

(X

, (X))
Cov

(X, (X

)) +Cov

(X, (X))
pero como los terminos Cov

(X

, (X)) y Cov(X, (X)) son iguales


a cero por independencia de X y X

, entonces
0 E

_
(X

X)((X

) (X))

= 2Cov

(X, (X))
= 2

(X)
por la denicion inicial.
Demostrando as, que E

(x) es siempre creciente en


13
2. Capitulo 2: Metodos de Estimaci on
2.2.16 [a)]
Sea X P

, y sea

el estimador de m

Aximo verosimilitud
(MLE) de . Suponga que h es una funci

A
3
n1-1de a h(). De-
na = h() y denote f(x, ) la densidad o funci

A
3
ndefrecuenciadeXent

A c rminosde (i.e.,reparametrice el modelo usando ).
Muestre que el MLE de es h(

).
Soluci

A
3
n :
El m

A c todo de m

Aximo verosimilitud consiste en en-


contrar el valor

(x) del par

Ametro que es el m

As prob-
able para producir los datos. Esto es, si X = x, se busca

(x) que satisfaga:


L
x
(

(x)) = P(x,

(x)) = max{p(x, ) : } = max{L
x
() : }
donde

(x) es el estimador de m

Aximo verosimilitud.
Por lo tanto, si h es una funci

A
3
n1-1de a h(), y = h(),
entonces h
1
existe (h es invertible), y se puede escribir
la densidad de X como f(x, h
1
()) = p(x, )
Ahora, sup

A
3
ngasequeeselMLE, entonces, paratodo:
f(x,

) f(x, ), es decir, f(x, h
1
(( )) f(x, h
1
(())
Entonces:
p(x, ) p(x, ), para todo h()
Donde = h(

). Por lo tanto es el MLE


a) b) Sea P = {P

: } , R
p
, p 1, una familia de modelos
para XX R
d
. Sea q una funci

A
3
nde a , R
k
,
1 k p. Muestre que si

es un MLE de , entonces
q(

) es un MLE de w = q ()
Pista: Sea (w) = { : q () = w}, entonces {(w) : w}
es una partici

A
3
nde, y

pertenece a un solo miembro de
su partici

A
3
n, digamos( w). Como q est

A en , por cada
w hay tal que w = q(). Por lo tanto, el MLE de w es
por denici

A
3
n : w
MLE
= arg Sup
w
Sup {L
x
() : (w)}Ahoramuestreque
MLE
=
w = q(

)
14
Soluci

A
3
n :
Sea(w) = { : q() = w} entonces {(w) : w} es una
partici

A
3
nde y

pertenece a un (w) denotado ( w),
es decir, q(( w)) = q

() = w. Adem

As, dado esto, la fun-


ci

A
3
ndeverosimilituddewes :L
x
(w) = Sup{L
x
() : (w)}Y pordefinici

A
3
nAhora, sea=q(), entonces( w).
Desde que

es el MLE de , se tiene que:
L
x
( w) = Sup{L
x
() : ( w)} = L
x
_

_
Sup{L
x
() : (w

)} = L
x
(w

)
Para todo w

.
Es decir,
L
x
( w) = Sup
w
L
x
(w)
Por lo tanto, q(

) es el MLE de w = q()
2.40 Sea X
1
, X
2
, . . . , X
n
una muestra aleatoria de la distribucion de Laplace
generalizada con densidad
f(x,
1
,
2
) =
1

1
+
2
exp
_
x

1
_
, x > 0,
=
1

1
+
2
exp
_
x

2
_
, x < 0
donde
j
> 0, para j = 1, 2.
a. Muestre que T
1
=

X
i
1
X
i
>0
y T
2
=

X
i
1
X
i
<0
son estadsticas
sucientes.
La densidad de cada variable aleatoria es
f(x,
1
,
2
) =
1

1
+
2
exp
_
x

1
_
1
X
i
>0
+
1

1
+
2
exp
_
x

2
_
1
X
i
<0
(1)
Si se ordenan de mayor a menor las observaciones, de tal manera que
se tienen n
1
positivas, se llega a que la verosimilitud es
L(
1
,
2
; X)) =
1
(
1
+
2
)
n
_
exp
_

n
1
i=1
x
i

1
__
_
exp
_

n
j=n
1
+1
x
j

2
__
(2)
15
En donde se puede observar que de factorizar (??) de la forma
g(T(X), )h(X) = exp
_

n
1
i=1
x
i

1
+

n
j=n
1
+1
x
j

2
nln(
1
+
2
)
_
1
X
(3)
se puede concluir que T
1
y T
2
son sucientes.
b. Encuentre las estimaciones de maxima verosimilitud de
1
y
2
; X)
en terminos de T
1
y T
2
. Eval ue cuidadosamente los casos T
1
= 0 o
T
2
= 0.
La log-verosimilitud de (??) viene dada por
l(
1
,
2
; X)) =

n
1
i=1
x
i

1
+

n
j=n
1
+1
x
j

2
nln(
1
+
2
) (4)
donde
l

1
=
n

1
+
2
+

n
1
i=1
x
i

2
1
(5)
l

2
=
n

1
+
2

n
j=n
1
+1
x
i

2
2
(6)
Igualando (??) a cero, se tiene que

2
1

1
+

2
=

n
1
i=1
x
i
n
(7)
o en terminos de T
1
n

2
1

1
+

2
= T
1
(8)
De manera similar, igualando (??) a cero,se llega a

2
2

1
+

2
=

n
j=n
1
+1
x
i
n
(9)
o en terminos de T
2
n

2
2

1
+

2
= T
2
(10)
16
Si T
1
o T
2
llegan a ser cero, implicara que

1
o

2
son cero.
item[ 2.4.1 ] Algoritmo EM para datos Bivariados.
[a)]En el caso normal Bivariado del ejemplo 2.4.6 complete el pa-
so E, para encontrar E(Z
i
| Y
i
), E(Z
2
i
| Y
i
) y E(Z
i
Y
i
| Y
i
)
Soluci

A
3
n :
Delejemplo2,4,6setieneque(Z
1
, Y
1
), , (Z
n
, Y
n
) son iid y se
denen como (Z, Y ) donde (Z, Y ) N(
1
,
2
,
2
1
,
2
2
, ).
Ahora, de acuerdo con el teorema que dice que si (Z, Y )
tiene una distribuci

A
3
nN(
1
,
2
,
2
1
,
2
2
, ) no degenerada,
entonces la distribuci

A
3
ncondicionaldeZdadoY=Y
i
es
N
_

1
+

2
(Y
i

2
),
2
1
(1
2
)
_
Por lo tanto mediante este teorema se muestra que la
media condicional de Z dado Y = Y
i
es:
E(Z
i
| Y
i
) =
1
+

2
(Y
i

2
)
Adem

As, sea
E(Z
2
i
| Y
i
) = V ar(Z
i
| Y
i
) + [E(Z
i
| Y
i
)]
2
E(Z
2
i
| Y
i
) = (1
2
)
2
1
+
_

1
+

2
(Y
i

2
)
_
2
y sea
E(Z
i
Y
i
| Y
i
) = Y
i
E(Z
i
| Y
i
)
luego:
E(Z
i
Y
i
| Y
i
) = Y
i
_

1
+

2
(Y
i

2
)
_
17
b) En el ejemplo 2.4.6 verique el paso M, mostrando que:
E

T = (
1
,
2
,
2
1
+
2
1
,
2
2
+
2
2
,
1

2
+
1

2
)
Soluci

A
3
n :
Pordefinici

A
3
n, setieneque(Z,Y) N(
1
,
2
,
2
1
,
2
2
, )
Por lo tanto:
E(T
1
) = E(

Z) =
1
E(T
2
) = E(

Y ) =
2
E(T
3
) = E
_
1
n

Z
2
i
_
= E(Z
2
i
) = V ar(Z
i
) + [E (Z
i
)]
2
=
2
1
+
2
1
E(T
4
) = E
_
1
n

Y
2
i
_
= E(Y
2
i
) = V ar(Y
i
) + [E(Y
i
)]
2
=
2
2
+
2
2
E(T
5
) = E
_
1
n

Z
i
Y
2
i
_
= E(Z
i
Y
i
) = Cov(Z
i
, Y
i
) +E(Z
i
)E(Y
i
)
Como =
Cov(Z
i
, Y
i
)
_
V ar(Z
i
)
_
V ar(Y
i
)
, entonces:
Cov(Z
i
, Y
i
) =
_
V ar(Z
i
)
_
V ar(Y
i
)
Cov(Z
i
, Y
i
) =
1

2
, luego:
E(T
5
) = Cov(Z
i
, Y
i
) +E(Z
i
)E(Y
i
) =
1

2
+
1

2
2.4.11. [(a)]
Demostrar que S en el ejemplo 2.4.5. tiene la mixtura especica
de distribuci

A
3
nGaussiana.
Soluci

A
3
n
Digamos que S
i
y
i
se distribuyen conjuntamente con

i
Binominal(1, ), y dado
i
, S
i
N(
2t
,
2
2t
)
18
Donde el sub

Andice 2
i
es 1 para
i
= 1 (2-1=1) y es 2 para

i
= 0 (2-0=2)
Por lo que la densidad marginal de S
i
es
P( = 1)
. .

f
s|
(s|1)
. .

1
(s
1
)
+(1 P( = 1))
. .
(1)
f
s
(s|0)
. .

2
(s
2
)
= p(s
i
, )
(

1
(s
1
)) + (1 )(

2
(s
2
)) = p(s
i
, )
donde como es denido en el problema, X
obs
= (S
i
,i = 1, . . . ,n)
son los datos observados, Y
falt
(S
i
,i = 1, . . . ,n) son los datos fal-
tantes, y = (
1
,
1
,
2
,
1
,
2
) son los par

Ametros desconocidos,
0 < < 1;
1
,
2
> 0;
1

2
R y

(s ) =
1

_
s

_
(expre-
si

A
3
ncorrespondientealafunci

A
3
ndeverosimilituddeladistribuci

A
3
nnormalcuandolavarianzaesconocida, donde
es la densidad normal est

Andar, ver ejemplo 2.2.4)


Por lo que se demuestra que S tiene una mixtura espec

Aca de
distribuciones Gaussianas.
a) b) Dar expl

Acitamente los pasos E y M del logaritmo EM en este


caso.
Soluci

A
3
n
La log-verosimilitud del conjunto completo de datos (incluyendo
los faltantes) esta denida por:
n

i=1
_

_
ln
_

_
1

2
2
exp
_
1
2
(S
i

1
)
2

2
1
____
+ (1 )
_
ln
_
(1 )
_
1

2
2
exp
_
1
2
(S
i

2
)
2

2
2
____ _
=
n

i=1
_

i
_
ln() ln(2)
1
2
ln(
2
)
1
2
(S
i

1
)
2

2
1
_
+ (1
i
)
_
ln(1 ) ln(2)
1
2
ln(
2
)
1
2
(S
i

2
)
2

2
2
_ _
19
=
1
2
n

i=1
_

i
_
2 ln() + ln(
2
1
) +
(S
i

1
)
2

2
1
_
+ (1
i
)
_
2 ln() + ln(
2
2
) +
(S
i

2
)
2

2
2
_ _
+ c
..
constante
()
Para encontrar los pasos E y M, a partir de una estimaci

A
3
ninicialv
1
,
se tiene que encontrar
p
1
(S
i
) = P
v
1
(
i
= 1|S
i
) =

1,1
(S
i

1,1
)

1,1
(S
i

1,1
) + (1
1
)

2,1
(S
i

2,1
)
Por lo que el paso-E, esperanza condicional bajo v
0
de la ecuaci

A
3
ndeLog
verosimilitud(), da como una funci

A
3
ndev:

1
2
n

i=1
(p
1
(S
1
)
_
2 ln() +ln(
2
1
) +
(S
i

1
)
2

2
1
_
+ (1 p
1
(S
i
))
_
2 ln(1 ) + ln(
2
2
) +
(S
i

2
)
2

2
2
_
(

)
Y el paso-M es maximizar esto (donde en la siguiente iteraci

A
3
nv=v
2
),
luego

2
=
n

i=1
_
p
1
(S
i
)


(1 p
1
(S
i
))
1
2
_
=
n

i=1
p
1
(S
i
)
2
p
1
(S
i
) +
2
p
1
(S
i
)
=
n

i=1
p
1
(S
i
)
n

i=1

2
= 0
n
2
=
n

i=1
p
1
(S
i
)

2
=

n
i=1
p
1
(S
i
)
n
20

)

1,2
=
n

i=1
1
2
p
1
(S
i
)(2)(S
i

1,2
)(1)

2
1,2

i=1
p
1
(S
i
)(S
i

1,2
)

2
1,2
= 0

i=1
[p
1
(S
i
)S
i
]
n

i=1
p
1
(S
i
)
1,2
= 0

i=1
[p
1
(S
i
)S
i
] =
1,2
n

i=1
p
1
(S
i
)

1,2
=

n
i=1
[p
1
(S
i
)S
i
]

n
i=1
p
i
(S
i
)

)

2,2
=
n

i=1

1
2
(1 p
1
(S
i
))(2)(S
i

2,2
)(1)

2
2,2

i=1
(1 p
1
(S
i
)) (S
i

2,2
)

2
2,2
= 0

i=1
[(1 p
1
(S
i
)) S
i
]
n

i=1
[(1 p
1
(S
i
))
2,2
] = 0

i=1
[(1 p
1
(S
i
)S
i
)]
2,2

[(1 p
1
(S
i
))] = 0

2,2
=

n
i=1
[(1 p
1
(S
i
)) S
i
]

n
i=1
[(1 p
1
(S
i
))]
21

)

1,2
=
1
2
n

i=1
_
p
1
(S
i
)(1)

2
1,2
+
p
1
(S
i
)(1)(S
i

1,2
)
2

4
1,2
_
= 0

i=1
p
1
(S
i
)

2
1,2
=

n
i=1
p
1
(S
i
)(S
i

1,2
)
2

4
1,2

4
1,2

2
1,2
n

i=1
p
1
(S
i
) =
n

i=1
p
1
(S
i
)(S
i

1,2
)
2

2
1,2
=

n
i=1
p
1
(S
i
)(S
i

1,2
)
2

n
i=1
p
1
(S
i
)

)

2,2
=
n

i=1
_
(1 p
1
(S
i
))
2
2
2,2
+
(1 p
1
(S
i
))(S
i

2,2
)
2
2
4
2,2
_
= 0

i=1
(1 p
1
(S
i
))

2
2,2
=
n

i=1
(1 p
1
(S
i
))(S
i

2,2
)
2

4
2,2

4
2,2

2
1,2
n

i=1
(1 p
1
(S
i
)) =
n

i=1
(1 p
1
(S
1
))(S
i

2,2
)
2

2
2,2
=

n
i=1
(1 p
1
(S
i
))(S
i

2,2
)
2

n
i=1
(1 p
1
(S
i
))
22

También podría gustarte