Está en la página 1de 12

Captulo 2

Suciencia y completitud
2.1 Introduccion
Consideramos una v.a. X que sigue una distribucion perteneciente a una familia
con funcion de distribucion F

con desconocido.
Denotamos por al espacio parametrico, es decir, al conjunto de posibles
valores de . Para recoger informacion acerca de ese parametro el procedimiento
habitual es seleccionar una muestra aleatoria de observaciones de esa variable
(X
1
, . . . , X
n
).
Denicion 2.1.1. Un estadstico es cualquier aplicacion medible
T : (X
1
, . . . , X
n
) IR
p
con p n.
Con el manejo de estadsticos se pretende simplicar la estructura de un
problema al trabajar en un espacio de menor dimension. Los estadsticos per-
miten trasladar la distribucion de probabilidades de un espacio a otro.
En cualquier problema de Inferencia parametrica puede ocurrir que parte
de la informacion de la muestra sea irrelevante a la hora de estimar el verdadero
valor del parametro. Por consiguiente, es importante descubrir y eliminar esa
informacion superua y trabajar con aquellos estadsticos que recojan toda la
informacion util. Aparece as la nocion de suciencia.
1
2 Captulo 2. Suciencia y completitud
2.2 Suciencia
La idea intuitiva de estadstico suciente sugiere eliminar de la muestra aquellos
elementos que no sean informativos respecto de cierto parametro. En este sentido,
la estimacion de la probabilidad de exito en una distribucion de Bernoulli puede
servir de base para aclarar la conexion entre la idea de suciencia y su denicion.
Ejemplo 2.2.1. Para estimar la probabilidad de exito,p(E) ,se estudiaron tres
piezas elegidas al azar, obteniendose los siguientes resultados (F, E, E).
Que parte de la informacion muestral se utiliza para estimar p?, existe
diferencias entre saber que ha ocurrido (F, E, E) o que han aparecido dos exitos
y un fracaso?, es interesante el orden en que aparecen los sucesos?.
Si el orden de los resultados fuera relevante la probabilidad de (F,E,E), condi-
cionada a 2 exitos y 1 fracaso, debera depender de p ; en otro caso la desconocer
el orden de los resultados sera irrelevante para conocer el valor del par ametro.
P ((F, E, E)/{2E}) =
P((F, E, E) {2E})
P({2E})
=
P((F, E, E))
P((F, E, E), (E, F, E), (E, E, F))
=
1
3
A continuacion se da la denicion formal de estadstico suciente y se prueba,
bajo determinadas condiciones, el teorema de factorizacion que resulta muy util
para comprobar si un estadstico es suciente.
Denicion 2.2.1. Sea X F

con y consideramos una m.a.s. (X


1
, . . . , X
n
).
Un estadstico T se dice que es suciente cuando la distribucion condicionada de
(X
1
, . . . , X
n
) al valor del estadstico T es independiente del parametro , salvo a
lo sumo en un conjunto A tal que p

(A) = 0 para todo .


Teorema 2.2.1 (Teorema de factorizacion). Sea X F

con y con-
sideramos una m.a.s. (X
1
, . . . , X
n
). Un estadstico T es suciente si y solo si
f

(x
1
, . . . , x
n
) = g(t, )h(x
1
, . . . , x
n
)
Demostracion.
Se hace solamente para el caso discreto:
Por ser T suciente se sabe que P

(x
1
, . . . , x
n
/T = t) = h(x
1
, . . . , x
n
) y por
la denicion de probabilidad condicionada :
P

(x
1
, . . . , x
n
/T = t) =
P

(x
1
, . . . , x
n
T = t)
P

(t)
=
_
_
_
P

(x
1
, . . . , x
n
T = t)
P

(t)
si T(x
1
, . . . , x
n
) = t
0 si T(x
1
, . . . , x
n
) = t
2.2. Suciencia 3
con lo que P

(x
1
, . . . , x
n
) = P

(t)h(x
1
, . . . , x
n
).
Supongamos ahora que P

(x
1
, . . . , x
n
) = g(t, )h(x
1
, . . . , x
n
) y veamos que
P

(x
1
, . . . , x
n
/T = t) es independiente de .
P

(x
1
, . . . , x
n
/T = t) =
P

(x
1
, . . . , x
n
T = t)
P

(t)
=
P

(x
1
, . . . , x
n
T = t)
P

(t)
=
g(t, )h(x
1
, . . . , x
n
)
P

(t)
=
g(t, )h(x
1
, . . . , x
n
)

{y/T(y)=t}
P

(y)
=
g(t, )h(x
1
, . . . , x
n
)

{y/T(y)=t}
g(t, )h(y
1
, . . . , y
n
)
=
h(x
1
, . . . , x
n
)

{y/T(y)=t}
h(y
1
, . . . , y
n
)
que es independiente de .
Para la demostracion en el caso general se necesitan resultados de la Teora
de la Medida.
El teorema de factorizacion es poco operativo para demostrar que un es-
tadstico es no es suciente y es preferible utilizar el siguiente resultado.
Proposicion 2.1. Consideremos dos muestras x = (x
1
, . . . , x
n
) e y = (y
1
, . . . , y
n
)
con T(x) = T(y). Si
f

(x)
f

(y)
es dependiente de , entonces T no es suciente.
Demostracion. La demostracion es una aplicacion directa del teorema de
factorizacion.
Proposicion 2.2. Sea T un estadstico suciente para una familia de distribu-
ciones F

, y sea g una funcion medible inyectiva, entonces g(T) es su-


ciente.
Demostracion. La demostracion es inmediata.
A partir la proposicion previa es muy sencillo comprobar que los estadsticos
sucientes no son unicos.
Ejemplo 2.2.2. Sea X N(, ) con conocido. X es un estadstico
suciente.
Sea X N(, ) con conocida. S
2
es un estadstico suciente.
Sea X N(, ) con conocido. S
2
no es un estadstico suciente.
4 Captulo 2. Suciencia y completitud
Sea X N(, ) con desconocido. X es un estadstico suciente para

2
.
Sea X N(, ) con conocido. X
2
no es un estadstico suciente para
.
Sea X N(, ). (X, S
2
) es un estadstico suciente para (, ).
La propiedad de suciencia no depende de los valores concretos que toma el
estadstico, sino de que resultados muestrales tienen la misma imagen, es decir,
de la particion que dene el estadstico sobre el espacio muestral.
Cuando dos estadsticos denen la misma particion, son equivalentes.
Denicion 2.2.2. Una particion X
n
se dice que es suciente si induce un
estadstico suciente.
Un estadstico dene de una unica la particion pero a una particion se le
pueden asociar muchos estadsticos.
Denicion 2.2.3. Una particion X
n
se dice que es suciente minimal si es
suciente y cualquier otra particion suciente es una subparticion de ella.
Un estadstico se dice que es suciente minimal si induce una particion
suciente minimal.
En consecuencia lo que interesa es encontrar una particion suciente lo
menos na posible.
Proposicion 2.3. Sea X una variable aleatoria con distribucion perteneciente
a una familia F

, y X
n
el espacio muestral asociado a una muestra de
tama no n. Entonces la particion

denida por la relacion de equivalencia


x y
f

(x)
f

(y)
independiente de
es suciente minimal.
Demostracion.
La demostracion se hace solamente en el caso discreto.
Veamos en primer lugar que

es una particion suciente.


Asociada a cada particion asignamos un estadstico T (hay muchos pero son
todos equivalentes). Veamos si P

(x/T = t) es independiente de .
Supongamos que T(x) = t, (en otro caso es trivial).
2.3. Completitud 5
P

(x/T = t) =
P

(x T = t)
P

(T = t)
=
P

(x T = t)
P

(t)
=
P

(x)

{y/T(y)=t}
P

(y)
=
1

{y/T(y)=t}
P

(y)
P

(x)
que es independiente de ya que como x e y pertenecen a la misma clase de
equivalencia,
P

(x)
P

(y)
no depende de .
Veamos que

es minimal, es decir, cualquier otra particion suciente

sera una subparticion de

.
Para todo A

, veremos que A =

A
Bx, donde Bx es el elemento de

que contiene a x.
Obviamente A

x

A
Bx, y por tanto solo se necesita comprobar la otra
contencion.
Dado y Bx, por pertenecer ambos elementos (y, x) a la misma clase
de la particion suciente

se tiene que
f

(x)
f

(y)
es independiente de y por lo
tanto y x, es decir, y A. En consecuencia Bx A y la demostracion esta
completada.
Proposicion 2.4. Un estadstico T es suciente minimal si se cumple que
T(x) = T(y)
f

(x)
f

(y)
es independiente de
Proposicion 2.5 (Caracterizacion de un estadstico minimal suciente).
Si T es un estadstico suciente tal que para cualquier otro estadstico S suciente
se verica que T = g(S), entonces T es suciente minimal.
2.3 Completitud
En algunas ocasiones es necesario trabajar con ciertos estadsticos, denominados
ancillary o auxiliares, cuya distribucion no depende del parametro y que por lo
tanto no contienen ninguna informacion acerca de el; intuitivamente se podra
pensar que los estadsticos sucientes minimales y los auxiliares seran indepen-
dientes y en este sentido, puede resultar interesante considerar alg un ejemplo en
el que esto no sea cierto. La aparente paradoja de esta situacion motiva el estudio
de las condiciones necesarias para evitarla y conduce al concepto de estadstico
completo.
6 Captulo 2. Suciencia y completitud
De esta manera, suciencia y completitud estan frecuentemente unidas. En
este contexto, se comprobara que todo estadstico suciente y completo es su-
ciente minimal. La relacion entre estadsticos sucientes, auxiliares y completos
se podra establecer de varias formas. As, dado un estadstico suciente, la dis-
tribucion de cualquier estadstico independiente de el no depende del parametro
y por otro lado, el teorema de Basu establece que ademas de suciente debe ser
completo para que sea independiente de los estadsticos auxiliares.
Denicion 2.3.1. Sea X una v.a. con distribucion perteneciente a una familia
F

, . Se dice que la familia de distribuciones es completa si para toda


funcion medible g tal que E

(g(X)) = 0 para todo , se tiene que g


c.s.
= 0, es
decir, P

(g(X) = 0) = 1.
Ejemplo 2.3.1. Sea X B(n, p) con p (0, 1) es completa.
Sea X N(0, ) no es completa (g(x) =x).
Denicion 2.3.2. Sea X una v.a. con distribucion perteneciente a una familia
F

, . Se dice que un estadstico T es completo si para cualquier funcion


medible g se verica
E

(g(T)) = 0 g(T)
c.s.
= 0
Veremos ahora algunos resultados que implican trabajar con distribuciones
condicionadas.
Proposicion 2.6. Sea (X, Y ) una v.a. bidimensional. Si existen las esperanzas
de las marginales y las condicionadas se verica:
1. E(X) = E
Y
[E
X
(X/Y )]
2. Var(X) = E[Var(X/Y )] + Var[E(X/Y )]
Demostracion.
1.
E(X) =
_
IR
2
xdF(x, y) =
_
IR
__
IR
xdF(x/y)
_
dF(y)
=
_
IR
E(X/y)dF(y) = E
Y
[E
X
(X/Y )]
2.
Var(X) = E[X E(X)]
2
= E{[X E(X/Y )] + [E(X/Y ) E(X)]}
2
2.3. Completitud 7
= E[XE(X/Y )]
2
+E[E(X/Y )E(X)]
2
+2E{[XE(X/Y )][E(X/Y )E(X)]}
Como E(X) = E[E
X
(X/Y )],
E[E(X/Y ) E(X)]
2
= Var[E(X/Y )]
E[X E(X/Y )]
2
= E
Y
{E
X
[X E(X/Y )/Y ]
2
} = E
Y
[Var(X/Y )]
E{[XE(X/Y )][E(X/Y )E(X)]} = E
Y
{E
X
{[XE(X/Y )][E(X/Y )E(X)]/Y }}
= E
Y
{[E(X/Y ) E(X)]E
X
[X E(X/Y )/Y ]} = 0
Con lo que se tiene el resultado.
Proposicion 2.7. Si existe un estadstico suciente minimal y S es suciente y
completo entonces S es suciente minimal.
Demostracion. Sea T el estadstico suciente minimal, entonces existe una
funcion medible g tal que T = g(S) por ser S suciente.
Consideramos h(S) = S E(S/T) = S E(S/g(S)). Si calculamos su
esperanza E(h(S)) = E(S)E[E(S/T)] = E(S)E(S) = 0, con lo que h(S)
c.s.
= 0
por ser S completo. De lo que se deduce S
c.s.
= E(S/T) = f(T), con lo que la
particion asociada a T
T
es mas na o igual a la de S,
S
, entonces
S
=
T
por ser T minimal, por lo que S es minimal.
Denicion 2.3.3. Sea X una v.a. con distribucion perteneciente a una familia
F

, . Un estadstico V se dice que es ancillary o auxiliar si P

(V ) es
independiente de .
Teorema 2.3.1 (Teorema de Basu). Sea X una v.a. con distribucion perteneciente
a una familia F

, . Sea S un estadstico suciente y completo y V un es-


tadstico ancillary, entonces S y V son independientes.
Demostracion. Sea g(S) = P

(V A)P

(V A/S) para A jo, entonces


g(S) es independiente de . Ademas
E(g(S)) = E[P(V A)] E[P(V A/S)] = E[P(V A)] E[P(V A)] = 0
ya que
E[P(V A/S)] = E[E(I
A
(V )/S)] = E(I
A
(V )) = P(V A)
Por ser S completo, g(S)
c.s.
= 0 con lo que P(V A)
c.s.
= P(V A/S),
lo que signica que S y V son independientes.
8 Captulo 2. Suciencia y completitud
Ejemplo 2.3.2. Sea X = {, + 1, + 2} donde IN con
P() = P( + 1) = P( + 2) = 1/3
Si se considera una m.a.s. de tama no n = 2. Comprobar que (X
(2)
X
(1)
, X
(1)
+
X
(2)
) es suciente minimal, pero sin embargo X
(2)
X
(1)
tiene distribucion in-
dependiente de (es ancillary) y X
(1)
+X
(2)
no es suciente.
2.4 La familia exponencial
La familia exponencial k-parametrica incluye a la gran mayora de las distribu-
ciones usuales, bajo un mismo tipo de expresion funcional, por lo que su estudio
tiene una gran importancia . Una de sus propiedades mas interesantes es que,
bajo ciertas condiciones, se garantiza la existencia de un estadstico suciente
minimal y se obtiene ademas la expresion explcita del mismo.
Denicion 2.4.1. Una familia de distribuciones F

, IR
k
asociada a un
vector aleatorio x se dice que sigue una distribucion exponencial k parametrica
si se verica que {x/f

(x) > 0} es independiente de y existen funciones reales


D, Q
1
, . . . , Q
k
denidas sobre y funciones S, T
1
, . . . , T
k
medibles Borel denidas
sobre IR
p
(el soporte de x) tal que
f

(x) = exp[S(x) +D(

) +
k

j=1
Q
j
(

)T
j
(x)]
= c(

)h(x) exp[
k

j=1
Q
j
(

)T
j
(x)]
Si hacemos un cambio de parametros
j
= Q
j
(

), entonces
f

(x) = c

()h

(x) exp
_
_
k

j=1

j
T

j
(x)
_
_
donde
H =
_
_
_
/
_
IR
p
h

(x) exp
_
_
k

j=1

j
T

j
(x)
_
_
< +
_
_
_
se llama el espacio parametrico natural y se dice que la familia exponencial viene
dada en su parametrizacion natural.
2.4. La familia exponencial 9
Ejemplo 2.4.1. 1. X B(n, p) con n conocido.
P

(x) =
_
n
x
_

x
(1 )
nx
=
_
n
x
_
(1 )
n
_

1
_
x
= (1 )
n
_
n
x
_
exp
_
xln
_

1
__
2. X (p, a)
f

(x) =
a
p
(p)
e
ax
x
p1
=
a
p
(p)
exp[ax + (p 1) lnx]
con c() =
a
p
(p)
; Q
1
(

) = a; T
1
(x) = x; Q
2
(

) = p 1; T
2
(x) = lnx.
3. X P()
f

(x) = e

x
x!
= e

[x!]
1
exp[xln]
4. X N(, )
f

(x) =
_
1

2
2
_
1/2
exp
_

1
2
x
2
+
2
2x

2
_
= e

2
2
2
(
2
2)
1/2
exp
_

x
2
2
2
+x

2
_
con c(

) = e

2
2
2
(
2
2)
1/2
Q
1
(

) =
1

2
; Q
2
(

) =

2
T
1
(x) =
x
2
2
; T
2
(x) = x.
Teorema 2.4.1. Sea (x
1
, . . . , x
n
) una m.a.s. procedente de una familia exponen-
cial k-parametrica, entonces (x
1
, . . . , x
n
) tambien pertenece a la familia exponen-
cial.
Demostracion.
f

(x
1
, . . . , x
n
) =
n

i=1
c(

)h(x
i
) exp[
k

j=1
Q
j
(

)T
j
(x
i
)]
= [c(

)]
n
_
n

i=1
h(x
i
)
_
exp
_
_
k

j=1
Q
j
(

)
n

i=1
T
j
(x
i
)
_
_
= c

)h

(x) exp
_
_
k

j=1
Q
j
(

)T

j
(x)
_
_
10 Captulo 2. Suciencia y completitud
Teorema 2.4.2. Sea (x
1
, . . . , x
n
) una m.a.s. obtenida a partir de un vector
aleatorio x perteneciente a la familia exponencial k-parametrica
f

(x) = c(

)h(x) exp[
k

j=1
Q
j
(

)T
j
(x)]
para x con f

(x) > 0.
Entonces el estadstico W = (

n
i=1
T
1
(x
i
), . . . ,

n
i=1
T
k
(x
i
)) es suciente
minimal si el espacio parametrico natural contiene intervalos de IR
k
.
Demostracion.
Veamos en primer lugar que W es suciente.
f

(x
1
, . . . , x
n
) = [c(

)]
n
exp
_
_
k

j=1
Q
j
(

)
n

i=1
T
j
(x
i
)
_
_
_
n

i=1
h(x
i
)
_
= [c(

)]
n
exp
_
_
k

j=1
Q
j
(

)W
j
_
_
_
n

i=1
h(x
i
)
_
= g(W,

)h(x)
luego W es suciente.
Para demostrar que es minimal veremos que la particion denida por W
coincide con la denida por la relacion de equivalencia
x y
f

(x)
f

(y)
independiente de W(x) = W(y)
En primer lugar, supongamos que x y. Comprobaremos, por tanto, que
si x y se cumple que W(x) = W(y).
f

(x)
f

(y)
=

n
i=1
h(x
i
)

n
i=1
h(y
i
)
exp
_
_
k

j=1
Q
j
(

)(W
j
W

j
)
_
_
con

W = T(x) y

W

= T(y)
f

(x)
f

(y)
=
n

i=1
h(x
i
)
h(y
i
)
exp
_
_
k

j=1
Q
j
(

)(W
j
W

j
)
_
_
Como x y el cociente de las densidades o probabilidades es independiente
del parametro y el cociente de esas dos expresiones debe ser igual a uno:
f

(x)
f

(y)
f

(x)
f

(y)
= exp
_
_
k

j=1
[Q
j
(

) Q
j
(

)](W
j
W

j
)
_
_
= 1
2.4. La familia exponencial 11
Suponiendo que T(x) = T(y)

W =

W

, es decir, alg un componente


es diferente en esos dos vectores, por ejemplo,

W
1
=

W

1
, tendremos
0 =
k

j=1
[Q
j
(

) Q
j
(

)](W
j
W

j
)
= [Q
1
(

) Q
1
(

)](W
1
W

1
) +
k

j=2
[Q
j
(

) Q
j
(

)](W
j
W

j
)
= (
1

1
)(W
1
W

1
)
1
=

1
Donde = (Q
1
(

), . . . , Q
k
(

)) y

= (Q
1
(

), . . . , Q
k
(

)) los elegimos de
forma que
1
=

1
y
j
=

j
j = 2, . . . , k (se puede hacer sin problemas bajo
la hipotesis de que H contiene un intervalo de IR
k
). Con esto llegaramos a un
absurdo al suponer

W =

W

.
Supongamos ahora que

W =

W

y veamos que x y.
f

(x)
f

(y)
=

n
i=1
h(x
i
)

n
i=1
h(y
i
)
exp
_
_
k

j=1
Q
j
(

)(W
j
W

j
)
_
_
=

n
i=1
h(x
i
)

n
i=1
h(y
i
)
que es independiente de .
Lema 2.4.3. El espacio parametrico natural asociado a una distribucion expo-
nencial es convexo.
Cuando el espacio parametrico esta contenido en un espacio parametrico
vectorial de dimension menor que k, se puede reescribir la densidad en funcion de
un n umero de componentes menor que k. En el caso en el que el espacio vectorial
sea de dimension k, se dice que la familia exponencial es de rango completo.
Teorema 2.4.4. Sea (X
1
, . . . , X
n
) una m.a.s. de una variable aleatoria perteneciente
a la familia exponencial k-parametrica, con la parametrizacion natural.
f

(x) = c(

)h(x) exp[
k

j=1

j
T
j
(x)]
donde contiene un intervalo abierto de IR
k
.
Entonces el estadstico (T
1
(x), . . . , T
k
(x)) es suciente y completo.
Demostracion.
Veremos la demostracion de la completitud en el caso discreto y k = 1.
P

(x) = c() h(x) exp[ T(x)]


12 Captulo 2. Suciencia y completitud
Si E[g(T)] = 0, se tiene

t
g(t) c() h(t) exp[ t] = 0
E[g(T)] =

x
g(T(x)) c() h(x) exp[ T(x)]
=

{x/T(x)=t}
g(T(x)) c() h(x) exp[ T(x)]
=

t
g(t) c()exp[ t]

{x/T(x)=t}
h(x) =

t
g(t)c() h(t) exp[ t]
Denimos
g
+
(t) =
_
g(t) si g(t) > 0
0 en otro caso
g

(t) =
_
g(t) si g(t) < 0
0 en otro caso
con g(t) = g
+
(t) g

(t). Entonces,
E[g(T)] = 0

t
g
+
(t)c()h(t) exp[t] =

t
g

(t)c()h(t) exp[t]
Sea
0
con (
0
a,
0
+a) ( este valor existe ya que contiene un
abierto). Se denen las distribuciones de probabilidad
P
+

0
(t) =
g
+
(t)c(
0
)h(t) exp[
0
t]

s
g
+
(s)c(
0
)h(s) exp[
0
s]
P

0
(t) =
g

(t)c(
0
)h(t) exp[
0
t]

s
g

(s)c(
0
)h(s) exp[
0
s]
Comprobaremos que las funciones generatrices de P
+
y P

coinciden en el
entorno (a, a), con lo cual coinciden ambas distribuciones.

P
+

0
() = E(e
t
) =

t
e
t
P
+

0
(t)
=

t
e
t
g
+
(t)h(t) exp[
0
t]

s
g
+
(s)h(s) exp[
0
s]
=

t
g
+
(t)h(t) exp[(
0
+)t]

s
g
+
(s)h(s) exp[
0
s]

0
() =

t
g

(t)h(t) exp[(
0
+)t]

s
g

(s)h(s) exp[
0
s]
Como los denominadores de
+
y

coinciden,

P
+

0
()

0
()
=

t
g
+
(t)h(t) exp[(
0
+)t]

t
g

(t)h(t) exp[(
0
+)t]
= 1
es decir, las dos distribuciones P
+

0
(t) y P

0
(t) coinciden ya que sus funciones
generatrices de momentos son iguales para todos los puntos del intervalo (-a, a).
En consecuencia, g
+
(t)c()h(t) exp[t] = g

(t)c()h(t) exp[t]
g
+
(t) = g

(t) y por lo tanto g(t) = 0.


La demostracion en el caso general de este resultado requiere utilizar la
funcion caracterstica.

También podría gustarte