Está en la página 1de 17

Capı́tulo 7

Intervalos de Confianza

7.1. Introducción
Con las herramientas que construimos en los capı́tulos pasados, sabemos que si nuestra población
de interés sigue una distribución N (µ, 1) y extraemos una m.a. X1 , X2 , X3 , X4 , entonces el mejor
estimador para µ que podemos construir con la información proveniente de la m.a. es X̄; sin embargo,
la probabilidad de que estimemos a µ correctamente con X̄ es P (X̄ = µ) = 0. Si en lugar de estimar
puntualmente a µ, la estimamos con un intervalo, por ejemplo; [X̄ −1, X̄ +1]. Entonces, la probabilidad
de que cubramos a µ con el intervalo [X̄ − 1, X̄ + 1] serı́a 1 :

P (µ ∈ [X̄ − 1, X̄ + 1]) = P (X̄ − 1 ≤ µ ≤ X̄ + 1)


= P (−1 ≤ X̄ − µ ≤ 1)
−1 X̄ − µ 1
= P( √ ≤ √ ≤ √ )
1/ 4 1/ 4 1/ 4
= P (−2 ≤ Z ≤ 2)
= P (Z ≤ 2) − P (Z ≤ −2)
= P (Z ≤ 2) − [1 − P (Z ≤ 2)] = 2P (Z ≤ 2) − 1
= 0.9544997

Esto implica, que con una probabilidad de .95, el intervalo [X̄ − 1, X̄ + 1] cubrirá a µ, ası́, sac-
rificando precisión en la estimación al utilizar un intervalo en vez de una estimación puntual, hemos
ganado una garantı́a en términos de probabilidades.

En la práctica no podemos usar X̄ como estimación de µ, ası́ como tampoco podremos utilizar el
intervalo [X̄ − 1, X̄ + 1], ya que los dos dependen de la v.a. X̄ y por lo tanto uno es una v.a. y el
otro es un intervalo aleatorio. Lo que se hace es utilizar el estimado X̄ = x̄, de donde obtenemos el
intervalo [x̄ − 1, x̄ + 1]; sin embargo, claramente éste no serı́a un intervalo aleatorio, sino un intervalo
fijo que dependerı́a del valor observado en la m.a. y por lo tanto, no se puede afirmar que con una
probabilidad de .95, el intervalo [x̄ − 1, x̄ + 1] cubrirá a µ (podemos calcular este tipo de probabilidades
1
Tenemos que ser cuidadosos en este punto pues µ es una cantidad fija, desconocida, pero fija, y la variable aleatoria
es X̄. Entonces no podemos decir, la probabilidad de que µ caiga dentro del intervalo el intervalo [X̄ − 1, X̄ + 1], tenemos
que decir la probabilidad de que el intervalo [X̄ − 1, X̄ + 1] cubra a µ. El intervalo es aleatorio y µ es un parámetro fijo.

1
7.1. INTRODUCCIÓN Carlos Erwin Rodrı́guez

para variables aleatorias, más no para cantidades fijas, lo más que se podrı́a decir es que la probabili-
dad anterior es cero o uno). Sin embargo, se puede ver que si obtenemos muchas muestras, digamos,
m, cada una de tamaño n (en este caso n = 4), entonces, en términos de frecuencias, alrededor del
(.95)(m) de los intervalos contendrán al valor verdadero µ, si lo viéramos en términos de porcentajes,
entonces, llegarı́amos a que alrededor del 95 % de los intervalos contendrı́an a µ. Lo anterior se puede
verificar fácilmente realizando una simulación.

Supongamos que nuestra población se comporta como una N (µ, 1) con µ = 6.3. Entonces, para
realizar la simulación generamos m = 10, 000 m.a. de tamaño n = 4, cada una proveniente de la
población N (6.3, 1) ası́, para cada muestra construimos el intervalo [x̄ − 1, x̄ + 1] y contamos cuántas
veces cae µ = 6.3, en el intervalo respectivo. Con esto podemos calcular el porcentaje de intervalos que
efectivamente contienen a µ. Al realizar el experimento en R, se obtuvo que el porcentaje de intervalos
que contuvieron a µ fue de 95.2 % que si por un momento lo viéramos como una probabilidad, se
aproximarı́a mucho a lo que se obtuvo previamente. El histograma para las medias, junto con la
distribución de muestreo (la normal N (6.3, 1/4)) se muestra en la figura 7.1.
0.8
0.7
0.6
Frecuencias Relativas
0.5
0.4
0.3
0.2
0.1
0.0

4.5 5.0 5.5 6.0 6.5 7.0 7.5 8.0


Medias

Figura 7.1: Histograma para las medias de las 10, 000 m.a. junto con la distribución de muestreo.

A continuación se define formalmente lo que entenderemos como intervalo de confianza.

Definición (Intervalo de Confianza)

Sea X1 , X2 , . . . , Xn una m.a. de fX (x|θ). Sean L(X) =


L(X1 , X2 , . . . , Xn ) y U (X) = U (X1 , X2 , . . . , Xn ) dos estadı́sticas
tales que L(X) ≤ U (X) ∀ X = (X1 , X2 , . . . , Xn ) para las cuales

P (L(X) ≤ τ (θ) ≤ U (X)) = γ

en donde γ no depende de θ; entonces al intervalo aleatorio [L(X), U (X)]


se le llama intervalo del γ100 % de confianza para τ (θ)

2
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

Observación 1 A γ se le llama coeficiente de confianza y al intervalo [L(x), U (x)] en donde x =


(x1 , x2 , . . . , xn ) son los valores observados en la muestra, también se le llama intervalo de confianza
del γ100 % para τ (θ).

Observación 2 Si podemos encontrar un intervalo de confianza para θ y τ es una función monótona


(creciente o decreciente) entonces podemos encontrar fácilmente el intervalo de confianza para τ (θ).

Observación 3 De aquı́ en adelante denotaremos a (X1 , X2 , . . . , Xn ) y (x1 , x2 , . . . , xn ) como X y x


respectivamente.

En lo que resta de este capı́tulo describiremos varios métodos para construir intervalos de confianza
para τ (θ) (cualquier función de θ que pudiera interesarnos), en donde, como siempre, supondremos
que conocemos fX (x|θ), la distribución que modela el comportamiento de nuestra población y para
alcanzar nuestros fines utilizaremos como herramienta principal la información de X1 , X2 , . . . , Xn una
m.a. proveniente de fX (x|θ). Como ya es costumbre en inferencia estadı́stica, desarrollaremos estos
métodos a detalle en el caso de una distribución normal en donde los parámetros de interés serán µ y
σ2.

Observación 4 Para entender cómo se construyen los intervalos para µ y σ 2 en el caso de una
población normal, es muy importante el material de la sección 5.3 (distribuciones derivadas de la
normal), esta sección contiene la definición de los cuantiles de la normal, la Ji-cuadrada, la T de
Student y la F de Fisher, tal y como se manejarán en estas notas, además de transformaciones que
serán muy importantes para construir intervalos de confianza para varias cantidades de interés en el
caso de una población normal.

7.2. Método Pivotal


Uno de los métodos más usados para encontrar intervalos de confianza es el método pivotal. Para
describir este método necesitaremos la siguiente

Definición (Cantidad Pivotal)

Sea X1 , X2 , . . . , Xn una m.a. de fX (x|θ). Sea Q = q(X|θ) (una función


de la m.a. y de θ) si la distribución de Q no depende de θ y no es función
de ningún parámetro desconocido. Entonces Q es una cantidad pivotal
para θ.

Observación 5 Para saber si Q = q(X|θ) es una cantidad pivotal para θ es esencial saber cómo se
distribuye Q.

3
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

Ejemplo 1 Sea X1 , X2 , . . . , Xn una m.a. de una N (µ, σ02 ) (σ02 conocida)

X̄ − µ
Q1 = σ0 ∼ N (0, 1)

n

Como Q1 es función de la m.a. y su distribución no depende de µ ni de ningún parámetro desconocido,


entonces Q1 es una cantidad pivotal para µ. ||

A continuación se describe de forma general la implementación del método pivotal para encontrar
un intervalo de confianza para θ.

Sea X1 , X2 , . . . , Xn una m.a. de fX (x|θ)

1. Se encuentra una cantidad pivotal Q = q(X|θ) para θ.

2. Sea 0 < γ < 1 fijo, encontramos q1 y q2 tales que q1 ≤ q2 y

P (q1 ≤ Q ≤ q2 ) = γ

3. Se pivotea Q de forma que obtengamos

P (L(X) ≤ θ ≤ U (X)) = γ

Entonces, [L(X), U (X)] es un intervalo del γ100 % de confianza para θ.

Vamos a utilizar el método pivotal para encontrar intervalos de confianza para µ y σ 2 en el caso
de la distribución normal.

7.2.1. Muestreando de la Distribución Normal


La fdp normal ocupa un papel central en la inferencia estadı́stica, por lo que conviene desarrollar
detalladamente los métodos para encontrar intervalos de confianza para µ y σ 2 . En toda esta parte
utilizaremos una m.a. X1 , X2 , . . . , Xn de una N (µ, σ 2 ).

Intervalo de Confianza para µ


Caso en el que σ 2 es conocida.

X̄−µ
Sabemos que √σ ∼ N (0, 1), entonces ya tenemos nuestra cantidad pivotal (estamos en el caso
n
en el que σ 2 es conocido). Ahora sólo hay que encontrar a y b tales que

X̄ − µ
1 − α = P (a < < b) para 0 < α < 1 (7.1)
√σ
n
σ σ
= P (X̄ − b √ < µ < X̄ − a √ ) (7.2)
n n

4
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

El intervalo que utilizaremos para realizar inferencias acerca de µ vendrı́a dado por (7.2), sin
embargo, necesitamos encontrar el a y b que cumplan con (7.1). En R hay muchos valores para
a y b que cumplen con (7.1). Para fijar ideas y mostrar que esto es ası́; tomemos 1 − α = 0.90,
con este valor en particular, en la tabla siguiente presentamos algunos valores para a y b tales
que P (a ≤ Z ≤ b) = P (Z ≤ b) − P (Z ≤ a) = 0.90 con Z ∼ N (0, 1)

a b P (Z ≤ a) P (Z ≤ b) P (Z ≤ b) − P (Z ≤ a) b−a
-1.43 1.98 0.0763 0.9763 .9 3.41
-1.9 1.46 0.0287 0.9287 .9 3.36
-1.65 1.65 0.05 0.95 .9 3.30

entonces lo que tenemos que hacer es encontrar el a y b que cumplan con (7.1) y que hagan
mı́nima la longitud del intervalo en (7.2), pues mientras más chico sea el intervalo vamos a tener
más información acerca de µ. La longitud del intervalo es l = (b − a) √σn , sin embargo, la cantidad
√σ esta fija y lo único que varı́a es b − a, entonces vamos a minimizar l = b − a sujeto a (7.1).
n
Pero l claramente es una función de a, pues si a se mueve, b automáticamente tiene que ajustarse
para cumplir con la condición de que la probabilidad de que la cantidad pivotal esté entre a y b
sea 1 − α. En la figura 7.2 a continuación, se muestran dos gráficas de la N (0, 1) de forma que
entre a1 y b1 hay un área de 1 − α debajo de la curva y si movemos a1 a a2 para conservar el
área de 1 − α, b1 se tiene que mover a b2 .
fZ(z)

fZ(z)

1−α 1−α

a1 b1 a2 b2

z z

Figura 7.2: Gráficas de la distribución N (0, 1) al mover a1 a a2 manteniendo un área de 1−α constante

Entonces, para encontrar el intervalo de longitud más pequeña, que será el que nos llevará a la
elección óptima de a y b tenemos que resolver el siguiente problema:

min l(a) = min b(a) − a


Z b(a)
s.a. fZ (z)dz = 1 − α
a

En donde l(a) es función de a y Z ∼ N (0, 1) por lo que fZ (z) es la fdp de una N (0, 1).

5
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

Para facilitar un poco las cosas podemos hacer lo siguiente:

Z b(a)
fZ (z)dz = 1−α (7.3)
a
⇔ FZ (b(a)) − FZ (a) = 1 − α (7.4)

⇔ [FZ (b(a)) − FZ (a)] = 0 (7.5)
∂a
∂b(a)
⇔ fZ (b(a)) − fZ (a) = 0 (7.6)
∂a
∂b(a) fZ (a)
⇔ = (7.7)
∂a fZ (b(a))

En donde la ecuación (7.4) es simplemente ver (7.3) utilizando funciones de distribución. La


ecuación (7.6) es resultado de derivar y aplicar el Teorema Fundamental del Cálculo a (7.4).
Para obtener (7.7) simplemente despejamos ∂b(a)
∂a de (7.6) (pues tenemos una ecuación igualada
a cero). Entonces podemos reescribir el problema original como:

min l(a) = min b(a) − a (7.8)


s.a. (7.9)
∂b(a) fZ (a)
= (7.10)
∂a fZ (b(a))

Para resolver el problema anterior, derivamos l(a) con respecto a a e igualamos a cero.

∂l(a) ∂b(a)
= −1=0
∂a ∂a
∂b(a)
⇔ =1
∂a

Sustituyendo en la restricción (7.10) tenemos que

fZ (a) ∂b(a)
⇒ = =1
fZ (b(a)) ∂a
⇔ fZ (a) = fZ (b(a))

Como Z ∼ N (0, 1), esto puede pasar si y sólo si a = b ó a = −b (ya que la N (0, 1) es simétrica),
pero 1 − α > 0 pues 0 < α < 1, entonces a = −b.

6
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

Ası́, para encontrar a y b en (7.1) hacemos a = −b y desarrollamos:

X̄ − µ
1−α = P (−b < < b)
√σ
n
= P (−b < Z < b) = P (Z ≤ b) − P (Z ≤ −b)
=P (Z ≤ b) − (1 − P (Z ≤ b)) = 2P (Z ≤ b) − 1
α
⇔ P (Z ≤ b) = 1 −
2
Por lo que fijando α, b queda determinado automáticamente, pues sabemos que b = zα/2 , el
cuantil α/2 de una N (0, 1). En la figura 7.3 mostramos cómo se ve este cuantil.
fZ(z)

1−α 2

α 2
zα 2

Figura 7.3: Gráfica del cuantil zα/2 de la distribución N (0, 1)

Entonces, sustituyendo el valor de b = zα/2 y a (tomando en cuenta que a = −b) en la ecuación


(7.2), llegamos a que el intervalo de confianza óptimo del (1 − α)100 % para µ con σ 2 conocida
es

σ σ
(X̄ − zα/2 √ , X̄ + zα/2 √ )
n n


Caso en el que se desconoce σ 2 (esta construcción se utiliza mucho en regresión).

X̄−µ (n−1)S 2
Sabemos que √σ ∼ N (0, 1) y que σ2
∼ χ2n−1 (ver sección 5.3 corolario 1) como tenemos
n
una m.a. de una N (µ, σ 2 ), ambas cantidades son independientes y por lo tanto:

X̄ − µ

σ/ n N (0, 1) X̄ − µ
q =q = S ∼ Tn−1 (7.11)
(n−1)S 2 2
σ2
/(n − 1) χn−1 /n − 1 √
n

7
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

Pn
(X −X̄)2
en donde S 2 = 1 n−1 i
. Claramente en la segunda parte de (7.11) estamos cometiendo un
abuso de notación, sin embargo, esta transformación es tan importante que es preferible cometer
algunos abusos para que el desarrollo quede claro a omitir pasos y que queden dudas acerca de
la construcción.

Ya tenemos nuestra cantidad pivotal, entonces hay que encontrar a y b de forma que la longitud
del intervalo dado por

X̄ − µ
P (a < < b) = 1 − α para 0 < α < 1
√S
n

sea mı́nima, sin embargo ya que la Tn−1 tiene una fdp simétrica y se comporta de forma similar
a la N (0, 1) llegarı́amos (de forma totalmente análoga al caso en el que σ 2 era conocida) a que
la mejor opción para a y b es tomar a = −b y por lo tanto el intervalo de confianza óptimo del
(1 − α)100 % para µ serı́a:

S S
(X̄ − tα/2,n−1 √ , X̄ + tα/2,n−1 √ )
n n

En donde ahora, en lugar de los cuantiles de una una normal estándar, tenemos los cuantiles de
una T de Student con n − 1 grados de libertad. 

Intervalo de Confianza para σ 2


1. Caso en el que µ es conocida.
Pn
(X −µ)2
La cantidad pivotal es 1 σ2i ∼ χ2n . Formalmente, para elegir el a y b óptimos, se deberı́a
proseguir como con los intervalos de confianza para µ, sin embargo, este camino no tiene una
solución analı́tica sencilla, por lo que en la práctica no se encuentra el intervalo con amplitud
mı́nima, sino el que deja colas iguales a α2 , ası́ el intervalo de confianza del (1 − α)100 % para σ 2
con µ conocida se obtiene al trabajar con

Pn
1 (Xi − µ)2
1−α = P (χ21−α/2,n < < χ2α/2,n )
σ2 !
Pn 2
Pn 2
1 (Xi − µ) 2 1 (Xi − µ)
= P <σ <
χ2α/2,n χ21−α/2,n
Pn Pn !
2 2
1 (Xi − µ) 1 (Xi − µ)
⇔ σ2 ∈ ,
χ2α/2,n χ21−α/2,n

8
7.2. MÉTODO PIVOTAL Carlos Erwin Rodrı́guez

2. Caso en el que µ es desconocida.

2
Cambia la cantidad pivotal a (n−1)S σ2
∼ χ2n−1 y por la misma justificación dada en el caso
anterior, el intervalo de confianza del (1 − α)100 % para σ 2 con µ desconocida es:
!
(n − 1)S 2 (n − 1)S 2
,
χ2α/2,n−1 χ21−α/2,n−1


Intervalo de Confianza para la Diferencia de Medias


de dos Poblaciones Normales
Sean X1 , X2 , . . . , Xn una m.a. de una N (µ1 , σ 2 ) y Y1 , Y2 , . . . , Ym una m.a. de una N (µ2 , σ 2 ) en
donde σ 2 es desconocida y las dos muestras son independientes entre sı́ y lo que se quiere es un inter-
valo de confianza del (1 − α)100 % para µ2 − µ1 .

La idea es encontrar una cantidad pivotal para µ2 − µ1 , entonces es claro que se tiene que trabajar
con Ȳ − X̄. Lo primero que se tiene que tomar en cuenta es que X̄ ∼ N (µ1 , σ 2 /n) y Ȳ ∼ N (µ2 , σ 2 /m),
ahora hay que obtener la distribución de Ȳ − X̄.

Proposición 1 Sea W ∼ N (µ1 , σ12 ) y V ∼ N (µ2 , σ22 ) con W y V independientes entre sı́ ⇒ V − W ∼
N (µ2 − µ1 , σ12 + σ12 ).
2 t2
σ1 2 t2
σ2
Se tiene que MW (t) = E[eW t ] = eµ1 t+ 2 y MV (t) = E[eV t ] = eµ2 t+ 2 , entonces

MV −W (t) = E[e(V −W )t ] = E[eV t e−W t ] (7.12)


σ 2 t2 σ 2 t2
µ2 t+ 22 −µ1 t+ 12
= E[eV t ]E[e−W t ] = e e (7.13)
(σ 2 +σ 2 )t2
(µ2 −µ1 )t+ 1 2 2
= e (7.14)
⇒ V − W ∼ N (µ2 − µ1 , σ12 + σ12 ) (7.15)

En donde la igualdad (7.13) es debida a la independencia entre V y W . 

Aplicando la proposición anterior a Ȳ − X̄, se tiene que Ȳ − X̄ ∼ N (µ2 − µ1 , σ 2 ( n1 + m


1
)), entonces
Ȳ −X̄−(µ2 −µ1 )
estandarizando; q
1 1
∼ N (0, 1), sin embargo, aunque la distribución de esta cantidad no de-
σ (n +m )
pende de µ, no puede ser una cantidad pivotal ya que depende de la cantidad desconocida σ 2 .
Pn Pm
(X −X̄)2 (Y −Ȳ )2
Por otro lado, sabemos que 1 σi2 ∼ χ2n−1 y que 1 σi2 ∼ χ2m−1 además, como las
muestras son independientes, estas estadı́sticas también son independientes entre sı́, por lo que
Pn 2
Pm 2
1 (Xi − X̄) + 1 (Yi − Ȳ )
∼ χ2n+m−2
σ2

9
7.3. INTERVALOS ASINTÓTICOS Carlos Erwin Rodrı́guez

Ȳ −X̄−(µ2 −µ1 )
q
1 1
σ (n +m )
⇒ q Pn 2
P m 2
(7.16)
1 (Xi −X̄) + 1 (Yi −Ȳ )
(m+n−2)σ 2
Ȳ − X̄ − (µ2 − µ1 )
= q ∼ tm+n−2 (7.17)
1 1
Sp ( n + m )
Pn Pm
(X −X̄)2 + (Y −Ȳ )2
En donde Sp2 = 1 i n+m−21 i . Claramente (7.17) es una cantidad pivotal ya que su
distribución no depende de µ2 − µ1 y no es función de ningún parámetro desconocido. Ası́, llegamos a:

Ȳ − X̄ − (µ2 − µ1 )
P (−tα/2,m+n−2 ≤ q ≤ tα/2,m+n−2 ) = 1 − α
1 1
Sp ( n + m )

Pivoteando de la ecuación anterior, tenemos que el intervalo de confianza del (1 − α)100 % para
µ2 − µ1 , está dado por s 
1 1
(Ȳ − X̄) ∓ tα/2,m+n−2 Sp +
n m


7.3. Intervalos Asintóticos


El método asintótico para encontrar intervalos de confianza se basa en el método pivotal y en el
siguiente:

Teorema 1 Si fX (x|θ) satisface ciertas condiciones de regularidad (las del teorema de la cota inferior
de Crámer-Rao) y si θ̂n (X) = θ̂(X1 , X2 , . . . , Xn ) es el estimador máximo verosı́mil de θ para una m.a.
de tamaño n, entonces
a
θ̂n (X) ∼ N (θ, σn2 (θ))
1
En donde σn2 (θ) = h i
d2
−nE dθ2
ln fX (X|θ)

a
Lo que este teorema nos dice es que a medida que n crece, de forma asintótica (∼) θ̂n (X) se va
a distribuir aproximadamente como una normal. Utilizando este resultado, para tamaños de muestra
suficientemente grandes, podemos emplear

θ̂n (X) − θ
∼ N (0, 1)
σn (θ)
como una cantidad pivotal y ası́ construir un intervalo de confianza asintótico para θ.

Observación 6 Para hacer explı́cito que el estimador máximo verosı́mil, θ̂, depende de la m.a. y de
n, el tamaño de la m.a., en el teorema anterior lo denotamos como θ̂n (X), sin embargo, en lo sucesivo
lo escribiremos sólo como θ̂.

10
7.3. INTERVALOS ASINTÓTICOS Carlos Erwin Rodrı́guez

Ejemplo 2 Sea X1 , X2 , . . . , Xn una m.a. de

fX (x|θ) = θe−θx

para 0 < x < ∞ y θ > 0.


1
Para calcular el intervalo asintótico para θ, tomamos en cuenta que θ̂ = X̄
y que

1 θ2
σn2 (θ) = h i=
−nE d2
ln fX (X|θ) n
dθ2
1

−θ a
Por lo que, por el Teorema 1, ∼ N (0, 1) entonces para n suficientemente grande
√θ
n
1
−θ
P (−zα/2 < X̄ < zα/2 ) = 1 − α
θ

n
pivoteando sobre θ y haciendo algunos manejos algebraicos se llega a que el intervalo asintótico
del (1 − α)100 % de confianza para θ es
√ √ !
n n
√ , √
( n + zα/2 )X̄ ( n − zα/2 )X̄

||

Ejemplo 3 Sea X1 , X2 , . . . , Xn una m.a. de

f (x|p) = px (1 − p)1−x
p(1−p)
El estimador máximo verosı́mil de p es p̂ = X̄ y σn2 (p) = n . Entonces, un intervalo de confianza
asintótico para p del (1 − α)100 % vendrı́a dado por:

X̄ − p
P (−zα/2 < q < zα/2 ) = 1 − α (7.18)
p(1−p)
n

Sin embargo, pivotear p de (7.18) es un poco complicado, además, al final para n suficientemente
grande muchos términos se pueden despreciar por lo que en lugar de trabajar con σn2 (p) se usa σn2 (p̂),
entonces

 
X̄ − p
1−α = P −zα/2 < q < zα/2  (7.19)
X̄(1−X̄)
n
r r !
X̄(1 − X̄) X̄(1 − X̄)
⇒ X̄ − zα/2 , X̄ + zα/2 (7.20)
n n

es el intervalo asintótico del (1 − α)100 % de confianza para p. ||

11
7.4. PIVOTEANDO LA FUNCIÓN DE DISTRIBUCIÓN Carlos Erwin Rodrı́guez

7.4. Pivoteando la Función de Distribución


Para construir un intervalo de confianza, puede resultar muy difı́cil encontrar una cantidad piv-
otal, además, no siempre se cuenta con muestras lo suficientemente grandes como para poder usar un
intervalo asintótico. Para resolver este tipo de problemas, se trabaja con otro tipo de pivote, uno más
general.

Supongamos que queremos construir un intervalo de confianza para θ. Primero se debe elegir una
estadı́stica T = T (X), en donde se recomienda que T sea una estadı́stica suficiente o el estimador
máximo verosı́mil para θ. La elección de T depende de dos aspectos fundamentales:

Se pueda conocer la distribución de T .

Las operaciones sean lo más fáciles posibles.

El primer aspecto es fundamental, si no conocemos la distribución de T , no se podrá utilizar el


método que veremos a continuación. El segundo aspecto es simplemente para que, en la medida de lo
posible, las cosas se faciliten, pero no es esencial.

Este método se basa en los dos teoremas que se enuncian a continuación.

Teorema 2 (Pivoteando de una función de distribución continua)


Sea T una estadı́stica continua con función de distribución FT (t|θ) y sea α1 + α2 = α con 0 < α < 1
fijo. Para cada t ∈ ̟ en donde ̟ es el espacio de todos los valores posibles de T . Se define θL (t0 )
y θU (t0 ) como sigue (t0 = T (x1 , x2 , . . . , xn ) es el valor que toma la estadı́stica al evaluar la m.a.
observada)

1. Si FT (t|θ) es decreciente como función de θ para cada t, encontramos θL (t0 ) y θU (t0 ) de forma
que aproximadamente se cumpla que

FT (t0 |θU (t0 )) = α1 y FT (t0 |θL (t0 )) = 1 − α2

2. Si FT (t|θ) es creciente como función de θ para cada t, encontramos θL (t0 ) y θU (t0 ) de forma
que aproximadamente se cumpla que

FT (t0 |θU (t0 )) = 1 − α2 y FT (t0 |θL (t0 )) = α1

Entonces [θL (t0 ), θU (t0 )] es un intervalo del (1 − α)100 % de confianza para θ.

12
7.4. PIVOTEANDO LA FUNCIÓN DE DISTRIBUCIÓN Carlos Erwin Rodrı́guez

Ejemplo 4 Sea X1 , X2 , . . . , Xn una m.a. de

1
1 (x)
f (x|θ) =
θ (0,θ)
Empleando el Teorema 2 vamos a construir un intervalo de confianza para θ.

Usaremos T = X(n) = máx{X1 , X2 , . . . , Xn } ya que


n  n
Y 1
L(θ|x) = f (xi |θ) = 1(0,x(n) ) (x(1) )1(0,θ) (x(n) )
θ
1
entonces por el Teorema de Factorización X(n) = máx{X1 , X2 , . . . , Xn } es una estadı́stica suficiente
para θ
 n
1
fX(n) (x) = fT (t) = n tn−1 1(0,θ) (t)
θ
 n
t
⇒ FT (t|θ) =
θ
Claramente para t fijo FT (t|θ) es una función decreciente de θ, entonces utilizamos la primera parte
del Teorema 2.

Primero encontramos θU (t0 )

 n
t0
α1 = FT (t0 |θU (t0 )) =
θU (t0 )
t0
⇔ θU (t0 ) =
(α1 )1/n
Ahora vamos a encontrar θL (t0 )

 n
t0
1 − α2 = FT (t0 |θL (t0 )) =
θU (t0 )
t0
⇔ θL (t0 ) =
(1 − α2 )1/n
Entonces el intervalo del (1 − α)100 % de confianza para θ es
 
t0 t0
, (7.21)
(1 − α2 )1/n (α1 )1/n
Aquı́ es posible encontrar el intervalo de confianza óptimo para θ, si minimizamos
 
1 1
t0 − (7.22)
(α1 )1/n (1 − α2 )1/n
sujeto a que α1 + α2 = α y 0 < α1 + α2 < 1. En donde (7.22) es la longitud del intervalo (7.21).
Se puede ver que (7.22) es mı́nimo y las restricciones se cumplen si α2 = 0 ⇒ α1 = α. Por lo que el
intervalo del (1 − α)100 % de confianza óptimo para θ serı́a

13
7.4. PIVOTEANDO LA FUNCIÓN DE DISTRIBUCIÓN Carlos Erwin Rodrı́guez

 
t0
t0 ,
(α)1/n
||

El Teorema 2 es para el caso en el que la distribución de T sea la de una v.a. continua, cuando
T es una v.a. discreta podemos utilizar el siguiente

Teorema 3 (Pivoteando de una función de distribución discreta)


Sea T una estadı́stica discreta con función de distribución P (T ≤ t|θ) y sea α1 +α2 = α con 0 < α < 1
fijo. Para cada t ∈ ̟ en donde ̟ es el espacio de todos los valores posibles de T . Se define θL (t0 )
y θU (t0 ) como sigue (t0 = T (x1 , x2 , . . . , xn ) es el valor que toma la estadı́stica al evaluar la m.a.
observada)

1. Si P (T ≤ t|θ) es decreciente como función de θ para cada t, encontramos θL (t0 ) y θU (t0 ) de


forma que aproximadamente se cumpla que

P (T ≤ t0 |θU (t0 )) = α1 y P (T ≥ t0 |θL (t0 )) = α2

2. Si P (T ≤ t|θ) es creciente como función de θ para cada t, encontramos θL (t0 ) y θU (t0 ) de forma
que aproximadamente se cumpla que

P (T ≥ t0 |θU (t0 )) = α1 y P (T ≤ t0 |θL (t0 )) = α2

Entonces [θL (t0 ), θU (t0 )] es un intervalo del (1 − α)100 % de confianza para θ.

Una elección común es tomar α1 = α2 = α/2, pero esto no garantiza que encontremos el intervalo
de confianza óptimo, en el sentido de que tenga longitud mı́nima.

Ejemplo 5 Sea X1 , X2 , . . . , X10 una m.a. de una Bernoulli(p), vamos a construir un intervalo del
95 % confianza para p.
1
Supongamos que en la muestra se observa xi = 0 ∀i 6= 3 y x3 = 1, entonces x̄ = 10 .

Si utilizamos el intervalo asintótico (7.20), llegamos a que el intervalo del 95 % de confianza para
p serı́a (−.0859, .2859). Claramente hay un problema con este intervalo, pues 0 ≤ p ≤ 1. Una sólución
serı́a cortarlo y reportarlo como (0, .2859); sin embargo, este intervalo ya no es del 95 % de confianza,
además si la cota inferior manifestaba problemas obvios, la cota superior también debe tener problemas
aunque no sean evidentes. El problema aquı́ en realidad es que la m.a. con la que estamos trabajando
es de tamaño 10 y estamos construyendo un intervalo asintótico, entonces, aunque el intervalo no
tuviera problemas visibles, estarı́amos cometiendo un gran error al basar nuestras inferencias en él.

Para evitar este tipo de problemas vamos a utilizar el Teorema 3 para construir un intervalo de
confianza para p.

Estamos
P trabajando con una m.a. de una Bernoulli(p), entonces nos Pconviene usar como estadı́sti-
ca a T = 101 X i que es suficiente para p, además, sabemos que T = 10
1 X i ∼ Bin(10, p), entonces

14
7.4. PIVOTEANDO LA FUNCIÓN DE DISTRIBUCIÓN Carlos Erwin Rodrı́guez

P10
t0 = 1 xi = 1. Vamos a suponer α1 = α2 = α/2 = .05/2 = .025.

Sólo nos falta saber si usamos la parte 1 ó 2 del Teorema 3 (tenemos que saber si P (T ≤ t|p) es
creciente o decreciente como función de p ∀ t). Para saber esto, simplemente se realiza una pequeña
prueba. Supongamos t = 2 (fija)

P (T ≤ 2|.2) = .67
P (T ≤ 2|.3) = .382

De donde se obtiene que para t fija P (T ≤ t|p) es decreciente como función de p, por lo que
usaremos la primera parte del Teorema 3.

Sin embargo, si no se está conforme con este procedimiento, se puede hacer una gráfica de P (T ≤
2|p) o probarlo formalmente mediante la derivada. En la figura 7.4 se muestra la gráfica de P (T ≤ 2|p),
que claramente es decreciente.
P(T<=2|p)

Figura 7.4: Gráfica de P (T ≤ 2|p)

Entonces, utilizando la primera parte del Teorema 3, tenemos que encontrar pL (t0 ) y pU (t0 )
(recordemos que t0 = 1), de forma que aproximadamente tengamos

0.025 = P (T ≤ t0 |pU (t0 )) = P (T ≤ 1|pU (1))

Para encontrar el valor de pU (1) podemos buscar en tablas, o si quisiéramos ser más precisos
podemos utilizar R y hacer una tabla como la siguiente

[,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8]


p 0.4430 0.4440 0.445 0.4460 0.4470 0.4480 0.4490 0.4500
P(t<=1|p) 0.0257 0.0254 0.025 0.0246 0.0243 0.0239 0.0236 0.0233

De donde podemos ver que P (T ≤ 1|0.445) = 0.025 ⇒ pU (1) = 0.445. Y para la cota inferior de
nuestro intervalo se tiene

15
7.4. PIVOTEANDO LA FUNCIÓN DE DISTRIBUCIÓN Carlos Erwin Rodrı́guez

0.025 = P (T ≥ t0 |pL (t0 )) = P (T ≥ 1|pL (1)) = 1 − P (T < 1|pL (1))


= 1 − P (T = 0|pL (1)) ⇒ P (T = 0|pL (1)) = 0.975

Haciendo de nuevo una tabla de valores en R

[,1] [,2] [,3] [,4] [,5] [,6] [,7] [,8]


p 0.0023 0.0024 0.0025 0.0026 0.0027 0.0028 0.0029 0.0030
P(t=0|p) 0.9772 0.9763 0.9753 0.9743 0.9733 0.9724 0.9714 0.9704

De donde se tiene que P (T = 0|0.0025) = 0.9753 ⇒ pL (1) = 0.0025. Entonces el intervalo del
95 % de confianza para p es [0.0025, 0.445], que por supuesto es muy amplio, esto se debe a que se
cuenta con sólo una m.a. de tamaño 10. ||

Ya vimos cómo funcionan los teoremas 2 y 3, para construir intervalos de confianza, sin embargo,
nos falta entender porqué podemos derivar un intervalo de confianza de esta forma. Nos remitiremos
sólo a explicar el Teorema 2, el caso en el que T es una v.a. continua con función de distribución
FT (t|θ).

Primero hay que recordar cómo definimos un intervalo de confianza para θ. Necesitamos encontrar
dos estadı́sticas L(X) y U (X) tales que L(X) ≤ U (X) ∀ X = (X1 , X2 , . . . , Xn ) para las cuales

P (L(X) ≤ θ ≤ U (X)) = 1 − α (7.23)


Entonces la pregunta es ¿cómo con el Teorema 2 estamos construyendo algo como (7.23)? La
primera parte de la respuesta viene dada por el siguiente

Teorema 4 Sea T una v.a. continua con función de distribución FT (t|θ), definamos la variable aleato-
ria
Y = FT (T |θ)
entonces Y es una v.a. con distribución uniforme en (0, 1) (Y ∼ U (0, 1)).

Observación 7 Hay que poner atención, en cómo se definió Y , Y = FT (T |θ). La función de dis-
tribución está evaluada en T la v.a. no en t el número real.

No demostraremos este teorema, sin embargo, para convencernos de manera informal de que debe
ser cierto, podemos generar una m.a. de tamaño 10, 000 de normales, gammas, exponenciales, T de
Student, etc, cualquier m.a. de variables aleatorias continuas, luego evaluamos cada elemento de la
muestra en su función de distribución y por último realizamos el histograma de las observaciones resul-
tantes. El histograma obtenido debe parecerse a la función de densidad de probabilidad de una U (0, 1).

Con el Teorema 4, la notación del Teorema 2, si α1 < 1 − α2 y T es una v.a. continua, entonces

1 − α = 1 − α2 − α1 (7.24)
= P (α1 ≤ U ≤ 1 − α2 ) (7.25)
= P (α1 ≤ FT (T |θ) ≤ 1 − α2 ) (7.26)
= P (θL (T ) ≤ θ ≤ θU (T )) (7.27)

16
7.4. PIVOTEANDO LA FUNCIÓN DE DISTRIBUCIÓN Carlos Erwin Rodrı́guez

En donde (7.25) es la probabilidad de que una v.a. U (uniforme (0,1)) esté entre α1 y 1 − α2 , (7.26)
es simplemente aplicar el Teorema 4 y en (7.27) estamos “pivoteando” FT (T |θ). Si podemos llegar
a (7.27), entonces la definición (7.23) se cumple y por lo tanto habremos construido un intervalo de
confianza. El único paso que no resulta totalmente claro es (7.27), que explicaremos a continuación.

No podemos manejar el intervalo aleatorio [θL (T ), θU (T )], entonces utilizamos el valor observado
de T , t0 , por lo que tendrı́amos el intervalo [θL (t0 ), θU (t0 )]. Entonces nuestro problema se reduce a
“pivotear” FT (t0 |θ) y obtener [θL (t0 ), θU (t0 )]. En el caso en el que FT (t0 |θ) es una función decreciente
de θ, lo que tendrı́amos que hacer se muestra en la figura 7.5.

1 − α2
FT(t0|θ)

α1

θL(t0) θU(t0)
θ

Figura 7.5: Pivoteando una función de distribución continua

De la gráfica anterior, podemos ver que si encontramos θL (t0 ) y θU (t0 ) de forma que FT (t0 |θU (t0 )) =
α1 y FT (t0 |θL (t0 )) = 1 − α2 , entonces habremos obtenido un intervalo de confianza del (1 − α)100 %.
Esto es exactamente lo que nos dice el Teorema 2, en el caso en que FT (t|θ) es una función decreciente
de θ. En el caso en el que FT (t|θ) es una función creciente de θ las cosas cambiarı́an, es conveniente
realizar el gráfico correspondiente y comparar el resultado con el Teorema 2.

Observación 8 Si FT (t|θ) no es una función creciente ni decreciente de θ, entonces también podremos


utilizar los teoremas 2 y 3, sin embargo, no obtendremos un intervalo, obtendrı́amos un conjunto de
confianza, que seguramente, en términos prácticos, será difı́cil de interpretar y manejar.

Observación 9 Los teoremas 2 y 3 no nos garantizan obtener el intervalo de confianza del (1 −


α)100 % para θ óptimo, en el sentido de que sea el que tenga la longitud mı́nima. Sólo nos garantizan
un intervalo de confianza.

Con esta explicación concluimos este capı́tulo, más adelante veremos cómo construir pruebas de
hipótesis y estableceremos el fuerte vı́nculo entre pruebas de hipótesis e intervalos de confianza. Por
ahora sólo diremos que a partir de cualquier intervalo de confianza podremos construir una prueba de
hipótesis, además, el recı́proco también es cierto, esto lo veremos en el capı́tulo siguiente.

17