Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Pθ [L(X) ≤ θ ≤ U (X)] ≥ p
Pθ (L(X) ≤ θ ≤ U (X)) = p, ∀θ ∈ Θ.
Resolver las ecuaciones propuestas de forma exacta es posible en muy pocas ocasiones,
muchas veces solo se dispone de aproximaciones asintóticas que pueden ser el resultado
por ejemplo de la aplicación del teorema central de límite, en ese caso, si la muestra es
suficientemente grande, se tiene que
Ejemplo 62. Sea X1 , . . . , Xn una muestra i.i.d. de un distribución N (µ, 1), sabemos que
√
n(X n − µ) ∼ N (0, 1),
luego
√
!
1.96 1.96
0, 95 = Pµ (−1, 96 ≤ n(X n − µ) ≤ 1, 96) = Pµ Xn − √ ≤ θ ≤ Xn + √
n n
Sea un vector aleatorio X = (X1 , . . . , Xn ) con distribución Pθ , una raíz pivotal es una
función medible del vector aleatorio g(X1 , . . . , Xn ; θ) tal su distribución no depende de θ.
i.e.
Pθ (g(X1 , . . . , Xn ; θ) ≤ x) = G(x).
Así, se pueden obtener constantes a y b tales que
p = Pθ (a ≤ g(X1 , . . . , Xn ; θ) ≤ b) = G(b) − G(a−).
El evento {a ≤ g(X1 , . . . , Xn ; θ) ≤ b} podría ser manipulado álgebraicamente para
expersarlo de la forma
p = Pθ (L(X1 , . . . , Xn ) ≤ θ ≤ U (X1 , . . . , Xn )).
Ejemplo 63. Sea X1 , . . . , Xn una muestra i.i.d. de una distribución U(0, θ), el estimador
de máxima verosimilitud es θ̂n = X(n) y sabemos que
!
X(n)
Pθ ≤ x = xn , 0 ≤ x ≤ 1.
θ
X(n)
Es claro que θ
es una raíz pivotal, se elige a y b tales que
!
X(n)
p = Pθ a≤ ≤ b = b n − an .
θ
Ejemplo 64. Sea X1 , . . . , X10 una muestra i.i.d. de una distribución exponencial Exp(λ)
construyamos un intervalo de confianza del 90%.
10
X
Se verifica que λ Xi ∼ Gamma(10, λ), entonces es una raíz pivotal, encontremos a y b
i=1
tales que
10
!
X
Pλ a ≤ λ Xi ≤ b = 0.90.
i=1
Existe una infinidad de valores a y b que satisfagan esta ecuación, por facilidad suele
usarse:
10 10
! !
X X
Pλ λ Xi < a = 0.05, Pλ λ Xi > b = 0.05.
i=1 i=1
No es el intervalo de confianza para θ más pequeño, pero en este contexto es el más usado.
Ejemplo 65. Sea X1 , . . . , Xn una muestra i.d.d. de una distribución normal N (µ, σ 2 ).
Sea n
1 X
S2 = (Xi − X n )2 .
m − 1 i=1
Se conoce que
√
n(X n − µ)
∼ tn−1 , que no depende de µ ó de σ 2 .
S
Así, es una raíz pivotal para µ y entonces el intervalo de confianza de nivel (1 − α)100%
está dado por
" #
S S
[L(X), U (X)] = X n − √ tn−1,α/2 , X n + √ tn−1,α/2 .
n n
que se observa que es una raíz pivotal para σ 2 , un intervalo de confianza está dado por
(n − 1)S 2 (n − 1)S 2
[L(X), U (X)] = 2 , .
χn−1,α/2 χ2n−1,(1−α/2)
Pθ [g(X, θ) ≤ x) ≈ G(x).
θ̂ − θ a
∼ N (0, 1), es una raíz pivotal aproximada.
σ(θ)
θ̂ − θ
Pθ −zp/2 ≤ ≤ zp/2 ≈ 1 − p,
σ(θ)
por tanto, un intervalo de confianza aproximado de nivel (1 − p)100% está dado por:
h i
θ̂ − σ(θ̂)zp/2 , θ̂ + σ(θ̂)zp/2
Ejemplo 66. Sea X1 , . . . , Xn una muestra i.d.d. de una distribución exponencial Exp(λ).
Primera aproximación:
1
El estimados de máxima verosimilitud de λ es λ̂n = , se tiene entonces que:
Xn
√ a
n(λ̂n − λ) ∼ N (0, λ2 ).
con lo que un intervalo de confianza aproximado del 95% está dado por
λ̂n λ̂n
√ , √ .
1 + 1, 96/ n 1 − 1, 96/ n
Segunda aproximación:
Se tiene también, usando el teorema de Slutsky que
√ λ̂ − λ a
n n ∼ N (0, 1),
λ̂n
que también sera una raíz pivotal aproximada, y así el intervalo de confianza es:
h √ √ i
λ̂n (1 − 1, 96/ n), λ̂n (1 + 1, 96/ n), .
Tercera aproximación:
Aplicando el método delta a la distribución asintótica del estimador de máxima verosimil-
itud se tiene que √ a
n(log(λ̂n ) − log(λ)) ∼ N (0, 1).
El intervalo de confianza aproximado de nivel 95% para log(λ) es
h √ √ i
log(λ̂n ) − 1, 96/ n, log(λ̂n ) + 1, 96/ n
Ejemplo 67. Sea X1 , . . . , Xn una muestra i.i.d. de una distribución normal multivariante
Nk (µ, Σ), con Σ no singular. Los estimadores insesgados de µ y Σ son respectivamente
n n
1X 1 X
µ̂ = , Σ̂ = (Xi − µ̂)(Xi − µ̂)>
n i=1 n − 1 i=1
n(n − k)
g(µ̂, Σ̂; µ) = (µ̂ − µ)> Σ̂−1 (µ̂ − µ) ∼ Fk,n−k .
k(n − 1)
entonces n o
R∗ (µ̂, Σ̂) = µ ∈ Rp : n(µ̂ − µ)> Σ̂−1 (µ̂ − µ) ≤ cp ,
con cp el p-cuantil de χ2k es una región de confianza aproximada en sentido asintótico.
Se define
n
[Li (X), Ui (X)] = {θ ∈ Rk : Li (X) ≤ Ui (X), i = 1, . . . , k},
Y
R(X) =
i=1
una región de confianza para θ, pero su cobertura no es clara. Lo que si se conoce, por la
desigualdad de Bonferroni es que
k
X k
X
Pθ (θ ∈ R(X)) ≥ 1 − Pθ (θi ∈ [Li (X), Ui (X)]) = 1 − (1 − pi ).
i=1 i=1
pi = 1 − (1 − p)/k.
(Ω × Θ, A × BΘ , Q),
Puede verificarse que Q es una medida de probabilidad sobre esl espacio producto (obser-
vaciones por parámetros), Se puede marginalizar (integrar) de la siguiente forma
Z
Para A ∈ A, P (A) = Q(Θ × A) = Pθ (X ∈ A) dM (θ).
Θ
Se verifica que P es una medida de probabilidad sobre el espacio muestral (Ω, A), a ésta
se la conoce como medida predictiva.
Bajo condiciones de regularidad (que no se tratarán aquí) existe una transición de
probabilidad tal que
Q = M ⊗ Pθ = P ⊗ Mx ,
donde Mx está definida de tal forma que:
Z
P ⊗ Mx (A × B) = Mx (B) dP (x).
A
Si tanto el modelo de muestreo como la distribución a-priori son dominados por medidas
σ-finitas µ y λ respectivamente se tiene que
dPθ dM
pθ (x1 , . . . , xn ) = (x1 , . . . , xn ), m(θ) = (θ).
dµ dλ
d(M ⊗ Pθ )
q(x1 , . . . , xn , θ) = (x1 , . . . , xn , θ) = pθ (x1 , . . . , xn ) m(θ).
d(µ ⊗ λ)
Ejemplo 68. Sea X1 , . . . , Xn una muestra de una distribución de Poisson P o(θ), entonces
Pn
i=1 Xi ∼ P o(nθ), y sea la distribución a-priori θ ∼ Gamma(λ, α), es decir
λα θα−1 exp{−λθ}
m(θ) = , θ > 0,
Γ(α)
Pn
sea t = i=1 xi , por tanto
Por tanto, θ | X1 , . . . , Xn ∼ Gamma(α + T, λ + n), que puede usarse para una estimación
de θ, por ejemplo
α+T
θ̂ = E(θ | X1 , . . . , Xn ) = ,
λ+n
también se puede tener un intervalo de credibilidad resolviendo la ecuación
Z b
m(θ | x1 , . . . , xn ) dθ = p.
a