Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Error estándar
Máxima verosimilitud
Caso continuo
2. Caso continuo.
X1 , X2 , . . . , Xn ∼ Pθ muestra de una distribución continua con
densidad fθ (x).
Datos de la muestra x1 , x2 , . . . , xn . La densidad conjunta
función de verosimilitud.
Estimación de máxima verosimilitud es θ̂ tal que
1 / 18
Estimadores óptimos
Error estándar
Ejemplos
Exponencial
fλ (x) = λ exp(−λx), x ≥ 0,
n
Y X
Vn (λ) = λ exp(−λxi ) = λn exp(−λ xi ).
i=1
P
Sea S = xi , entonces Ln (λ) = n ln λ − λS , y la ecuación:
2 / 18
Estimadores óptimos
Error estándar
Ejemplos
Normal
1 (x − m)2
fθ (x) = √ exp(− ), x ∈R
2πσ 2σ 2
n
1 Y (xi − m)2
Vn (θ) = √ exp(− )
( 2π)n σ n i=1 2σ 2
1 X (xi − m)2
= √ exp(− ).
( 2π)n σ n 2σ 2
i
√ X (xi − m)2
Ln (θ) = −n ln( 2π) − n ln(σ) −
2σ 2
i
3 / 18
Estimadores óptimos
Error estándar
Ejemplos
Normal
Derivadas parciales
∂Ln X
= (xi − m)/σ 2 = 0
∂m
i
Ejemplos
Uniforme
6 / 18
Estimadores óptimos
Error estándar
Método de momentos.
Importante que
Pn k
i=1 Xi
→ EX k , n→∞
n
Aplicable entonces a sucesiones ergódicas , ⇒ aplicaciones a series
de tiempo.
Maxima verosimilitud.
Aplicable siempre que haya expresión analı́tica de la densidad
conjunta de observaciones X1 , . . . , Xn
7 / 18
Estimadores óptimos
Error estándar
Riesgo
8 / 18
Estimadores óptimos
Error estándar
Ejemplo
Supongamos que existe Top óptimo, es decir,
R(θ; Top ) ≤ R(θ; T ) (1)
para cualquier estimador T y para cualquier θ.
Tomamos una θ = θ0 cualquiera. Y definamos T0 ≡ τ (θ0 )
(constante)
R(θ0 ; T0 ) = Eθ0 (T0 − τ (θ0 ))2 = 0
Por (1) R(θ0 ; Top ) = 0.
Como θ0 es arbitraria ⇒ R(θ; Top ) = 0 para toda θ.
Es decir
Eθ (Top − τ (θ))2 = 0
para toda θ.
Por tanto Pθ (Top = τ (θ)) = 1 para cualquier θ. Es decir, el ( único
) valor de Top define sin equivocación el valor de τ (θ) cualquiera
que sea θ. El problema es degenerado (se esta observando lo que
se quiere estimar)
9 / 18
Estimadores óptimos
Error estándar
Insesgamiento
n n SCa
σ̂ 2 = = s2
n−1 n−1 n
es indesgado. 11 / 18
Estimadores óptimos
Error estándar
Ejemplo: uniforme
Eθ θ̂mm = Eθ (2X̄ ) = 2Eθ X = 2 2θ = θ . θ̂mm insesgado.
¿Lo mismo θ̂mv ? Es decir,T = X(n) ?
Necesitamos Eθ X(n) .
¿Distribución de X(n) ?
Pθ (X(n) ≤ x) = Pθ (máxi Xi ≤ x) = Pθ (Xi ≤ x ∀i, 1 ≤ i ≤ n)
= (Pθ (Xi ≤ x))n
Z x
1 x
Pθ (Xi ≤ x) = dx =
0 θ θ
⇒ FT (x) = ( xθ )n
nx n−1
⇒ fT (x) =
θn
Z θ θ
nx n−1 n θn+1
Z
n n
⇒ Eθ máx X(i) = x n dx = n x n dx = n = θ
i 0 θ θ 0 θ n+1 n+1
12 / 18
Estimadores óptimos
Error estándar
Ejemplo: uniforme
n
Entonces Eθ θ̂mv = Eθ T = n+1 θ 6= θ ¡es un estimador sesgado!
Corrección
n+1
Eθ T = θ, ∀θ.
n
Entonces θ̂c = n+1
n T es insesgado.
¿Cuál es mejor de los dos estimadores insesgados?
13 / 18
Estimadores óptimos
Error estándar
Estimadores insesgados
Propiedad.
Sea T un estimador insesgado para τ (θ). Entonces su riesgo
cuadrático es Varθ T .
Efectivamente,
14 / 18
Estimadores óptimos
Error estándar
√
Definición: σθ (T ) = Varθ T se llama error estándar del
estimador. Es una caracterı́stica de la precisión de la estimación.
Suele especificarse:
“estimación ± error estándar”
Si no está disponible el valor “teórico”del error estándar, se usa
una estimación.
15 / 18
Estimadores óptimos
Error estándar
16 / 18
Estimadores óptimos
Error estándar
Comparación de riesgos
distribución uniforme
Z θ Z θ
nt n−1 n
t 2 n dt = n t n+1 dt
0 θ θ 0
n θn+2 θ2 n
= =
θn n + 2 n+2
17 / 18
Estimadores óptimos
Error estándar
Varianza de T (= Eθ T − (Eθ T )2 ):
2n2 + n − 2n2 n
= θ2 2
= θ2
(n + 2)(n + 1) (n + 2)(n + 1)2
Retomando la varianza de θ̂c :
n+1 2 n+1 2 θ2 n
Varθ θ̂c = ( ) Varθ T = ( )
n n (n + 2)(n + 1)2
θ2 θ2
Varθ (θ̂c ) = , Varθ (θ̂mm ) = .
n(n + 2) 3n
Comparando para θ = 1, n = 100 el error estándar del segundo
√1 1
= 0.0577 , del primero √100·102 = 0.0099, casi 6 veces menor
300
el error del estimador basado en máxima verosimilitud.
18 / 18