Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ESTIMADORES
PROPIEDADES. APLICACIÓN.
1
Portal Estadística Aplicada ‐ Estimadores 1
Un estadístico es cualquier función construida a partir de los
valores de la muestra.
Un estimador es un estadístico que se utiliza para estimar ‐ calcular ‐
‐ aproximar el valor de un parámetro poblacional desconocido.
x1 + 2 x 2 + 3 x 3 x3 − 4 x2
μˆ 1 = μˆ 2 = μˆ 3 = x
6 −3
Se pide:
a) Comprobar si los estimadores son insesgados
b) ¿Cuál es el más eficiente?
c) Si tuviera que escoger entre ellos, ¿cuál escogería?. Razone su respuesta a partir del Error Cuadrático
Medio.
Solución:
⎡ x + 2 x2 + 3 x 3 ⎤ 1 1 1
E(μˆ 1 ) = E ⎢ 1 ⎥ = E ⎡⎣ x1 + 2 x2 + 3 x 3 ⎤⎦ = ⎡⎣ E( x1 ) + 2E( x 2 ) + 3E( x 3 ) ⎤⎦ = ⎣⎡ 6 μ ⎦⎤ = μ
⎣ 6 ⎦ 6 6 6
⎡ x − 4 x2 ⎤ 1 1 1
E(μˆ 2 ) = E ⎢ 1 ⎥ = − E ⎡⎣ x1 − 4 x2 ⎤⎦ = − ⎡⎣ E( x1 ) − 4E( x2 ) ⎤⎦ = − ⎡⎣ − 3 μ ⎤⎦ = μ
⎣ −3 ⎦ 3 3 3
⎡ x + x2 + x 3 + x 4 ⎤ 1 1
E(μˆ 3 ) = E ⎢ 1 = E ⎡⎣ x1 + x2 + x 3 + x 4 ⎤⎦ = ⎡ E( x1 ) + E( x2 ) + E( x 3 ) + E( x 4 ) ⎤⎦ =
⎣ 4 ⎥
⎦ 4 4⎣
1
= ⎣⎡ 4 μ ⎦⎤ = μ
4
Los tres estimadores son insesgados o centrados.
⎡ x + 2 x2 + 3 x3 ⎤ 1
V [ μˆ 1 ] = V ⎢ 1 ⎥ = V [ x1 + 2 x 2 + 3 x 3 ] =
⎣ 6 ⎦ 36
1 1 14
= [ V( x1 ) + 4 V( x2 ) + 9 V( x3 ) ] = ⎡⎣ 14 σ 2 ⎤⎦ = σ 2 = 0,39 σ 2
36 36 36
⎡ x − 4 x2 ⎤ 1 1
V ⎡⎣ μˆ 2 ⎤⎦ = V ⎢ 1 ⎥ = V ⎡⎣ x1 − 4 x2 ⎤⎦ = ⎡ V( x1 ) + 16 V( x2 ) ⎤⎦ =
⎣ −3 ⎦ 9 9⎣
1 17 2
= ⎡⎣ 17 σ 2 ⎤⎦ = σ = 1,89 σ 2
9 9
2
c) ECM(θˆ ) = E(θˆ − θ) 2 = V(θˆ ) + ⎡⎣b(θˆ ) ⎤⎦ sesgo b(θˆ ) = ⎡⎣ E(θˆ ) − θ ⎤⎦
El error cuadrático medio coincide con la varianza, por tanto, se elige el estimador μ̂ 3 por presentar
menor varianza.
El peso en kilos de los jamones vendidos por una empresa sigue una distribución normal con
varianza 4 y peso medio desconocido. Se conoce que el peso medio de los jamones vendidos
es superior a 5 kg, y se toman m.a.s. de tamaño 4 para estimar θ .
¿Cuál de los dos estimadores sería el mejor respondiendo a la insesgadez y eficiencia?
x + x2 + x 3 x + x2
θˆ 1 = 1 θˆ 2 = 1
4 2
Solución:
E(θˆ 1 ) = θ + b(θˆ 1 )
Sesgo
⎡ x + x2 + x3 ⎤ 1 3
E(θˆ 1 ) = E ⎢ 1 ⎥ = ⎡⎣ E(x1 ) + E(x2 ) + E(x 3 ) ⎤⎦ = θ
⎣ 4 ⎦ 4 4
3 1
El sesgo del estimador θ̂1 será: b(θˆ 1 ) = E(θˆ 1 ) − θ = θ − θ = − θ
4 4
⎡ x + x2 ⎤ 1 2
E(θˆ 2 ) = E ⎢ 1 ⎥ = ⎡⎣ E(x1 ) + E(x2 ) ⎤⎦ = θ = θ
⎣ 2 ⎦ 2 2
El estimador θ̂ es insesgado, b(θˆ ) = 0
2 2
Para analizar la eficiencia relativa de los dos estimadores se calculan las respectivas varianzas
⎡ x + x2 + x 3 ⎤ 1 1
V(θˆ 1 ) = V ⎢ 1 ⎥ = [ V(x1 + x2 + x 3 )] = ⎡ V(x1 ) + V(x 2 ) + V(X 3 ) ⎤⎦
16 ⎣
⎣ 4 ⎦ 16
Observaciones
independientes
1 12 3
= 12 = =
V(xi ) = 4 16 16 4
⎡ x + x2 ⎤ 1 1 1
V(θˆ 2 ) = V ⎢ 1 ⎥ = [ V(x1 + x2 ) ] = ⎡⎣ V(x1 ) + V(x 2 ) ⎤⎦ = 8 = 2
⎣ 2 ⎦ 4 4 4
Aparecen decisiones contrapuestas, de modo que el estimador se elige en base al error cuadrático
2
medio: ECM(θˆ ) = Var (θˆ ) + ⎡⎣b(θˆ ) ⎤⎦
Varianza
(sesgo) 2
∑ ∑x
1 1
μˆ 1 = xi μˆ 2 = i
n −1 i=1
n i=1
Solución:
Sea la v.a x i = 'ingresos de cierta población' sigue una distribución normal N(μ , σ) . Para analizar el
sesgo de los estimadores, se calcula la esperanza:
⎡ 1 n ⎤ ⎡ n ⎤ n
∑ ∑ ∑E(x ) =
1 1 1 n
E(μˆ 1 ) = E ⎢ xi ⎥ = E⎢ xi⎥ = i (n μ) = μ
⎢n − 1 ⎥ n−1 ⎢ i=1 ⎥ n−1 n−1 n−1
⎣ i= 1 ⎦ ⎣ ⎦ i=1
n 1
E(μˆ 1 ) = μ + b(μˆ 1 ) → Sesgo del estimador μ̂1 : b(μˆ 1 ) = E(μˆ 1 ) − μ = μ − μ = μ
n−1 n−1
⎡1 n ⎤ 1 ⎡
n ⎤ n
∑ ∑ ∑ E(x ) =
1 1
E(μˆ 2 ) = E ⎢ xi ⎥ = E ⎢ x i ⎥ = i (n μ) = μ
⎢⎣ n i=1 ⎥ ⎦
n ⎢i =1 ⎥
⎣ ⎦
n i=1
n
El estimador μ̂2 , que es la media muestral, es insesgado (centrado) y el estimador que se elige.
⎡ 1 n ⎤ ⎡ n ⎤ n
nσ 2
∑ ∑ ∑
1 1 1
V(μˆ 1 ) = V ⎢ xi ⎥ = V ⎢ xi⎥ = V(x i ) = (n σ 2
) =
⎢⎣ n − 1 i=1 ⎥ ⎦
(n − 1) 2
⎢⎣ i = 1 ⎥⎦ (n − 1) 2 i=1 (n − 1) 2 (n − 1) 2
⎡1 n ⎤ 1 ⎡
n ⎤ n
σ2
∑ ∑ ∑
1 1
V(μˆ 2 ) = V ⎢ xi ⎥ = 2 V ⎢ x i ⎥ = V(x i ) = (n σ 2
) =
⎢⎣ n i=1 ⎥ n ⎢⎣ i = 1 ⎥⎦ n n2 n
⎦ i=1
El estimador más eficiente será el de menor varianza. Comparando las varianzas de los estimadores:
σ2 n σ2
V(μˆ 2 ) = < = V(μˆ 1 ) puesto que (n − 1)2 < n2
n (n − 1) 2
El estimador μ̂2 , que es la media muestral, es el mejor tanto al sesgo como a la eficiencia.
nσ 2 Un estimador es consistente
Los dos lim E(μˆ 1 ) = μ y lim V(μˆ 1 ) = lim =0 si se aproxima al valor del
n →∞ n →∞ n → ∞ (n − 1) 2
estimadores son parámetro cuando el tamaño
consistentes: σ2 de la muestra es
lim E(μˆ 2 ) = μ y lim V(μˆ 2 ) = lim =0
n →∞ n →∞ n →∞ n suficientemente grande.
Sea (x1 ,x2 , ,xn ) una muestra aleatoria simple de una variable aleatoria X con E(X) = μ
y Var(X) = σ . Calcular el error cuadrático medio para los siguientes estimadores de μ :
2
3x1 − 2x2 + x 3
μˆ 1 = x1 μˆ 2 =
6
Solución:
a) Insesgadez:
⎡ 3x − 2x2 + x 3 ⎤ 1 1 2 1
E(μˆ 2 ) = E ⎢ 1
⎣ 6 ⎥
⎦
=
6
[ 3E(x1 ) − 2E(x2 ) + E(x 3 )] = ( 3 μ − 2 μ + μ ) = μ = μ
6 6 3
1 2
E(μˆ 2 ) = μ2 + b(μˆ 2 ) → Sesgo : b(μˆ 2 ) = E(μˆ 2 ) − μ = μ − μ = − μ
3 3
Respecto al sesgo es mejor el primer estimador μ̂1 que es insesgado o centrado.
Varianza:
Var (μ1 ) = σ2
⎛ 3x − 2x2 + x 3 ⎞ 1 1
Var (μ2 ) = Var ⎜ 1
⎝ 6
⎟=
⎠ 36
Var ( 3x1 − 2x2 + x 3 ) =
36
[9 Var(x1 ) + 4 Var(x2 ) + Var(x3 )] =
1 14 2 7 2
= ⎡⎣9 σ2 + 4 σ2 + σ2 ⎤⎦ = σ = σ
36 36 18
7 2
Respecto a la varianza es mejor el segundo estimador μ̂2 por ser σ < σ2
18
∑x
1
μˆ 1 = x μˆ 2 = i
n+1 i=1
Solución:
a) Insesgadez:
⎛1 n ⎞ 1 ⎛1
n ⎞ n
∑ ∑ ∑ E(x )
1 1
i E(μˆ 1 ) = E(x) = E ⎜ xi ⎟ = E⎜ xi ⎟ = = (n μ) = μ
⎜n ⎟ n ⎜ n i=1 ⎟ n
i
n
⎝ i=1 ⎠ ⎝ ⎠ i=1
⎛ 1 n ⎞ ⎛ n ⎞ n
nμ
∑ ∑ ∑ E(x )
1 1 1
i E(μˆ 2 ) = E ⎜ xi ⎟ = E⎜ xi ⎟ = = (n μ) =
⎜ n+1 i=1 ⎟ n+1 ⎜ i=1 ⎟ n+1
i
n+1 n+1
⎝ ⎠ ⎝ ⎠ i=1
→ 0 cuando n → ∞
nμ nμ − nμ − μ μ
E(μˆ 2 ) = μ + b(μˆ 2 ) → b(μˆ 2 ) = E(μˆ 2 ) − μ = − μ = = −
n+1 n+1 n+1
insesgado
asintoticamente
Eficiencia: Sean dos estimadores insesgados θ̂1 y θ̂2 de un parámetro desconocido θ . Se dice que θ̂1
es más eficiente que θ̂2 si se verifica: Var (θˆ 1 ) < Var (θˆ 2 ) .
Var (θˆ 1 )
La eficiencia relativa se mide por la ratio
Var (θˆ )
2
n n
σ2
∑ ∑
1 1 1
V(μˆ 1 ) = V(x) = V( x i) = 2 V(xi ) = (n σ 2
) =
n i=1 n i=1 n2 n
⎛ 1 n ⎞ n
∑ ∑
1 1 n
V(μˆ 2 ) = V ⎜ xi ⎟ = V(xi ) = (n σ 2 ) = σ2
⎜ n+1 i=1 ⎟ (n + 1) i = 1
2
(n + 1) 2
(n + 1) 2
⎝ ⎠
Var (μˆ 1 ) σ2 n (n + 1) 2
Eficiencia relativa: = = > 1 → Var (μˆ 1 ) > Var (μˆ 2 )
Var (μˆ 2 ) n σ 2 (n + 1) 2 n2
El estimador μ̂2 tiene menor varianza, por lo que es más eficiente que μ̂1
⎧ ⎛ 1 ⎞
⎪ n lim E(μˆ 2 ) = lim ⎜ μ − μ⎟ = μ
⎪ →∞ n→ ∞⎝ n+1 ⎠
μˆ 2 ≡ ⎨ es consistente
⎪ lim V(μˆ ) = lim ⎡ n ⎤
σ2⎥ = 0
⎪⎩n → ∞ 2 ⎢
n → ∞ ⎣ (n + 1) 2
⎦
2 σ2 σ2
ECM(μˆ 1 ) = V(μˆ 1 ) + ⎡⎣ b(μˆ 1 )⎤⎦ = + 0 =
n n
2
2 n ⎛ 1 ⎞ nσ 2 + μ 2
ECM(μˆ 2 ) = V(μˆ 2 ) + ⎡⎣ b(μˆ 2 ) ⎤⎦ = σ 2
+ ⎜ μ ⎟ =
(n + 1) 2 ⎝n+1 ⎠ (n + 1) 2
σ2 nσ 2 + μ 2
El estimador μ̂1 será elegido sí ECM(μˆ 1 ) ≤ ECM(μˆ 2 ) → ≤
n (n + 1) 2
nσ 2 + μ 2 nσ 2 μ2 σ2 nσ 2 μ2
= + → ≤ +
(n + 1) 2 (n + 1) 2 (n + 1) 2 n (n + 1) 2 (n + 1) 2
σ2 nσ 2 μ2 (n + 1) 2 σ 2 − n 2 σ 2 μ2
− ≤ → ≤ →
n (n + 1) 2 (n + 1) 2 n(n + 1) 2 (n + 1) 2
(2n + 1) σ 2 μ2 (2n + 1) μ2
→ ≤ → ≤
n(n + 1) 2 (n + 1) 2 n σ2
⎧ 2n + 1 μ2
⎪ Si ≤ → μˆ 1 se elige antes que μˆ 2
⎪⎪ n σ 2
⎨
⎪
⎪ Si 2n + 1 ≥ μ → μˆ se elige antes que μˆ
2
⎩⎪
2 1
n σ2
La variable aleatoria X representa los gastos mensuales de una empresa, cuya función de
densidad es f (θ, x) = θ x θ − 1 con θ> 0 y 0 < x < 1 . Se realiza una muestra aleatoria
simple (m.a.s.) de tamaño 3, y se proponen tres estimadores:
Solución:
⎡ x + x2 + x 3 ⎤ 1 1 θ
a) θˆ 1 = x ⇒ E(θˆ 1 ) = E ⎢ 1 ⎥ = E ⎡⎣ x1 + x2 + x 3 ⎤⎦ = (3 μ) = μ =
⎣ 3 ⎦ 3 3 θ+1
donde,
1
∞ 1 1 1 ⎡ θ x θ+1 ⎤ θ
∫ ∫ ∫ ∫
θ−1 θ
μ= x f (x, θ) dx = x f (x, θ) dx = x θx dx = θ x dx = ⎢ ⎥ =
−∞ 0 0 0
⎣ θ+1 ⎦0 θ+1
θ θ2
E(θˆ 1 ) = θ + b(θˆ 1 ) → Sesgo: b(θˆ 1 ) = E(θˆ 1 ) − θ = − θ = −
θ+1 θ+1
⎡ x 12 + 2 x 22 + 3 x 23 ⎤ ⎡ ⎤
1 ⎢ ⎥ θ
E(θˆ 2 ) = E ⎢ ⎥ = ⎢ E(x 12 ) + 2E(x 22 ) + 3E(x 23 ) ⎥ = α2 =
⎢⎣ 6 ⎥⎦ 6 θ+2
⎢⎣ α2 α2 α2 ⎥⎦
θ θ2 + θ
E(θˆ 2 ) = θ + b(θˆ 2 ) → Sesgo: b(θˆ 2 ) = E θˆ 2 − θ = ( ) θ+2
− θ = −
θ+2
⎡ x − 2 x1 + 4 x 2 ⎤ 1 1 1 1 θ
i E(θˆ 3 ) = E ⎢ 3 ⎥ = E ⎡⎣ x 3 − 2 x1 + 4 x2 ⎤⎦ = (3 μ) = μ =
⎣ 6 ⎦ 6 6 2 2 θ+1
1⎛ θ ⎞ 2θ2 + θ
E(θˆ 3 ) = θ + b(θˆ 3 ) → Sesgo: b(θˆ 3 ) = E(θˆ 3 ) − θ = − θ = −
2 ⎜⎝ θ + 1 ⎟⎠ 2(θ + 1)
La distribución del peso de las manzanas de una determinada cosecha sigue una distribución
normal, cuyo peso medio es desconocido y cuya desviación típica es de 7 gramos.
Se pide:
a) Analizar cuál de los estimadores μ̂1 , μ̂2 del peso medio es mejor respecto del sesgo y de la eficiencia,
para una muestra aleatoria simple de tamaño cinco.
5
∑x
1
b) Si μˆ 1 = i y μˆ 2 = x1 + 2 x2 + 3x 3 − 4 x 4 − x 5 , obtener los pesos medios estimados a partir de
5 i=1
Solución:
a) El peso de las manzanas sigue una distribución N(μ , 7) . Se calculan las esperanzas para analizar el
sesgo de los estimadores.
⎡1 5 ⎤ 1 ⎡
5 ⎤ 5
∑ ∑ ∑ E ⎣⎡ x ⎦⎤ =
1 1
E(μˆ 1 ) = E ⎢ xi⎥ = E⎢ xi⎥ = i (5 μ) = μ
⎢⎣ 5 i =1 ⎥⎦ 5 ⎢⎣ i=1 ⎥⎦ 5 i =1
5
⎡1 5 ⎤ 1 ⎡
5 ⎤ 5
∑ ∑ ∑ V[x ]
1 1 49
V(μˆ 1 ) = V ⎢ xi ⎥ = V ⎢ xi ⎥ = i = (5 x 49) =
⎢⎣ 5 i=1 ⎥ ⎦
25 ⎢ i = 1 ⎥
⎣ ⎦
25 i=1
25 5
Como los dos estimadores son insesgados y V(μˆ 1 ) < V(μˆ 2 ) se elige como mejor el estimador μ̂1 , el
peso medio de la muestra de las cinco manzanas.
Un atleta olímpico de salto de altura se enfrenta a un listón de 2,3 metros. Su entrenador desea
estudiar el comportamiento del saltador. Sabe que el número de saltos fallidos por hora es una
variable aleatoria distribuida como una Poisson de parámetro λ.
a) Calcular el estimador máximo verosímil del parámetro λ.
b) Analizar sus propiedades.
Solución:
⎢λ i=1
⎥ ∑ xi n n n
ln L (X , λ ) = ln ⎢ n e − n λ ⎥ = ln (λ i = 1 ) − ln ( ∏xi !) + ln(e − n λ ) = ∑ x i ln λ − ∑ ln(x !) − n λ
i
⎢
⎢∏ x i! ⎥
⎥
i=1 i=1 i=1
⎣ i =1 ⎦
Para obtener el estimador de máxima verosimilitud EMV(λˆ ) , se deriva la expresión anterior respecto
del parámetro para obtener, sustituyendo λ por λ̂
n
n ∑ xi
ϑ lnL (X , λ )
∑x
1 i=1
= 0 → i − n = 0 → λˆ = = x
ϑλ ˆ
λ=λ i=1
λ n
λ = λˆ
El estimador de máxima verosimilitud (estimador que ofrece mayor credibilidad) viene dado por la
media muestral EMV(λˆ ) = x
Insesgadez
El estimador λ̂ es insesgado (centrado) sí E(λˆ ) = λ
⎡1 n ⎤ n
∑ E(x ) =
1 n 1 1
E(λˆ ) = E ⎢ ∑ xi ⎥ = E( ∑ xi ) = i (n λ) = λ
⎣n i = 1 ⎦ n i =1 n i=1
n
⎛1 n ⎞ n
λ
∑ V(x ) =
1 1
V(λˆ ) = V(x) = V ⎜ ∑ xi ⎟ = 2 i 2
(n λ ) =
⎝ n i=1 ⎠ n i=1 n n
Consistencia
Cuando no es posible emplear estimadores de máxima verosimilitud, el requisito mínimo deseable para
un estimador es que sea consistente.
λ
lim E(λˆ ) = lim λ = λ y lim V(λˆ ) = lim = 0
n→ ∞ n→ ∞ n→ ∞ n→ ∞ n
El estimador λ̂ es consistente
EFICIENCIA: Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima.
La varianza mínima se analiza en virtud de la acotación de Cramér‐Rao:
2
⎡ ϑ b(λˆ ) ⎤
⎢1 + ⎥
⎣ ϑλ ⎦ La varianza de cualquier estimador siempre es
V(λˆ ) ≥ CCR =
⎡ ⎛ ϑ ln P(x , x , , xn ; λ ) ⎞
2⎤
igual o menor que la cota de Cramer‐Rao.
E ⎢⎜ 1 2
⎟ ⎥
⎢⎣ ⎝ ϑλ ⎠ ⎥⎦
La cantidad de información de Fisher I(λ ) puede simplificarse en una muestra aleatoria simple (m.a.s.),
obteniendo la expresión:
⎡ ϑ2 ln P(x ; λ ) ⎤
siendo I1 (λ ) = − E ⎢ ⎥ la cantidad de información de Fisher para una muestra
⎣ ϑλ 2 ⎦
λ x −λ
Siendo, P(X = x) = e
x!
⎡ λ x −λ ⎤
lnP(x , λ ) = ln ⎢ e ⎥ = xln λ − ln(x!) − λ
⎣ x! ⎦
ϑ lnP(x , λ ) x x−λ
= − 1 =
ϑλ λ λ
⎡⎛ ϑ lnP(x , λ ) ⎞2 ⎤ ⎡ ⎛ x − λ ⎞2 ⎤ 1 1 1 λ 1
⎢
E ⎜ ⎥
⎟ = E ⎢⎜ ⎟ ⎥ = 2 E(x − λ ) = 2 E(x − x) = 2 V(x) = 2 =
2 2
ϑλ ⎣⎢⎝ λ ⎠ ⎦⎥ λ λ λ λ λ
⎣⎢⎝ ⎠ ⎥⎦
1 λ
En consecuencia, V(λˆ ) ≥ =
1 n
n
λ
λ
El menor valor de la varianza del estimador será
n
λ
Se sabe que V(λˆ ) = V(x) = , lo que muestra V(λˆ ) = CCR , el estimador empleado es eficiente.
n
ϑ lnP(x , λ ) x ϑ2 lnP(x , λ ) x
OTRO PROCEDIMIENTO: = − 1 → = − 2
ϑλ λ ϑλ 2
λ
1 1 λ
V(λˆ ) ≥ CCR = = =
n . I1 (λ ) n.
1 n
λ
Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
−θx
⎪⎧ θ x e si x > 0
2
fθ (x) = ⎨
⎪⎩ 0 en el resto
Hallar el estimador de máxima verosimilitud de θ
Solución
n n n n
ln L (θ) = (2n) ln θ + ln ∏x
i=1
i − θ ∑x
i=1
i → lnL (θ) = (2n) ln θ + ∑lnxi=1
i − θ ∑x
i=1
i
⎛ ϑlnL (θ) ⎞ ⎛ 2n n ⎞
∑
2n
⎜ ⎟ = ⎜ − xi ⎟ = 0 → θˆ =
⎝ ϑθ ⎠ θ = θˆ ⎜ θ ⎟ n
⎝ i=1 ⎠
θ = θˆ
∑x
i=1
i
Solución:
(x − μ )2
−
1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π
Función de verosimilitud:
⎡ (x − μ ) 2 ⎤
− 1
⎡ (x − μ ) 2 ⎤
− 2
⎡ (x − μ ) 2 ⎤
− n
⎢ 1 2 ⎥ ⎢ 1 2 σ2 ⎥ ⎢ 1 2 σ2 ⎥
L (X; μ , σ 2 ) = ⎢ e 2σ ⎥ ⎢ e ⎥ ⎢ e ⎥ =
⎢⎣ 2 π σ ⎢⎣ 2 π σ π σ
2 2 2
⎥⎦ ⎥⎦ ⎢⎣ 2 ⎥⎦
n
∑ (xi − μ) 2
i=1
−
1 2 σ2
= n n
e
(2 π) 2 (σ )
2 2
⎡ n
⎤ n
∑
∑ (x − μ)
(xi − μ ) 2
⎢ i=1 ⎥ i
2
⎢ 1 −
2σ 2 ⎥ n n i=1
ln ⎣⎡L (X; μ , σ 2 ) ⎦⎤ = ln ⎢ e ⎥ = − ln(2 π) − ln(σ 2 ) −
⎢
n n
⎥ 2 2 2 σ2
⎢ (2 π) 2 (σ 2 ) 2
⎥
⎣⎢ ⎦⎥
n
n n
∑ (x − μ)
i=1
i
2
Para obtener los estimadores de máxima verosimilitud de μ̂ y σ̂2 se deriva la expresión anterior
respecto de los parámetros, sustituyendo μ por μ̂ e σ 2 por σ̂2 , e igualando a cero:
n n
⎡ ϑ ln L (X; μ , σ 2 ) ⎤
∑
i=1
(xi − μˆ ) ∑x
i=1
i
⎢ ⎥ = = 0 → μˆ = = x
⎣ ϑμ ⎦ μ = μˆ σ2 n
n n
⎡ ϑ ln L (X; μ , σ ) ⎤
2
n
∑
i=1
(xi − μ) 2 ∑ (x − μ)
i=1
i
2
⎢ ⎥ = − + = 0 → σˆ 2 =
⎣ ϑσ 2
⎦ σ2 = σˆ 2 σ
ˆ σ
ˆ 3
n
Sea (x1 , ,xn ) una muestra aleatoria de tamaño n, distribuida según f(x, θ) con θ
desconocido, donde X representa el tiempo máximo necesario para determinar un proceso
en segundos:
⎧⎪(θ + 1) x θ 0 ≤ x ≤ 1 ; θ > −1
f(X, θ) = ⎨
⎪⎩ 0 otro caso
n
L (x1 , x2 , ... , xn ; θ) = ⎡⎣(θ + 1) x1θ ⎤⎦ ⎡⎣(θ + 1) x2θ ⎤⎦ ... ⎡⎣(θ + 1) xnθ ⎤⎦ = (θ + 1)n ∏x
i=0
θ
i
Para obtener el estimador de máxima verosimilitud EMV(θˆ ) , se deriva la expresión anterior respecto
del parámetro para obtener, sustituyendo θ por θ̂
n n
ϑln L (x1 , x2 , ... , xn ; θ)
∑ lnx ∑ lnx
n n
= + i = 0 → = − i
ϑθ θ = θˆ
ˆθ + 1
i=0
ˆθ + 1
i=0
n
θˆ = EMV(θ) = − n
− 1
∑ lnx
i=0
i
La probabilidad del tiempo máximo necesario para terminar el proceso (entre 0,25 y 0,75 segundos) es
0,31
2θ + 1
c) Estimador máximo verosímil de θ + 1 y
θ− 1
EMV [ θ + 1 ] = EMV [ θ ] + 1 = θˆ + 1 = 3,027 + 1 = 4,027
⎛ 2θ + 1 ⎞ 2 EMV ( θ ) + 1 2 θˆ + 1 2 x 3,027 + 1
EMV ⎜ ⎟ = = = = 2,493
⎝ θ − 1 ⎠ EMV ( θ ) − 1 θˆ − 1 3,027 − 1
Solución:
a) Función de verosimilitud:
n
−a ∑ xi
− a x1
L (X , a) = L (x 1 , x 2 , , x n ; a) = (a e2 2
).(a e − a x2 ) (a 2
e − a xn ) = a
2n
e i =1
n
−a ∑ xi n
Función soporte o Log‐verosimilitud: ln L (X , a) = ln (a2n e i=1
) = 2n lna − a ∑x
i=1
i
Para obtener el estimador de máxima verosimilitud EMV(a)ˆ , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo a por â e igualando a cero:
ϑ ln L (X , a) 2n n 2n 2
= − ∑ xi = 0 → aˆ = =
ϑa a i=1 n
x
a = aˆ a = aˆ
∑x
i =1
i
ϑ ln L (X , a) 2 2 1
= − (x1 + x2 ) = 0 → aˆ = =
ϑa a = aˆ
a a = aˆ x1 + x 2 x
b) Sea (x1 , ,xn ) una muestra aleatoria de tamaño n que sigue una distribución de Poisson. Si
n
x + 3 xn
∑n
xi
λˆ 1 = , λˆ 2 = 1 son estimadores. Determinar el mejor estimador del parámetro λ
i=1
4
Solución
⎧ λ x −λ
⎪ e x = 0, 1, 2, ...
P(X, λ) = ⎨ x!
⎪ 0 otro caso
⎩
n
∑ xi
λ i=1
n
λ x1 −λ λ xn −λ
Función de verosimilitud: L (λ ) = L (X , λ ) = ∏ P(x i , λ ) =
x1 !
e
xn !
e = n e− n λ
i=1
xi !∏
i=1
⎛ n x ⎞
⎜ i∑
n
i
⎟ ∑
λ =1 xi
⎛ n ⎞ n n
⎜
lnL (X , λ) = ln n
⎜
e −nλ ⎟
⎟
= ln(λ i=1
) − ln ⎜
⎜ i=1 ⎟ ∏
xi ! ⎟ + ln(e − n λ ) = ∑ x ln λ
i − ∑ ln(x !)
i − nλ
⎜
⎜ i=1 ∏
xi ! ⎟
⎟
⎝ ⎠ i=1 i= 1
⎝ ⎠
Para obtener el estimador de máxima verosimilitud EMV(λˆ ) , se deriva la expresión anterior respecto
del parámetro para obtener, sustituyendo λ por λ̂
n
n ∑ xi
ϑlnL (X , λ )
∑x
1 i=1
= 0 = i − n = 0 → λˆ = = x
ϑλ ˆ
λ=λ i=1
λ n
λ = λˆ
b) Se analizan si los estimadores son o no insesgados, esto es, si la esperanza del estimador coincide con
el parámetro a estimar.
⎛ n xi ⎞ n
nλ
∑ ∑ E(x ) =
1
E(λˆ 1 ) = E ⎜ ⎟ = = λ
⎜ i=1 n ⎟ n
i
n
⎝ ⎠ i=1
⎛ x + 3xn ⎞ 1 λ + 3λ
E(λˆ 2 ) = E ⎜ 1 ⎟ = [E(x1 ) + 3E(x2 )] = = λ
⎝ 4 ⎠ 4 4
Ambos estimadores son insesgados.
⎛ x + 3 xn ⎞ 1 λ + 9λ 10 λ 5λ
V(λˆ 2 ) = V ⎜ 1
⎝ 4
⎟ =
⎠ 16
[ V(x1 ) + 9 V(x2 )] =
16
=
16
=
8
∑ ix
i=1
i
μˆ =
n
Estúdiese la eficiencia del estimador.
Solución:
Para hallar la cota de Cramer‐Rao se necesita saber en primer lugar si el estimador es insesgado o no, se
calcula para ello la esperanza matemática:
⎡ n ⎤
∑
⎢ i xi ⎥
⎢ i=1 ⎥ n n
∑ ∑
1 1 1
E(μˆ ) = E ⎢ ⎥ = E(i x i ) = i E(xi ) = [E(x1 ) + 2E(x 2 ) + 3E(x 3 ) + + nE(xn ) ] =
⎣ n ⎦ n i=1 n i=1 n
1 μ μ (n + 1) n (n + 1)
=
n
[μ + 2 μ + 3 μ + + n μ) ] =
n
[1 + 2 + 3 + + n] = x
2
=
2
μ
n
n+1 n−1
E(μˆ ) = μ + b(μˆ ) → sesgo: b(μˆ ) = E(μˆ ) − μ = μ− μ = μ
2 2
⎡ n ⎤
∑
⎢ i xi ⎥
⎢ i=1 ⎥ n n
∑ ∑i
1 1 1 2
V(μˆ ) = V ⎢ ⎥ = 2 V(i xi ) = 2 2
V(x i ) = ⎡1 V(x1 ) + 22 V(x 2 ) + 32 V(x 3 ) +
2 ⎣
+ n2 V(xn ) ⎤⎦ =
⎣ n ⎦ n i=1
n i=1
n
1 2 2 σ2 2 σ2 n (n + 1) (2n + 1)
= ⎡1 σ + 22 σ2 + 32 σ2 +
2 ⎣
+ n2 σ 2 ⎤⎦ = ⎡1 + 22 + 32 +
2 ⎣
+ n2 ⎤⎦ =
n n n2 6
σ2 (n + 1) (2n + 1)
V(μˆ ) =
6n
2
⎡ ϑ b(μˆ ) ⎤
⎢1 +
⎣ ϑ μ ⎥⎦ ⎡ ϑ b(μˆ ) ⎤
2
⎡ n −1⎤
2
(n + 1)2
Cota de Cramér‐Rao: CCR =
⎡⎛ ϑ ln f(x, μ) ⎞2 ⎤
, ⎢1 + ϑ μ ⎥ = ⎢1 +
⎣ 2 ⎦⎥
=
4
⎣ ⎦
n . E ⎢⎜ ⎟ ⎥
⎢⎣⎝ ϑμ ⎠ ⎥⎦
⎡⎛ ϑ ln L (X , μ) ⎞2 ⎤ ⎛ ϑ2 ln L (x, μ) ⎞
I1 (μ) = E ⎢⎜ ⎟ ⎥ = − E ⎜ ⎟
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎝ ϑμ2 ⎠
( x − μ )2
−
1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π
⎛ −
(x − μ )2 ⎞
⎜ 1 2 ⎟ 1 (x − μ)2
Tomando logaritmos neperianos: lnf(x, μ) = ln ⎜ e 2σ ⎟ = − ln σ − ln2 π −
⎝ σ 2π ⎠ 2 2 σ2
2
ϑ lnf(x, μ) 1 x−μ ⎛ ϑ lnf(x, μ) ⎞ (x − μ)2
Derivando respecto a μ : = − 2 [ −2(x − μ) ] = → ⎜ ⎟ =
ϑμ 2σ σ2 ⎝ ϑμ ⎠ σ4
⎡⎛ ϑ ln f(x , μ) ⎞2 ⎤ ⎡ (x − μ)2 ⎤ σ2 1
La esperanza matemática: E ⎢⎜ ⎟ ⎥ = E ⎢ ⎥ = = 2
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎣ σ 4
⎦ σ 4
σ
n
Atendiendo a la aditividad de esta medida: I(μ) = n I1 (μ) =
σ2
2
⎡ ϑ b(μˆ ) ⎤
⎢1 +
⎣ ϑ μ ⎥⎦ (n + 1)2 σ2
CCR = =
⎡⎛ ϑ ln f(x, μ) ⎞2 ⎤ 4n
n . E ⎢⎜ ⎟ ⎥
⎢⎣⎝ ϑμ ⎠ ⎥⎦
Cuando n > 1 la varianza del estimador es mayor que la cota de Cramer‐Rao, con lo que el estimador no
es eficiente:
σ2 (n + 1) (2n + 1) (n + 1)2 σ2
V(μ) =
ˆ > = CCR
6n 4n
σ2
Sí n = 1 V(μˆ ) = CCR = el estimador es suficiente.
n
Se pide:
a) ¿Son insesgados?
b) Calcular el error mínimo cuadrático de V̂2
3
∑x
1
c) ¿Es la media muestral, x = i , un estimador insesgado para la varianza poblacional?.
3 i=1
Solución:
⎡ x + x2 ⎤ 1 1
E(Vˆ 1 ) = E ⎢ 1
⎣ 2 ⎦ ⎥ =
2
[ E(x1 ) + E(x2 ) ] = (λ + λ ) = λ
2
Sesgo: b(Vˆ1 ) = E(Vˆ1 ) − λ = λ − λ = 0 es un estimador insesgado o centrado
∑ (x − x)
1
V̂3 = i
2
es la cuasivarianza muestral, estimador insesgado de la varianza poblacional, en
2 i=1
3 n ∑ (x − x)
i
2
∑ (x − x) ∑ (x − x)
1 1 n i=1 n
Vˆ3 = i
2
= i
2
= = σˆ 2
2 i=1
n−1 i=1
n−1 n n−1
n−1 2 2
Siendo, E(σ
ˆ 2) = σ → E(σˆ 2 ) = λ
n 3
⎛3 2⎞ 3 3 2
E(Vˆ3 ) = E ⎜ σˆ ⎟ = E( σˆ 2 ) = x λ = λ
⎝2 ⎠ 2 2 3
ECM(Vˆ2 ) = 6 λ + (−λ )2 = 6 λ + λ 2
3
∑x
1
c) La media muestral x = i un estimador insesgado de la media poblacional, también el
3 i=1
⎡ x + x2 ⎤ 1 1 λ
Var (Vˆ 1 ) = Var ⎢ 1
⎣ 2 ⎥⎦
=
4
[ Var (x 1 ) + Var (x 2 ) ] =
4
( λ + λ ) =
2
⎡1 3 ⎤ 3
λ
∑ ∑ Var (x ) =
1 1 1
Var (x) = Var ⎢ xi ⎥ = i [ Var (x1 ) + Var (x 2 ) + Var (x 3 )] = (λ + λ + λ ) =
⎢⎣ 3 i=1 ⎥ ⎦
9 i=1
9 9 3
d) Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima. La varianza mínima
se analiza en virtud de la acotación de Cramer‐Rao:
2
⎡ ϑ b(λˆ ) ⎤
⎢1 + ⎥
⎣ ϑλ ⎦
La cota de Cramér‐Rao para los estimadores sesgados: CCR =
n . I1 (λ )
λx −λ ∂ ln P x
P(X = x) = e → ln P = x ln λ − ln x! − λ → = −1
x! ∂λ λ
⎡ ∂ 2 ln P ⎤
La cantidad de información de Fisher con una muestra: I1 (λ ) = − E ⎢ 2 ⎥
⎣ ∂λ ⎦
∂ 2 ln P x ⎡ x ⎤ 1 λ 1
= − 2 → I1 (λ) = − E ⎢ − 2 ⎥ = 2 E(x) = 2 =
∂λ 2
λ ⎣ λ ⎦ λ λ λ
En el caso de los estimadores Vˆ1 y Vˆ3 que son insesgados y tener una muestra de tamaño 3, la cota de
1 1 λ
Cramer‐Rao se expresa: CCR = = =
3 . I3 (λ ) 3x
1 3
λ
El estimador media muestral es el eficiente al tener menor varianza.
[1 + (−1)] 2
Cota de Cramer‐Rao en el estimador sesgado V̂2 : CCR = = 0
1
3x
λ
No es eficiente, se ha visto que la varianza del estimador V̂2 no es nula.
Solución:
(x − μ )2
−
1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π
Derivando respecto a μ :
2
ϑ lnf(x, μ) 1 x−μ ⎛ ϑ lnf(x, μ) ⎞ (x − μ)2
= − 2 [ −2(x − μ)] = → ⎜ ⎟ =
ϑμ 2σ σ2 ⎝ ϑμ ⎠ σ4
⎡⎛ ϑ ln f(x, μ) ⎞2 ⎤ ⎡ (x − μ)2 ⎤ σ2 1
⎢
La esperanza matemática: E ⎜ ⎥
⎟ = E⎢ ⎥ = = 2
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎣ σ 4
⎦ σ 4
σ
La varianza del estimador coincide con la cota de Cramer‐Rao, V(x) = CCR , concluyendo que la media
muestral es un estimador eficiente de la media poblacional en la distribución norma
Solución:
EFICIENCIA: Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima. La
varianza mínima se analiza en virtud de la acotación de Cramer‐Rao (conocida también como
desigualdad de la información).
En el caso continuo:
1
V( θˆ ) ≥ CCR =
⎡ ⎛ ϑlnf(x, μ) ⎞2 ⎤
n . E ⎢⎜ ⎟ ⎥
⎣⎢ ⎝ ϑμ ⎠ ⎦⎥
La información de Fisher I(θ) es una cota inferior para la varianza de un estimador insesgado del
parámetro.
Un estimador es eficiente cuando V( θˆ ) = CCR = I( θ)−1
(x − μ )2
−
1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π
⎡ (x − μ ) 2 ⎤
− 1
⎡ (x − μ ) 2 ⎤
− 2
⎡ (x − μ ) 2 ⎤
− n
⎢ 1 2 ⎥ ⎢ 1 2 σ2 ⎥ ⎢ 1 2 σ2 ⎥
L (X; μ , σ 2 ) = ⎢ e 2σ ⎥ ⎢ e ⎥ ⎢ e ⎥ =
⎢⎣ 2 π σ ⎢⎣ 2 π σ π σ
2 2 2
⎥⎦ ⎥⎦ ⎢⎣ 2 ⎥⎦
n
∑ (xi − μ) 2
i=1
−
1 2 σ2
= n n
e
(2 π) 2 (σ 2 ) 2
⎡ n
⎤ n
∑
∑ (x − μ)
(xi − μ ) 2
⎢ i=1 ⎥ i
2
⎢ 1 −
2σ 2 ⎥ n n i=1
ln ⎡⎣L (X; μ , σ 2 ) ⎤⎦ = ln ⎢ e ⎥ = − ln(2 π) − ln(σ ) −
2
⎢
n n
⎥ 2 2 2 σ2
⎢ (2 π) (σ )
2 2 2
⎥
⎣⎢ ⎦⎥
Para determinar la información de Fisher se deriva respecto de los parámetros μ y σ la expresión:
n
n n
∑ (x − μ)
i=1
i
2
ϑln L ( μ , σ) 1 n
ϑln L ( μ , σ) n
∑ (x − μ) i
2
= 2 ∑ (xi − μ)
i=1
= − +
ϑμ σ i=1 ϑσ σ σ3
⎛ n ⎞
∑
1
Se calculan las segundas derivadas ⎜ μ = x , σ
ˆ2 = (xi − x)2 ⎟ para encontrar la matriz de
⎜ n ⎟
⎝ i=1 ⎠
información de Fisher I(μ , σ)
Al ser xi un elemento de una muestra aleatoria simple de una población normal N(μ , σ) , se tiene que
E(xi − μ) = 0 y E(xi − μ)2 = σ 2
ϑ2 ln L (X ; μ , σ) ϑ ⎛ 1 n ⎞ 1 n
ϑμ ϑμ
= ⎜ 2
ϑμ ⎜ σ i = 1
∑
(xi − μ) ⎟
⎟
= −
σ2 ˆ2)
= −
σ
ˆ2
ˆ2)
(x , σ ⎝ ⎠ ˆ2)
(x , σ
(x , σ
ϑ ln L (X ; μ , σ)
2
ϑ ln L (X ; μ , σ)
2
ϑ ⎛ 1
n ⎞
2 ∑ (x − μ)
i
ϑμ ϑσ
=
ϑσ ϑμ
= ⎜
ϑσ ⎜ σ 2 ∑ (xi − μ) ⎟
⎟ 2
= −
i=1
σ3 ( x , σˆ 2 )
= 0
( x , σˆ 2 ) ( x , σˆ 2 ) ⎝ i=1 ⎠( x , σˆ )
n
3 ∑ (x − μ)
i=1
i
2
n 3n σˆ 2 2n
= − = 2 − = − 2
σ2 σ4 ˆ2)
(x , σ σˆ σ
ˆ 4
σˆ
⎡ ϑ2 ϑ2 ⎤ ⎡ n ⎤ ⎡ n ⎤
ln L ( μ , σ) ln L ( μ , σ) ⎥
⎢
ϑμ ϑμ ϑμ ϑσ ⎢− 2 0 ⎥ ⎢ σˆ 2 0 ⎥
I(μ , σ) = − E ⎢ ⎥ = − ⎢ σˆ ⎥ = ⎢ ⎥
⎢ ϑ2 ϑ2 ⎥ ⎢ 0 − 2⎥ ⎢ 0
2n 2n ⎥
⎢ ln L ( μ , σ) ln L ( μ , σ) ⎥ ⎢⎣ ⎥ ⎢⎣
⎢⎣ ϑσ ϑμ ϑσ ϑσ ⎥⎦ σˆ ⎦ ˆ 2 ⎥⎦
σ
ˆ = E ⎛⎜ ⎞⎟ =
x np
Insesgadez: E(p) = p
⎝n⎠ n
El estimador es insesgado o centrado
ˆ = CCR
Un estimador es eficiente cuando su varianza coincide con la Cota de Cramér‐Rao: V(p)
1 1 ⎡ ϑ2 ln P(x ; p) ⎤
CCR = = I1 (θ) = − E ⎢ ⎥ Información de Fisher
⎡⎛ ϑ ln P(x ; p) ⎞2 ⎤ ⎛ ϑ2 ln P(x ; p) ⎞ ⎣ ϑθ 2
⎦
⎢
nE ⎜ ⎟ ⎥ −n . E⎜ ⎟
⎢⎣⎝ ϑθ ⎠ ⎥⎦ ⎝ ϑθ2 ⎠
⎛n⎞
Se considera la función de cuantía de la distribución binomial: P(x, p) = ⎜ ⎟ p x (1 − p)n − x
⎝x⎠
Función soporte o Log‐verosimilitud:
⎛n⎞
ln P(x, p) = ln ⎜ ⎟ + x . lnp + (n − x) . ln (1 − p)
⎝x⎠
ϑ lnP(x, p) x (n − x) (1 − p) x − p(n − x) x − np
= − = =
ϑp p 1−p p(1 − p) p(1 − p)
1 1 p(1 − p)
CCR = = =
⎡ ⎛ ϑ ln P(x ; p) ⎞2⎤
nx
n n2
n E ⎢⎜ ⎟ ⎥ p(1 − p)
⎢⎣ ⎝ ϑθ ⎠ ⎥⎦
np(1 − p) p(1 − p)
ˆ = V ⎛⎜ ⎞⎟ = 2 V(x) = 2
x 1 1
V(p) x =
⎝n⎠ n n n n2
x
La varianza del estimador coincide con la cota de Cramer‐Rao, con lo que el estadístico p̂ = es
n
eficiente.
Estimar los parámetros θ y λ por el método de los momentos, estudiando si son insesgados.
Solución
∑x
i=1
i
α1 = E(X) = μ → α
ˆ 1 = a1 = = x
n
n
∑x
i=1
2
i
α2 = E(X 2 ) → α
ˆ 2 = a2 =
n
∑x
i=1
r
i
αr = E(Xr ) → α
ˆ r = ar =
n
Como hay que estimar dos parámetros θ y λ hay que calcular los dos primeros momentos.
momentos poblacionales
momentos muestrales
∑x i ∑x 2
i
a1 = x = i
a2 = i
n n
⎧ θ−λ
⎪⎪ α1 = a1 → 2
= x → θ − λ = 2x ⎧
⎪ θ − λ = 2x λˆ = 1 − a2 − x
⎨ → ⎨ →
⎪ α = a → 2 − θ − λ = a → − θ − λ = 2a − 2 ⎪⎩ −θ − λ = 2a2 − 2 θˆ = 1 − a2 + x
⎪⎩ 2 2
2
2 2
a) El experimento aleatorio consiste en lanzar una moneda tres veces, siendo X = "Número de caras
obtenidas en los tres lanzamientos", de forma que puede tomar los valores 0, 1, 2 y 3. Repitiendo el
proceso 80 veces, se obtiene:
X = xi 0 1 2 3
ni 7 24 35 14
x 1 ⎡ 0 x 7 + 1 x 24 + 2 x 35 + 3 x 14 ⎤
α1 = a1 → 3p = x → pˆ = = ⎢ ⎥ = 0,566
3 3 ⎣ 7 + 24 + 35 + 14 ⎦
ˆ =p
b) El estimador es insesgado o centrado cuando: E(p)
⎛ 1 n ⎞ n n
ˆ = E ⎛⎜ ⎞⎟ = E ⎜ ∑ ∑ ∑ 3p =
x 1 1 1
E(p) xi ⎟ = E(xi ) = x n x 3p = p
⎝3⎠ ⎜ 3n ⎟ 3n 3n 3n
⎝ i=1 ⎠ i=1 i=1
El estimador es insesgado
⎛x⎞ ⎛ 1 n ⎞ n
p(1 − p)
∑ ∑ Var(x ) =
1 1
c) Var (p) = Var ⎜ ⎟ = Var ⎜
ˆ xi ⎟ = xnx 3p(1 − p) =
⎝3⎠ ⎜ 3n ⎟ 9n2
i
9n2 3n
⎝ i=1 ⎠ i=1
Lanzamiento de tres monedas: Ω = {(c,c,c) ,(c,c,e) ,(c,e,c) , (e,c,c) ,(c,e,e) ,(e,c,e) ,(e,e,c) ,(e,e,e) }
1 3 3 1
P(X = 0) = P(X = 1) = P(X = 3) = P(X = 3) =
8 8 8 8
Frecuencias esperada: ei = n pi = 80 P(X = xi )
X = xi 0 1 2 3
ni 7 24 35 14
ei = npi 10 30 30 10
Estadístico observado:
4
n2i 4
n2i 72 24 2 352 14 2
χ23 = ∑
=
i
e 1 i
− n = ∑
=
i 1
np i
− n =
10
+
30
+
30
+
10
− 80 = 4,5333
El estadístico de contraste (bondad de ajuste) es menor que el estadístico teórico, con un nivel de
significación 0,05 , ( χ23 = 5,4533 < 7,18 = χ20,05 , 3 ) , concluyendo que la moneda está equilibrada.
∑
1
Función soporte o Log‐verosimilitud: ln L (X , a) = ln ⎜ n e ⎟ = − n lna − xi
⎜ a ⎟ a i=1
⎝ ⎠
Para obtener el estimador de máxima verosimilitud EMV(a) ˆ , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo a por â e igualando a cero:
n
ϑ ln L (X , a)
∑x
n 1 n 1
= − + 2 ∑ xi = 0 → aˆ = i = x
ϑa a = aˆ
a a i=1 a = aˆ
n i =1
b) La expresión de la función de densidad desvela que se trata de una variable aleatoria exponencial, es
⎛ 1⎞ 1 1
decir, X ∼ Exp ⎜ λ = ⎟ siendo , por tanto, E(X) = = a , Var (X) = 2
= a2
⎝ a⎠ 1/a (1 / a)
Para obtener el estimador de "a" por el método de los momentos se necesita igualar los momentos
muestrales a los momentos poblacionales.
Se plantea la ecuación: E(X) = x → a= x
integración por partes
∞
x
∞ ∞ 1 − (x + a)
Se comprueba que: E [ X ] = ∫ 0
x f(x)dx = ∫ 0
x
a
e a dx = − x
= a
e a
0
u=x du = dx
x x x
1 − 1 −a −
dv = e a dx
a
v= ∫ a
e dx = − e a
x x x x x x
1 − − − − − −
∫ ∫
x e a dx = − xe a + e a dx = − xe a − ae a = − (x + a) e a
a
∑ ∑
1 1
Insesgadez: E(x) = E ⎢ xi ⎥ = E(xi ) = n E(xi ) = E(x i ) = a
⎢⎣ n i=1 ⎥ ⎦
n i=1 n
Un estimador es eficiente cuando su varianza coincide con la Cota de Cramer‐Rao: V(x) = CCR
1 ⎡ ϑ2 ln L (x ; a) ⎤
CCR = I(a) = − E ⎢ ⎥ Información de Fisher
I(a) ⎣ ϑ a2
⎦
ϑ ln L (X , a) n 1 n ϑ2 ln L (X , a) n 2 n
= − + 2 ∑ xi → = − ∑ xi
ϑa a a i=1 ϑ a2 a2 a3 i = 1
⎡ ϑ2 ln L (X , a) ⎤ ⎡n 2 n ⎤ n 2 n n 2na n
In (a) = − E ⎢ ⎥ = − E ⎢ 2 − ∑ x i⎥ = − + 3 ∑
E(x i ) = − 2 + 3 = 2
⎣ ϑa 2
⎦ ⎣a
3
a i=1 ⎦ a2
a i=1 a a a
1 1 a2
CCR = = =
I(a) n n
2
a
Por otra parte, la varianza de la media muestral:
⎛1 n ⎞ n
a2
∑ ∑
1 1 1 1
Var (x) = Var ⎜ xi ⎟ = 2 Var (xi ) = n Var (x ) = n =
⎜n ⎟ n n2
i
n2 (1 / a)2 n
⎝ i=1 ⎠ i=1
fθ (x) = θ e − θ x , x > 0
b) Supongamos que se miden 10 componentes cuya duración sigue la distribución anterior y que si se
suma el tiempo de funcionamiento de todas ellas se contabiliza un total de 1200 horas. A partir de
esta muestra, estimar la probabilidad de que una componente vaya a durar menos de 130 horas.
n−1
c) Probar si el estadístico T (X1 , ,Xn ) = n
es centrado para θ
∑X
i=1
i
n
d) Probar si el estadístico ∑X
i=1
i es estadístico suficiente y completo. ¿Es T (X1 , ,Xn ) estimador
Solución
x x
∫ ∫
x
a) Fθ (x) = fθ (t)dt = θ e − θ t dt = − e − θ t = 1 − e− θ x
0 0 0
Función de verosimilitud:
n
−θ ∑ xi
L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = (θ e −θ x1 ) (θ e −θ x2 ) ... (θ e −θ xn ) = θn e i=1
∀ xi > 0
⎡ n
−θ ∑ xi
⎤ n
⎢ n ⎥
Función soporte o Log‐verosimilitud: ln L(θ) = ln ⎢ θ e i = 1 ⎥ = n ln θ − θ xi ∑
⎢ ⎥ i=1
⎣ ⎦
Para obtener el estimador de máxima verosimilitud EMV(θˆ ) , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo θ a por θ̂ e igualando a cero:
ϑ ln L (X , θ) n n n 1
= − ∑ xi = 0 → θˆ = =
ϑθ θ i=1 n
x
θ = θˆ θ = θˆ
∑x
i =1
i
∑
1 1 −
b) Se tiene: n = 10 , x = xi = 1200 = 120 , P(X > t) = 1 − P(X ≤ t) = e x
10 i=1
10
130 130
− −
P(X < 130) = 1 − P(X ≥ 130) = 1 − P(X > 130) = 1 − e x = 1−e 120 = 0,6615
n n ⎡1 ⎤ θ
Momentos de la variable Y ∼ Γ (n , θ) : E(Y) = V(Y) = E⎢ ⎥ =
θ θ2 ⎣Y⎦ n−1
⎡ n ⎤ ⎡n − 1 ⎤ ⎡1 ⎤ θ
E(T) = E ⎢(n − 1) /
⎢⎣
∑ Xi ⎥ = E ⎢
⎥ ⎣ Y ⎥ = (n − 1)
⎦
E ⎢ ⎥ = (n − 1)
⎣Y⎦ n−1
= θ
i=1 ⎦
El estadístico T es centrado o insesgado para θ.
Para encontrar un estadístico suficiente θ̂ hay que factorizar la función de verosimilitud de la forma:
L (θ) = g(θˆ , θ) . h(x 1 , ,x n )
n
− θ ∑ xi
− θ x1 − θ x2 − θ xn i=1
Función verosimilitud: L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = (θ e ) (θ e ) ... (θ e ) = θn e
h(x 1 , ,x n ) = 1
n
La Función verosimilitud L (θ) depende de la muestra sólo a través del estadístico ∑x
i=1
i y que
n ⎡ ⎛ n ⎞⎤ ⎛ n ⎞
El estadístico ∑ xi es completo sí Eθ ⎢ g ⎜
⎢ ⎜ ∑
xi ⎟ ⎥ = 0 ⇒ g ⎜
⎟ ⎥ ⎜
xi ⎟ = 0
⎟ ∑
i=1 ⎣ ⎝ i = 1 ⎠⎦ ⎝ i=1 ⎠
n ⎡ ⎛ n ⎞⎤ ∞ θn
Como ∑ xi ∼ Γ (n , θ) → Eθ ⎢ g ⎜
⎢ ⎜ ∑
xi ⎟ ⎥ =
⎟⎥ ∫ 0
f(y)
(n − 1)!
yn − 1 e − θ y dy = 0 ∀θ > 0
i=1 ⎣ ⎝ i = 1 ⎠⎦
∞
La transformada de Laplace ∫ 0
f(y) yn − 1 e − θ y dy de la función f(y) yn − 1 = 0 y, por el teorema de
Por el teorema de Lehmann ‐ Scheffé, siendo el estadístico T centrado y función del estadístico
n
suficiente y completo ∑x .
i=1
i
Para estimar el tiempo medio de vida se extrae una muestra aleatoria simple de n bombillas y se
n
∑X
1
consideran dos estimadores. Uno es la media muestral, T1 (X1 , ,Xn ) = i , y el otro se define
n i=1
Solución:
⎛1⎞
a) xi ∼ Exp ⎜ ⎟ con lo que E(xi ) = θ , Var (xi ) = θ2 , E ⎡⎣ xi2 ⎤⎦ = 2! θ2 = 2 θ2
⎝θ⎠
X ∼ Exp(λ ) : f(x) = λ e − λ x F(x) = 1 − e − λ x x ≥ 0
1 1 n!
E(X) = , Var (X) = 2 , E(Xn ) = n
λ λ λ
⎡1 n ⎤ n
∑ ∑
1 1
E [ T1 ] = E⎢ xi ⎥ = E [ xi ] = n θ = θ
⎢⎣ n i = 1 ⎥⎦ n i=1 n
⎡1 n ⎤ n
θ2
∑ ∑
1 1
Var [ T1 ] = Var ⎢ xi ⎥ = 2 Var [ xi ] = n θ 2
=
⎢⎣ n i=1 ⎥
n n2 n
⎦ i=1
b) Para el cálculo de la media, sesgo u varianza del estimador T2 (X1 , ,Xn ) = mín (X1 , ,Xn ) lo
primero que hay que obtener es su función de densidad:
x x
⎡1 ⎤ − dF(x) 1 − θ
X ∼ Exp ⎢ ⎥ : F(x) = 1 − e θ → f(x) = = e x>0
⎣θ⎦ dx θ
1 θ θ ⎛1−n⎞
E(T2 ) = = → Sesgo: b(T2 ) = − θ = ⎜ ⎟θ
n n n ⎝ n ⎠
θ
1 θ2
Var (T2 ) = 2
=
⎛n⎞ n2
⎜ ⎟
⎝θ⎠
θ
c) El estimador T2 es sesgado: E(T2 ) =
n
Considerando el estimador T3 = n T2 se obtiene un estimador insesgado:
θ
E(T3 ) = E(nT2 ) = n E(T2 ) = n = θ
n
θ2
Var (T3 ) = Var (nT2 ) = n2 Var (T2 ) = n2 = θ2
n2
El estimador T1 es más eficiente que el estimador T3 por no tener menor varianza cuando n > 1 :
θ2
Var [ T1 ] = < Var ⎡⎣T3 ⎤⎦ = θ2
n
En caso que n = 1 son igual de eficientes.
Solución:
a) Función de verosimilitud:
⎛ x −x /θ⎞ ⎛ x −x /θ⎞ ⎛ x −x /θ⎞
L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = ⎜ 12 e 1 ⎟ ⎜ 22 e 2 ⎟ ... ⎜ n2 e n ⎟ =
⎝θ ⎠ ⎝θ ⎠ ⎝θ ⎠
1 n
n − ∑x
θi=1 i
∏x
1
= i e ∀ xi > 0 θ> 0
θ2 n i=1
⎡ 1 n ⎤
⎢ 1
n − ∑x
θi=1 i ⎥
n n
∏ ∑ ∑x
1
ln L(θ) = ln ⎢ 2 n xi e ⎥ = − 2n ln θ + ln(x i ) − i
⎢ θ i=1 ⎥ i=1
θ i=1
⎣ ⎦
Para obtener el estimador de máxima verosimilitud EMV(θˆ ) , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo θ por θ̂ e igualando a cero:
n
ϑ ln L (X , θ)
∑x
2n 1 n 1 x
= − + 2 ∑ xi = 0 → θˆ = i =
ϑθ θ = θˆ
θ θ i=1 θ = θˆ
2n i =1
2
ϑ2 ln L (X , θ)
Se comprueba que es un máximo: < 0
ϑθ2 θ = θˆ
2n 1 n n
ϑ( + 2 ∑ x i) ∑ xi
ϑ ln L (X , θ)
2
θ θ i=1 2n 2 n i=1
= = − − ∑ xi → θˆ = − = −x < 0
ϑθ2 θ = θˆ
ϑθ θ = θˆ
θ2 θ3 i = 1 θ = θˆ
n
∫ ∫
x − x/θ
b) Siendo X una variable aleatoria continua: E(X) = x f(x) dx = x e dx
0 0 θ2
∞ ∞ ∞
x2 − x / θ
∫ ∫ ∫
1 ⎛ 1 ⎞ − x/θ ∞ ⎛ 1⎞
E(X) = e dx = − x2 ⎜− ⎟ e dx = x2 e − x / θ − 2 x ⎜ − ⎟ e − x / θ dx =
0 θ2
θ 0 ⎝ θ⎠ 0 0 ⎝ θ⎠
u u
dv dv
⎛ ∞ ⎞
∫
∞ ∞
= x2 e − x / θ − ⎜2x e − x/θ − 2e − x / θ dx ⎟ =
0
⎝ 0 0 ⎠
⎛ ∞
⎛ 1 ⎞ − x/θ ⎞
∫
x/θ ∞ ∞
= x e
2 −
− ⎜2x e − x/θ + 2θ ⎜− ⎟ e dx ⎟ =
0
⎝ 0 0 ⎝ θ⎠ ⎠
∞ ⎛ ∞ ∞ ⎞ ∞
= x2 e − x / θ − ⎜2x e − x/θ + 2θ e − x/θ ⎟ = (x − 2 x − 2 θ) e
2 − x/θ
= 2θ
0 ⎝ 0 0 ⎠ 0
x
EMV [E(X) ] = 2 θ = 2 = x
2
15
∑
1 42,76
c) x = xi = = 2,8507 minutos
15 15
i=1
(2,8507 / 2)2
CCR = = 0,0677
2 x 15
Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
⎧⎪ θ x θ − 1 si x∈ (0,1)
fθ (x) = ⎨ θ>0
⎪⎩ 0 en el resto
a) Hallar un estadístico suficiente
b) Estimador de máxima verosimilitud de θ
c) Estimador de θ por el método de los momentos
Solución
Para encontrar un estadístico suficiente θ̂ hay que factorizar la función de verosimilitud de la forma:
L (θ) = g(θˆ , θ) . h(x 1 , ,x n )
Función de verosimilitud:
L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = (θ x1θ − 1 ) (θ x2θ − 1 ) ... (θ xnθ − 1 ) = θn (x1 xn )θ− 1
n n
ϑlnL (θ)
∑ ∑ ln(x ) = 0
n n
lnL (θ) = n ln θ + (θ − 1) ln(x i ) → = + i → θˆ = −
ϑθ θ n
i =1 i =1
∑ ln(x )
i=1
i
a) En la variable aleatoria X = "Número de taxis", todos los taxis tienen igual probabilidad.
1
Función de densidad: f(k) = P(X = k) = k = 1, 2 , ... , N
N
N N
1 (1 + N) N 1+N
∑ x P(X = x ) = ∑ i x N
1 1
Esperanza: E(X) = i i = (1 + 2 + ... + N) = =
i=1 i=1
N N 2 2
1+N
Aplicando el méodo de los momentos: E(X) = = x → N
ˆ = 2x − 1
2
N N
2 1+N
ˆ = E( 2 x − 1) = 2
∑ ∑ E(x ) − 1 =
2
Insesgadez: E(N) E(xi ) − 1 = i N −1=N
N i=1
N i=1
N 2
Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
⎧⎪ − x + θ si x > 0
fθ (x) = ⎨e
⎪⎩ 0 en el resto
a) Hallar un estimador por el método de los momentos de θ
b) Estudiar si el estimador encontrado en el apartado anterior es insesgado para estimar θ
Solución
⎛1+x⎞
∫u x e − x + θ dx = x (− e − x + θ ) −
dv u
∫ − e − x + θ dx = − x e − x + θ − e − x + θ = − (1 + x) e − x + θ = − e − θ ⎜ x ⎟
du ⎝ e ⎠
v v
∞
∞ ⎛1+x⎞
∫
−x+ θ −θ
xe dx = − e ⎜ x ⎟ = 1+θ
θ ⎝ e ⎠θ
b) Un estimador es insesgado o centrado cuando su valor probable coincide con el valor del parámetro
a estimar. Es decir, E(θˆ ) = θ
E(θˆ ) = E( x − 1) = E( x ) − 1 = ( θ + 1) − 1 = θ
El coseno X del ángulo con el que se emiten los electrones en un proceso radioactivo es una
variable aleatoria con función de densidad:
⎧(1 + θ x) 2 −1 ≤ x ≤ 1 , − 1 ≤ θ≤ 1
fθ (x) = ⎨
⎩ 0 en el resto
Se considera una muestra aleatoria (x1 , ,xn ) de la variable aleatoria
a) Obtener el estimador θ por el método de los momentos
b) Calcular la varianza de este estimador y demostrar que es consistente
Solución
V(X) 9
b) V(θˆ ) = V(3 x) = 9 V(x) = 9 = V(X)
n n
1
1
2 ⎛ 1+θx ⎞ ⎡θ⎤
2
⎡x 3 θx 4 ⎤ ⎡θ⎤
2
3 − θ2
∫
2
V(X) = E(X ) − ⎣⎡E(X) ⎦⎤ =
2
x ⎜ ⎟ dx − ⎢ ⎥ = ⎢ + ⎥ − ⎢⎣ 3 ⎥⎦ =
−1 ⎝ 2 ⎠ ⎣3⎦ ⎣6 8 ⎦ −1 9
ˆ 9 9 ⎡3 − θ2 ⎤ 3 − θ2
de donde, V(θ) = V(X) = ⎢ ⎥ =
n n ⎣ 9 ⎦ n
ˆ 3 − θ2
lim V(θ) = lim V(3 x) = lim = 0
n→ ∞ n→ ∞ n→ ∞ n
Queda probado que el estimador θ̂ es consistente