Está en la página 1de 54

Gestión Aeronáutica: Estadística Teórica

Facultad Ciencias Económicas y Empresariales


Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández

ESTIMADORES
PROPIEDADES. APLICACIÓN.

1
Portal Estadística Aplicada ‐ Estimadores 1
Un estadístico es cualquier función construida a partir de los
valores de la muestra.
Un estimador es un estadístico que se utiliza para estimar ‐ calcular ‐
‐ aproximar el valor de un parámetro poblacional desconocido.

Instrumentos Estadísticos Avanzados 1


Instrumentos Estadísticos Avanzados 2
ESTIMADORES PUNTUALES : INSESGADEZ. EFICIENCIA

La variable aleatoria poblacional "renta de las familias" del municipio de Madrid se


distribuye siguiendo un modelo N(μ , σ) . Se extraen muestras aleatorias simples de
tamaño 4. Como estimadores del parámetro μ, se proponen los siguientes:

x1 + 2 x 2 + 3 x 3 x3 − 4 x2
μˆ 1 = μˆ 2 = μˆ 3 = x
6 −3
Se pide:
a) Comprobar si los estimadores son insesgados
b) ¿Cuál es el más eficiente?
c) Si tuviera que escoger entre ellos, ¿cuál escogería?. Razone su respuesta a partir del Error Cuadrático
Medio.

Solución:

a) Un estimador θ̂ es insesgado (o centrado) cuando se verifica E(θˆ ) = θ

⎡ x + 2 x2 + 3 x 3 ⎤ 1 1 1
E(μˆ 1 ) = E ⎢ 1 ⎥ = E ⎡⎣ x1 + 2 x2 + 3 x 3 ⎤⎦ = ⎡⎣ E( x1 ) + 2E( x 2 ) + 3E( x 3 ) ⎤⎦ = ⎣⎡ 6 μ ⎦⎤ = μ
⎣ 6 ⎦ 6 6 6

⎡ x − 4 x2 ⎤ 1 1 1
E(μˆ 2 ) = E ⎢ 1 ⎥ = − E ⎡⎣ x1 − 4 x2 ⎤⎦ = − ⎡⎣ E( x1 ) − 4E( x2 ) ⎤⎦ = − ⎡⎣ − 3 μ ⎤⎦ = μ
⎣ −3 ⎦ 3 3 3

⎡ x + x2 + x 3 + x 4 ⎤ 1 1
E(μˆ 3 ) = E ⎢ 1 = E ⎡⎣ x1 + x2 + x 3 + x 4 ⎤⎦ = ⎡ E( x1 ) + E( x2 ) + E( x 3 ) + E( x 4 ) ⎤⎦ =
⎣ 4 ⎥
⎦ 4 4⎣
1
= ⎣⎡ 4 μ ⎦⎤ = μ
4
Los tres estimadores son insesgados o centrados.

b) El estimador más eficiente es el que tenga menor varianza.

⎡ x + 2 x2 + 3 x3 ⎤ 1
V [ μˆ 1 ] = V ⎢ 1 ⎥ = V [ x1 + 2 x 2 + 3 x 3 ] =
⎣ 6 ⎦ 36
1 1 14
= [ V( x1 ) + 4 V( x2 ) + 9 V( x3 ) ] = ⎡⎣ 14 σ 2 ⎤⎦ = σ 2 = 0,39 σ 2
36 36 36

⎡ x − 4 x2 ⎤ 1 1
V ⎡⎣ μˆ 2 ⎤⎦ = V ⎢ 1 ⎥ = V ⎡⎣ x1 − 4 x2 ⎤⎦ = ⎡ V( x1 ) + 16 V( x2 ) ⎤⎦ =
⎣ −3 ⎦ 9 9⎣
1 17 2
= ⎡⎣ 17 σ 2 ⎤⎦ = σ = 1,89 σ 2
9 9

Instrumentos Estadísticos Avanzados 3


⎡ x + x2 + x 3 + x 4 ⎤ 1
V ⎣⎡ μˆ 3 ⎦⎤ = V ⎢ 1 = V ⎡ x1 + x2 + x 3 + x 4 ⎦⎤ =
⎣ 4 ⎥
⎦ 16 ⎣
1 1 4 2
= ⎡⎣ V( x1 ) + V( x 2 ) + V( x 3 ) + V( x 4 ) ⎤⎦ = ⎡ 4σ2 ⎤ = σ = 0,25 σ 2
16 16 ⎣ ⎦ 16

El estimador μ̂ 3 es el más eficiente.

2
c) ECM(θˆ ) = E(θˆ − θ) 2 = V(θˆ ) + ⎡⎣b(θˆ ) ⎤⎦ sesgo b(θˆ ) = ⎡⎣ E(θˆ ) − θ ⎤⎦

Al ser los tres estimadores insesgados b(θˆ ) = 0 → ECM(θˆ ) = V(θˆ )

El error cuadrático medio coincide con la varianza, por tanto, se elige el estimador μ̂ 3 por presentar
menor varianza.

Instrumentos Estadísticos Avanzados 4


ESTIMADORES PUNTUALES: INSESGADEZ. EFICIENCIA

El peso en kilos de los jamones vendidos por una empresa sigue una distribución normal con
varianza 4 y peso medio desconocido. Se conoce que el peso medio de los jamones vendidos
es superior a 5 kg, y se toman m.a.s. de tamaño 4 para estimar θ .
¿Cuál de los dos estimadores sería el mejor respondiendo a la insesgadez y eficiencia?
x + x2 + x 3 x + x2
θˆ 1 = 1 θˆ 2 = 1
4 2
Solución:

La v.a X i = 'peso en kg de los jamones' sigue una distribución normal de varianza σ2 = 4

E(θˆ 1 ) = θ + b(θˆ 1 )
Sesgo

Para estudiar la insesgadez de los estimadores se calculan sus esperanzas:

⎡ x + x2 + x3 ⎤ 1 3
E(θˆ 1 ) = E ⎢ 1 ⎥ = ⎡⎣ E(x1 ) + E(x2 ) + E(x 3 ) ⎤⎦ = θ
⎣ 4 ⎦ 4 4
3 1
El sesgo del estimador θ̂1 será: b(θˆ 1 ) = E(θˆ 1 ) − θ = θ − θ = − θ
4 4
⎡ x + x2 ⎤ 1 2
E(θˆ 2 ) = E ⎢ 1 ⎥ = ⎡⎣ E(x1 ) + E(x2 ) ⎤⎦ = θ = θ
⎣ 2 ⎦ 2 2
El estimador θ̂ es insesgado, b(θˆ ) = 0
2 2

Atendiendo al sesgo se elige θ̂2

Para analizar la eficiencia relativa de los dos estimadores se calculan las respectivas varianzas

⎡ x + x2 + x 3 ⎤ 1 1
V(θˆ 1 ) = V ⎢ 1 ⎥ = [ V(x1 + x2 + x 3 )] = ⎡ V(x1 ) + V(x 2 ) + V(X 3 ) ⎤⎦
16 ⎣
⎣ 4 ⎦ 16
Observaciones
independientes
1 12 3
= 12 = =
V(xi ) = 4 16 16 4

⎡ x + x2 ⎤ 1 1 1
V(θˆ 2 ) = V ⎢ 1 ⎥ = [ V(x1 + x2 ) ] = ⎡⎣ V(x1 ) + V(x 2 ) ⎤⎦ = 8 = 2
⎣ 2 ⎦ 4 4 4

Respecto a la varianza se elige el estimador θ̂1 por ser el de menor varianza.

Aparecen decisiones contrapuestas, de modo que el estimador se elige en base al error cuadrático
2
medio: ECM(θˆ ) = Var (θˆ ) + ⎡⎣b(θˆ ) ⎤⎦
Varianza
(sesgo) 2

Instrumentos Estadísticos Avanzados 5


2
3 ⎛ θ⎞ θ 2 + 12
ECM(θˆ 1 ) = + ⎜− ⎟ = ECM(θˆ 2 ) = 2 + 0 = 2
4 ⎝ 4⎠ 16
Se analiza cuando es mayor el ECM en el primer estimador θ̂1 :
θ 2 + 12
ECM(θˆ 1 ) > ECM(θˆ 2 ) → > 2 → θ 2 > 20 ⇒ θ > 20 ≈ 4,47
16
Si θ es en valor absoluto mayor que 4,47, el error cuadrático medio de θ̂1 es mayor, con lo que se elige
el estimador θ̂2 .
Se conoce que el peso medio de los jamones es superior a 5 kg, no queda duda que el estimador a elegir
(con menor error cuadrático medio) es θ̂2

Instrumentos Estadísticos Avanzados 6


ESTIMADORES PUNTUALES: EFICIENCIA. CONSISTENCIA

La distribución de ingresos de cierta población es una variable aleatoria con media μ


desconocida y varianza σ2 también desconocida. Se desea estimar el ingreso medio de la
población mediante una m.a.s. de tamaño n, respecto de la insesgadez y de la eficiencia.
¿Cuál de los dos estimadores se eligen?. ¿Son consistentes?
n n

∑ ∑x
1 1
μˆ 1 = xi μˆ 2 = i
n −1 i=1
n i=1

Solución:

Sea la v.a x i = 'ingresos de cierta población' sigue una distribución normal N(μ , σ) . Para analizar el
sesgo de los estimadores, se calcula la esperanza:

⎡ 1 n ⎤ ⎡ n ⎤ n

∑ ∑ ∑E(x ) =
1 1 1 n
E(μˆ 1 ) = E ⎢ xi ⎥ = E⎢ xi⎥ = i (n μ) = μ
⎢n − 1 ⎥ n−1 ⎢ i=1 ⎥ n−1 n−1 n−1
⎣ i= 1 ⎦ ⎣ ⎦ i=1

n 1
E(μˆ 1 ) = μ + b(μˆ 1 ) → Sesgo del estimador μ̂1 : b(μˆ 1 ) = E(μˆ 1 ) − μ = μ − μ = μ
n−1 n−1
⎡1 n ⎤ 1 ⎡
n ⎤ n

∑ ∑ ∑ E(x ) =
1 1
E(μˆ 2 ) = E ⎢ xi ⎥ = E ⎢ x i ⎥ = i (n μ) = μ
⎢⎣ n i=1 ⎥ ⎦
n ⎢i =1 ⎥
⎣ ⎦
n i=1
n

El estimador μ̂2 , que es la media muestral, es insesgado (centrado) y el estimador que se elige.

La eficiencia de los estimadores se analiza a través de su varianza:

⎡ 1 n ⎤ ⎡ n ⎤ n
nσ 2
∑ ∑ ∑
1 1 1
V(μˆ 1 ) = V ⎢ xi ⎥ = V ⎢ xi⎥ = V(x i ) = (n σ 2
) =
⎢⎣ n − 1 i=1 ⎥ ⎦
(n − 1) 2
⎢⎣ i = 1 ⎥⎦ (n − 1) 2 i=1 (n − 1) 2 (n − 1) 2

⎡1 n ⎤ 1 ⎡
n ⎤ n
σ2
∑ ∑ ∑
1 1
V(μˆ 2 ) = V ⎢ xi ⎥ = 2 V ⎢ x i ⎥ = V(x i ) = (n σ 2
) =
⎢⎣ n i=1 ⎥ n ⎢⎣ i = 1 ⎥⎦ n n2 n
⎦ i=1

El estimador más eficiente será el de menor varianza. Comparando las varianzas de los estimadores:
σ2 n σ2
V(μˆ 2 ) = < = V(μˆ 1 ) puesto que (n − 1)2 < n2
n (n − 1) 2

El estimador μ̂2 , que es la media muestral, es el mejor tanto al sesgo como a la eficiencia.

nσ 2 Un estimador es consistente
Los dos lim E(μˆ 1 ) = μ y lim V(μˆ 1 ) = lim =0 si se aproxima al valor del
n →∞ n →∞ n → ∞ (n − 1) 2
estimadores son parámetro cuando el tamaño
consistentes: σ2 de la muestra es
lim E(μˆ 2 ) = μ y lim V(μˆ 2 ) = lim =0
n →∞ n →∞ n →∞ n suficientemente grande.

Instrumentos Estadísticos Avanzados 7


ESTIMADORES PUNTUALES: INSESGADEZ. ERROR CUADRÁTICO MEDIO

Sea (x1 ,x2 , ,xn ) una muestra aleatoria simple de una variable aleatoria X con E(X) = μ
y Var(X) = σ . Calcular el error cuadrático medio para los siguientes estimadores de μ :
2

3x1 − 2x2 + x 3
μˆ 1 = x1 μˆ 2 =
6
Solución:

a) Insesgadez:

E(μˆ 1 ) = E(x1 ) = μ → b(μˆ 1 ) = 0

⎡ 3x − 2x2 + x 3 ⎤ 1 1 2 1
E(μˆ 2 ) = E ⎢ 1
⎣ 6 ⎥

=
6
[ 3E(x1 ) − 2E(x2 ) + E(x 3 )] = ( 3 μ − 2 μ + μ ) = μ = μ
6 6 3
1 2
E(μˆ 2 ) = μ2 + b(μˆ 2 ) → Sesgo : b(μˆ 2 ) = E(μˆ 2 ) − μ = μ − μ = − μ
3 3
Respecto al sesgo es mejor el primer estimador μ̂1 que es insesgado o centrado.

Varianza:

Var (μ1 ) = σ2

⎛ 3x − 2x2 + x 3 ⎞ 1 1
Var (μ2 ) = Var ⎜ 1
⎝ 6
⎟=
⎠ 36
Var ( 3x1 − 2x2 + x 3 ) =
36
[9 Var(x1 ) + 4 Var(x2 ) + Var(x3 )] =
1 14 2 7 2
= ⎡⎣9 σ2 + 4 σ2 + σ2 ⎤⎦ = σ = σ
36 36 18
7 2
Respecto a la varianza es mejor el segundo estimador μ̂2 por ser σ < σ2
18

El mejor estimador será el que presente menor Error Cuadrático Medio:


2
ECM(μˆ 1 ) = V(μˆ 1 ) + ⎡⎣ b(μˆ 1 ) ⎤⎦ = σ 2 + 0 = σ 2
2
2 7 2 ⎛ 2 ⎞ 7 2 4 2
ECM(μˆ 2 ) = V(μˆ 2 ) + ⎣⎡ b(μˆ 2 ) ⎦⎤ = σ + ⎜− μ⎟ = σ + μ
18 ⎝ 3 ⎠ 18 9
El primer estimador μ̂1 será mejor sí:
7 2 4 2 11 2 4 4 x 18 2 8 2
σ2 < σ + μ → σ < μ2 → σ2 < μ → σ2 < μ
18 9 18 9 9 x 11 11

Instrumentos Estadísticos Avanzados 8


ESTIMADORES PUNTUALES: INSESGADEZ. ERROR CUÁDRATICO MEDIO

Para analizar la característica media μ de una población, se extraen m.a.s. de


tamaño n, considerando los estimadores de la media:
n

∑x
1
μˆ 1 = x μˆ 2 = i
n+1 i=1

a) Estudiar la insesgadez, la eficiencia relativa y la consistencia de ambos estimadores


b) Elegir uno de los dos en término del error cuadrático medio

Solución:

a) Insesgadez:

⎛1 n ⎞ 1 ⎛1
n ⎞ n

∑ ∑ ∑ E(x )
1 1
i E(μˆ 1 ) = E(x) = E ⎜ xi ⎟ = E⎜ xi ⎟ = = (n μ) = μ
⎜n ⎟ n ⎜ n i=1 ⎟ n
i
n
⎝ i=1 ⎠ ⎝ ⎠ i=1

E(μˆ 1 ) = μ + b(μˆ 1 ) → Sesgo: b(μˆ 1 ) = E(μˆ 1 ) − μ = μ − μ = 0

⎛ 1 n ⎞ ⎛ n ⎞ n

∑ ∑ ∑ E(x )
1 1 1
i E(μˆ 2 ) = E ⎜ xi ⎟ = E⎜ xi ⎟ = = (n μ) =
⎜ n+1 i=1 ⎟ n+1 ⎜ i=1 ⎟ n+1
i
n+1 n+1
⎝ ⎠ ⎝ ⎠ i=1

→ 0 cuando n → ∞
nμ nμ − nμ − μ μ
E(μˆ 2 ) = μ + b(μˆ 2 ) → b(μˆ 2 ) = E(μˆ 2 ) − μ = − μ = = −
n+1 n+1 n+1
insesgado
asintoticamente

Eficiencia: Sean dos estimadores insesgados θ̂1 y θ̂2 de un parámetro desconocido θ . Se dice que θ̂1
es más eficiente que θ̂2 si se verifica: Var (θˆ 1 ) < Var (θˆ 2 ) .

Var (θˆ 1 )
La eficiencia relativa se mide por la ratio
Var (θˆ )
2

n n
σ2
∑ ∑
1 1 1
V(μˆ 1 ) = V(x) = V( x i) = 2 V(xi ) = (n σ 2
) =
n i=1 n i=1 n2 n
⎛ 1 n ⎞ n

∑ ∑
1 1 n
V(μˆ 2 ) = V ⎜ xi ⎟ = V(xi ) = (n σ 2 ) = σ2
⎜ n+1 i=1 ⎟ (n + 1) i = 1
2
(n + 1) 2
(n + 1) 2
⎝ ⎠
Var (μˆ 1 ) σ2 n (n + 1) 2
Eficiencia relativa: = = > 1 → Var (μˆ 1 ) > Var (μˆ 2 )
Var (μˆ 2 ) n σ 2 (n + 1) 2 n2

El estimador μ̂2 tiene menor varianza, por lo que es más eficiente que μ̂1

Instrumentos Estadísticos Avanzados 9


Consistencia: Un estimador θ̂ es consistente cuando lim E(θˆ ) = θ y lim V(θˆ ) = 0
n→∞ n→∞

Un estimador es consistente si se aproxima al valor del parámetro cuando el tamaño de la muestra es


suficientemente grande.

⎧ lim E(μˆ 1 ) = lim E(x) = μ


⎪n → ∞ n→ ∞
μˆ 1 ≡ ⎨ es consistente
σ2
⎪ lim V(μˆ 1 ) = lim = 0
⎩n → ∞ n→ ∞ n

⎧ ⎛ 1 ⎞
⎪ n lim E(μˆ 2 ) = lim ⎜ μ − μ⎟ = μ
⎪ →∞ n→ ∞⎝ n+1 ⎠
μˆ 2 ≡ ⎨ es consistente
⎪ lim V(μˆ ) = lim ⎡ n ⎤
σ2⎥ = 0
⎪⎩n → ∞ 2 ⎢
n → ∞ ⎣ (n + 1) 2

b) Se elige el estimador que presente menor error cuadrático medio (ECM):


2
ECM(θˆ ) = E(θˆ − θ) 2 = V(θˆ ) + ⎡⎣b(θˆ ) ⎤⎦ sesgo b(θˆ ) = ⎡⎣ E(θˆ ) − θ ⎤⎦

2 σ2 σ2
ECM(μˆ 1 ) = V(μˆ 1 ) + ⎡⎣ b(μˆ 1 )⎤⎦ = + 0 =
n n
2
2 n ⎛ 1 ⎞ nσ 2 + μ 2
ECM(μˆ 2 ) = V(μˆ 2 ) + ⎡⎣ b(μˆ 2 ) ⎤⎦ = σ 2
+ ⎜ μ ⎟ =
(n + 1) 2 ⎝n+1 ⎠ (n + 1) 2

σ2 nσ 2 + μ 2
El estimador μ̂1 será elegido sí ECM(μˆ 1 ) ≤ ECM(μˆ 2 ) → ≤
n (n + 1) 2
nσ 2 + μ 2 nσ 2 μ2 σ2 nσ 2 μ2
= + → ≤ +
(n + 1) 2 (n + 1) 2 (n + 1) 2 n (n + 1) 2 (n + 1) 2

σ2 nσ 2 μ2 (n + 1) 2 σ 2 − n 2 σ 2 μ2
− ≤ → ≤ →
n (n + 1) 2 (n + 1) 2 n(n + 1) 2 (n + 1) 2

(2n + 1) σ 2 μ2 (2n + 1) μ2
→ ≤ → ≤
n(n + 1) 2 (n + 1) 2 n σ2

⎧ 2n + 1 μ2
⎪ Si ≤ → μˆ 1 se elige antes que μˆ 2
⎪⎪ n σ 2



⎪ Si 2n + 1 ≥ μ → μˆ se elige antes que μˆ
2

⎩⎪
2 1
n σ2

Instrumentos Estadísticos Avanzados 10


ESTIMADORES PUNTUALES: INSESGADEZ

La variable aleatoria X representa los gastos mensuales de una empresa, cuya función de
densidad es f (θ, x) = θ x θ − 1 con θ> 0 y 0 < x < 1 . Se realiza una muestra aleatoria
simple (m.a.s.) de tamaño 3, y se proponen tres estimadores:

x12 + 2 x22 + 3 x23 x − 2 x1 + 4 x 2


θˆ 1 = x θˆ 2 = θˆ 3 = 3
6 6
a) Calcule los sesgos
b) Si la muestra que se obtiene es (0,7; 0,1; 0,3), calcule las estimaciones puntuales
c) ¿Cuáles son las funciones estimadas para las estimaciones anteriores?

Solución:

⎡ x + x2 + x 3 ⎤ 1 1 θ
a) θˆ 1 = x ⇒ E(θˆ 1 ) = E ⎢ 1 ⎥ = E ⎡⎣ x1 + x2 + x 3 ⎤⎦ = (3 μ) = μ =
⎣ 3 ⎦ 3 3 θ+1
donde,
1
∞ 1 1 1 ⎡ θ x θ+1 ⎤ θ
∫ ∫ ∫ ∫
θ−1 θ
μ= x f (x, θ) dx = x f (x, θ) dx = x θx dx = θ x dx = ⎢ ⎥ =
−∞ 0 0 0
⎣ θ+1 ⎦0 θ+1

θ θ2
E(θˆ 1 ) = θ + b(θˆ 1 ) → Sesgo: b(θˆ 1 ) = E(θˆ 1 ) − θ = − θ = −
θ+1 θ+1

⎡ x12 + 2 x22 + 3 x23 ⎤ ⎡ ⎤


ˆ 1⎢ ⎥ = 1 (6 α ) = α = θ
i E(θ2 ) = E ⎢ ⎥ = E(x12 ) + 2E(x22 ) + 3E(x23 )
6⎢ ⎥ 2 2
⎢⎣ 6 ⎥⎦ 6 θ+2
⎣ α2 α2 α2 ⎦
∞ 1 1
α 2 = E(x 2 ) = ∫ −∞
x 2 f (x, θ) dx = ∫ 0
x 2 f (x, θ) dx = ∫ 0
x 2 θ x θ − 1 dx =
1
1 ⎡ θ x θ+2 ⎤ θ

θ+1
= θx dx = ⎢ ⎥ =
0
⎣ θ+2 ⎦0 θ+2

⎡ x 12 + 2 x 22 + 3 x 23 ⎤ ⎡ ⎤
1 ⎢ ⎥ θ
E(θˆ 2 ) = E ⎢ ⎥ = ⎢ E(x 12 ) + 2E(x 22 ) + 3E(x 23 ) ⎥ = α2 =
⎢⎣ 6 ⎥⎦ 6 θ+2
⎢⎣ α2 α2 α2 ⎥⎦

θ θ2 + θ
E(θˆ 2 ) = θ + b(θˆ 2 ) → Sesgo: b(θˆ 2 ) = E θˆ 2 − θ = ( ) θ+2
− θ = −
θ+2

⎡ x − 2 x1 + 4 x 2 ⎤ 1 1 1 1 θ
i E(θˆ 3 ) = E ⎢ 3 ⎥ = E ⎡⎣ x 3 − 2 x1 + 4 x2 ⎤⎦ = (3 μ) = μ =
⎣ 6 ⎦ 6 6 2 2 θ+1

Instrumentos Estadísticos Avanzados 11


1
∞ 1 1 1 ⎡ θ x θ+1 ⎤ θ
∫ ∫ ∫ ∫
θ−1 θ
μ= x f (x, θ) dx = x f (x, θ) dx = x θx dx = θ x dx = ⎢ ⎥ =
−∞ 0 0 0
⎣ θ+1 ⎦0 θ+1

1⎛ θ ⎞ 2θ2 + θ
E(θˆ 3 ) = θ + b(θˆ 3 ) → Sesgo: b(θˆ 3 ) = E(θˆ 3 ) − θ = − θ = −
2 ⎜⎝ θ + 1 ⎟⎠ 2(θ + 1)

b) Las estimaciones puntuales de la muestra (0,7 ; 0,1 ; 0,3):

0,7 + 0,1 + 0,3


θˆ 1 = = 0,367
3
0,7 2 + 2.0,1 2 + 3.0,3 2
θˆ 2 = = 0,13
6
0,3 − 2.0,7 + 4.0,1
θˆ 3 = = − 0,117 → No puede ser, puesto que θˆ > 0
6

c) Las funciones estimadas para las estimaciones de la muestra:

f (θ1 , x) = θ1 x θ1 − 1 = f (0,367, x) = 0,367 x 0,367 − 1 = 0,367 x − 0,633

f (θ2 , x) = θ2 x θ2 − 1 = f (0,13, x) = 0,13 x 0,13 − 1 = 0,367 x − 0,87

Instrumentos Estadísticos Avanzados 12


ESTIMADORES PUNTUALES: EFICIENCIA

La distribución del peso de las manzanas de una determinada cosecha sigue una distribución
normal, cuyo peso medio es desconocido y cuya desviación típica es de 7 gramos.
Se pide:
a) Analizar cuál de los estimadores μ̂1 , μ̂2 del peso medio es mejor respecto del sesgo y de la eficiencia,
para una muestra aleatoria simple de tamaño cinco.
5

∑x
1
b) Si μˆ 1 = i y μˆ 2 = x1 + 2 x2 + 3x 3 − 4 x 4 − x 5 , obtener los pesos medios estimados a partir de
5 i=1

la muestra (125, 135, 130, 137, 142).

Solución:

a) El peso de las manzanas sigue una distribución N(μ , 7) . Se calculan las esperanzas para analizar el
sesgo de los estimadores.

⎡1 5 ⎤ 1 ⎡
5 ⎤ 5

∑ ∑ ∑ E ⎣⎡ x ⎦⎤ =
1 1
E(μˆ 1 ) = E ⎢ xi⎥ = E⎢ xi⎥ = i (5 μ) = μ
⎢⎣ 5 i =1 ⎥⎦ 5 ⎢⎣ i=1 ⎥⎦ 5 i =1
5

E(μˆ 2 ) = E(x 1 + 2 x2 + 3 x 3 − 4 x 4 − x 5 ) = E(x1 ) + 2E(x2 ) + 3E(x 3 ) − 4E(x 4 ) − E(x 5 ) =


= μ + 2 μ + 3μ − 4 μ − μ = μ

Los estimadores μ̂1 , μ̂2 son insesgados (centrados).

Para analizar la eficiencia de los estimadores se obtienen las varianzas:

⎡1 5 ⎤ 1 ⎡
5 ⎤ 5

∑ ∑ ∑ V[x ]
1 1 49
V(μˆ 1 ) = V ⎢ xi ⎥ = V ⎢ xi ⎥ = i = (5 x 49) =
⎢⎣ 5 i=1 ⎥ ⎦
25 ⎢ i = 1 ⎥
⎣ ⎦
25 i=1
25 5

V(μˆ 2 ) = V(x1 + 2 x 2 + 3 x 3 − 4 x 4 − x 5 ) = V(x1 ) + 4 V( x2 ) + 9 V( x 3 ) + 16 V( x 4 ) + V( x 5 ) =


= (49) + 4 (49) + 9 (49) + 16 (49) + (49) = 31 (49) = 1519

Como los dos estimadores son insesgados y V(μˆ 1 ) < V(μˆ 2 ) se elige como mejor el estimador μ̂1 , el
peso medio de la muestra de las cinco manzanas.

Instrumentos Estadísticos Avanzados 13


ESTIMADORES PUNTUALES: MÁXIMA VEROSIMILITUD. EFICIENCIA. CONSISTENCIA

Un atleta olímpico de salto de altura se enfrenta a un listón de 2,3 metros. Su entrenador desea
estudiar el comportamiento del saltador. Sabe que el número de saltos fallidos por hora es una
variable aleatoria distribuida como una Poisson de parámetro λ.
a) Calcular el estimador máximo verosímil del parámetro λ.
b) Analizar sus propiedades.

Solución:

a) MÁXIMA VEROSIMILITUD: El estimador de máxima verosimilitud (probabilidad conjunta) de θ es el


formado por los valores (θˆ 1 , , θˆ n ) que maximizan la función de verosimilitud de la muestra
(x 1 , ,x n ) obtenida:

L (θ) = L(X; θ) = L ( x 1 , ,x n ; θ ) = P(x 1 , θ) . P(x2 , θ) P(x n , θ) caso discreto


L (θ) = L(X; θ) = L ( x 1 , ,x n ; θ ) = f (x 1 , θ) . f (x2 , θ) f (x n , θ) caso continuo

En muchas ocasiones, es más práctico encontrar el estimador de máxima verosimilitud al considerar la


función Soporte o Log‐verosimilitud ln L (X , θ) , en lugar de la función de verosimilitud L (θ) , ya que es
más fácil de manejar y presenta los mismos máximos y mínimos.
ϑ ln L (θ)
Se despeja θˆ = (θˆ 1 , , θˆ n ) de la ecuación: = 0 y se obtiene el estimador de máxima
ϑθ ˆ
θ=θ
verosimilitud E.M.V(θˆ )

En este sentido, sea la v.a. X = 'Número de saltos fallidos por hora'


λ x −λ
En la distribución de Poisson: P(X = x) = e donde, E(x) = λ , V(x) = λ
x!
La función de verosimilitud L (X, λ) en una muestra aleatoria simple de tamaño n:
n
∑ xi
n
λ x1 −λ λ xn −λ λ i=1
L (λ) = L (X , λ) = ∏ P(xi , λ ) =
x1 !
e
xn !
e = n e− n λ
i=1
xi !∏
i=1

Función soporte o Log‐verosimilitud:


⎡ n ⎤
⎢ ∑ xi ⎥ n

⎢λ i=1
⎥ ∑ xi n n n
ln L (X , λ ) = ln ⎢ n e − n λ ⎥ = ln (λ i = 1 ) − ln ( ∏xi !) + ln(e − n λ ) = ∑ x i ln λ − ∑ ln(x !) − n λ
i

⎢∏ x i! ⎥

i=1 i=1 i=1

⎣ i =1 ⎦

Instrumentos Estadísticos Avanzados 14


n n
ln L (X , λ ) = ∑ x ln λ − ∑ ln(x !) − n λ
i=1
i
i=1
i

Para obtener el estimador de máxima verosimilitud EMV(λˆ ) , se deriva la expresión anterior respecto
del parámetro para obtener, sustituyendo λ por λ̂
n
n ∑ xi
ϑ lnL (X , λ )
∑x
1 i=1
= 0 → i − n = 0 → λˆ = = x
ϑλ ˆ
λ=λ i=1
λ n
λ = λˆ

El estimador de máxima verosimilitud (estimador que ofrece mayor credibilidad) viene dado por la
media muestral EMV(λˆ ) = x

b) Propiedades de Insesgadez, Consistencia y Eficiencia

Insesgadez
El estimador λ̂ es insesgado (centrado) sí E(λˆ ) = λ

⎡1 n ⎤ n

∑ E(x ) =
1 n 1 1
E(λˆ ) = E ⎢ ∑ xi ⎥ = E( ∑ xi ) = i (n λ) = λ
⎣n i = 1 ⎦ n i =1 n i=1
n

⎛1 n ⎞ n
λ
∑ V(x ) =
1 1
V(λˆ ) = V(x) = V ⎜ ∑ xi ⎟ = 2 i 2
(n λ ) =
⎝ n i=1 ⎠ n i=1 n n

Consistencia
Cuando no es posible emplear estimadores de máxima verosimilitud, el requisito mínimo deseable para
un estimador es que sea consistente.

El estimador λ̂ es consistente cuando lim E(λˆ ) = λ y lim V(λˆ ) = 0


n→ ∞ n→ ∞

λ
lim E(λˆ ) = lim λ = λ y lim V(λˆ ) = lim = 0
n→ ∞ n→ ∞ n→ ∞ n→ ∞ n

El estimador λ̂ es consistente

EFICIENCIA: Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima.
La varianza mínima se analiza en virtud de la acotación de Cramér‐Rao:
2
⎡ ϑ b(λˆ ) ⎤
⎢1 + ⎥
⎣ ϑλ ⎦ La varianza de cualquier estimador siempre es
V(λˆ ) ≥ CCR =
⎡ ⎛ ϑ ln P(x , x , , xn ; λ ) ⎞
2⎤
igual o menor que la cota de Cramer‐Rao.
E ⎢⎜ 1 2
⎟ ⎥
⎢⎣ ⎝ ϑλ ⎠ ⎥⎦

La cantidad de información de Fisher I(λ ) puede simplificarse en una muestra aleatoria simple (m.a.s.),
obteniendo la expresión:

Instrumentos Estadísticos Avanzados 15


⎡⎛ ϑ ln P(x , x , , xn ; λ ) ⎞
2⎤ ⎡⎛ ϑ ln P(x ; λ ) ⎞2 ⎤
I(λ ) = E ⎢⎜ 1 2
⎟ ⎥ = n . E ⎢⎜ ⎟ ⎥
⎢⎣⎝ ϑλ ⎠ ⎥⎦ ⎢⎣⎝ ϑλ ⎠ ⎥⎦
2
⎡ ϑ b(λˆ ) ⎤
⎢1 + ⎥ b'(λˆ ) = 0
ˆ ⎣ ϑλ ⎦ ˆ ) ≥ CCR = 1
V(λ ) ≥ CCR = → V( λ
⎡⎛ ϑ ln P(x ; λ ) ⎞2 ⎤ ⎡⎛ ϑ ln P(x ; λ) ⎞2 ⎤
n . E ⎢⎜ ⎟ ⎥ n . E ⎢⎜ ⎟ ⎥
⎢⎣⎝ ϑλ ⎠ ⎥⎦ ⎢⎣⎝ ϑλ ⎠ ⎥⎦
La cota de Cramér‐Rao, también llamada desigualdad de Cramér‐Rao o desigualdad de información,
también se puede expresar:
1 1 1 1
V(λˆ ) ≥ CCR = = = =
⎡⎛ ϑ ln P(x ; λ) ⎞2 ⎤ In (λ) n . I1 (λ) ⎛ ϑ2 ln P(x ; λ ) ⎞
n . E ⎢⎜ ⎟ ⎥ − n . E⎜ ⎟
⎢⎣⎝ ϑλ ⎠ ⎥⎦ ⎝ ϑλ 2 ⎠

⎡ ϑ2 ln P(x ; λ ) ⎤
siendo I1 (λ ) = − E ⎢ ⎥ la cantidad de información de Fisher para una muestra
⎣ ϑλ 2 ⎦

El estimador es eficiente cuando V(λˆ ) = CCR

λ x −λ
Siendo, P(X = x) = e
x!

⎡ λ x −λ ⎤
lnP(x , λ ) = ln ⎢ e ⎥ = xln λ − ln(x!) − λ
⎣ x! ⎦
ϑ lnP(x , λ ) x x−λ
= − 1 =
ϑλ λ λ

⎡⎛ ϑ lnP(x , λ ) ⎞2 ⎤ ⎡ ⎛ x − λ ⎞2 ⎤ 1 1 1 λ 1

E ⎜ ⎥
⎟ = E ⎢⎜ ⎟ ⎥ = 2 E(x − λ ) = 2 E(x − x) = 2 V(x) = 2 =
2 2
ϑλ ⎣⎢⎝ λ ⎠ ⎦⎥ λ λ λ λ λ
⎣⎢⎝ ⎠ ⎥⎦

1 λ
En consecuencia, V(λˆ ) ≥ =
1 n
n
λ
λ
El menor valor de la varianza del estimador será
n
λ
Se sabe que V(λˆ ) = V(x) = , lo que muestra V(λˆ ) = CCR , el estimador empleado es eficiente.
n

ϑ lnP(x , λ ) x ϑ2 lnP(x , λ ) x
OTRO PROCEDIMIENTO: = − 1 → = − 2
ϑλ λ ϑλ 2
λ

Instrumentos Estadísticos Avanzados 16


⎡ ϑ2 ln P(x ; λ ) ⎤ ⎡−x⎤ 1 λ 1
I1 (λ ) = − E ⎢ ⎥ = − E ⎢ 2 ⎥ = 2 E( x) = 2 =
⎣ ϑλ 2
⎦ ⎣λ ⎦ λ λ λ

1 1 λ
V(λˆ ) ≥ CCR = = =
n . I1 (λ ) n.
1 n
λ

ESTIMADORES PUNTUALES: MÁXIMA VEROSIMILITUD

Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
−θx
⎪⎧ θ x e si x > 0
2
fθ (x) = ⎨
⎪⎩ 0 en el resto
Hallar el estimador de máxima verosimilitud de θ

Solución

Función de verosimilitud L (θ)

L (θ) = fθ (x1 ) fθ (x2 ) ... fθ (xn ) = ⎡θ2 x1 e 1 ⎤ ⎡θ2 x e − θ x2 ⎤ ... ⎡ θ2 x e − θ xn ⎤ =


−θ x
⎢⎣ ⎥⎦ ⎢⎣ 2 ⎥⎦ ⎢⎣ n ⎥⎦
n
−θ ∑ xi
− ( θ x1 + θ x 2 + + θ xn ) i=1
= θ2n (x1 ... xn ) e = θ2n (x1 ... xn ) e

Función soporte o Log‐verosimilitud:


n
⎛ − θ ∑ xi ⎞
n
−θ ∑ xi ⎜⎜ 2n ⎟
L (θ) = θ2n (x1 ... xn ) e i=1
→ ln L (θ) = ln ⎝ θ (x1 ... xn ) e i = 1 ⎟⎠

n n n n
ln L (θ) = (2n) ln θ + ln ∏x
i=1
i − θ ∑x
i=1
i → lnL (θ) = (2n) ln θ + ∑lnxi=1
i − θ ∑x
i=1
i

Para obtener el estimador de máxima verosimilitud de θ̂ se deriva la expresión anterior respecto al


parámetros sustituyendo θ por θ̂ , e igualando a cero:

⎛ ϑlnL (θ) ⎞ ⎛ 2n n ⎞

2n
⎜ ⎟ = ⎜ − xi ⎟ = 0 → θˆ =
⎝ ϑθ ⎠ θ = θˆ ⎜ θ ⎟ n
⎝ i=1 ⎠
θ = θˆ
∑x
i=1
i

Instrumentos Estadísticos Avanzados 17


ESTIMADORES PUNTUALES: MÁXIMA VEROSIMILITUD

Sea la distribución N(μ , σ) , con la media y varianza desconocidas.


Calcular los estimadores máximo‐verosímiles de μ y σ 2

Solución:
(x − μ )2

1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π
Función de verosimilitud:

⎡ (x − μ ) 2 ⎤
− 1
⎡ (x − μ ) 2 ⎤
− 2
⎡ (x − μ ) 2 ⎤
− n
⎢ 1 2 ⎥ ⎢ 1 2 σ2 ⎥ ⎢ 1 2 σ2 ⎥
L (X; μ , σ 2 ) = ⎢ e 2σ ⎥ ⎢ e ⎥ ⎢ e ⎥ =
⎢⎣ 2 π σ ⎢⎣ 2 π σ π σ
2 2 2
⎥⎦ ⎥⎦ ⎢⎣ 2 ⎥⎦
n
∑ (xi − μ) 2
i=1

1 2 σ2
= n n
e
(2 π) 2 (σ )
2 2

Función soporte o Log‐verosimilitud:

⎡ n
⎤ n

∑ (x − μ)
(xi − μ ) 2
⎢ i=1 ⎥ i
2

⎢ 1 −
2σ 2 ⎥ n n i=1
ln ⎣⎡L (X; μ , σ 2 ) ⎦⎤ = ln ⎢ e ⎥ = − ln(2 π) − ln(σ 2 ) −

n n
⎥ 2 2 2 σ2
⎢ (2 π) 2 (σ 2 ) 2

⎣⎢ ⎦⎥
n

n n
∑ (x − μ)
i=1
i
2

ln ⎡⎣L (X; μ , σ 2 ) ⎤⎦ = − ln(2 π) − ln(σ 2 ) −


2 2 2 σ2

Para obtener los estimadores de máxima verosimilitud de μ̂ y σ̂2 se deriva la expresión anterior
respecto de los parámetros, sustituyendo μ por μ̂ e σ 2 por σ̂2 , e igualando a cero:
n n

⎡ ϑ ln L (X; μ , σ 2 ) ⎤

i=1
(xi − μˆ ) ∑x
i=1
i

⎢ ⎥ = = 0 → μˆ = = x
⎣ ϑμ ⎦ μ = μˆ σ2 n
n n

⎡ ϑ ln L (X; μ , σ ) ⎤
2
n

i=1
(xi − μ) 2 ∑ (x − μ)
i=1
i
2

⎢ ⎥ = − + = 0 → σˆ 2 =
⎣ ϑσ 2
⎦ σ2 = σˆ 2 σ
ˆ σ
ˆ 3
n

Instrumentos Estadísticos Avanzados 18


⎡ ϑ2 ln L (X ; μ) ⎤ n
La condición de máximo se verifica, pues: ⎢ ⎥ = − 2 < 0
⎣ ϑμ 2
⎦ μ = μˆ σ

Los estimadores máximo‐verosímiles de μ y σ 2 son la media y la varianza muestrales.


n
∑ (xi − x)
2
i=1
En conclusión, μˆ = x y σ
ˆ2 = = σ 2x
n

Instrumentos Estadísticos Avanzados 19


ESTIMADORES PUNTUALES: MÁXIMA VEROSIMILITUD

Sea (x1 , ,xn ) una muestra aleatoria de tamaño n, distribuida según f(x, θ) con θ
desconocido, donde X representa el tiempo máximo necesario para determinar un proceso
en segundos:
⎧⎪(θ + 1) x θ 0 ≤ x ≤ 1 ; θ > −1
f(X, θ) = ⎨
⎪⎩ 0 otro caso

a) Determinar el estimador máximo verosímil de θ


b) Determinar la estimación máximo verosímil de θ en una muestra aleatoria simple constituida por los
datos:
0,7 0,9 0,6 0,8 0,9 0,7 0,9 0,8
Estimar la probabilidad del tiempo máximo necesario para terminar un proceso, que no exceda de 0,25
segundos ni supere los 0,75 segundos.
2θ + 1
c) Determinar el estimador máximo verosímil de: (i) θ + 1 (ii)
θ− 1
Solución
n
a) Función de verosimilitud: L (θ) = L (X , θ) = ∏ f(x , θ)
i=0
i

n
L (x1 , x2 , ... , xn ; θ) = ⎡⎣(θ + 1) x1θ ⎤⎦ ⎡⎣(θ + 1) x2θ ⎤⎦ ... ⎡⎣(θ + 1) xnθ ⎤⎦ = (θ + 1)n ∏x
i=0
θ
i

Función soporte o Log‐verosimilitud:


⎛ n ⎞ ⎛ n θ⎞ n
ln L (x1 , x2 , ... , xn ; θ) = ln ⎜ (θ + 1)n
⎜ ∏
xiθ ⎟ = ln(θ + 1)n + ln ⎜
⎟ ∏
xi ⎟ = n ln(θ + 1) + θ ln x i
⎜ i=0 ⎟ ∑
⎝ i=0 ⎠ ⎝ ⎠ i=0

Para obtener el estimador de máxima verosimilitud EMV(θˆ ) , se deriva la expresión anterior respecto
del parámetro para obtener, sustituyendo θ por θ̂
n n
ϑln L (x1 , x2 , ... , xn ; θ)
∑ lnx ∑ lnx
n n
= + i = 0 → = − i
ϑθ θ = θˆ
ˆθ + 1
i=0
ˆθ + 1
i=0

n
θˆ = EMV(θ) = − n
− 1
∑ lnx
i=0
i

b) El estimador máximo verosímil de θ con los datos de la muestra:


8
θˆ = − − 1 = 3,027
ln0,7 + ln0,9 + ln0,6 + ln0,8 + ln0,9 + ln0,7 + ln0,9 + ln0,8

Estimador máximo verosímil θˆ = 3,027

Instrumentos Estadísticos Avanzados 20


De otra parte,
ˆ 0,75
0,75 0,75 x θ+1
∫ ∫
θˆ
P(0,25 ≤ X ≤ 0,75) = f(X, θˆ )dx = ˆ ˆ
(θ + 1) x dx = (θ + 1) =
0,25 0,25 (θˆ + 1) 0,25
ˆ 0,75
= x θ+1 0,25
= 0,754 ,027 − 0,254 ,047 = 0,31

La probabilidad del tiempo máximo necesario para terminar el proceso (entre 0,25 y 0,75 segundos) es
0,31

2θ + 1
c) Estimador máximo verosímil de θ + 1 y
θ− 1
EMV [ θ + 1 ] = EMV [ θ ] + 1 = θˆ + 1 = 3,027 + 1 = 4,027

⎛ 2θ + 1 ⎞ 2 EMV ( θ ) + 1 2 θˆ + 1 2 x 3,027 + 1
EMV ⎜ ⎟ = = = = 2,493
⎝ θ − 1 ⎠ EMV ( θ ) − 1 θˆ − 1 3,027 − 1

Instrumentos Estadísticos Avanzados 21


ESTIMADORES PUNTUALES: MÁXIMA VERSOSIMILITUD

Calcular el estimador máximo verosímil del parámetro 'a' de las funciones:

a) f(x ,a) = a2 e − a x siendo x ≥ 0 en muestras aleatorias simples de tamaño n


b) f(x,a) = ae − a x para x ≥ 0 , a > 0 en muestras aleatorias simples de tamaño 2

Solución:

a) Función de verosimilitud:
n
−a ∑ xi
− a x1
L (X , a) = L (x 1 , x 2 , , x n ; a) = (a e2 2
).(a e − a x2 ) (a 2
e − a xn ) = a
2n
e i =1

n
−a ∑ xi n
Función soporte o Log‐verosimilitud: ln L (X , a) = ln (a2n e i=1
) = 2n lna − a ∑x
i=1
i

Para obtener el estimador de máxima verosimilitud EMV(a)ˆ , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo a por â e igualando a cero:

ϑ ln L (X , a) 2n n 2n 2
= − ∑ xi = 0 → aˆ = =
ϑa a i=1 n
x
a = aˆ a = aˆ
∑x
i =1
i

b) Función de verosimilitud: L (X , a) = L (x1 , x2 ; a) = (ae −a x1 ) . (ae −a x2 ) = a2 e − a (x1 + x2 )

Función soporte o Log‐verosimilitud: ln L (X , a) = ln ⎡⎣a2 e − a (x1 + x2 ) ⎤⎦ = 2 lna − a(x1 + x2 )

Derivando respecto de a, igualando a cero y sustituyendo a por â :

ϑ ln L (X , a) 2 2 1
= − (x1 + x2 ) = 0 → aˆ = =
ϑa a = aˆ
a a = aˆ x1 + x 2 x

Instrumentos Estadísticos Avanzados 22


ESTIMADORES PUNTUALES: MÁXIMA VEROSIMILITUD. EFICIENCIA

En un estacionamiento el número de veces que se abre la barrera en un intervalo de 10


minutos, para que pasen vehículos en un sector de seguridad, se considera una variable
aleatoria con distribución de Poisson de parámetro λ desconocido.
a) En una muestra aleatoria de 8 intervalos de 10 minutos cada uno, elegidos de forma independiente,
se registra para cada intervalo el valor que toma la variable en estudio.
3 5 8 7 4 5 6 2
Encontrar la estimación máximo verosímil de λ

b) Sea (x1 , ,xn ) una muestra aleatoria de tamaño n que sigue una distribución de Poisson. Si
n
x + 3 xn
∑n
xi
λˆ 1 = , λˆ 2 = 1 son estimadores. Determinar el mejor estimador del parámetro λ
i=1
4

Solución

a) X = "Número de veces que se abre la barrera en un intervalo de 10 minutos", X ∼ P(λ)

⎧ λ x −λ
⎪ e x = 0, 1, 2, ...
P(X, λ) = ⎨ x!
⎪ 0 otro caso

n
∑ xi
λ i=1
n
λ x1 −λ λ xn −λ
Función de verosimilitud: L (λ ) = L (X , λ ) = ∏ P(x i , λ ) =
x1 !
e
xn !
e = n e− n λ
i=1
xi !∏
i=1

Función soporte o Log‐verosimilitud:

⎛ n x ⎞
⎜ i∑
n
i
⎟ ∑
λ =1 xi
⎛ n ⎞ n n

lnL (X , λ) = ln n

e −nλ ⎟

= ln(λ i=1
) − ln ⎜
⎜ i=1 ⎟ ∏
xi ! ⎟ + ln(e − n λ ) = ∑ x ln λ
i − ∑ ln(x !)
i − nλ

⎜ i=1 ∏
xi ! ⎟

⎝ ⎠ i=1 i= 1

⎝ ⎠
Para obtener el estimador de máxima verosimilitud EMV(λˆ ) , se deriva la expresión anterior respecto
del parámetro para obtener, sustituyendo λ por λ̂
n
n ∑ xi
ϑlnL (X , λ )
∑x
1 i=1
= 0 = i − n = 0 → λˆ = = x
ϑλ ˆ
λ=λ i=1
λ n
λ = λˆ

El estimador de máxima verosimilitud viene dado por la media muestral EMV(λˆ ) = x

Instrumentos Estadísticos Avanzados 23


Utilizando la muestra aleatoria de ocho intervalos de 10 minutos, se obtiene el estimador máximo
verosímil:
3+ 5+ 8+ 7+ 4+ 5+ 6+ 2
λˆ = = 5
8
En consecuencia, en una muestra aleatoria de ocho intervalos de 10 minutos cada uno, elegidos de
forma independiente, la estimación máxima verosímil corresponde a que la barrera se abre 5 veces.

b) Se analizan si los estimadores son o no insesgados, esto es, si la esperanza del estimador coincide con
el parámetro a estimar.
⎛ n xi ⎞ n

∑ ∑ E(x ) =
1
E(λˆ 1 ) = E ⎜ ⎟ = = λ
⎜ i=1 n ⎟ n
i
n
⎝ ⎠ i=1

⎛ x + 3xn ⎞ 1 λ + 3λ
E(λˆ 2 ) = E ⎜ 1 ⎟ = [E(x1 ) + 3E(x2 )] = = λ
⎝ 4 ⎠ 4 4
Ambos estimadores son insesgados.

Varianza de cada estimador:


⎛ n xi ⎞ n
nλ λ
∑ ∑ V(x ) =
ˆ 1
V(λ 1 ) = V ⎜ ⎟ = 2 =
⎜ i=1 n ⎟ n
i
n2
n
⎝ ⎠ i=1

⎛ x + 3 xn ⎞ 1 λ + 9λ 10 λ 5λ
V(λˆ 2 ) = V ⎜ 1
⎝ 4
⎟ =
⎠ 16
[ V(x1 ) + 9 V(x2 )] =
16
=
16
=
8

La efectividad de los estimadores depende del tamaño de la muestra:


i Si la muestra es igual a 1 (n = 1) → λˆ 2 es el estimador más eficiente
i Si la muestra es mayor que 1 (n > 1) → λˆ 1 es el estimador más eficiente

Instrumentos Estadísticos Avanzados 24


ESTIMADORES PUNTUALES: EFICIENCIA

En una distribución N(μ , σ) se estima la media poblacional μ mediante la media de una


muestra aleatoria simple (x1 ,x2 , ,xn ) por medio de la función muestral:
n

∑ ix
i=1
i

μˆ =
n
Estúdiese la eficiencia del estimador.

Solución:

Un estimador es eficiente cuando V(θˆ ) = CCR

Para hallar la cota de Cramer‐Rao se necesita saber en primer lugar si el estimador es insesgado o no, se
calcula para ello la esperanza matemática:

⎡ n ⎤

⎢ i xi ⎥
⎢ i=1 ⎥ n n

∑ ∑
1 1 1
E(μˆ ) = E ⎢ ⎥ = E(i x i ) = i E(xi ) = [E(x1 ) + 2E(x 2 ) + 3E(x 3 ) + + nE(xn ) ] =
⎣ n ⎦ n i=1 n i=1 n

1 μ μ (n + 1) n (n + 1)
=
n
[μ + 2 μ + 3 μ + + n μ) ] =
n
[1 + 2 + 3 + + n] = x
2
=
2
μ
n

n+1 n−1
E(μˆ ) = μ + b(μˆ ) → sesgo: b(μˆ ) = E(μˆ ) − μ = μ− μ = μ
2 2

Varianza del estimador:

⎡ n ⎤

⎢ i xi ⎥
⎢ i=1 ⎥ n n

∑ ∑i
1 1 1 2
V(μˆ ) = V ⎢ ⎥ = 2 V(i xi ) = 2 2
V(x i ) = ⎡1 V(x1 ) + 22 V(x 2 ) + 32 V(x 3 ) +
2 ⎣
+ n2 V(xn ) ⎤⎦ =
⎣ n ⎦ n i=1
n i=1
n

1 2 2 σ2 2 σ2 n (n + 1) (2n + 1)
= ⎡1 σ + 22 σ2 + 32 σ2 +
2 ⎣
+ n2 σ 2 ⎤⎦ = ⎡1 + 22 + 32 +
2 ⎣
+ n2 ⎤⎦ =
n n n2 6

σ2 (n + 1) (2n + 1)
V(μˆ ) =
6n
2
⎡ ϑ b(μˆ ) ⎤
⎢1 +
⎣ ϑ μ ⎥⎦ ⎡ ϑ b(μˆ ) ⎤
2
⎡ n −1⎤
2
(n + 1)2
Cota de Cramér‐Rao: CCR =
⎡⎛ ϑ ln f(x, μ) ⎞2 ⎤
, ⎢1 + ϑ μ ⎥ = ⎢1 +
⎣ 2 ⎦⎥
=
4
⎣ ⎦
n . E ⎢⎜ ⎟ ⎥
⎢⎣⎝ ϑμ ⎠ ⎥⎦

Instrumentos Estadísticos Avanzados 25


La Información de Fisher In (μ) = n I1 (μ) de la muestra se obtiene a partir de la función de densidad
poblacional:

⎡⎛ ϑ ln L (X , μ) ⎞2 ⎤ ⎛ ϑ2 ln L (x, μ) ⎞
I1 (μ) = E ⎢⎜ ⎟ ⎥ = − E ⎜ ⎟
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎝ ϑμ2 ⎠
( x − μ )2

1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π

⎛ −
(x − μ )2 ⎞
⎜ 1 2 ⎟ 1 (x − μ)2
Tomando logaritmos neperianos: lnf(x, μ) = ln ⎜ e 2σ ⎟ = − ln σ − ln2 π −
⎝ σ 2π ⎠ 2 2 σ2
2
ϑ lnf(x, μ) 1 x−μ ⎛ ϑ lnf(x, μ) ⎞ (x − μ)2
Derivando respecto a μ : = − 2 [ −2(x − μ) ] = → ⎜ ⎟ =
ϑμ 2σ σ2 ⎝ ϑμ ⎠ σ4

⎡⎛ ϑ ln f(x , μ) ⎞2 ⎤ ⎡ (x − μ)2 ⎤ σ2 1
La esperanza matemática: E ⎢⎜ ⎟ ⎥ = E ⎢ ⎥ = = 2
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎣ σ 4
⎦ σ 4
σ

n
Atendiendo a la aditividad de esta medida: I(μ) = n I1 (μ) =
σ2
2
⎡ ϑ b(μˆ ) ⎤
⎢1 +
⎣ ϑ μ ⎥⎦ (n + 1)2 σ2
CCR = =
⎡⎛ ϑ ln f(x, μ) ⎞2 ⎤ 4n
n . E ⎢⎜ ⎟ ⎥
⎢⎣⎝ ϑμ ⎠ ⎥⎦

Cuando n > 1 la varianza del estimador es mayor que la cota de Cramer‐Rao, con lo que el estimador no
es eficiente:
σ2 (n + 1) (2n + 1) (n + 1)2 σ2
V(μ) =
ˆ > = CCR
6n 4n
σ2
Sí n = 1 V(μˆ ) = CCR = el estimador es suficiente.
n

Instrumentos Estadísticos Avanzados 26


De una población que sigue una distribución Poisson de parámetro λ
desconocido, se obtiene una muestra aleatoria simple de tamaño 3, (x1 , x2 , x 3 ) ,
y se construyen los siguientes estimadores de la varianza poblacional:
3
x + x2
∑ (x − x)
1
Vˆ1 = 1 Vˆ2 = x1 + x2 − 2 x 3 Vˆ3 = i
2
2 2 i=1

Se pide:
a) ¿Son insesgados?
b) Calcular el error mínimo cuadrático de V̂2
3

∑x
1
c) ¿Es la media muestral, x = i , un estimador insesgado para la varianza poblacional?.
3 i=1

Compararla con el estimador V̂1 .

d) ¿Alguno de los estimadores propuestos es eficiente?

Solución:

a) X ∼ P(λ ) → E(X i ) = λ , Var(X i ) = λ

⎡ x + x2 ⎤ 1 1
E(Vˆ 1 ) = E ⎢ 1
⎣ 2 ⎦ ⎥ =
2
[ E(x1 ) + E(x2 ) ] = (λ + λ ) = λ
2
Sesgo: b(Vˆ1 ) = E(Vˆ1 ) − λ = λ − λ = 0 es un estimador insesgado o centrado

E(Vˆ 2 ) = E [ x1 + x2 − 2 x 3 ] = E(x1 ) + E(x2 ) − 2E(x 3 ) = λ + λ − 2 λ = 0


Sesgo: b(Vˆ2 ) = E(Vˆ2 ) − λ = 0 − λ = − λ es un estimador sesgado
3

∑ (x − x)
1
V̂3 = i
2
es la cuasivarianza muestral, estimador insesgado de la varianza poblacional, en
2 i=1

consecuencia estimador insesgado de λ


n

3 n ∑ (x − x)
i
2

∑ (x − x) ∑ (x − x)
1 1 n i=1 n
Vˆ3 = i
2
= i
2
= = σˆ 2
2 i=1
n−1 i=1
n−1 n n−1
n−1 2 2
Siendo, E(σ
ˆ 2) = σ → E(σˆ 2 ) = λ
n 3
⎛3 2⎞ 3 3 2
E(Vˆ3 ) = E ⎜ σˆ ⎟ = E( σˆ 2 ) = x λ = λ
⎝2 ⎠ 2 2 3

Por tanto, Vˆ1 y Vˆ3 son estimadores insesgados de la varianza poblacional.

Instrumentos Estadísticos Avanzados 27


b) ECM(Vˆ2 ) = Var (Vˆ2 ) + b2 (Vˆ2 ) siendo b(Vˆ2 ) el sesgo de V̂2
Var (Vˆ 2 ) = Var [ x1 + x2 − 2 x 3 ] = Var (x1 ) + Var (x2 ) + 4 Var (x 3 ) = λ + λ + 4 λ = 6 λ

ECM(Vˆ2 ) = 6 λ + (−λ )2 = 6 λ + λ 2
3

∑x
1
c) La media muestral x = i un estimador insesgado de la media poblacional, también el
3 i=1

estimador V̂1 es un estimador insesgado de la media poblacional.

⎡ x + x2 ⎤ 1 1 λ
Var (Vˆ 1 ) = Var ⎢ 1
⎣ 2 ⎥⎦
=
4
[ Var (x 1 ) + Var (x 2 ) ] =
4
( λ + λ ) =
2
⎡1 3 ⎤ 3
λ
∑ ∑ Var (x ) =
1 1 1
Var (x) = Var ⎢ xi ⎥ = i [ Var (x1 ) + Var (x 2 ) + Var (x 3 )] = (λ + λ + λ ) =
⎢⎣ 3 i=1 ⎥ ⎦
9 i=1
9 9 3

Se elige el estimador media muestral por tener menor varianza.

d) Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima. La varianza mínima
se analiza en virtud de la acotación de Cramer‐Rao:
2
⎡ ϑ b(λˆ ) ⎤
⎢1 + ⎥
⎣ ϑλ ⎦
La cota de Cramér‐Rao para los estimadores sesgados: CCR =
n . I1 (λ )
λx −λ ∂ ln P x
P(X = x) = e → ln P = x ln λ − ln x! − λ → = −1
x! ∂λ λ
⎡ ∂ 2 ln P ⎤
La cantidad de información de Fisher con una muestra: I1 (λ ) = − E ⎢ 2 ⎥
⎣ ∂λ ⎦

∂ 2 ln P x ⎡ x ⎤ 1 λ 1
= − 2 → I1 (λ) = − E ⎢ − 2 ⎥ = 2 E(x) = 2 =
∂λ 2
λ ⎣ λ ⎦ λ λ λ

En el caso de los estimadores Vˆ1 y Vˆ3 que son insesgados y tener una muestra de tamaño 3, la cota de
1 1 λ
Cramer‐Rao se expresa: CCR = = =
3 . I3 (λ ) 3x
1 3
λ
El estimador media muestral es el eficiente al tener menor varianza.

[1 + (−1)] 2
Cota de Cramer‐Rao en el estimador sesgado V̂2 : CCR = = 0
1
3x
λ
No es eficiente, se ha visto que la varianza del estimador V̂2 no es nula.

Instrumentos Estadísticos Avanzados 28


ESTIMADORES PUNTUALES: EFICIENC IA

En una distribución N(μ , σ) se estima la media poblacional μ mediante la media de una


σ2
muestra aleatoria simple (x1 ,x2 , ,xn ) . El estimador es insesgado y su varianza V(x) = .
n
Demostrar que la media muestral es un estimador eficiente.

Solución:

La varianza de un estimador verifica siempre la Cota de Cramer‐Rao: V(θˆ ) ≥ CCR .


Un estimador es eficiente cuando V(θˆ ) = CCR
1 1
Para obtener la cota de Cramer‐Rao se parte CCR = ⎡⎛ ϑlnf(x, μ) ⎞2 ⎤
=
⎡ ϑ2 ln P(x ; λ ) ⎤
de la función de densidad poblacional: n . E ⎢⎜ ⎟ ⎥ −n E ⎢ ⎥
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎣ ϑλ 2 ⎦

(x − μ )2

1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π

Tomando logaritmos neperianos, se tiene:


⎛ −
(x − μ )2 ⎞
⎜ 1 2 ⎟ 1 (x − μ)2
lnf(x, μ) = ln ⎜ e 2σ ⎟ = − ln σ − ln2 π −
⎝ σ 2π ⎠ 2 2 σ2

Derivando respecto a μ :
2
ϑ lnf(x, μ) 1 x−μ ⎛ ϑ lnf(x, μ) ⎞ (x − μ)2
= − 2 [ −2(x − μ)] = → ⎜ ⎟ =
ϑμ 2σ σ2 ⎝ ϑμ ⎠ σ4

⎡⎛ ϑ ln f(x, μ) ⎞2 ⎤ ⎡ (x − μ)2 ⎤ σ2 1

La esperanza matemática: E ⎜ ⎥
⎟ = E⎢ ⎥ = = 2
⎢⎣⎝ ϑμ ⎠ ⎥⎦ ⎣ σ 4
⎦ σ 4
σ

Sustituyendo el valor de la esperanza matemática en la expresión de la cota para estimadores


insesgados:
1 1 σ2
CCR = = =
⎡ ⎛ ϑlnf(x, μ) ⎞2 ⎤ 1
n 2 n

n. E ⎜ ⎟ ⎥ σ
⎢⎣ ⎝ ϑμ ⎠ ⎥⎦

La varianza del estimador coincide con la cota de Cramer‐Rao, V(x) = CCR , concluyendo que la media
muestral es un estimador eficiente de la media poblacional en la distribución norma

Instrumentos Estadísticos Avanzados 29


ESTIMADORES PUNTUALES: EFICIENCIA

A partir de una muestra aleatoria simple X de tamaño n, determinar la matriz de información


de Fisher de una población con distribución N(μ , σ) , respecto a los dos parámetros μ y σ.

Solución:

EFICIENCIA: Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima. La
varianza mínima se analiza en virtud de la acotación de Cramer‐Rao (conocida también como
desigualdad de la información).

En el caso continuo:
1
V( θˆ ) ≥ CCR =
⎡ ⎛ ϑlnf(x, μ) ⎞2 ⎤
n . E ⎢⎜ ⎟ ⎥
⎣⎢ ⎝ ϑμ ⎠ ⎦⎥
La información de Fisher I(θ) es una cota inferior para la varianza de un estimador insesgado del
parámetro.
Un estimador es eficiente cuando V( θˆ ) = CCR = I( θ)−1

Cuando se extiende la condición de regularidad a la segunda derivada en un parámetro bidimensional


θ = (μ , σ) , se puede utilizar una forma alternativa de la información de Fisher para obtener una nueva
desigualdad de Cramer‐Rao:
1 1 1
V( θˆ ) ≥ CCR = = =
n . I1 (θ) ⎡ ϑ ln L (x ; θ) ⎤
2
⎡ ϑ2 ln f (x) ⎤
− n E⎢ ⎥ −n E⎢ ⎥
ϑθ2
⎣ ⎦ ⎣ ϑθ
2

ˆ ) = CCR = I( μ , σ) −1
Un estimador es eficiente cuando V( μˆ , σ
La matriz de información de Fisher I(μ , σ) , matriz de segundas derivadas (Jacobiano), viene dada por la
expresión:
⎡ ϑ2 ϑ2 ⎤
⎢ ln L ( μ , σ) ln L ( μ , σ) ⎥
ϑμ ϑμ ϑμ ϑσ
I(μ , σ) = − E ⎢ ⎥
⎢ ϑ2 ϑ 2 ⎥
⎢ ln L ( μ , σ) ln L ( μ , σ) ⎥
⎢⎣ ϑσ ϑμ ϑσ ϑσ ⎥⎦

(x − μ )2

1 2 σ2
Función de densidad poblacional: f(x, μ) = e
σ 2π

Instrumentos Estadísticos Avanzados 30


Función de verosimilitud:

⎡ (x − μ ) 2 ⎤
− 1
⎡ (x − μ ) 2 ⎤
− 2
⎡ (x − μ ) 2 ⎤
− n
⎢ 1 2 ⎥ ⎢ 1 2 σ2 ⎥ ⎢ 1 2 σ2 ⎥
L (X; μ , σ 2 ) = ⎢ e 2σ ⎥ ⎢ e ⎥ ⎢ e ⎥ =
⎢⎣ 2 π σ ⎢⎣ 2 π σ π σ
2 2 2
⎥⎦ ⎥⎦ ⎢⎣ 2 ⎥⎦
n
∑ (xi − μ) 2
i=1

1 2 σ2
= n n
e
(2 π) 2 (σ 2 ) 2

Función soporte o Log‐verosimilitud:

⎡ n
⎤ n

∑ (x − μ)
(xi − μ ) 2
⎢ i=1 ⎥ i
2

⎢ 1 −
2σ 2 ⎥ n n i=1
ln ⎡⎣L (X; μ , σ 2 ) ⎤⎦ = ln ⎢ e ⎥ = − ln(2 π) − ln(σ ) −
2


n n
⎥ 2 2 2 σ2
⎢ (2 π) (σ )
2 2 2

⎣⎢ ⎦⎥
Para determinar la información de Fisher se deriva respecto de los parámetros μ y σ la expresión:
n

n n
∑ (x − μ)
i=1
i
2

ln ⎡⎣L (X; μ , σ 2 ) ⎤⎦ = − ln(2 π) − ln(σ 2 ) −


2 2 2 σ2
n

ϑln L ( μ , σ) 1 n
ϑln L ( μ , σ) n
∑ (x − μ) i
2

= 2 ∑ (xi − μ)
i=1
= − +
ϑμ σ i=1 ϑσ σ σ3

⎛ n ⎞

1
Se calculan las segundas derivadas ⎜ μ = x , σ
ˆ2 = (xi − x)2 ⎟ para encontrar la matriz de
⎜ n ⎟
⎝ i=1 ⎠
información de Fisher I(μ , σ)

Al ser xi un elemento de una muestra aleatoria simple de una población normal N(μ , σ) , se tiene que
E(xi − μ) = 0 y E(xi − μ)2 = σ 2

ϑ2 ln L (X ; μ , σ) ϑ ⎛ 1 n ⎞ 1 n
ϑμ ϑμ
= ⎜ 2
ϑμ ⎜ σ i = 1

(xi − μ) ⎟

= −
σ2 ˆ2)
= −
σ
ˆ2
ˆ2)
(x , σ ⎝ ⎠ ˆ2)
(x , σ
(x , σ

ϑ ln L (X ; μ , σ)
2
ϑ ln L (X ; μ , σ)
2
ϑ ⎛ 1
n ⎞
2 ∑ (x − μ)
i

ϑμ ϑσ
=
ϑσ ϑμ
= ⎜
ϑσ ⎜ σ 2 ∑ (xi − μ) ⎟
⎟ 2
= −
i=1

σ3 ( x , σˆ 2 )
= 0
( x , σˆ 2 ) ( x , σˆ 2 ) ⎝ i=1 ⎠( x , σˆ )

Instrumentos Estadísticos Avanzados 31


⎛ n ⎞
ϑ2 ln L (X ; μ , σ)

ϑ ⎜ n
∑ (x − μ)i
2

⎟ n
⎛ −3 σ 2 ⎞

i=1 n
= ⎜− + ⎟ = 2 + (xi − μ) 2 ⎜ 6 ⎟ =
ϑσ ϑσ ˆ2
(x , σ )
ϑσ ⎝ σ σ3 ⎠( x , σˆ 2 ) σ i=1 ⎝ σ ⎠
ˆ2)
(x , σ
n

n
3 ∑ (x − μ)
i=1
i
2

n 3n σˆ 2 2n
= − = 2 − = − 2
σ2 σ4 ˆ2)
(x , σ σˆ σ
ˆ 4
σˆ

⎡ ϑ2 ϑ2 ⎤ ⎡ n ⎤ ⎡ n ⎤
ln L ( μ , σ) ln L ( μ , σ) ⎥

ϑμ ϑμ ϑμ ϑσ ⎢− 2 0 ⎥ ⎢ σˆ 2 0 ⎥
I(μ , σ) = − E ⎢ ⎥ = − ⎢ σˆ ⎥ = ⎢ ⎥
⎢ ϑ2 ϑ2 ⎥ ⎢ 0 − 2⎥ ⎢ 0
2n 2n ⎥
⎢ ln L ( μ , σ) ln L ( μ , σ) ⎥ ⎢⎣ ⎥ ⎢⎣
⎢⎣ ϑσ ϑμ ϑσ ϑσ ⎥⎦ σˆ ⎦ ˆ 2 ⎥⎦
σ

Instrumentos Estadísticos Avanzados 32


ESTIMADORES PUNTUALES: EFICIENCIA

En la distribución B(n, p) se considera como estimador del parámetro p el estadístico


x
p̂ = , siendo x la media muestral en muestras aleatorias simples de tamaño n.
n
Hallar la eficiencia del estimador.
Solución

ˆ = E ⎛⎜ ⎞⎟ =
x np
Insesgadez: E(p) = p
⎝n⎠ n
El estimador es insesgado o centrado
ˆ = CCR
Un estimador es eficiente cuando su varianza coincide con la Cota de Cramér‐Rao: V(p)

1 1 ⎡ ϑ2 ln P(x ; p) ⎤
CCR = = I1 (θ) = − E ⎢ ⎥ Información de Fisher
⎡⎛ ϑ ln P(x ; p) ⎞2 ⎤ ⎛ ϑ2 ln P(x ; p) ⎞ ⎣ ϑθ 2


nE ⎜ ⎟ ⎥ −n . E⎜ ⎟
⎢⎣⎝ ϑθ ⎠ ⎥⎦ ⎝ ϑθ2 ⎠
⎛n⎞
Se considera la función de cuantía de la distribución binomial: P(x, p) = ⎜ ⎟ p x (1 − p)n − x
⎝x⎠
Función soporte o Log‐verosimilitud:
⎛n⎞
ln P(x, p) = ln ⎜ ⎟ + x . lnp + (n − x) . ln (1 − p)
⎝x⎠
ϑ lnP(x, p) x (n − x) (1 − p) x − p(n − x) x − np
= − = =
ϑp p 1−p p(1 − p) p(1 − p)

⎡⎛ ϑ lnP(x, p) ⎞2 ⎤ ⎡⎛ x − np ⎞2 ⎤ E(x − np)2 n p (1 − p) n


E ⎢⎜ ⎟ ⎥ = E ⎢ ⎜ ⎟ ⎥ = = 2 =
⎣⎢⎝ ϑp ⎠ ⎦⎥ ⎢⎣⎝ p(1 − p) ⎠ ⎦⎥ p (1 − p)
2 2
p (1 − p) 2 p (1 − p)

En una distribución binomial: E(X) = np , V(X) = E(X − np)2 = np(1 − p)

1 1 p(1 − p)
CCR = = =
⎡ ⎛ ϑ ln P(x ; p) ⎞2⎤
nx
n n2
n E ⎢⎜ ⎟ ⎥ p(1 − p)
⎢⎣ ⎝ ϑθ ⎠ ⎥⎦

De otra parte, la varianza del estimador:

np(1 − p) p(1 − p)
ˆ = V ⎛⎜ ⎞⎟ = 2 V(x) = 2
x 1 1
V(p) x =
⎝n⎠ n n n n2
x
La varianza del estimador coincide con la cota de Cramer‐Rao, con lo que el estadístico p̂ = es
n
eficiente.

Instrumentos Estadísticos Avanzados 33


1−θ θ+λ
Sea una población definida por: P(X = −1) = , P(X = 0) = ,
2 2
1−λ
P(X = 1) = , donde 0 < θ < 1 , 0 < λ < 1 .
2

Estimar los parámetros θ y λ por el método de los momentos, estudiando si son insesgados.

Solución

MÉTODO DE LOS MOMENTOS: Procedimiento consistente en igualar momentos poblacionales respecto


al origen αr a los correspondientes momentos muestrales respecto al origen ar , formando así tantas
ecuaciones como parámetros poblacionales se pretenden estimar:
n

∑x
i=1
i

α1 = E(X) = μ → α
ˆ 1 = a1 = = x
n
n

∑x
i=1
2
i

α2 = E(X 2 ) → α
ˆ 2 = a2 =
n

∑x
i=1
r
i

αr = E(Xr ) → α
ˆ r = ar =
n

Como hay que estimar dos parámetros θ y λ hay que calcular los dos primeros momentos.
momentos poblacionales

⎛1−θ⎞ ⎛ θ+λ ⎞ ⎛1−λ ⎞ θ−λ


α1 = μ = E(X) = ∑ x P(X = x )
i
i i = (−1) ⎜ ⎟ + (0) ⎜
⎝ 2 ⎠ ⎝ 2 ⎠
⎟ + (1) ⎜
⎝ 2 ⎠
⎟ =
2

⎛1−θ⎞ 2 ⎛ θ+λ ⎞ 2 ⎛1−λ ⎞ 2 − θ−λ


α2 = E(X 2 ) = ∑x i
2
i P(X = x i ) = (−1) 2 ⎜ ⎟ + (0) ⎜
⎝ 2 ⎠ ⎝ 2 ⎠
⎟ + (1) ⎜
⎝ 2 ⎠
⎟ =
2

momentos muestrales

∑x i ∑x 2
i
a1 = x = i
a2 = i
n n

⎧ θ−λ
⎪⎪ α1 = a1 → 2
= x → θ − λ = 2x ⎧
⎪ θ − λ = 2x λˆ = 1 − a2 − x
⎨ → ⎨ →
⎪ α = a → 2 − θ − λ = a → − θ − λ = 2a − 2 ⎪⎩ −θ − λ = 2a2 − 2 θˆ = 1 − a2 + x
⎪⎩ 2 2
2
2 2

Instrumentos Estadísticos Avanzados 34


Insesgadez
⎛2 − θ−λ ⎞ ⎛ θ−λ ⎞
E(θˆ ) = E(1 − a2 + x) = 1 − E(a2 ) + E(x) = 1 − α2 + μ = 1 − ⎜ ⎟+ ⎜ ⎟ = θ
⎝ 2 ⎠ ⎝ 2 ⎠
⎛2 − θ−λ ⎞ ⎛ θ−λ ⎞
E(λˆ ) = E(1 − a2 − x) = 1 − E(a2 ) − E(x) = 1 − α2 − μ = 1 − ⎜ ⎟− ⎜ ⎟= λ
⎝ 2 ⎠ ⎝ 2 ⎠

Los estimadores θ̂ y λ̂ son insesgados.

Instrumentos Estadísticos Avanzados 35


Se realiza el experimento de lanzar una moneda tres veces y registrar el número
de caras obtenidas. Al repetir 80 veces el experimento se ha obtenido 7 veces
ninguna cara, 24 veces una cara, 35 veces dos caras y 14 veces tres caras.

Si p es "la probabilidad de obtener una cara al lanzar la moneda", se pide lo siguiente:


a) Obtenga el estimador de p por el método de los momentos.
b) ¿Es insesgado el estimador obtenido en el apartado anterior?
c) Calcule la varianza del estimador obtenido en el apartado (a).
d) Plantee y resuelva el contraste adecuado para estudiar si la moneda está equilibrada.
(Nota: para un valor α = 0,05 , el valor crítico necesario de la distribución del estadístico es 7,81)
Solución:

a) El experimento aleatorio consiste en lanzar una moneda tres veces, siendo X = "Número de caras
obtenidas en los tres lanzamientos", de forma que puede tomar los valores 0, 1, 2 y 3. Repitiendo el
proceso 80 veces, se obtiene:

X = xi 0 1 2 3
ni 7 24 35 14

p = P(obtener cara al lanzar la moneda) .


La variable aleatoria X ∼ B(n = 3 , p) , E(X) = 3p , V(X) = 3pq = 3p(1 − p)
Para obtener el estimador por el método de los momentos se necesita igualar los momentos muestrales
a los momentos poblacionales.
Primer momento poblacional: α1 = E(X) = 3p Primer momento muestral: a1 = x

x 1 ⎡ 0 x 7 + 1 x 24 + 2 x 35 + 3 x 14 ⎤
α1 = a1 → 3p = x → pˆ = = ⎢ ⎥ = 0,566
3 3 ⎣ 7 + 24 + 35 + 14 ⎦

ˆ =p
b) El estimador es insesgado o centrado cuando: E(p)
⎛ 1 n ⎞ n n
ˆ = E ⎛⎜ ⎞⎟ = E ⎜ ∑ ∑ ∑ 3p =
x 1 1 1
E(p) xi ⎟ = E(xi ) = x n x 3p = p
⎝3⎠ ⎜ 3n ⎟ 3n 3n 3n
⎝ i=1 ⎠ i=1 i=1

El estimador es insesgado

⎛x⎞ ⎛ 1 n ⎞ n
p(1 − p)
∑ ∑ Var(x ) =
1 1
c) Var (p) = Var ⎜ ⎟ = Var ⎜
ˆ xi ⎟ = xnx 3p(1 − p) =
⎝3⎠ ⎜ 3n ⎟ 9n2
i
9n2 3n
⎝ i=1 ⎠ i=1

d) Que la moneda esté equilibrada es equivalente a efectuar un contraste de bondad de ajuste,


1 1
estableciendo las hipótesis: H0 : p = , H1 : p ≠
2 2

Instrumentos Estadísticos Avanzados 36


Para un nivel de significación (o riesgo) α , se acepta H0 :
estadístico
observado estadístico
teórico
k
( n i − ei )2 k
( n i − e i )2 k
n2i
χ2( k − 1 ) = ∑
=
i 1
ei
< χ2α , ( k − 1 ) ∑
=
i 1
ei
= ∑
=
i
e 1 i
− n ei = n p i

Lanzamiento de tres monedas: Ω = {(c,c,c) ,(c,c,e) ,(c,e,c) , (e,c,c) ,(c,e,e) ,(e,c,e) ,(e,e,c) ,(e,e,e) }
1 3 3 1
P(X = 0) = P(X = 1) = P(X = 3) = P(X = 3) =
8 8 8 8
Frecuencias esperada: ei = n pi = 80 P(X = xi )

X = xi 0 1 2 3
ni 7 24 35 14
ei = npi 10 30 30 10

Estadístico observado:
4
n2i 4
n2i 72 24 2 352 14 2
χ23 = ∑
=
i
e 1 i
− n = ∑
=
i 1
np i
− n =
10
+
30
+
30
+
10
− 80 = 4,5333

Estadístico teórico: χ 20,05 , 3 = 7,81

El estadístico de contraste (bondad de ajuste) es menor que el estadístico teórico, con un nivel de
significación 0,05 , ( χ23 = 5,4533 < 7,18 = χ20,05 , 3 ) , concluyendo que la moneda está equilibrada.

Instrumentos Estadísticos Avanzados 37


Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
⎧1 − x
⎪ a si x > 0 , a > 0
f (x) = ⎨ a e
⎪0 en el resto

Para una muestra de tamaño n, calcular:
a) Estimador máximo verosímil de a.
b) Estimador de a por el método de los momentos.
c) ¿Son eficientes?
Solución
a) Función de verosimilitud:
n
1
⎛ 1 − x1 ⎞ ⎛ 1 − x2 ⎞ ⎛ 1 − xn ⎞ − ∑ x
ai =1 i
1
L (X , a) = L (x 1 , x 2 , , x n ; a) = ⎜ e a ⎟.⎜ e a ⎟ ⎜ e a ⎟ = e
⎜a ⎟ ⎜a ⎟ ⎜a ⎟ an
⎝ ⎠ ⎝ ⎠ ⎝ ⎠
⎛ 1 n ⎞
⎜ 1
− ∑ x
ai =1 i ⎟
n


1
Función soporte o Log‐verosimilitud: ln L (X , a) = ln ⎜ n e ⎟ = − n lna − xi
⎜ a ⎟ a i=1
⎝ ⎠
Para obtener el estimador de máxima verosimilitud EMV(a) ˆ , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo a por â e igualando a cero:
n
ϑ ln L (X , a)
∑x
n 1 n 1
= − + 2 ∑ xi = 0 → aˆ = i = x
ϑa a = aˆ
a a i=1 a = aˆ
n i =1

b) La expresión de la función de densidad desvela que se trata de una variable aleatoria exponencial, es
⎛ 1⎞ 1 1
decir, X ∼ Exp ⎜ λ = ⎟ siendo , por tanto, E(X) = = a , Var (X) = 2
= a2
⎝ a⎠ 1/a (1 / a)
Para obtener el estimador de "a" por el método de los momentos se necesita igualar los momentos
muestrales a los momentos poblacionales.
Se plantea la ecuación: E(X) = x → a= x
integración por partes

x
∞ ∞ 1 − (x + a)
Se comprueba que: E [ X ] = ∫ 0
x f(x)dx = ∫ 0
x
a
e a dx = − x
= a
e a
0
u=x du = dx
x x x
1 − 1 −a −
dv = e a dx
a
v= ∫ a
e dx = − e a

x x x x x x
1 − − − − − −
∫ ∫
x e a dx = − xe a + e a dx = − xe a − ae a = − (x + a) e a
a

Instrumentos Estadísticos Avanzados 38


c) Se trata de comprobar que la media muestral es un estimador eficiente de "a"
Para que un estimador sea eficiente tiene que ser centrado y de varianza mínima.
La varianza mínima se analiza en virtud de la acotación de Cramer‐Rao (conocida también como
desigualdad de la información).
⎡1 n ⎤ n

∑ ∑
1 1
Insesgadez: E(x) = E ⎢ xi ⎥ = E(xi ) = n E(xi ) = E(x i ) = a
⎢⎣ n i=1 ⎥ ⎦
n i=1 n

La media muestal es un estimador insesgado o centrado de "a"

Un estimador es eficiente cuando su varianza coincide con la Cota de Cramer‐Rao: V(x) = CCR

1 ⎡ ϑ2 ln L (x ; a) ⎤
CCR = I(a) = − E ⎢ ⎥ Información de Fisher
I(a) ⎣ ϑ a2

ϑ ln L (X , a) n 1 n ϑ2 ln L (X , a) n 2 n
= − + 2 ∑ xi → = − ∑ xi
ϑa a a i=1 ϑ a2 a2 a3 i = 1

⎡ ϑ2 ln L (X , a) ⎤ ⎡n 2 n ⎤ n 2 n n 2na n
In (a) = − E ⎢ ⎥ = − E ⎢ 2 − ∑ x i⎥ = − + 3 ∑
E(x i ) = − 2 + 3 = 2
⎣ ϑa 2
⎦ ⎣a
3
a i=1 ⎦ a2
a i=1 a a a

1 1 a2
CCR = = =
I(a) n n
2
a
Por otra parte, la varianza de la media muestral:
⎛1 n ⎞ n
a2
∑ ∑
1 1 1 1
Var (x) = Var ⎜ xi ⎟ = 2 Var (xi ) = n Var (x ) = n =
⎜n ⎟ n n2
i
n2 (1 / a)2 n
⎝ i=1 ⎠ i=1

Se ha probado que la media muestral es un estimador eficiente de "a".

Instrumentos Estadísticos Avanzados 39


Sea X1 , ,Xn una muestra aleatoria simple de la distribución

fθ (x) = θ e − θ x , x > 0

a) Calcular el estimador de máxima verosimilitud para P(X > t)

b) Supongamos que se miden 10 componentes cuya duración sigue la distribución anterior y que si se
suma el tiempo de funcionamiento de todas ellas se contabiliza un total de 1200 horas. A partir de
esta muestra, estimar la probabilidad de que una componente vaya a durar menos de 130 horas.
n−1
c) Probar si el estadístico T (X1 , ,Xn ) = n
es centrado para θ
∑X
i=1
i

n
d) Probar si el estadístico ∑X
i=1
i es estadístico suficiente y completo. ¿Es T (X1 , ,Xn ) estimador

centrado uniformemente de mínima varianza?.

Solución
x x
∫ ∫
x
a) Fθ (x) = fθ (t)dt = θ e − θ t dt = − e − θ t = 1 − e− θ x
0 0 0

P(X > t) = 1 − P(X ≤ t) = 1 − F(t) = 1 − (1 − e − θ t ) = e − θ t

En consecuencia, hay que encontrar el estimador de máxima verosimilitud de g(θ) = e −θ t

Función de verosimilitud:
n
−θ ∑ xi
L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = (θ e −θ x1 ) (θ e −θ x2 ) ... (θ e −θ xn ) = θn e i=1
∀ xi > 0

⎡ n
−θ ∑ xi
⎤ n
⎢ n ⎥
Función soporte o Log‐verosimilitud: ln L(θ) = ln ⎢ θ e i = 1 ⎥ = n ln θ − θ xi ∑
⎢ ⎥ i=1
⎣ ⎦
Para obtener el estimador de máxima verosimilitud EMV(θˆ ) , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo θ a por θ̂ e igualando a cero:

ϑ ln L (X , θ) n n n 1
= − ∑ xi = 0 → θˆ = =
ϑθ θ i=1 n
x
θ = θˆ θ = θˆ
∑x
i =1
i

Con lo que el estimador de máxima verosimilitud de θ es el inverso de la media muestral.


Considerando que el estimador de máxima verosimilitud es invariante ante transformaciones biunívocas
t

y la función e −θ t es decreciente en θ , la estimación máximo verosímil de g(θ) = e −θ t es g(θ) = e x

Instrumentos Estadísticos Avanzados 40


10 t


1 1 −
b) Se tiene: n = 10 , x = xi = 1200 = 120 , P(X > t) = 1 − P(X ≤ t) = e x
10 i=1
10
130 130
− −
P(X < 130) = 1 − P(X ≥ 130) = 1 − P(X > 130) = 1 − e x = 1−e 120 = 0,6615

c) Insesgadez del estadístico T :


⎡ n ⎤ ⎡1 ⎤
n
E(T) = E ⎢(n − 1) /
⎢⎣
∑i=1
X i ⎥ = (n − 1) E ⎢ ⎥
⎥⎦ ⎣Y⎦
Y= ∑X
i=1
i , X i ∼ Exp(θ) ≡ Γ (1 , θ) → Y ∼ Γ (n , θ)

n n ⎡1 ⎤ θ
Momentos de la variable Y ∼ Γ (n , θ) : E(Y) = V(Y) = E⎢ ⎥ =
θ θ2 ⎣Y⎦ n−1
⎡ n ⎤ ⎡n − 1 ⎤ ⎡1 ⎤ θ
E(T) = E ⎢(n − 1) /
⎢⎣
∑ Xi ⎥ = E ⎢
⎥ ⎣ Y ⎥ = (n − 1)

E ⎢ ⎥ = (n − 1)
⎣Y⎦ n−1
= θ
i=1 ⎦
El estadístico T es centrado o insesgado para θ.

d) El teorema de factorización de Fisher‐Neyman identifica estadísticos suficientes. Establece que dada


una muestra aleatoria (x1 , ,xn ) de una población X con función de densidad fθ , un estadístico θ̂ es
suficiente para θ sí y sólo sí:

fθ (x 1 , ,x n ) = g ⎡⎣ θˆ (x 1 , ,xn ) , θ ⎤⎦ . h(x1 , ,xn )

Para encontrar un estadístico suficiente θ̂ hay que factorizar la función de verosimilitud de la forma:
L (θ) = g(θˆ , θ) . h(x 1 , ,x n )
n
− θ ∑ xi
− θ x1 − θ x2 − θ xn i=1
Función verosimilitud: L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = (θ e ) (θ e ) ... (θ e ) = θn e

h(x 1 , ,x n ) = 1
n
La Función verosimilitud L (θ) depende de la muestra sólo a través del estadístico ∑x
i=1
i y que

h(x 1 , ,x n ) no depende del parámetro, quedando demostrada la suficiencia del estadístico.

n ⎡ ⎛ n ⎞⎤ ⎛ n ⎞
El estadístico ∑ xi es completo sí Eθ ⎢ g ⎜
⎢ ⎜ ∑
xi ⎟ ⎥ = 0 ⇒ g ⎜
⎟ ⎥ ⎜
xi ⎟ = 0
⎟ ∑
i=1 ⎣ ⎝ i = 1 ⎠⎦ ⎝ i=1 ⎠
n ⎡ ⎛ n ⎞⎤ ∞ θn
Como ∑ xi ∼ Γ (n , θ) → Eθ ⎢ g ⎜
⎢ ⎜ ∑
xi ⎟ ⎥ =
⎟⎥ ∫ 0
f(y)
(n − 1)!
yn − 1 e − θ y dy = 0 ∀θ > 0
i=1 ⎣ ⎝ i = 1 ⎠⎦

La transformada de Laplace ∫ 0
f(y) yn − 1 e − θ y dy de la función f(y) yn − 1 = 0 y, por el teorema de

Instrumentos Estadísticos Avanzados 41


unicidad de la transformada de Laplace, f(y) yn − 1 = 0 o bien f(y) = 0
n
El estadístico ∑x
i=1
i es suficiente y completo.

Por el teorema de Lehmann ‐ Scheffé, siendo el estadístico T centrado y función del estadístico
n
suficiente y completo ∑x .
i=1
i

T es un estadístico ECUMV (estadístico centrado uniforme de mínima varianza).

Instrumentos Estadísticos Avanzados 42


El tiempo de vida de un tipo de bombillas se sabe que es una variable aleatoria que
1
sigue una distribución exponencial de parámetro con θ > 0
θ

Para estimar el tiempo medio de vida se extrae una muestra aleatoria simple de n bombillas y se
n

∑X
1
consideran dos estimadores. Uno es la media muestral, T1 (X1 , ,Xn ) = i , y el otro se define
n i=1

como T2 (X1 , ,Xn ) = mín (X1 , ,Xn ). Se pide:

a) Calcular la media, el sesgo y la varianza del estimador T1 .


b) Calcular la media, el sesgo y la varianza del estimador T2 .
c) ¿Es T2 insesgado?. Si no lo es, define un estimador insesgado T3 que sea función de él.

Solución:

⎛1⎞
a) xi ∼ Exp ⎜ ⎟ con lo que E(xi ) = θ , Var (xi ) = θ2 , E ⎡⎣ xi2 ⎤⎦ = 2! θ2 = 2 θ2
⎝θ⎠
X ∼ Exp(λ ) : f(x) = λ e − λ x F(x) = 1 − e − λ x x ≥ 0
1 1 n!
E(X) = , Var (X) = 2 , E(Xn ) = n
λ λ λ
⎡1 n ⎤ n

∑ ∑
1 1
E [ T1 ] = E⎢ xi ⎥ = E [ xi ] = n θ = θ
⎢⎣ n i = 1 ⎥⎦ n i=1 n

Es un estimador centrado o insesgado: b [ T1 ] = Sesgo [ T1 ] = 0

⎡1 n ⎤ n
θ2
∑ ∑
1 1
Var [ T1 ] = Var ⎢ xi ⎥ = 2 Var [ xi ] = n θ 2
=
⎢⎣ n i=1 ⎥
n n2 n
⎦ i=1

b) Para el cálculo de la media, sesgo u varianza del estimador T2 (X1 , ,Xn ) = mín (X1 , ,Xn ) lo
primero que hay que obtener es su función de densidad:
x x
⎡1 ⎤ − dF(x) 1 − θ
X ∼ Exp ⎢ ⎥ : F(x) = 1 − e θ → f(x) = = e x>0
⎣θ⎦ dx θ

Sea X • = mín (X1 , ,Xn ) = T2 (X1 , ,Xn )


n
FX• = P(X • ≤ x) = 1 − P(X • ≥ x) = 1 − P(X1 ≥ x , X 2 ≥ x , , Xn ≥ x) = 1 − ∏ P(X ≥ x) =
i=1
i

∏ ⎡⎣1 − P(X < x) ⎤⎦


n
= 1− i = 1 − ⎡⎣ 1 − F(x) ⎤⎦
i=1

Instrumentos Estadísticos Avanzados 43


(n − 1)
1 − ⎡ − ⎞⎤
x ⎛ x x x (n − 1) nx
dF • (n − 1) n −θ − n −
fT2 (x) = X
= n f(x) ⎡⎣ 1 − F(x) ⎤⎦ = n e θ ⎢1 − ⎜ 1 − e θ ⎟ ⎥ = e e θ = e θ
dx θ ⎢⎣ ⎜ ⎟⎥ θ θ
⎝ ⎠⎦
⎧n − nx
⎪ θ x>0 ⎡n ⎤
fT2 (x) = ⎨ θ e T2 (X1 , ,Xn ) ∼ Exp ⎢ ⎥
⎪⎩ 0 en el resto ⎣θ⎦

1 θ θ ⎛1−n⎞
E(T2 ) = = → Sesgo: b(T2 ) = − θ = ⎜ ⎟θ
n n n ⎝ n ⎠
θ
1 θ2
Var (T2 ) = 2
=
⎛n⎞ n2
⎜ ⎟
⎝θ⎠
θ
c) El estimador T2 es sesgado: E(T2 ) =
n
Considerando el estimador T3 = n T2 se obtiene un estimador insesgado:
θ
E(T3 ) = E(nT2 ) = n E(T2 ) = n = θ
n
θ2
Var (T3 ) = Var (nT2 ) = n2 Var (T2 ) = n2 = θ2
n2
El estimador T1 es más eficiente que el estimador T3 por no tener menor varianza cuando n > 1 :
θ2
Var [ T1 ] = < Var ⎡⎣T3 ⎤⎦ = θ2
n
En caso que n = 1 son igual de eficientes.

Instrumentos Estadísticos Avanzados 44


El tiempo de realización en minutos de una determinada tarea dentro de un
proceso industrial es una variable aleatoria con función de densidad
x − x/θ
fθ (x) = e , x > 0 donde θ > 0
θ2
a) Calcular el estimador máximo‐verosímil de θ para una muestra aleatoria simple de tamaño n.
b) Calcular el estimador máximo‐verosímil de E[X] para una muestra aleatoria simple de tamaño n.
c) Mediante un muestreo aleatorio simple se han recogido los siguientes 15 tiempos de realización de
la tarea:
5,56 2,23 0,58 1,37 0,21 1,98 2,44 2,71
10,12 4,69 3,47 1,73 3,51 1,19 0,97
Obtener la estimación máximo‐verosímil del tiempo medio de realización del proceso.
d) Para la muestra del apartado anterior, dar una aproximación de la varianza asintótica del estimador
de máxima verosimilitud de θ .

Solución:

a) Función de verosimilitud:
⎛ x −x /θ⎞ ⎛ x −x /θ⎞ ⎛ x −x /θ⎞
L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = ⎜ 12 e 1 ⎟ ⎜ 22 e 2 ⎟ ... ⎜ n2 e n ⎟ =
⎝θ ⎠ ⎝θ ⎠ ⎝θ ⎠
1 n
n − ∑x
θi=1 i
∏x
1
= i e ∀ xi > 0 θ> 0
θ2 n i=1

Función soporte o Log‐verosimilitud:

⎡ 1 n ⎤
⎢ 1
n − ∑x
θi=1 i ⎥
n n

∏ ∑ ∑x
1
ln L(θ) = ln ⎢ 2 n xi e ⎥ = − 2n ln θ + ln(x i ) − i
⎢ θ i=1 ⎥ i=1
θ i=1
⎣ ⎦
Para obtener el estimador de máxima verosimilitud EMV(θˆ ) , se deriva la expresión anterior respecto del
parámetro para obtener, sustituyendo θ por θ̂ e igualando a cero:
n
ϑ ln L (X , θ)
∑x
2n 1 n 1 x
= − + 2 ∑ xi = 0 → θˆ = i =
ϑθ θ = θˆ
θ θ i=1 θ = θˆ
2n i =1
2

ϑ2 ln L (X , θ)
Se comprueba que es un máximo: < 0
ϑθ2 θ = θˆ

2n 1 n n
ϑ( + 2 ∑ x i) ∑ xi
ϑ ln L (X , θ)
2
θ θ i=1 2n 2 n i=1
= = − − ∑ xi → θˆ = − = −x < 0
ϑθ2 θ = θˆ
ϑθ θ = θˆ
θ2 θ3 i = 1 θ = θˆ
n

Instrumentos Estadísticos Avanzados 45


x
EMV(θ) =
2
∞ ∞

∫ ∫
x − x/θ
b) Siendo X una variable aleatoria continua: E(X) = x f(x) dx = x e dx
0 0 θ2

∞ ∞ ∞
x2 − x / θ
∫ ∫ ∫
1 ⎛ 1 ⎞ − x/θ ∞ ⎛ 1⎞
E(X) = e dx = − x2 ⎜− ⎟ e dx = x2 e − x / θ − 2 x ⎜ − ⎟ e − x / θ dx =
0 θ2
θ 0 ⎝ θ⎠ 0 0 ⎝ θ⎠
u u
dv dv

⎛ ∞ ⎞

∞ ∞
= x2 e − x / θ − ⎜2x e − x/θ − 2e − x / θ dx ⎟ =
0
⎝ 0 0 ⎠
⎛ ∞
⎛ 1 ⎞ − x/θ ⎞

x/θ ∞ ∞
= x e
2 −
− ⎜2x e − x/θ + 2θ ⎜− ⎟ e dx ⎟ =
0
⎝ 0 0 ⎝ θ⎠ ⎠
∞ ⎛ ∞ ∞ ⎞ ∞
= x2 e − x / θ − ⎜2x e − x/θ + 2θ e − x/θ ⎟ = (x − 2 x − 2 θ) e
2 − x/θ
= 2θ
0 ⎝ 0 0 ⎠ 0

x
EMV [E(X) ] = 2 θ = 2 = x
2
15


1 42,76
c) x = xi = = 2,8507 minutos
15 15
i=1

EMV ⎡E(X) ⎤ = x = 2,8507 minutos


⎣ ⎦

d) Un estimador de máxima versoimilitud (EMV) es asintóticamente normal y su varianza asintótica


verifica la cota de Cramér‐Rao:
n
⎡ ϑ2 ln P(x ; p) ⎤

1 1
CCR = θˆ = xi I1 (θ) = − E ⎢ ⎥ Información de Fisher
⎛ ϑ2 ln P(x ; p) ⎞ 2n i =1 ⎣ ϑθ2 ⎦
−n . E⎜ ⎟
⎝ ϑθ2 ⎠
⎛ ⎞
ϑ ln L (X , θ)
2
2n 2 2 ⎛ n 1 ⎞ 2 ⎜ n 2n n ⎟ 2n
= − − ∑ x i = − ⎜ n − ∑ x i⎟ = − ⎜n − ∑ x i ⎟ = − 2
ϑθ2 θ2 θ3 i = 1 θ2 ⎝ θ i=1 ⎠ θ2 ⎜ n
θ
⎜ ∑ x i i = 1 ⎟⎟
⎝ i=1 ⎠
1 1 θ2 (x / 2)2
CCR = = = =
⎛ ϑ2 ln P(x ; p) ⎞ ⎛ −2n ⎞ 2n2 2n2
−n . E⎜ ⎟ −n . E⎜ 2 ⎟
⎝ ϑθ2 ⎠ ⎝ θ ⎠

(2,8507 / 2)2
CCR = = 0,0677
2 x 15

Instrumentos Estadísticos Avanzados 46


ESTIMADORES PUNTUALES: SUFICIENCIA. VEROSIMILITUD. MÉTODO DE LOS MOMENTOS

Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
⎧⎪ θ x θ − 1 si x∈ (0,1)
fθ (x) = ⎨ θ>0
⎪⎩ 0 en el resto
a) Hallar un estadístico suficiente
b) Estimador de máxima verosimilitud de θ
c) Estimador de θ por el método de los momentos

Solución

a) Un estimador θ̂ es suficiente cuando no da lugar a una pérdida de información. Es decir, cuando la


información basada en θ̂ es tan buena como la que hiciera uso de toda la muestra.
El Teorema de Factorización de Fisher‐Neyman identifica estadísticos suficientes establece que dada una
muestra aleatoria (x1 , ,xn ) de una población X con función de densidad fθ (caso continuo), un
estadístico θ̂ es suficiente para θ sí y sólo sí:

fθ (x 1 , ,x n ) = g ⎡⎣ θˆ (x 1 , ,xn ) , θ ⎤⎦ . h(x1 , ,xn )

Para encontrar un estadístico suficiente θ̂ hay que factorizar la función de verosimilitud de la forma:
L (θ) = g(θˆ , θ) . h(x 1 , ,x n )

Función de verosimilitud:

L (θ) = fθ (x1 ) . fθ (x2 ) ... fθ (xn ) = (θ x1θ − 1 ) (θ x2θ − 1 ) ... (θ xnθ − 1 ) = θn (x1 xn )θ− 1

La función de verosimilitud se ha factorizado, θˆ = ( x1 , ,xn ) es un estadístico suficiente.

b) Función de verosimilitud: L(θ) = θn (x1 , ... ,xn )θ− 1

Función soporte o Log‐verosimilitud:


n n
ln L(θ) = ln ⎡ θn (x1 , ... ,xn )θ− 1 ⎤ = ln θn + ln
⎣⎢ ⎦⎥ ∏
i =1
xiθ − 1 n
= ln θ + ∑ ln( x
i =1
θ −1
i )

n n
ϑlnL (θ)
∑ ∑ ln(x ) = 0
n n
lnL (θ) = n ln θ + (θ − 1) ln(x i ) → = + i → θˆ = −
ϑθ θ n
i =1 i =1
∑ ln(x )
i=1
i

c) Se plantea la ecuación E(X) = x


1
1 1 1 ⎡ xθ + 1 ⎤ θ x
∫ ∫ ∫
θ−1 θ
x = E(X) = x fθ (x)dx = xθx dx = θ x dx = θ ⎢ ⎥ = → θˆ =
0 0 0
⎣ θ+1 ⎦0 θ+1 1− x

Instrumentos Estadísticos Avanzados 47


Los taxis en servicio de una ciudad están numerados del 1 al N y se desea conocer
cuántos taxis hay.
Para ello se observa una muestra de n taxis y se apuntan sus números. Se pide:

a) Obtener un estimador por el método de los momentos. ¿Es insesgado?


b) Obtener un estimador por el método de máxima verosimilitud.
Solución:

a) En la variable aleatoria X = "Número de taxis", todos los taxis tienen igual probabilidad.
1
Función de densidad: f(k) = P(X = k) = k = 1, 2 , ... , N
N
N N
1 (1 + N) N 1+N
∑ x P(X = x ) = ∑ i x N
1 1
Esperanza: E(X) = i i = (1 + 2 + ... + N) = =
i=1 i=1
N N 2 2

1+N
Aplicando el méodo de los momentos: E(X) = = x → N
ˆ = 2x − 1
2
N N
2 1+N
ˆ = E( 2 x − 1) = 2
∑ ∑ E(x ) − 1 =
2
Insesgadez: E(N) E(xi ) − 1 = i N −1=N
N i=1
N i=1
N 2

Luego es un estimador insesgado.

b) No se puede aplicar el método de máxima verosimilitud de forma habitual al no verificarse las


condiciones regulares, dado que el soporte de la función depende del parámetro.
n
⎡1 ⎤ ⎡1 ⎤ ⎡1⎤ ⎛1⎞
f(x1 , x2 , , xn ) = ⎢ ⎥ ⎢ ⎥ ... ⎢ ⎥ = ⎜ ⎟ x IX
(n) < N
⎣N⎦ ⎣N⎦ ⎣N⎦ ⎝ N⎠
⎧⎪ 1 X (n) < N
siendo: X (n) = máx X i , IX(n) < N = ⎨
1 ≤ i≤ n ⎪⎩ 0 resto

La función se hace máxima cuando N es lo menor posible,


pero N siempre es mayor que X(n) .
Por tanto, EMV(N)ˆ = X
(n)

Instrumentos Estadísticos Avanzados 48


ESTIMADORES PUNTUALES: MÉTODO DE LOS MOMENTOS. INSESGADEZ

Una muestra aleatoria (x1 , ,xn ) de la población tiene como función de densidad
⎧⎪ − x + θ si x > 0
fθ (x) = ⎨e
⎪⎩ 0 en el resto
a) Hallar un estimador por el método de los momentos de θ
b) Estudiar si el estimador encontrado en el apartado anterior es insesgado para estimar θ

Solución

a) Se plantea la ecuación: E(X) = x

integración por partes


∞ ∞
x = E[ X ] = ∫ θ
x fθ (x)dx = ∫ θ
x e − x + θ dx = 1 + θ → θˆ = x − 1

⎛1+x⎞
∫u x e − x + θ dx = x (− e − x + θ ) −
dv u
∫ − e − x + θ dx = − x e − x + θ − e − x + θ = − (1 + x) e − x + θ = − e − θ ⎜ x ⎟
du ⎝ e ⎠
v v


∞ ⎛1+x⎞

−x+ θ −θ
xe dx = − e ⎜ x ⎟ = 1+θ
θ ⎝ e ⎠θ

b) Un estimador es insesgado o centrado cuando su valor probable coincide con el valor del parámetro
a estimar. Es decir, E(θˆ ) = θ

E(θˆ ) = E( x − 1) = E( x ) − 1 = ( θ + 1) − 1 = θ

Instrumentos Estadísticos Avanzados 49


ESTIMADORES PUNTUALES: MÉTODO DE LOS MOMENTOS. CONSISTENCIA

El coseno X del ángulo con el que se emiten los electrones en un proceso radioactivo es una
variable aleatoria con función de densidad:
⎧(1 + θ x) 2 −1 ≤ x ≤ 1 , − 1 ≤ θ≤ 1
fθ (x) = ⎨
⎩ 0 en el resto
Se considera una muestra aleatoria (x1 , ,xn ) de la variable aleatoria
a) Obtener el estimador θ por el método de los momentos
b) Calcular la varianza de este estimador y demostrar que es consistente

Solución

a) Se plantea la ecuación: E(X) = x


1
1 ⎛ 1+ θx ⎞ ⎡x 2 θx 3 ⎤ θ
x = E(X) = ∫ −1
x⎜
⎝ 2 ⎠
⎟ dx = ⎢ +
⎣2
⎥ =
6 ⎦ −1 3
→ θˆ = 3 x

V(X) 9
b) V(θˆ ) = V(3 x) = 9 V(x) = 9 = V(X)
n n
1
1
2 ⎛ 1+θx ⎞ ⎡θ⎤
2
⎡x 3 θx 4 ⎤ ⎡θ⎤
2
3 − θ2

2
V(X) = E(X ) − ⎣⎡E(X) ⎦⎤ =
2
x ⎜ ⎟ dx − ⎢ ⎥ = ⎢ + ⎥ − ⎢⎣ 3 ⎥⎦ =
−1 ⎝ 2 ⎠ ⎣3⎦ ⎣6 8 ⎦ −1 9

ˆ 9 9 ⎡3 − θ2 ⎤ 3 − θ2
de donde, V(θ) = V(X) = ⎢ ⎥ =
n n ⎣ 9 ⎦ n

Consistencia o robustez del estimador θ̂ :


θ
lim E(θˆ ) = lim E(3 x) = lim 3E(x) = 3E(X) = 3 = θ
n→ ∞ n→ ∞ n→ ∞ 3

ˆ 3 − θ2
lim V(θ) = lim V(3 x) = lim = 0
n→ ∞ n→ ∞ n→ ∞ n
Queda probado que el estimador θ̂ es consistente

Instrumentos Estadísticos Avanzados 50


Instrumentos Estadísticos Avanzados 51
Instrumentos Estadísticos Avanzados
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández

Instrumentos Estadísticos Avanzados 52

También podría gustarte