Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estim Adores
Estim Adores
Aeronáutica: Estadística Teórica
Facultad Ciencias Económicas y Empresariales
Departamento de Economía Aplicada
Profesor: Santiago de la Fuente Fernández
ESTIMADORES
Un estimador es un estadístico (una función de la muestra) utilizado para
estimar un parámetro desconocido de la población.
Por ejemplo, si se desea conocer el precio medio poblacional de un
artículo (parámetro desconocido) se recogen observaciones del precio de
dicho artículo en diversos establecimientos (muestra) pudiendo utilizarse
la media aritmética de las observaciones para estimar el precio medio
poblacional.
Para cada parámetro pueden existir varios estimadores diferentes. En
general, se elige el estimador que posea mejores propiedades que los
restantes, como insesgadez, eficiencia, convergencia y robustez
(consistencia).
El valor de un estimador proporciona una estimación puntual del valor del
parámetro en estudio. En general, se realiza la estimación mediante un
intervalo, es decir, se obtiene un intervalo
estadístico muestral error estimación dentro del cual se espera se
encuentre el valor poblacional dentro de un cierto nivel de confianza. El
nivel de confianza es la probabilidad de que a priori el valor poblacional
se encuentre contenido en el intervalo.
PROPIEDADES DE LA ESPERANZA Y VARIANZA
Por ejemplo, si se desea estimar la media de una población, la media
aritmética de la muestra es un estimador insesgado de la misma, ya que
la esperanza (valor esperado) es igual a la media poblacional.
Si una muestra X (x 1 , x 2 , , x n ) procede de una población de media :
E x i para i (1, 2, , n)
La media aritmética muestral es un estimador insesgado de la media
poblacional:
1 n 1 n 1 n
E x 1 E x 2 E x n
1
E x E xi E xi E x i
n i 1 n i 1 n i1
n
1
n
n
La varianza de una muestra aleatoria simple es un estimador sesgado
de la varianza poblacional, siendo su esperanza:
n
i1
(x i x)2
La varianza muestral 2
x . Para calcular su esperanza
n
matemática se realizan previamente algunos cálculos sumando y restando
la esperanza de la variable aleatoria poblacional.
n n
(x x) (x x )
i
2
i
2
n
(xi ) (x )
i1 i1 1 2
2x
n n n i1
Desarrollando el cuadrado:
1
2
x
(x i )2 (x )2 2(x i )(x )
n i1
1
n n
n
i1
(x i )2 n(x )2 2(x ) i1
(x i )
1
n
n
i 1
(x i ) n(x ) 2 (x ) (n x n )
2 2
1
n
n
i1
(x i ) n x n 2n x 2n x 2n x 2n x 2n
2 2 2
2 2
1
n
n
i1
(x i ) n(x )
2
2
Calculando la esperanza matemática de la varianza muestral 2x :
1 1 n
n
E E
2
x
n
i1
(x i ) n(x )
2
n i1
2
E (x i )2 E (x )2
varianza media
varianza poblacional muestral
n n
La cuasivarianza de una muestra aleatoria simple es un estimador
n
(x x)
i1
i
2
insesgado de la varianza poblacional: s2x
n1
n n n n1 2
E s2x E 2x . E 2x . . 2
n 1 n 1 n1 n
Un estimador ̂ es asintóticamente insesgado si su posible sesgo
tiende a cero al aumentar el tamaño muestral que se calcula: lim b(ˆ ) 0
n
n
x
1
Sea el estimador ˆ
n1
i
i1
1 n n n
n
1 1 1
ˆ
E() E xi E xi E(x i ) (n )
n 1 i1 n 1 i 1 n 1 i1
n1 n1
n n n n
b(ˆ ) E(ˆ ) 0
n1 n1 n1
insesgado
asintóticamente
Un error cuadrático medio pequeño indicará que en media el estimador ̂
no se encuentra lejos del parámetro .
CONSISTENCIA
Si no es posible emplear estimadores de mínima varianza, el requisito
mínimo deseable para un estimador es que a medida que el tamaño de la
muestra crece, el valor del estimador tienda a ser el valor del parámetro
poblacional, propiedad que se denomina consistencia.
Un estimador ̂ consistente es un estimador asintóticamente insesgado
cuya varianza tiende a cero al aumentar el tamaño muestral.
EFICIENCIA
Un estimador es más eficiente o más preciso que otro estimador, si la
varianza del primero es menor que la del segundo.
Var(ˆ 1 )
La eficiencia relativa se mide por la ratio:
Var(ˆ ) 2
1
Si el estimador es insesgado b(ˆ ) 0 : V(ˆ ) CCR 2
ln L(x, )
nE
2
1 b(ˆ )
ˆ
En muestras aleatorias simples: V() CCR 2
ln L(x, )
nE
Es preciso destacar que la Cota de Cramér‐Rao (CCR) no tiene por qué
tomar siempre un valor muy pequeño (cercano a cero).
El denominador de la Cota de Cramér‐Rao es la cantidad de información
de Fisher en una muestra:
2 2
ln L(X , ) ln L(x , )
I() E o bien i() E donde I() n.i()
Discreto : E n.E
2 2
Continuo : E ln f(x 1 , x 2 , , x n ; ) n.E ln f(x ; )
MÉTODO DE MÁXIMA VEROSIMILITUD (EMV)
La estimación por máxima verosimilitud es un método de optimización
que supone que la distribución de probabilidad de las observaciones es
conocida.
Sea (x 1 , ,x n ) una muestra aleatoria (no necesariamente simple) de
una población X con función de masa P (o función de densidad f )
donde ( 1 , , n ).
El estimador de máxima verosimilitud (probabilidad conjunta) de es el
formado por los valores (ˆ 1 , , ˆ n ) que maximizan la función de
verosimilitud de la muestra (x 1 , ,x n ) obtenida:
En muchas ocasiones, es más práctico encontrar el estimador de máxima
verosimilitud es considerar la función soporte o Log‐verosimilitud
ln L(X , ) , en lugar de la función de verosimilitud L() , ya que es más fácil
de manejar y presenta los mismos máximos y mínimos.
obtiene el estimador de máxima verosimilitud E.M.V(ˆ )
SUFICIENCIA
Un estimador ̂ es suficiente cuando no da lugar a una pérdida de
información. Es decir, cuando la información basada en ̂ es tan buena
como la que hiciera uso de toda la muestra.
Para identificar estadísticos suficientes se utiliza el criterio de
factorización de Fisher‐Neyman, que dice que dada una muestra aleatoria
(x 1 , ,x n ) de una población X con función de masa P (o función de
densidad f ) un estadístico ̂ es suficiente para si y sólo sí:
Pθ (x 1 , ,x n ) g θ(x ˆ
1 , ,x n ), θ . h(x 1 , ,x n ) caso discreto
fθ (x 1 , ,x n ) g θ(x 1 , ,x n ), θ . h(x 1 , ,x n ) caso continuo
ˆ
Para encontrar un estadístico suficiente ̂ hay que factorizar la función de
ˆ θ) . h(x , ,x )
verosimilitud de la forma: L() g (θ, 1 n
E(X)
x i
ˆ 1 a1 i 1
x
1 n
n
2 E(X 2 )
x 2
i
ˆ 2 a2 i 1
n
n
r E(X r )
x r
i
ˆ r ar i 1
n
La variable aleatoria poblacional "renta de las familias" del municipio
de Madrid se distribuye siguiendo un modelo N( , ) . Se extraen
muestras aleatorias simples de tamaño 4. Como estimadores del
parámetro , se proponen los siguientes:
x 1 2x 2 3x 3 x3 4 x2
ˆ 1 ˆ 2 ˆ 3 x
6 3
Se pide:
a) Comprobar si los estimadores son insesgados
b) ¿Cuál es el más eficiente?
c) Si tuviera que escoger entre ellos, ¿cuál escogería?. Razone su
respuesta a partir del Error Cuadrático Medio.
Solución:
x 2x 2 3x 3 1
E(ˆ 1 ) E 1 E x 1 2x 2 3x 3
6 6
1 1
E(x 1 ) 2E(x 2 ) 3E(x 3 ) 6
6 6
x 4 x2 1 1
E(ˆ 2 ) E 1 E x 1 4 x 2 E(x 1 ) 4E(x 2 )
3 3 3
1
3
3
x x2 x3 x 4 1
E(ˆ 3 ) E 1 E x 1 x 2 x 3 x 4
4 4
1 1
E(x 1 ) E(x 2 ) E(x 3 ) E(x 4 ) 4
4 4
b) El estimador más eficiente es el que tenga menor varianza.
x 2x 2 3x 3 1
V ˆ 1 V 1 36 V x 1 2x 2 3x 3
6
1 1 14
V(x1 ) 4 V(x 2 ) 9V(x 3 ) 14 2 2 0,39 2
36 36 36
x 4 x2 1 1
V ˆ 2 V 1 V x 1 4 x 2 V(x 1 ) 16 V(x 2 )
3 9 9
1 17
17 2 2 1,89 2
9 9
x x2 x3 x 4 1
V ˆ 3 V 1 16 V x 1 x 2 x 3 x 4
4
1 1 4
V(x 1 ) V(x 2 ) V(x 3 ) V(x 4 ) 4 2 2 0,25 2
16 16 16
El estimador ̂ 3 es el más eficiente.
2
c) ECM(ˆ ) E(ˆ ) 2 V(ˆ ) b(ˆ ) sesgo b(ˆ ) E(ˆ )
1 1 1
1
x f(x, ) dx x f(x, ) dx x x dx x dx
0 0 0
1
x 1
10 1
2
Sesgo: E(ˆ 1 ) b(ˆ 1 ) E(ˆ 1 )
1 1 1
x 12 2x 22 3x 23 1
E(ˆ 2 ) E E(x
2
) 2E(x 2
) 3E(x 2
) 1 (6 )
6 6
1 2 3 2 2
6
2
2
2
1 1
2 E(x ) 2
x f(x, ) dx
2
x f(x, ) dx
2
x 2 x 1 dx
0 0
1
x 2
1
1
x dx
0 2 0 2
6 6 2
2
2
2
2
Sesgo: b(ˆ 2 ) E ˆ 2
2
2
x 2x 1 4 x 2 1 1 1
E(ˆ 3 ) E 3 E
6 3 x 2x 1 4 x
2 (3 )
6 6 2
1 1 1
1
x f(x, ) dx x f(x, ) dx x x dx x dx
0 0 0
1
x 1
10 1
ˆ ˆ 1 2 2
Sesgo: b(3 ) E(3 )
2 1 2( 1)
b) Las estimaciones puntuales de la muestra (0,7 ; 0,1 ; 0,3):
0,7 0,1 0,3
ˆ 1 0,367
3
0,7 2
2.0,1 2
3.0,3 2
ˆ 2 0,13
6
0,3 2.0,7 4.0,1
ˆ 3 ˆ 0
0,117 no puede ser, puesto que
6
c) Las funciones estimadas para las estimaciones de la muestra:
x
1
ˆ 1 x ˆ 2
n1
i
i1
a) Estudiar la insesgadez, la eficiencia relativa y la consistencia de ambos
estimadores
b) Elegir uno de los dos en término del error cuadrático medio
Solución:
a) Insesgadez:
1 n
1 1 n
1 n
1
E(1 ) E(x) E
ˆ xi E xi E(x i ) (n )
n n n n n
i1 i1 i1
1 n 1
n
n
E(x )
1
E(ˆ 2 ) E xi E xi
n 1 i1 n 1 n1 i
i1 i1
1 n
(n )
n1 n1
0 cuando n
n n n
b(ˆ 2 ) E(ˆ 2 )
n1 n1
n
1
sesgado
asintoticamente
Eficiencia:
ˆ ˆ Var (ˆ 1 )
Var(1 ) Var(2 ) . La eficiencia relativa se mide por la ratio
Var (ˆ 2 )
n n
2
1 1 1
V(ˆ 1 ) V(x) V( x i) 2 V(x i ) 2 (n )
2
n i1
n i1
n n
1 1 n
V(ˆ 2 ) V xi V(x i ) (n 2
) 2
n1 (n 1) 2 (n 1) 2 (n 1) 2
i1 i1
Eficiencia relativa:
Var(ˆ 1 ) 2 n (n 1) 2
1 Var(ˆ 1 ) Var(ˆ 2 )
Var( 2 )
ˆ n (n 1)
2 2
n 2
Consistencia:
1
lim
n 2E(ˆ ) lim
n
n1
ˆ 2 es consistente
lim V(ˆ ) lim n 2 0
n (n 1) 2
n
2
2
b) ECM(ˆ ) E(ˆ ) 2 V(ˆ ) b(ˆ ) sesgo b(ˆ ) E(ˆ )
2 2 2
ECM(ˆ 1 ) V(ˆ 1 ) b(ˆ 1 ) 0
n n
2
2 n 1 n 2 2
ECM(ˆ 2 ) V(ˆ 2 ) b(ˆ 2 )
2
(n 1) 2 n1 (n 1) 2
2 n 2 2
El estimador ̂1 será elegido sí ECM(ˆ 1 ) ECM(ˆ 2 )
n (n 1) 2
n 2 2 n 2 2 2 n 2 2
(n 1) 2 (n 1) 2 (n 1) 2 n (n 1) 2 (n 1) 2
(2n 1) 2 2 (2n 1) 2
2
n(n 1) 2 (n 1) 2 n
2n 1 2
Si 2 ˆ 1 se elige antes que ˆ 2
n
2n 1
Si 2
2 ˆ 2 se elige antes que ˆ 1
n
Sea (x 1 ,x 2 , ,x n ) una muestra aleatoria simple de una variable
aleatoria X con E(X) y Var(X) 2
Calcular el error cuadrático medio para los siguientes estimadores de :
3x 1 2x 2 x 3
ˆ 1 x 1 ˆ 2
6
Solución:
Insesgadez
E(ˆ 1 ) E(x 1 ) b(ˆ 1 ) 0
3x 1 2x 2 x 3 1
E( ˆ 2 ) E 6 6 3E(x 1 ) 2E(x 2 ) E(x 3 )
1 2 1
3 2
6 6 3
1 2
b(ˆ 2 ) E(ˆ 2 ) sesgo
3 3
Respecto al sesgo es mejor el primer estimador ̂1 que es insesgado o
centrado.
Varianza
Var( 1 ) 2
El mejor estimador será el que presente menor Error Cuadrático Medio
2
ECM(ˆ 1 ) V(ˆ 1 ) b(ˆ 1 ) 2 0 2
2
2 7 2 2 7 2 4 2
ECM(ˆ 2 ) V(ˆ 2 ) b(ˆ 2 )
18 3 18 9
x
i1
i
5
1
5
5
1 1
E(ˆ 1 ) E x i / 5 E xi E x i (5 )
i 1 5 i 1 5 i 1
5
b) Para analizar la eficiencia de los estimadores se obtienen las varianzas:
5 1
5 5
1 1 49
V(ˆ 1 ) V xi / 5 V xi V xi (5. 49)
i 1 25 i 1
25 i1
25 5
V(ˆ 2 ) V(x 1 2x 2 3x 3 4 x 4 x 5 )
V(x 1 ) 4 V( x 2 ) 9V( x 3 ) 16 V( x 4 ) V( x 5 )
(49) 4 (49) 9 (49) 16 (49) (49) 31 (49) 1519
ˆ 1 x
i1
i ˆ 2 8x 2 3x 5
Determinar cuál es el mejor estimador para . Justificar la respuesta.
Solución:
Insesgadez
5
E(ˆ 1 ) E
i1
x i E x 1 x 2 x 3 x 4 x 5 5( 5)
Ambos estimadores son sesgados, con idéntico sesgo:
b(ˆ 1 ) b(ˆ 2 ) 5( 5) 4 25
Varianza
5
Var(1 ) Var
x i 5Var(x) 5 2
i1
Dado que los dos estimadores tienen el mismo sesgo y el primer
estimador 1 tiene menor varianza, será el estimador óptimo.
Puede observarse que presenta el menor Error Cuadrático Medio:
x x2 x3 1 3
E(ˆ 1 ) E 1
4
E(x 1 ) E(x 2 ) E(x 3 )
4 4
3 1
El sesgo del estimador ̂1 será: b(ˆ 1 ) E(ˆ 1 )
4 4
x x2 1 2
E(ˆ 2 ) E 1
2 1E(x ) E(x )
2
2 2
Atendiendo al sesgo se elige ̂2
Para analizar la eficiencia relativa de los dos estimadores se calculan las
respectivas varianzas
x x2 x3 1
V(ˆ 1 ) V 1 16
V(x 1 x 2 x 3 )
4
Observaciones
independientes
1 1 12 3
V(x 1 ) V(x 2 ) V(X 3 ) 12
16 V(x ) 4 16 16 4
i
x x2 1 1 1
V(ˆ 2 ) V 1
4 V(x 1 x 2 )
V(x 1 ) V(x )
2 8 2
2 4 4
Se analiza cuando es mayor el ECM el primer estimador ̂1 :
2 12
ECM(ˆ 1 ) ECM(ˆ 2 ) 2 2 20 20 4,47
16
Si es en valor absoluto mayor que 4,47, el error cuadrático medio de ̂1
es mayor, con lo que se elige el estimador ̂2 .
Se conoce que el peso medio de los jamones es superior a 5 kg, no queda
duda que el estimador a elegir (con menor error cuadrático medio) es ̂2
Supongamos que la distribución de ingresos de una cierta población es
una variable aleatoria con media desconocida y varianza 2 también
desconocida. Si queremos estimar el ingreso medio de la población
mediante una m.a.s. de tamaño n, respecto de la insesgadez y de la
eficiencia. ¿Cuál de los dos estimadores elegiríamos?. ¿Son consistentes?
n n
x
i1
i x
i1
i
ˆ 1 ˆ 2
n1 n
Solución:
La v.a x i 'ingresos de cierta población' sigue una distribución normal
N( , )
Para analizar el sesgo de los estimadores, se calcula la esperanza:
E(x )
1 1
E(ˆ 1 ) E E xi
i 1 (n 1) n 1 i 1 n 1
i
i1
1 n
(n )
n1 n1
n 1
El sesgo del estimador ̂1 será: b(ˆ 1 ) E(ˆ 1 )
n1 n1
n x 1 n 1 n
1
E(ˆ 2 ) E i
E xi E(x i ) (n )
i 1 n
n i 1 n i1
n
El estimador ̂ 2 , que es la media muestral, es insesgado (centrado) y el
estimador que se elige.
La eficiencia de los estimadores se analiza a través de su varianza:
n x n n
V(x )
1 1
V(1 ) V
ˆ i
V x
i 1 n 1 (n 1) i 1 (n 1)
2 i 2 i
i1
1 n 2
(n )
2
(n 1) 2 (n 1) 2
n x 1 n 1 n
2
1
V(ˆ 2 ) V i
2 V xi V(x i ) 2 (n )
2
i 1 n n i 1 n i1
n n
El estimador más eficiente será el de menor varianza. Comparando las
varianzas de los estimadores:
2 n 2
V(ˆ 2 ) V(ˆ 1 ) puesto que (n 1)2 n2
n (n 1) 2
El estimador ̂ 2 , que es la media muestral, es el mejor tanto al sesgo
como a la eficiencia.
Los dos estimadores son consistentes:
n 2
n
2
n n
Nota: El estimador de máxima verosimilitud (probabilidad conjunta) de
es el formado por los valores (ˆ 1 , , ˆ n ) que maximizan la función de
verosimilitud de la muestra (x 1 , ,x n ) obtenida:
L() L(X; ) L(x 1 , ,x n ; ) P(x 1 , ) P(x n , ) caso discreto
En muchas ocasiones, es más práctico encontrar el estimador de máxima
verosimilitud al considerar la función Soporte o Log‐verosimilitud
ln L(X , ) , en lugar de la función de verosimilitud L() , ya que es más fácil
de manejar y presenta los mismos máximos y mínimos.
ln L()
Se despeja ˆ (ˆ 1 , , ˆ n ) de la ecuación: 0 y se obtiene
ˆ
el estimador de máxima verosimilitud E.M.V(ˆ )
Un atleta olímpico de salto de altura se enfrenta a un listón de 2,3
metros. Su entrenador desea estudiar el comportamiento del saltador.
Sabe que el número de saltos fallidos por hora es una variable aleatoria
distribuida como una Poisson de parámetro .
a) Calcular el estimador máximo verosímil del parámetro .
b) Analizar sus propiedades.
Solución:
a) Sea la v.a. X = 'número de saltos fallidos por hora'
x E(x)
En la distribución de Poisson: P(X x) e
x! V(x)
La función de verosimilitud L(X, ) en una muestra aleatoria simple de
tamaño n:
n
xi
x1 xn i1
L( ) L(X , ) P(x i , ) e e n e n
x!
i1
x1 ! xn !
i
i1
n n
xi xi
i1
i1
L(X , ) n e n ln L(X , ) ln n e n
i1
xi !
i 1
x i!
n
xi n n n
ln ( i1
) ln ( x !) ln(e
i1
i
n
) x ln ln(x !) n
i1
i
i1
i
n n
El estimador de máxima verosimilitud (estimador que ofrece mayor
credibilidad) viene dado por la media muestral EMV(ˆ ) x
b) Propiedades de Insesgadez, Consistencia y Eficiencia
Insesgadez
n
xi
i1
n
1 n 1 1
E(ˆ ) E E( x i ) E(x i ) (n )
n n i 1 n i1
n
lim E(ˆ ) lim y lim V(ˆ ) lim 0
n n n n n
El estimador ̂ es consistente
Para que un estimador sea eficiente tiene que ser centrado y de varianza
mínima. La varianza mínima se analiza en virtud de la acotación de
Cramer‐Rao:
2
1 b(ˆ )
V(ˆ ) CCR 2
ln P(x 1 , x 2 , , x n ; )
E
La cantidad de información de Fisher I( ) puede simplificarse en una
muestra aleatoria simple (m.a.s.), obteniendo la expresión:
2
ln P(x 1 , x 2 , , x n ; ) ln P(x ; )
I( ) E n.E
2
1 b(ˆ ) b(ˆ ) 0 1
V(ˆ ) CCR 2
V( ˆ ) CCR
2
ln P(x ; ) ln P(x ; )
n.E n.E
El estimador es eficiente cuando V(ˆ ) CCR
Eficiencia
x
Siendo, P(X x) e
x!
1
2
1
En consecuencia, V(ˆ )
1 n
n
El menor valor de la varianza del estimador será
n
Se sabe que V(ˆ ) V(x) , lo que muestra V(ˆ ) CCR , el estimador
n
empleado es eficiente.
Solución:
Función de verosimilitud:
L(X; , 2 )
1 (x ) 1 (x ) 1 (x )
2 2 2
1 2 2 2 n 2
e 2 e 2 e 2
2 2 2 2 2 2
n
(xi ) 2
i1
1 2 2
n n
e
(2 ) ( )
2 2 2
Función soporte o Log‐verosimilitud:
1
i 1
ln L(X; , ) ln
2
2 2
e
n n
(2 ) ( )
2 2 2
n
n n i1
(x ) i
2
n n i1
(x ) i
2
ln L(X; , 2 )
(x ˆ )
i1
i x
i1
i
0 ˆ x
ˆ 2 n
n n
ln L(X; , )
2
n
(x )
i1
i
2
(x )
i1
i
2
0 ˆ 2
2 2 ˆ 2 ˆ ˆ 3 n
n
(x i x)
2
i1
En conclusión, ˆ x y ˆ 2 2x
n
2 ln L(X; ) n
La condición de máximo se verifica, pues: 0
2
ˆ 2
Tomando logaritmos neperianos, se tiene:
1 (x )
2
1 (x )2
lnf(x, ) ln e 2 ln ln2
2
2 2
2 2
Derivando respecto a :
2
lnf(x, ) 1 x lnf(x, ) (x )
2
2 2(x ) 2 4
2
La esperanza matemática:
(x )2 2
2
lnf(x, ) 1
E E 4 4 2
Sustituyendo el valor de la esperanza matemática en la expresión de la
cota para estimadores insesgados:
Calcular el estimador máximo verosímil del parámetro 'a' de las
funciones:
a) f(x ,a) a2 e ax siendo x 0 en muestras aleatorias simples
de tamaño n
b) f(x,a) ae ax para x 0 , a 0 en muestras aleatorias simples
de tamaño 2
Solución:
ax1 ax 2 axn
a xi
L(X , a) L(x 1 , x 2 , , x n ; a) (a e 2
).(a e 2
) (a e
2
) a e
2n i1
Función soporte o Log‐verosimilitud:
n
a xi n
ln L(X , a) ln (a e
2n i1
) 2n lna a x
i1
i
ln L(X , a) 2n n 2n 2 2
xi 0 aˆ n aˆ
a a i 1 a aˆ x x
a aˆ xi
i 1
Función soporte o Log‐verosimilitud:
Derivando respecto de a, igualando a cero y sustituyendo a por â :
ln L(X , a) 2 2 1
(x 1 x 2 ) 0 aˆ
a a aˆ
a a aˆ x1 x 2 x
ix
i1
i
ˆ
n
Estúdiese la eficiencia del estimador.
Solución:
E(ˆ ) E
i1 1
n n E(ix )
i1
i
1 1
n
i E(x i )
n
E(x1 ) 2E(x 2 ) 3E(x3 ) nE(xn )
i1
1
n
2 3 n ) 1 2 3 n
n
V(ˆ ) V 1
i V(x )
1
V(ix i ) 2
i 1 2
n n2 n
i
i1 i1
1 2
1 V(x 1 ) 22 V(x 2 ) 32 V(x 3 ) n2 V(x n )
2
n
1 2 2 2 2
2 1 2 3 n 2 1 22 32 n2
2 2 2 2 2 2
n n
2 n (n 1)(2n 1) 2 (n 1)(2n 1)
2 V(ˆ )
n 6 6n
1 b(ˆ )
2
Cota de Cramer‐Rao CCR 2
lnL(x, )
nE
2
n1 (n 1)
1 b(ˆ ) 1 2 4
2
2
Tomando logaritmos neperianos, se tiene:
2 2 2 2
Derivando respecto a :
2
lnf(x, ) 1 x lnf(x, ) (x )
2
2(x ) 2 4
2 2
(x )2 2 1
2
lnf(x, )
La esperanza matemática: E E 4 2
4
n
Atendiendo a la aditividad de esta medida: I() n I0 ()
2
(n 1)2
1 b(ˆ )
2
4 (n 1)2 2 2 (n 1)(2n 1)
CCR 2
V(ˆ )
lnL(x, ) n 4n 6n
n E 2
Al ser la varianza del estimador mayor que la cota de Cramer‐Rao:
2 (n 1)(2n 1) (n 1)2 2
V(ˆ ) CCR
6n 4n
El estimador no es eficiente, siempre que n 1
2
Para n 1 : V(ˆ ) CCR el estimador es eficiente.
n
E n E
La información de Fisher I() es una cota inferior para la varianza de un
estimador insesgado del parámetro.
Un estimador es eficiente cuando V( ˆ ) CCR I( )1
Cuando se extiende la condición de regularidad a la segunda derivada en
un parámetro bidimensional ( , ) , se puede utilizar una forma
alternativa de la información de Fisher para obtener una nueva
desigualdad de Cramer‐Rao:
1 1 1
V( ˆ ) CCR
I() 2 ln L(x ; )
2
2 ln f(x)
2
E n E
2
2
Un estimador es eficiente cuando V( ˆ , ˆ ) CCR I( , )1
La matriz de información de Fisher I( , ) , matriz de segundas derivadas
(Jacobiano), viene dada por la expresión:
2 2
ln L( , ) ln L( , )
I( , ) E
2 2
ln L( , ) ln L( , )
Solución:
(x )2
1 2 2
Función de densidad poblacional: f(x) e
2 2
Función de verosimilitud:
L( , ) L(X; , )
(x ) (x ) (x )
2 2 2
1 1 1
e 2 e 2 e 2
2 2 2
2 2 2 2 2 2
n
(xi ) 2
i1
1 2 2
n n
e
(2 )
2 2
Función soporte o Log‐verosimilitud:
(xi ) 2
n
1
i1 n n 1 n
ln L( , ) ln ln2 ln 2 (x i ) 2
2
2 2
e
n n
2 2 2 i 1
(2 ) 2
2
Para determinar la información de Fisher se deriva la expresión anterior
respecto de los parámetros y :
n n 1 n
ln L( , ) ln2 ln 2 (x i ) 2
2
2 2 2 i 1
ln L( , ) 1 n
2 (x i )
i1
n
ln L( , ) n
(x )
i1
i
2
3
2 ln L(X; , ) 1 n 1 n
2 (x i ) 2
(x , ˆ 2 )
i 1 (x , ˆ 2 ) (x , ˆ 2 ) ˆ 2
2 ln L(X; , ) 2 ln L(X; , ) 1 n
2 (x i )
(x , ˆ 2 )
(x , ˆ 2 )
i 1 (x , ˆ 2 )
n
2 (x i )
i1
0
3 (x , ˆ 2 )
n
2 ln L(X; , )
n
(x )i
2
i1
3
(x , ˆ 2 ) (x , ˆ 2 )
n
3 (x i ) 2
2 3
n 2
n n
2 (x i ) 6
i1
2
i1 (x , ˆ 2 ) 4 (x , ˆ )2
n 3n ˆ 2 2n
2 4 2
ˆ ˆ ˆ
Matriz de Información de Fisher I( , ) :
2 2
ln L( , ) ln L( , )
I( , ) E
2
2
ln L( , ) ln L( , )
n n
ˆ 2 0 2
ˆ
0
0 2n 2n
2 0
ˆ ˆ 2
Se puede obtener la distribución de (ˆ , ˆ )
(x )2
1 2 2
f(x) e
2 2
Función soporte:
(x )2
(x 2 )
2
ln
1 1 e 2
ln f(x) ln e 2 2
ln
2 2 2 2
(x )2 1 (x )2
ln 2
2
2 2 ln 2
2 2
1 (x )2
ln 2 ln
2 2
Para determinar la información de Fisher se deriva la expresión anterior
respecto de los parámetros y :
1 (x )2
ln f(x) ln 2 ln
2 2
(x )
ln f(x)
2
1 (x )2 2 1 (x )2
ln f(x) 4
2 3
Cálculo de las segundas derivadas:
2 1
f(x) 2
2 2 2 2(x )
f(x) f(x) (x ) 4
3
Matriz de Información de Fisher I( , ) :
2 2
f(x) f(x)
I0 ( , ) E
2
2
f(x) f(x)
1 2(x ) 1 2(x )
2
2 3 3
E E
2(x ) 1 3(x ) 2 2(x ) 1 3(x ) 2
3 2
4 3
2
4
1 1
2 0 2 0
0 1 3 2 2
2 4 0
2
Como x un elemento de una muestra aleatoria simple de una población
normal N( , ) , se tiene que E(x ) 0 y E(x )2 2
1
2 0
La matriz de información de Fisher: I0 ( , )
0 2
2
Atendiendo a la aditividad de esta medida:
1 n
2 0 2 0
I( , ) n I0 ( , ) n
0 2 2n
0
2 2
2 1
4 I0 ( , ) 2
2 2 1 0
0
0
2
2
2
Una aplicación directa se encuentra en el Valor en Riesgo o Value at Risk
(VaR), medida ampliamente utilizada en una cartera de inversiones de
activos financieros.
En una cartera de inversiones, asumiendo mercados normales y que no
se produce negociación en la cartera, el VaR se define como un valor
límite tal que la probabilidad de que una pérdida a precios de mercados
en la cartera sobre un horizonte temporal dado exceda ese valor
sea el nivel de probabilidad dado.
Parámetros comunes para el VaR son probabilidades de 1% y 5% y
horizontes temporales de un día y de dos semanas, aunque también se
utilizan otras combinaciones.
PRÁCTICA: Una empresa que cotiza en Bolsa considera como pérdidas
todos los rendimientos inferiores a 3 euros por acción, es decir, los
beneficios siguen una distribución N 3 , .
Las pérdidas máximas esperadas para un nivel de significación son
VaR 3 z .
ˆ 3 z ˆ
La distribución del estimador VaR
ˆ 3 z ˆ 1 z ˆ 3
VaR
ˆ
x
i1
i
1 E(X)
ˆ 1 a1 x
n
n
x 2i
E(X 2 )
ˆ 2 a2 i1
2
n
n
x
i1
r
i
r E(X r )
ˆ r ar
n
1
Sea una población definida por: P(X 1) , P(X 0) ,
2 2
1
P(X 1) , donde 0 1 , 0 1 . Estimar los parámetros y
2
por el método de los momentos, estudiando si son insesgados.
Solución:
Puesto que hay que estimar dos parámetros y hay que calcular los
dos primeros momentos.
momentos poblacionales
1 E(X)
x i P(X x i )
i
2 E(X 2 )
i
x 2i P(X x i )
n n
1 1 a x 2 x
2
a 2
a2 2a2 2
2 2
2
2x ˆ 1 a2 x
2a2 2 ˆ 1 a2 x
Insesgadez
E(ˆ ) E(1 a2 x)
2
1 E(a2 ) E(x) 1 2 1
2 2
E(ˆ ) E(1 a2 x) 1 E(a2 ) E(x)
2
1 2 1
2 2
Los estimadores y son insesgados.
f (x 1 , ,x n ) g ˆ (x 1 , ,x n ), . h(x 1 , ,x n )
Para encontrar un estadístico suficiente ̂ hay que factorizar la función de
verosimilitud de la forma: L() g(ˆ , ) . h(x 1 , ,x n )
Una muestra aleatoria (x 1 , ,x n ) de la población tiene como función
x 1 si x (0,1)
de densidad f (x) > 0
0 en el resto
a) Hallar un estadístico suficiente
b) Estimador de máxima verosimilitud de
c) Estimador de por el método de los momentos
Solución:
a) Para encontrar un estadístico suficiente ̂ hay que factorizar la función
de verosimilitud de la forma: L() g(ˆ , ) . h(x 1 , ,x n )
Función de verosimilitud:
L() f (x 1 ) f (x 2 ) f (x n ) ( x 1 1 ) ( x 2 1 ) ( x n 1 ) n (x 1 x n ) 1
Por tanto, ˆ x 1 , ,x n es un estadístico suficiente.
ln L() ln n (x 1 , ,x n ) 1 ln n ln x i 1 ln n
ln(x i 1 )
i1 i 1
lnL() n
n n
lnL() n ln 1 ln(x i )
i1
ln(x ) 0
i1
i
n
ˆ n
ln(x i )
i1
c) Se plantea la ecuación E X x
1
x 1
1 1 1
x E(X) x f (x)dx x x 1 dx
x dx
0 0 0 1 0 1
x
x ( 1) ˆ
1 x
Una muestra aleatoria (x 1 , ,x n ) de la población tiene como función
de densidad
e x si x 0
f (x)
0 en el resto
a) Hallar un estimador por el método de los momentos de
b) Estudiar si el estimador encontrado en el apartado anterior es
insesgado para estimar el parámetro
Solución:
a) Se plantea la ecuación: E X x
integración por partes
x E X
x f (x)dx
x e x dx 1 ˆ x 1
x
x e
dx x(
e x ) e x dx
xe x e x
u u
du
dv v v
b) Un estimador es insesgado o centrado cuando su valor probable
coincide con el valor del parámetro a estimar. Es decir, E ˆ
E ˆ E(x 1) E(x ) 1 ( 1) 1
Una muestra aleatoria (x 1 , ,x n ) de la población tiene como función
θ2 x e θ x si x 0
de densidad fθ (x)
0 en el resto
Hallar el estimador de máxima verosimilitud de
Solución:
La función de verosimilitud L()
( x1 x 2 xn )
xi
(x 1 x n ) e
2n
(x 1 x n ) e
2n i1
n
xi n
xi
L() 2n (x1 xn ) e i1
ln L() ln 2n (x1 xn ) e i 1
n n
ln L() (2n) ln ln x
i1
i x
i1
i
n n
lnL() (2n) ln lnx
i1
i x i1
i
lnL()
n
2n 2n
x i 0 ˆ
n
i1
x
i1
i
a) Se plantea la ecuación E X x
1
1 x x 2 x 3
1
x E X x dx ˆ 3 x
1 2 2 6 1 3
V(X) 9
b) V(ˆ ) V(3 x) 9V(x) 9 V(X)
n n
2
1 x
1
2
V(X) E(X ) E(X)
2
x 2
dx
1 2 3
1
x 3 x 4
2
3 2
6 8 1 3 9
ˆ 9 9 3 2 3 2
de donde, V() V(X)
n n 9 n
Consistencia o robustez del estimador ˆ
lim E(ˆ ) lim E(3 x) lim 3E(x) 3E(X) 3
n n n 3
ˆ 3 2
lim V() lim V(3 x) lim 0
n n n n
Queda probado que el estimador ̂ es consistente
xi ˆ
distribución de Poisson. Si ˆ 1 , 2 1 son estimadores.
i1
n 4
Determinar el mejor estimador del parámetro
Solución:
a) X = "número de veces que se abre la barrera en un intervalo de 10
minutos", X P( )
x
e x 0, 1, 2, ...
P(X, ) x!
0 otro caso
Función de verosimilitud:
n
n
xi
i1
x1 xn
L( ) L(X , ) P(x i , )
e
e n e n
x!
i1
x1 ! xn !
i
i1
xi
n
n
xi n
i 1
n
lnL(X , ) ln n e ln( ) ln
i1
x i ! ln(e n )
i1
xi !
i1
n n
El estimador de máxima verosimilitud viene dado por la media muestral
EMV(ˆ ) x
Utilizando la muestra aleatoria de ocho intervalos de 10 minutos, se
obtiene el estimador máximo verosímil:
3587 4562
ˆ 5
8
En consecuencia, en una muestra aleatoria de ocho intervalos de 10
minutos cada uno, elegidos de forma independiente, la estimación
máxima verosímil corresponde a que la barrera se abre 5 veces.
b) Se analizan si los estimadores son o no insesgados, esto es, si la
esperanza del estimador coincide con el parámetro a estimar.
n
xi 1
n
n
E(ˆ 1 ) E
n n E(x i )
n
i1 i1
x 3x n 1 3
E(ˆ 2 ) E 1 E(x 1 ) 3E(x 2 )
4 4 4
Ambos estimadores son insesgados.
Varianza de cada estimador:
n
xi 1
n
n
V(ˆ 1 ) V
n n2 V(x i )
n2 n
i1 i1
Si la muestra es mayor que 1 (n 1) el estimador más eficiente es ̂ 1
Sea (x 1 , ,x n ) una muestra aleatoria de tamaño n, distribuida según
f(x, ) con desconocido, donde X representa el tiempo máximo
necesario para determinar un proceso en segundos:
( 1)x 0 x 1 ; 1
f(X, )
0 otro caso
a) Determinar el estimador máximo verosímil de
b) Determinar la estimación máximo verosímil de en una muestra
aleatoria simple constituida por los datos:
0,7 0,9 0,6 0,8 0,9 0,7 0,9 0,8
Estimar la probabilidad del tiempo máximo necesario para terminar un
proceso, que no exceda de 0,25 segundos ni supere los 0,75 segundos.
2 1
c) Determinar el estimador máximo verosímil de: (a) 1 (b)
1
Solución:
n
Función soporte o Log‐verosimilitud:
n
n
ln L(x 1 , x 2 , , x n ; ) ln ( 1)n
x ln( 1)n ln
i
x i
i0 i0
n
n n
lnx i 0 lnx i
ˆ
ˆ
1 i0
ˆ
1 i0
n
ˆ EMV() n
1
lnx
i0
i
b) El estimador máximo verosímil de con los datos de la muestra:
8
ˆ 1
ln0,7 ln0,9 ln0,6 ln0,8 ln0,9 ln0,7 ln0,9 ln0,8
4,027 1 3,027
2 1 2 EMV 1 2 ˆ 1 2 x 3,027 1
EMV 2,493
1 EMV 1 ˆ 1 3,027 1
ˆ E
x mp
Insesgadez: E(p) p
m m
El estimador es insesgado o centrado
Para determinar la CCR se considera la función de cuantía de la
m
distribución binomial: P(x, p) p x (1 p)m x
x
Función soporte o Log‐verosimilitud:
m
lnP(x, p) ln x lnp (m x) ln(1 p)
x
lnP(x, p) x (m x) (1 p)x p(m x) x mp
p p 1p p(1 p) p(1 p)
2 2
lnP(x, p) x mp E(x mp)
2
E
p E p(1 p) p2 (1 p)2
En una distribución binomial: E(X) mp , V(X) E(X mp)2 mp(1 p)
con lo que,
Como la varianza del estimador coincide con la cota de Cramer‐Rao el
x
estadístico p̂ es eficiente.
m
Una urna contiene bolas blancas y negras. Sea p la probabilidad de
extraer una bola blanca cuando se realiza una extracción al azar. Asociado
a este experimento aleatorio se encuentra la variable aleatoria X que
puede tomar los valores:
X = 1 si la bola extraída es blanca
X = 0 si la bola extraída es negra
Se selecciona una muestra aleatoria con reemplazamiento de tamaño 3
(x 1 , x 2 ,x 3 ) , siendo x i la variable aleatoria a la extracción i‐ésima, y se
supone que ha resultado la siguiente relación (B, N, B). Como el
parámetro p es desconocido se pretende saber, entre los valores, p 0,65
y p 0,73 qué valor hace más probable la aparición de dicha extracción.
Solución:
La distribución de probabilidad será una B(1; p): P(X x) p x (1 p) 1 x
Si la muestra (B, N, B) es independiente, siendo P(B) p P(N) 1 p
Función de verosimilitud
3
L(p) i1
P(x i , p) p x1 (1 p) 1 x1 . p x2 (1 p) 1 x2 . p x3 (1 p) 1 x3
x1x2x3 3 (x 1 x 2 x 3 )
p (1 p)
En la muestra (B, N, B) el valor que toma la función de verosimilitud será:
L(p) p 1 0 1 (1 p) 3 (1 0 1) p 2 . (1 p)