Está en la página 1de 12

Capítulo II

Teoría de la Estimación
Introducción
ˆ  f ( X 1 , X 2 ,..., X n )
MAS : X 1 , X 2 ,..., X n (variable )

POBLACIÓN MUESTRA
X x1 , x2 ,..., xn
f ( X , )
ˆ0  f ( x1 , x2 ,..., xn )
 : Parámetro
(conocido)
(desconocido y constante)

_Estimación
 x; Me( x); Mo( x)

P (ó p) p
2

2
s
¿Cuál es el mejor estimador?

1. ¿Cuáles son los criterios para juzgar si un estimador es bueno o es


malo?

2. ¿Cómo se selecciona un buen estimador?

3. ¿Qué es un buen estimador?


Estimación
Pablo Adriana Juan Martín

Los tiros en Tiros en Los tiros pegan Lejos del blanco


general dan en el promedio en lejos del blanco y con mucha
blanco y bastante torno del blanco pero con poca dispersión
cerca (poca pero mucha dispersión
dispersión) dispersión

Si los participantes realizan


muchos lanzamientos (n grande)
y ellos tienen el mismo P
comportamiento, es posible J
armar una distribución para
cada tirador, de manera tal que: M
A

0
1. Algunas propiedades deseables de los buenos estimadores

Sea  un estimador de 

● Insesgabilidad
Estimador insesgado Estimador sesgado

 

E ( )    E ( )

Sesgo  E ( )  
Propiedades deseables de los buenos estimadores

● Consistencia
 
lim P      e   1
n 
 
● Eficiencia
   
V ( 1 )  V ( 2 )   1 es más eficiente que  2

V ( 1 )

1 (eficiencia relativa)

V ( 2 )
Propiedades deseables de los buenos estimadores

- Acotación de Rao-Cramer
 1
V ( ) 
  ln f ( X ,  2 
n.E   
    

• Suficiencia
Actividad 3 (guía)
● Una muestra de los diámetros (en cm) de 5 pelotas de tenis, anotados por
un vendedor fueron:
6,33 6,37 6,36 6,32 6,37

Suponga que los diámetros se distribuyen en forma normal:


a) Determinar un estimador insesgado y eficiente de:
1. la media poblacional

2. La varianza poblacional

b) Determinar un estimador insesgado pero ineficiente del diámetro


promedio poblacional
c) Determinar un estimador insuficiente de la media poblacional
Actividad adicional
● Dados dos estimadores
_ _ _ _
 xx  x1 n1  x2 n2
1  1 2 2 
2 n1  n2

¿Cuál de ellos es más eficiente?


2. Métodos para obtener buenos estimadores

● Método de máxima verosimilitud

● Método de momentos

● Método de Mínimos cuadrados


Método de máxima verosimilitud
● Partimos de

○ Función de probabilidad
f (Xi /  )
n

○ Función de probabilidad conjunta  f (X


i 1
i /)

En un problema de estimación, se conoce un valor particular de X (la muestra) pero el parámetro es


desconocido. Sin embargo, si tomamos una muestra particular Xo.

f (X0 / ) Proporciona para cada valor de ϴ, la probabilidad de


obtener el valor muestral Xo para ese ϴ

Cuando variamos ϴ manteniendo Xo fijo, obtenemos una


función que llamamos
FUNCIÓN DE VEROSIMILITUD:
l ( / X )  l ( )  f ( X o /  )
● Función de verosimiltud

l ( / X )  l ( )  f ( X o /  )
● Función soporte

L( )  ln l ( ) (logaritmo de la función de


verosimilitud)

● Derivar la función soporte

● Reemplazamos a la expresión del parámetro por el estimador

También podría gustarte