Está en la página 1de 6

Breve apunte sobre estimación puntual

Estadística para Administradores-Girimonte

Estimación Puntual

Introducción

1-Independencia de variables aleatorias

Definición: X1 , X 2 , X n son variables aleatorias independientes si y sólo si:


pX1Xn (x1 , x n )  pX1 (x1 ).pX2 (x2 )pXn (x n ) (x1 , x n ) en el caso discreto
fX1Xn (x1 , x n )  f X1 (x1 ). f X2 (x2 ) f Xn (x n ) (x1 , x n ) salvo, eventualmente, en un
conjunto de probabilidad cero en el caso continuo.

2-Sumas y promedios de variables aleatorias


Sean X1 , X 2 , X n variables aleatorias independientes con E(X i )   i Var( X i )   i2 , entonces

n n n n n n
E ( X i )   E ( X i )    i Var ( X i )   Var ( X i )    i2
i 1 i 1 i 1 i 1 i 1 i 1

Propiedad: Sean X 1 , X 2 ,  X n . variables aleatorias independientes e idénticamente distribuidas


(i.i.d.) E( X i )   Var ( X i )   2  i  1,n

n n
1. E ( X i )  n 2. Var ( X i )  n 2
i 1 i 1

 n   n 
  Xi    Xi 

2
3. E ( X )  E  i 1  4. Var ( X )  Var  i 1
 n   n  n
   
   

Vamos a demostrar 3. Y 4.

1
Breve apunte sobre estimación puntual
Estadística para Administradores-Girimonte

Demostración de 3.
1 n 1 n 1 n 1 n 1
E(X )  E(  i (1)
X )  E ( i (2)  i
X )  E ( X )     n  
n i 1 n i 1 n i 1 n i 1 n

(1) a, b  R E(aX  b)  aE (X )  b
n n
(2) E ( X i )   E ( X i )
i 1 i 1

Demostración de 4.
n n n n
2
    2 
1 1 1 1 1
Var( X )  Var( Xi )  2
Var ( Xi )  2 Var( X i )  n 2

n i 1
(1) n i 1
(2) n
i 1 n2 i 1 n2 n

(1) a, b  R Var(aX  b)  a 2Var( X )


n n
(2) X 1 , X 2 ,..., X n son variables aleatorias independientes Var ( X i )   Var ( X i )
i 1 i 1

Propiedad: Sean X 1 , X 2 , X n variables aleatorias independientes con distribución normal


n n n
X i ~ N( i , i2 )  i  1,n , entonces  X i ~ N(  i ,  i2 )
i 1 i 1 i 1

Propiedad: Sean X 1 , X 2 , X n variables aleatorias independientes e idénticamente distribuidas con


distribución normal, X i ~ N( , 2 )  i  1,n , entonces :
n
1-  X i ~ N(n , n 2 )
i 1

2
2- X ~ N( , )
n

2
Breve apunte sobre estimación puntual
Estadística para Administradores-Girimonte

3-Inferencia estadística - Estimación puntual

La estadística provee diversas técnicas que permiten obtener conclusiones generales a partir de un
conjunto limitado de datos.

Cuando realizamos una inferencia a partir de estas técnicas no tenemos “certeza” de que la conclusión
que obtenemos sea correcta, pero la estadística nos va a permitir también cuantificar el error asociado
a la estimación.

La mayoría de las distribuciones de probabilidad dependen de cierto número de parámetros, por


ejemplo hemos visto las distribuciones Bi(n, p) , P( ), N( , 2 ) .

A menos que estos parámetros se conozcan debemos estimarlos a partir de un conjunto de datos.
El objetivo de la estimación puntual es usar una muestra (muestra representativa de la población de
interés) para obtener “valores numéricos ” que, en algún sentido, sean los que mejor representan a los
verdaderos valores de los parámetros de interés.

Si se selecciona una muestra de tamaño n de una población, antes de obtener la muestra no sabemos
cuál será el valor de cada observación. Entonces cada una de las observaciones puede ser considerada
una variable aleatoria.

Entonces antes de obtener la muestra llamaremos X1 , X 2 , X n a las “posibles” observaciones que


obtendremos y, una vez obtenida la muestra, llamaremos x1 , x2 , x n a los valores observados.

Antes de obtener una muestra, cualquier función de ella será también una muestra aleatoria, por
ejemplo máx( X1 , X 2 , X n ), Mín( X1 , X 2 , X n ), med( X1 , X 2 , X n ),el promedio muestral X , la

varianza muestral S 2 , etc.

Definición: X 1 , X 2 , X n es una muestra aleatoria si X1 , X 2 , X n son variables aleatorias


independientes e idénticamente distribuidas .

Definición: Un estimador puntual ˆ de un parámetro poblacional  es un valor que se obtiene a partir


de la muestra y se considera representativo de  .

3
Breve apunte sobre estimación puntual
Estadística para Administradores-Girimonte

¿Cómo se obtienen estos estimadores puntuales a partir de una muestra dada?

Dos métodos son:


 Método de los momentos: consiste en igualar ciertas características muestrales (momentos
muestrales o funciones de ellos) con las correspondientes características poblacionales
(momentos poblacionales o funciones de ellos)

 Método de máxima verosimilitud: Se basa en la idea de hallar los valores de los parámetros que
hacen que la probabilidad de obtener una muestra dada sea máxima.

Propiedades de los estimadores

Definición: Un estimador puntual ˆ de  basado en la muestra X1 , X 2 , X n es insesgado si


E (ˆ)  

Nota: un estimador es insesgado si su distribución tiene como valor esperado al parámetro a estimar.

Definición: Un estimador puntual ˆ de  basado en la muestra X1 , X 2 , X n es asintóticamente


insesgado si E(ˆ) n
 .


Definición: Si ˆ es un estimador puntual de  se define el sesgo  ( )  E(ˆ)   .

Definición: Sean X1 , X 2 , X n variables aleatorias independientes e idénticamente distribuidas de


una distribución que depende de un parámetro  , y sea ˆ un estimador puntual de  basado en esa
muestra. Diremos que ˆ es un estimador consistente de  si:

ˆ 

p
 ( ˆ converge en probabilidad a  )

Es decir   0 P( ˆ    0) n
 0


4
Breve apunte sobre estimación puntual
Estadística para Administradores-Girimonte

Propiedad: ˆ es un estimador consistente de  si:

1- ˆ es un estimador insesgado asintóticamente insesgado de  .

2- Var (ˆ) n


 0


Criterio de selección-Principio de estimación insesgada de mínima varianza:

Entre todos los estimadores insesgados de  , elegir el de menor varianza. El estimador resultante se
denomina IMVU (insesgado de mínima varianza uniformemente).
Existe una metodología que permite hallar estimadores IMVU en muchas situaciones.

Definición: Sea ˆ un estimador puntual de  su error cuadrático medio es


ECM(ˆ)  E((ˆ   )2 )

Propiedad: ECM(ˆ) Var (ˆ)   2 (ˆ)


Dem:
ECM(ˆ)  E((ˆ   )2 ) = E((ˆ  E(ˆ)  E(ˆ)   )2 ) = E((ˆ  E(ˆ))2  2(ˆ  E(ˆ))(E(ˆ)  )  (E(ˆ)  )2 =
 E((ˆ  E(ˆ))2 )  2(E(ˆ)   )E(ˆ  E(ˆ))  E((E(ˆ)   )2 ) = Var (ˆ)   2 (ˆ)

Principio de estimación de menor error cuadrático medio: Dados dos o más estimadores del parámetro
 , elegir el de menor ECM.

Nota: Observar que este principio nos conduce a elegir al de mínima varianza entre los insesgados por
la propiedad anterior.
Nos permite además seleccionar, por ejemplo, entre un estimador insesgado y otro que no lo es, en
base a la varianza y al sesgo. Si un estimador no es insesgado pero tiene una varianza mucho menor que
el insesgado, podría ser preferible su uso.
La varianza de un estimador insesgado es la cantidad más importante para decidir que tan bueno es un
estimador.

Eficiencia
Sean ˆ1 y ˆ2 dos estimadores insesgados de  , se dice que ˆ1 es más eficiente que ˆ2 si
Var(ˆ1 )  Var(ˆ2 ) cumpliéndose la desigualdad en sentido estricto para algún valor de  .

5
Breve apunte sobre estimación puntual
Estadística para Administradores-Girimonte

Para determinar la eficiencia relativa de ˆ2 respecto de ˆ1 se utiliza el cociente Var(ˆ1 ) / Var(ˆ2 ) .
Si los estimadores no son insegados se emplean los ECM para determinar la eficiencia relativa.

¿Cómo obtener un estimador IMVU si es que existe?

Cota inferior de Rao-Cramer

Teorema : Sea X1 , X 2 , X n una m.a de una distribución con función de densidad f (x , ) o de


probabilidad puntual p(x , ) . Si ˆ es un estimador insesgado de  , entonces la varianza de ˆ satisface
la siguiente desigualdad:
1
Var (ˆ) 
  ln f (x , )  2 
nE   
   

Si bien este teorema establece un límite inferior para la varianza de un estimador insesgado de  ,no
implica que la varianza de un estimador IMVU de  tenga que alcanzar la cota.
Es decir es posible encontrar un estimador insesgado de  que tenga la menor varianza entre los
insesgados pero que no alcance la cota es decir que su varianza sea mayor al valor de la cota de Rao-
Cramer.
Por otro lado si un estimador insesgado alcanza la cota de Rao Cramer ese estimador es el IMVU.

Nota: el denominador de la cota de Rao Cramer se llama Número de Información de Fisher


Otra forma de expresarlo es :
  ln f (x , ) 2    2 ln f (x , ) 
nE     nE  

      2 

Definición: Si ˆ es un estimador insesgado de  que satisface:


1
Var (ˆ) 
  ln f (x , ) 2 
nE   
   
Entonces ˆ es un estimador eficiente de  ..

Nota : un estimador sesgado puede tener tanto varianza como error cuadrático medio por debajo de la
cota inferior de Rao- Cramer .