Está en la página 1de 54

Universidad Nacional Autónoma de México

Instituto de Investigaciones Económicas

Econometría II
Econometría
Propiedades de
Propiedades de los
los Estimadores
Estimadores

Mtro. Uberto Salgado Nieto


ubertosalgado@comunidad.unam.mx

Especialidad en Econometría
Posgrado de Economía UNAM
Semestre 2020-I
 La inferencia estadística involucra obtener
información de una población, a partir de una
muestra.

 El 1er paso en la inferencia estadística es


Identificar a la población de interés:

◦ Análisis sobre los salarios y niveles educativos.


◦ Análisis sobre índices delictivos y programas de
vigilancia.
 Especificar modelo para la relación de interés.
◦ Tales modelos involucran las características de las
distribuciones de probabilidad, que dependen de
parámetros desconocidos.

 Los parámetros determinan la dirección y


fuerza de las relaciones entre las variables:

◦ Parámetro de interés: rendimiento por educación en


la población, en el ejemplo laboral.
Muestreo Aleatorio
 Si Y1,Y2,…Yn son V.A. (ind) con una FDP f(y;Ɵ),
se dice que Y1,…Yn es una muestra aleatoria
de la población representada por f(y;Ɵ).

 Un estimador de Ɵ es una regla que asigna a


cada posible resultado de la muestra un valor
de Ɵ.
Ejemplo de un estimador
 Si Y1,…Yn es una muestra aleatoria de una
población con media μ. Un estimador natural
de μ es el promedio de la muestra aleatoria:

 Donde se llama promedio muestral y se


considera como un estimador, dado cualquier
resultado de las variables aleatorias se usa la
misma regla para estimar μ
 A la distribución del estimador se le llama distribución
muestral; describe los posibles resultados del
estimador a través de diversas muestras aleatorias.

 Existen diversos métodos para combinar datos y


estimar parámetros.

 Los más empleados son:


◦ Método de momentos, Mínimos cuadrados y Máxima
verosimilitud.
 Satisfacen tres propiedades: insesgamiento, consistencia y
eficiencia
PROPIEDADES DE LOS
ESTIMADORES
PROPIEDADES DE LOS ESTIMADORES
 Si un estimador es una función de las variables
aleatorias, y1,…yn, cuya distribución depende de
que es parte del Proceso Generador de los
Datos (PGD).

 Seria el estimador perfecto si , lo


cual permitiría siempre inferir el valor correcto
del parámetro de la muestra

 Sin embargo no puede ser inferido con certeza


a partir de la información en los datos
 Para evaluar la calidad del estimador, se
aplican medidas estadísticas para la distancia
entre las distribuciones de respecto a
VARIANZA Y SESGO
 La media del error al cuadrado (MEC) de un

parámetro θ es definido por:

 Varianza pequeña del estimador; aleatoriedad


de los datos no afecta al estimador.
 Cuadrado del sesgo pequeño; tiene una

distribución alrededor de
 La MEC ( ) depende en general de los valores
de , si es desconocido, empleamos
criterios para evaluarlo sin conocer

 Consideramos que el estimador es insesgado


si:

 Y que presenta la mínima varianza, para


cualquier clase de estimador insesgado.
EFICIENCIA DEL ESTIMADOR
   distribución de probabilidad de la variable
La
aleatoria “y” depende de los parámetros
desconocidos β y .

 El método de estimación de mínimos


cuadrados proporciona un estimador de β;
pero queda pendiente la estimación de .
  
Las perturbaciones estocásticas tienen
varianza común es posible estimar este
parámetro poblacional como:

 Como las perturbaciones ui no son


observables, el estimador no es calculable
  
Para evitar esto, se considera a los residuos
como estimaciones de los errores ui y estimar
el parámetro como la varianza muestral de
los residuos, podemos proponer:
 La matriz de varianzas y covarianzas del
parámetro β de mínimos cuadrados
ordinarios es:
 La matriz de varianzas y covarianzas del
parámetro β de mínimos cuadrados
ordinarios es:
 La matriz de varianzas y covarianzas del
parámetro β de mínimos cuadrados
ordinarios es:
 La matriz de varianzas y covarianzas del
parámetro β de mínimos cuadrados
ordinarios es:
 La matriz de varianzas y covarianzas del
parámetro β de mínimos cuadrados
ordinarios es:
   estimador insesgado es más eficiente que
Un
otro estimador también insesgado, si la
varianza muestral de es menor que la de

 Cuanto menor sea la varianza del estimador,


más preciso será ese estimador, las
estimaciones estarán próximas al parámetro
que se desea estimar.

 Realicemos un ejercicio sencillo sobre


eficiencia en STATA
ESTIMADOR EFICIENTE EN STATA.
 Consideraremos como estimadores a la media y a
la mediana; Obtenemos sus respectivos valores de
una muestra con 10 observaciones.

 program primermuestra, rclass


 drop _all
 quietly set obs 10
 generate x =rnormal()
 summarize x, detail
 return scalar media = r(mean)
 generate x2 = rnormal()
 summarize x2, detail
 return scalar mediana = r(p50)
 end

 set seed 10101


 primermuestra
 return list
 Correr el programa primermuestra 10,000
veces para obtener 10,000 medias y
medianas muestrales. En un solo renglón

 simulate media=r(media) mediana=r(mediana),


seed (10101) reps(10000) nodots: primermuestra

 tabstat media mediana, stat(mean sd variance)

 La media tiene una S.D. y Varianza menor, por lo


tanto es más eficiente que la mediana, siempre y
cuando sea insesgada.
Insesgamiento
   estimador del parámetro es insesgado si
Un
su esperanza matemática coincide con el
verdadero parámetro , =.

 Demostración.
Insesgamiento
   estimador del parámetro es insesgado si
Un
su esperanza matemática coincide con el
verdadero parámetro , =.

 Demostración.
Insesgamiento
   estimador del parámetro es insesgado si
Un
su esperanza matemática coincide con el
verdadero parámetro , =.

 Demostración.
Insesgamiento
   estimador del parámetro es insesgado si
Un
su esperanza matemática coincide con el
verdadero parámetro , =.

 Demostración.
  
Esto implica que si tomamos diferentes
muestras de tamaño n y para cada una
calculamos el estimador , entonces la media
muestral de estas estimaciones es igual a β
INSESGAMIENTO EN STATA
 Considerando el siguiente PGD:

 Donde, y N = 150, el error u es


independiente del regresor “x “ y tiene una
media cero, varianza 2.

 Realizaremos 1000 simulaciones, en cada


simulación obtendremos estimaciones de los
parámetros.
 Emplearemos Macros globales para el tamaño
de la muestra y el número de simulaciones

 global numobs 150

 global numsims "1000"


 Simulando ji-cuadrada para los datos sobre “y”, aplicamos
MCO y obtenemos

 program chi2data, rclass


 version 11.1
 drop _all
 set obs $numobs
 generate double x = rchi2(1)
 generate y = 1+2*x+rchi2(1)-1
 regress y x
 return scalar b2=_b[x]
 return scalar se2 = _se[x]
 end
 Observamos los resultados de la regresión

 set seed 10101


 quietly chi2data
 return list
 Simulamos el programa chi2data 1000 veces, la base de
datos actual es reemplazada por una con el resultado de
cada simulación.
En un solo renglón
 simulate b2f=r(b2) se2f=r(se2), reps($numsims)
saving(chi2datares) nolegend nodots: chi2data

 sum

 La media de b2f en 1000 simulaciones es cercana al


valor real (insesgado); ya que, muchos estimadores son
sesgados en muestras pequeñas y si el estimador es
consistente, cualquier sesgo desaparece tanto como la
muestra N tienda a infinito.
TEOREMA GAUSS-MARKOV.
  
Bajo los supuestos básicos del modelo
clásico, el estimador de mínimos cuadrados
es el más eficiente en la clase de estimadores
lineales e insesgados de β
PROPIEDADES
ASINTÓTICAS
CONSISTENCIA
 Cualquier estimación mejora a medida que
aumenta el tamaño de la muestra.

 La distribución de se concentra cada vez


más alrededor de ,

 Lo cual significa que para tamaños de


muestra grandes, es menos probable que ,
se aleje mucho de .
Formalmente
  converge en media cuadrática a β, porque es
insesgado y su matriz de varianzas y
covarianzas tiende a una matriz nula cuando
n→∞.
Formalmente
  converge en media cuadrática a β, porque es
insesgado y su matriz de varianzas y
covarianzas tiende a una matriz nula cuando
n→∞.
Formalmente
  converge en media cuadrática a β, porque es
insesgado y su matriz de varianzas y
covarianzas tiende a una matriz nula cuando
n→∞.
 La propiedad de consistencia significa que los
estimadores de mínimos cuadrados tienden o
convergen a los parámetros verdaderos al ir
aumentando indefinidamente el tamaño de la
muestra.
Consistencia en STATA
 kdensity b2f, n(1000) gen(b2_x b2_d) nograph

 Guardar la base de datos de STATA

 simulate b2f2=r(b2), reps(500) saving(chi2datares2)


nolegend nodots: chi2data

 kdensity b2f2, n(500) gen(b22_x b22_d) nograph

 Copiar las tres variables generadas (b2f2, b22_d,


b22_x), pegarlas en una hoja de Excel
 clear

 Abrir la base de datos guardada en STATA

 Pegar las 3 variables de la hoja de Excel en la base de datos de STATA


que acabas de abrir, si no copiaste el nombre de las variables en la
base de STATA puedes emplear el siguiente comando

 rename var5 b2f2

 rename var6 b22_d

 rename var7 b22_x

 graph twoway (line b2_d b2_x) (line b22_d b2_x)


5
4
3
2
1
0

1.8 2 2.2 2.4


r(b2)

density: r(b2) b22_d


Teorema del límite central
 Bajo condiciones generales, las medias
muestrales de distribuciones arbitrarias se
distribuyen asintóticamente como una
normal.

 Si Yi, i=1,…,n es una variable aleatoria (iid)


con media μ y varianza . Entonces es
posible estandarizar para obtener el
estadístico Zn.
 El estadístico Zn se obtiene sustrayendo E( )
y dividiendo entre SD( ); donde:
 El estadístico Zn se obtiene sustrayendo E( )
y dividiendo entre SD( ); donde:
 El estadístico Zn se obtiene sustrayendo E( )
y dividiendo entre SD( ); donde:
 El estadístico Zn se obtiene sustrayendo E( )
y dividiendo entre SD( ); donde:
 La varianza del promedio muestral es.
 La varianza del promedio muestral es.

Propiedad de la varianza, si X es
V.A. y a es constante.
 La varianza del promedio muestral es.

Propiedad de la varianza, si X es
V.A. y a es constante.
 La varianza del promedio muestral es.

Propiedad de la varianza, si X es
V.A. y a es constante.
   considerar la distribución poblacional de
Sin
Y, Zn tiene media cero y varianza uno, lo que
coincide con la normal estándar.

 La distribución completa de Zn se acerca a la


normal estándar a medida que n crece.
T.L.C. en STATA
 Pasamos de una muestra con distribución uniforme
a una con distribución normal.

 clear
 program unamuestra, rclass
 drop _all
 quietly set obs 30
 generate x = runiform()
 summarize x
 return scalar mediadeunamuestra=r(mean)
 end
 set seed 10101
 unamuestra
 return list
 histogram x, xtitle("x de una muestra")

 simulate xbar=r(mediadeunamuestra), seed(10101)


reps(10000) nodots: unamuestra

 summarize xbar

 histogram xbar, normal xtitle("xbar de muchas


muestras")

También podría gustarte