Está en la página 1de 24

Mínimos Cuadrados

Asintóticos
Econometría I
Profesor: Jorge Mario Salcedo Mayorga
Muestras finitas

• Modelo bajo propiedades de las muestras finitas, muestras pequeñas o propiedades


exactas de los estimadores de MCO del modelo poblacional.

• El hecho de que MCO sea el mejor estimador lineal insesgado bajo el conjunto
completo de supuestos de Gauss-Markov es una propiedad de las muestras finitas.
MLC y Normalidad
Analizamos modelos que seguían los supuestos Gauss Markov y más en detalle el Modelo
Lineal clásico (MLC), para el cual se agrega el supuesto donde los errores se distribuyen
normalmente.

¿ Qué sucede si descubrimos que los errores no siguen dicho tipo de distribución?

Al no cumplirse normalidad, observaremos que los estimadores que se hallan a través de


MCO no se comportaran de tal forma que permitan realizar el proceso de inferencia
estadística, dado que las pruebas t y F, están basadas en un modelo que cumple normalidad.
Propiedades asintóticas o propiedades de muestras grandes

• Se definen a medida que el tamaño de la muestra crece sin límite.

• MCO cuenta con propiedades satisfactorias para muestras grandes.

• Aun eliminando el supuesto RLM.6, los estadísticos t y F tienen distribuciones que son
aproximadamente distribuciones t y F, al menos cuando las muestras son de tamaño
grande.
Consistencia
• La Insesgadez es una propiedad deseable de los estimadores por MCO, sin embargo, no
siempre se cumple.

A medida que aumente el tamaño de una muestra la distribución de será cada vez más
cercana a , de tal modo que si n tiende a infinito la distribución de se dirigirá únicamente
al punto .

Si se cumplen los supuestos RLM 1 al 4, el estimador por MCO es


consistente para para todo
Distribuciones de muestreo

𝑛1 <𝑛 2<𝑛 3
Grandes números de individuos, actuando independientemente en un
sistema, producen regularidades que no dependen de su coordinación
mutua, de manera que es posible razonar sobre la colectividad sin ningún
conocimiento detallado de los individuos”
— “Simeon Denis Poison”
Ley de los grandes números
• (Poisson 1837).

• La regularidad en los golpes de azar en los juegos de cartas, las mareas, los índices de mortalidad, los fallos
condenatorios, los tipos de crímenes.

• La proporción de condenados anualmente permitirá conocer de manera bastante exacta la probabilidad de ser
condenado y bajo qué acusación.

• La ley de los grandes números dice que (bajo ciertas condiciones generales) la media
de n variables aleatorias …, se aproxima a la media de las n medias donde ya sabemos que

• Si todas las variables tienen la misma media μ , entonces la media aritmética de las variables se
aproxima al mismo valor.
Ley de los grandes números
• La ley de los grandes números dice que (bajo ciertas condiciones generales) la media
de n variables aleatorias …, se aproxima a la media de las n medias donde ya sabemos
que

• Si todas las variables tienen la misma media μ , entonces la media aritmética de las
variables se aproxima al mismo valor.

si repetimos muchas veces (tendiendo al infinito) un mismo experimento, la frecuencia


de que suceda un cierto evento tiende a ser una constante.
Demostrar consistencia para el modelo RLS
• Para explicar el concepto de consistencia, podemos aplicar la misma demostración
utilizada en el modelo de regresión lineal simple para Insesgadez, partiendo de la
ecuación para

Posteriormente se reemplaza y se obtiene la ecuación 2


Aplicando la Ley de los grandes números, donde se repite en varias ocasiones con
tendencia a infinito un mismo experimento, el numerador y el denominador convergen en
probabilidad a , esto siempre y cuando se cumpla el supuesto de regresión lineal múltiple
número 3. Si se emplea el límite de probabilidad tendríamos

Pero al cumplirse los supuestos de regresión lineal múltiple, se tendría que y por ende,
nuestra expresión quedaría:
Supuesto RLM 4’
• Lo anterior solo se da cuando los límites de probabilidad existen, lo que implica que
Como vimos, basta con asumir correlación igual a cero para obtener estimadores
consistentes, la ecuación 4 muestra un supuesto ajustado para el caso de regresión
múltiple, denominado RLM.4’ Media cero y correlación cero:

Este supuesto es más débil y flexible que el supuesto RLM.4


Contraste entre el Supuesto RLM 4 y RLM 4’
• El supuesto inicial de media condicional cero abarca que alguna función de las
variables explicativas este correlacionada con el error, es así que el supuesto RLM.4’ se
encuentra incluido dentro del supuesto RLM.4.

• Bajo RLM.4’ el estimador será consistente pero sesgado dado que se puede considerar
que algunas funciones no lineales de como una función cuadrática, estén
correlacionadas con el error.

• El que exista correlación entre el error y cualquiera de las variables explicativas,


provocará que los estimadores por MCO sean inconsistentes y por obvias razones al ser
inconsistente será sesgado
Consideraciones Insesgamiento y Consistencia
Análisis Inconsistencia
Despejando la ecuación 3 podemos obtener la siguiente expresión:

• Conforme a la ecuación 5 podemos deducir que se presentará inconsistencia si y u


están correlacionados y dado que siempre es positivo, el termino de correlación,
determinará si la inconsistencia es positiva o negativa (sesgo asintótico), sin embargo,
no se puede estimar la magnitud de la covarianza ya que u es desconocido.
Normalidad asintótica
Econometría I
Normalidad de los estimadores

La normalidad de los estimadores obtenidos por Mínimos cuadrados ordinarios,


dependerá conforme a Wooldridge(2015) en gran manera de cómo se distribuye
el termino de error en la población, si los errores son tomados bajo una
distribución que no es la normal, se provocará que los estimadores no se
distribuyan normalmente, llevando a problemas de inferencia estadística donde
los estadísticos t no seguirán probablemente un distribución t y los F una
distribución F
Analizando al error no observado
• A partir de RLM 6 u no observable, resulta más práctico el analizar la distribución de
nuestra variable dependiente y.

• Si las no siguen una distribución normal se puede aplicar el Teorema del Límite Central,
con el fin de asumir que los estimadores siguen una normalidad asintótica, a medida que
el tamaño de la muestra es los suficientemente grande.
Teorema del Límite Central
• La suma de variables aleatorias normales es otra variable aleatoria normal.

• El teorema central del límite es un resultado matemático que garantiza que, si sumamos
variables cualesquiera (no necesariamente normales), la variable suma también seguirá una
distribución normal.

• La Suma de contribuciones independientes, de igual magnitud y “con un tamaño típico”,


este resultado corresponderá a una distribución Gaussiana siempre que el número de
sumandos sea un número considerable (no pequeño).
Normalidad Asintótica
• Considerando los supuestos de Gauss- Markov se tiene que:

• ,
• , los residuos de hacer una regresión entre respecto a las otras variables independientes.
• es un estimador consistente de
• Para cada j se tiene

• Note que no se ha utilizado el supuesto de normalidad RLM.6, pero si la media condicional igual a
cero y la homocedasticidad en el término de error u. Otra punto a resaltar se da si no es constante, ya
que en presencia de heterocedasticidad no se obtendrán estadísticos t convencionales, ni intervalos de
confianza correctos. Por último, bajo normalidad asintótica, se puede asumir que los estadísticos t y F
se aproximaran a sus distribuciones originales, razón por la cual se pueden utilizar los mismos
procedimientos que se vieron en el escenario 5.
Estadístico del Multiplicador de Lagrange

• El estadístico del multiplicador de Lagrange (ML) resulta una buena


aproximación para probar restricciones de exclusión múltiple, aun cuando
vimos en el apartado anterior que los estadísticos F y t funcionan bajo
normalidad asintótica. El estadístico ML, parte de los supuestos de RLM.1 al
RLM.5 sin necesidad de asumir normalidad.
Estadístico del Multiplicador de Lagrange

• Partiendo de un modelo con k variables independientes en la ecuación 6, se


busca probar si las últimas q variables poseen parámetro poblacionales iguales
a cero., partiendo de una hipótesis nula determinada por la expresión 7:
Estadístico del Multiplicador de Lagrange

• Tal como en la prueba F se imponen q restricciones al modelo y se buscará rechazar


una hipótesis nula, donde las variables seleccionadas tienen un efecto de cero sobre la
variable dependiente. De la misma manera, se estima un modelo restringido que
estará dado por la ecuación 8
ML
• Si las variables que se omitieron en el modelo restringido poseen coeficientes poblaciones que sean cero,
entonces el termino de error del modelo , no deberá estar correlacionado con ninguna variable independiente
omitida. No obstante, siguiendo a Wooldridge (2015) es necesario que se realice una regresión auxiliar del
termino de error respecto a todas las variables independientes y se sigan los siguientes pasos.

• Hacer una regresión de la variable dependiente “y” sobre las variables del modelo restringido y almacenar los
resultados del error

• Hacer una regresión de respecto a todas las variables independientes para obtener el R cuadrado de este modelo
(.

• Calcular ML que será igual al tamaño de muestra por el R cuadrado obtenido en el punto b, (

• Contrastar el multiplicador de Lagrange con c, que corresponde al valor crítico de una distribución ; el criterio
de rechazo estará dado por ML>c, es decir si el multiplicador es mayor al valor crítico se debe optar rechazar la
hipótesis nula y las variables serían estadísticamente significativas.

También podría gustarte