Está en la página 1de 55

Análisis asintótico

Análisis asintótico
• Para este tema será fundamental que repasen propiedades de
límites.
• Ejemplos:
Análisis asintótico
• Hasta ahora hemos cubierto propiedades de muestra finita.
• Insesgamiento: Es una propiedad de muestra finita porque se cumple
para cualquier muestra de tamaño fijo .
• Teorema de GM también es una propiedad de muestra finita.
• Las propiedades asintóticas se refieren al comportamiento de los
estimadores cuando la muestra se incrementa al infinito .
• Para la derivación de las pruebas y habíamos necesitado del
supuesto de normalidad del término de error.
Análisis asintótico
Supuesto 5: Normalidad
El error poblacional es independiente de los regresores está
distribuido en forma normal con media cero y varianza

• Solo bajo este supuesto es que podemos asegurar que los estadísticos
y se distribuyen exactamente como y respectivamente.
• Ahora veremos que cuando los estadísticos y se distribuyen
aproximadamente como y , incluso si el supuesto 5 NO es válido.
Consistencia
• La propiedad de insesgamiento no siempre es posible. De hecho, hay
muchos estimadores que se usan en la práctica que son sesgados,
pero SI son consistentes.
Consistencia
Consistencia. Sea un estimador de basado en la muestra de tamaño .
Entonces, es un estimador consistente de para todo
cuando

• Si no es consistente para , decimos que es inconsistente.


Consistencia
Supuestos anteriores
1) Lineal en parámetros: El modelo poblacional está dado por

2) No colinealidad perfecta: La matriz .


3) Media condicional cero: .
Consistencia
• Sea el estimador de MCO para alguna muestra de tamaño . Para cada
, tiene una distribución de probabilidad (que representa los posibles
valores que puede tomar para una muestra de tamaño ).
• Si los supuestos 1 a 3 son válidos las distribuciones de , para cualquier
tamaño de muestra, tendrán esperanza condicional igual a
(insesgamiento).
Consistencia
• Para que sea consistente debe ocurrir que, a medida que el tamaño
de muestra se incrementa, la distribución de debe irse
comprimiendo cada vez más alrededor de .
• Cuando tienda a infinito entonces la distribución de colapsará
exactamente en el valor .

Consistencia. Sea un estimador de basado en la muestra de tamaño .


Entonces, es un estimador consistente de para todo
cuando
Consistencia
Consistencia
• Definición de plim:
Si:
1. cuando
2. cuando
entonces

Alternativamente:
Consistencia
Propiedades de plim
1. Si y entonces

a) siempre que 0
Consistencia
Propiedades de plim
2. Sea un parámetro y defínase un nuevo parámetro para una función
continua .
Suponga que . Defina el estimador de por . Entonces

Esto normalmente se escribe


Consistencia
• Hay tres resultados estadísticos muy importantes que resultan de la
aplicación del análisis asintótico.
1. Ley de los Grandes Números (LGN): Tómese el promedio de una
muestra aleatoria obtenida de una población con media y varianza .
Esto es equivalente a una serie de variables aleatorias idéntica e
independientemente distribuidas (iid) entonces
Consistencia

• Entonces
Consistencia
2. Normalidad asintótica: Sea una secuencia de variables aleatorias,
tal que para todos los números tenemos que
cuando
Donde es la función de distribución normal estándar acumulada.
Entonces se dice que tiene una distribución asintótica normal
estándar. Esto se denota como
Consistencia
3. Teorema Central del Límite: Sea una muestra aleatoria con media y
varianza entonces

Tiene una distribución asintótica normal estándar.


• Estos tres resultados serán claves para los resultados que derivaremos
más adelante.
Consistencia
Consistencia de MCO
Bajo los supuestos 1 a 3 los estimadores MCO son consistentes para ,
• Consistencia implica que podemos hacer que nuestro estimador esté
arbitrariamente cerca de si logramos obtener datos con un tamaño
de muestra lo suficientemente grande.
Consistencia
Prueba
Consistencia

• Ahora, aplicando LGN tenemos que las cantidades en numerador y denominador


convergerán a sus cantidades poblacionales.
• Por el supuesto 2 (rango completo), tenemos que entonces
Consistencia
• Pero entonces obsérvese que para consistencia NO necesitamos
media condicional cero, es suficiente con algo ligeramente más débil
Supuesto 3´: Media cero y Correlación cero
y para
• Media condicional cero implica este supuesto (no al revés).
Consistencia
•¿Por qué recién hablamos de este supuesto []?
1. Con solo este supuesto MCO es sesgado (pero consistente).
2. El supuesto de media condicional cero, implica que nuestro
modelo de Función de Regresión Poblacional (FRP) es correcto, o
sea, con podemos asegurar que

• Si solo suponemos 3’ esto puede NO ser cierto.


• Bajo 3’ lo máximo que podemos decir es que MCO solo provee la mejor
aproximación lineal a la FRP (Función de Regresión Poblacional).
Consistencia de MCO con matrices
Tenemos que
Consistencia de MCO con matrices

• Donde es de orden es una matriz que se supone finita y que tiene inversa.
• Este no es un supuesto fuerte. Simplemente dice que cuando tiende a
infinito, entonces tiende a algo finito.
Consistencia de MCO con matrices
Consistencia de MCO con matrices
Consistencia de MCO con matrices

• Esto es producto de que


Consistencia de MCO con matrices
Con estos resultados:
Inconsistencia en MCO
• Sabemos que la violación de lleva a sesgo.
• Correlación entre y cualquier generalmente lleva a que los
estimadores MCO sean inconsistentes.
• Esto se resume en una frase muy común:
• Si está correlacionado con cualquiera de las variables
independientes, entonces MCO es sesgado e inconsistente.
Nota sobre correlación y covarianza
• Si e son dos variables aleatorias con valores esperados y y
desviaciones estándar y , respectivamente, entonces sus
covarianzas y correlaciones se definen como

• O sea,
Nota sobre correlación y covarianza
• Correlación y covarianzas son medidas MUY similares. Cualquiera de
ellas es diferente a cero si y sólo si la otra también es diferente a cero.
• La ÚNICA diferencia entre ambas es en las unidades de medida:

• depende de las unidades de medida de e .


• Por esto es que muchas veces se habla de correlación o covarianzas
en forma muy parecida, por que si una medida es cero la otra
necesariamente también lo es.
Inconsistencia en MCO
• Veamos la inconsistencia de en la regresión simple.

• Como entonces esta inconsistencia tendrá el signo de .


• No nos preocuparíamos por esto si fuera pequeño, pero esto es imposible de
saber en la práctica porque NO observamos .
Inconsistencia en MCO
• Tomemos el caso de variable omitida en regresión simple
•El modelo poblacional verdadero está dado por

• Suponemos que los supuestos 1 a 3 se cumplen ( tiene media condicional cero y correlación
cero con y ).
• Y tenemos la regresión simple

• Y la regresión múltiple

• En general
Inconsistencia en MCO
• Se puede probar que

• estimación del coeficiente de pendiente de regresar en


Es decir, depende sólo de e , NO de
Inconsistencia en MCO
Entonces tenemos que

•De donde es claro que

• Esto es denominado sesgo de variable omitida.


Inconsistencia en MCO
•Veamos ahora lo mismo, pero en términos de consistencia
• Dados los estimadores de MCO , y de correr en y , y si los supuestos 1 a 3 se
cumplen, entonces estos son estimadores consistentes de los parámetros
poblacionales , y .
• Pero, de nuevo, si sólo corremos en entonces

• y obtendremos otro estimador de MCO tal que


Inconsistencia en MCO

• Entonces
Inconsistencia en MCO
•Así

• La única diferencia entre sesgo y consistencia de es que el sesgo está


determinado por estimador muestral de , que está dado por .
• Diferencia clave entre sesgo e inconsistencia: si el estimador es inconsistente
entonces tener una muestra más grande NO resuelve el problema NUNCA.
Inconsistencia en MCO
• El análisis con variables es muy parecido y la derivación matemática
no agrega mucho.
• Clave: con omitir una variable, todos los estimadores MCO se vuelven
inconsistentes (al igual que sesgados).
Normalidad asintótica e inferencia en
muestras grandes
• Recuerde que habíamos necesitado del supuesto de normalidad de
para lograr obtener que las distribuciones y de los estadísticos y
respectivos.
• Afortunadamente no necesitamos suponer normalidad dada la
normalidad asintótica de los estimadores de MCO.
Normalidad asintótica e inferencia en
muestras grandes
Supuestos
1) Lineal en parámetros: El modelo poblacional está dado por

2) No colinealidad perfecta: La matriz .


3) Media condicional cero: .
4) Homocedasticidad y No correlación serial:
Normalidad asintótica e inferencia en
muestras grandes
Normalidad asintótica de MCO
Bajo los supuestos de GM 1 a 4

donde es la varianza asintótica de ; para los coeficientes de pendiente, donde


son los residuos de regresar en los demás regresores. Se dice que se
distribuyen asintóticamente en forma normal.
Normalidad asintótica e inferencia en
muestras grandes
Normalidad asintótica de MCO
Bajo los supuestos de GM 1 a 4
2) es un estimador consistente para
3) Para cada j

Donde es el error estándar de MCO usual


sd=desviación estándar () error estándar ()
Normalidad asintótica e inferencia en
muestras grandes
Normalidad asintótica de MCO
• Para este resultado solo necesitamos los supuestos 1 a 4 en donde
ninguno hace un supuesto de normalidad.
• Este teorema NO implica que la distribución de tiende a ser normal
cuando la muestra es suficientemente grande.
• Ejemplo: La variable ingreso nunca va a tener una distribución
normal, no importa que tan grande sea la muestra.
• Lo que el teorema dice es que, SIN importar la distribución
poblacional de , los estimadores de MCO, estandarizados en forma
correcta, tienen distribuciones aproximadas a la normal.
Normalidad asintótica e inferencia en
muestras grandes
Normalidad asintótica de MCO
• Esto NO implica que DEBAMOS utilizar la distribución normal, en vez
de la , para hacer inferencias. Podemos escribir

• Porque sabemos que cuando .


• Esto también implica que podemos calcular los intervalos de
confianza pueden estimarse de la misma forma que antes sin la
necesidad de suponer normalidad.
Normalidad asintótica e inferencia en
muestras grandes
Normalidad asintótica de MCO
• Si la muestra NO es muy grande, entonces la distribución puede ser
una pobre aproximación de la distribución del estadístico cuando
NO se distribuye en forma normal.
• La solución a este problema no lo trataremos en esta clase. Por
ello, en general, supondremos que tiene distribución normal si la
muestra es pequeña.
• Observe que la normalidad asintótica de SI supone que tenemos
homocedasticidad. Por ello, todavía debemos resolver cualquier
problema de heterocedasticidad antes de hacer inferencias.
Normalidad asintótica e inferencia en
muestras grandes
• También tenemos que ahora no es solo insesgado, sino que además
es consistente bajo los supuestos de GM.
• Entonces ¿cuál es la varianza asintótica de ? Sabemos que el
estimador de la varianza de está dado por
Normalidad asintótica e inferencia en
muestras grandes
• de regresar en las demás .
• A medida que crece:
1. tiende a .
2. tiende a una constante entre cero y uno.
3. converge a la varianza poblacional de , , entonces converge a
• Esto hace que tienda a cero a la tasa . Por eso siempre queremos siempre muestras
grandes.
El estadístico de multiplicador de
Lagrange (LM)
• Para pruebas sobre significancia conjunta…
• Este es un estadístico que tiene fundamentos asintóticos.
• También es llamado score.
• Aquí mostraremos la derivación de la prueba bajo los supuestos de GM (sin
normalidad).
• Pensar en esta prueba como una alternativa al estadístico F.
• Considere el modelo

Y queremos ver si de las variables tienen betas iguales a cero


El estadístico de multiplicador de
Lagrange (LM)
Suponga que ya tenemos las estimaciones

• Residuos del modelo restringido


• Si las variables a efectivamente tienen parámetros poblacionales iguales a cero,
entonces estas deberían tener, aproximadamente, correlación cero con .
• ¿Entonces corremos en a ? La prueba LM casi hace esto. En realidad, lo que
hacemos es correr en todas las variables.

• Si es cierto entonces el de esta regresión debería ser bajo ( debería tener una
correlación baja con todas las variables).
El estadístico de multiplicador de
Lagrange (LM)
• Clave: bajo tenemos que .
• es precisamente el estadístico LM.
La prueba LM
i. Regresar en el conjunto restringido de regresores y guardar los residuos .
ii. Regresar en todos los regresores y obtener el respectivo, .
iii. Computar en base a la regression del paso ii.
iv. Comparar LM con el valor crítico apropiado, , en una distribución .
Eficiencia asintótica de MCO
• Ya vimos que, bajo los supuestos de GM, los estimadores MCO son MELI.
• MCO también son estimadores asintóticamente eficientes.
• Ver esto en regresión múltiple es complicado, solo lo veremos en caso de la
regresión simple.

•Por supuestos de GM sabemos que .


Eficiencia asintótica de MCO
• Comparemos con otro estimador (similar a prueba de GM inicial)…
• Sea cualquier función de entonces no está correlacionado con por propiedad
de medias condicionales, es decir, . Sea para cada observación , entonces

•Debido a que
•Entonces es un estimador consistente de
Eficiencia asintótica de MCO
• Se puede probar que es asintóticamente normal con media cero y
varianza

• La varianza asintótica de MCO está dada por

• Por desigualdad de Cauchy-Schwartz


Eficiencia asintótica de MCO
• Entonces

• Entonces MCO es asintóticamente más eficiente que cualquier estimador de la


forma

También podría gustarte