Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Propiedades Mco PDF
Propiedades Mco PDF
INTRODUCCIÓN
Una vez lograda una expresión matricial para la estimación de los parámetros del
modelo, es pertinente comprobar las propiedades estadísticas de los mismos. En este
sentido, los parámetros MCO y Máximo-verosímiles se calcularán así1:
Y = X β +U
nx1 nxk kx1 nx1
En primer lugar, contar con un estimador insesgado nos asegura que el valor esperado
de nuestro cálculo coincide con el valor real del parámetro. Éste requisito es
fundamental a la hora de realizar una estimación, siendo la condición sinequanon para
seguir realizando algunas comprobaciones estadísticas. De hecho, la segunda
demostración que se realiza en este documento sirve para comprobar que los parámetros
estimados también serán óptimos; es decir, serán los que cuenten con la varianza más
pequeña de entre todos los insesgados3.
En tercer lugar, se demostrará que los MCO también son consistentes. Esto quiere decir
que nuestra forma de calcular los parámetros para la estimación daría el resultado
exacto de cálculo de los parámetros reales si en vez de utilizar una muestra usáramos el
total de los datos, sin error alguno. Dicho de otro modo, cuando contamos con el total
del universo para realizar la estimación la varianza de los parámetros calculados es nula,
ya que coinciden exactamente con los reales.
1
La expresión de cálculo es la misma para ambos cuando la función de densidad de las perturbaciones
aleatorias se distribuye como una normal.
2
BLUE en inglés y, a veces, MELI en algunas traducciones.
3
Quizá se puedan encontrar formas de estimar los parámetros con un menor intervalo de variación, pero
si estos no son insesgados conculcan lo que hemos llamado condición sinequanon para un valor estimado.
Podemos ser muy precisos en una estimación, pero si su valor medio o esperanza no coincide con el valor
real, la utilidad de la estimación quedará en entredicho.
Econometría I. DADE Notas de Clase
perturbaciones aleatorias, demostrar que los parámetros son una combinación lineal de
éstas lleva inmediatamente a conocer en qué forma se distribuyen nuestros coeficientes
estimados. Sabiendo cuál es su función de densidad, podremos calcular con facilidad en
qué rango o intervalo se mueven éstos e, incluso, podremos diseñar algunos contrastes
estadísticos para averiguar el grado de significatividad de estos (en qué medida
podemos decir que los parámetros son distintos de cero o, dicho de otra forma, en qué
grado las variables a las que multiplican dichos parámetros son relevantes para la
explicación de la variable endógena del modelo).
LINEALIDAD
Para comprobar que los parámetros estimados son una combinación lineal de las
perturbaciones aleatorias del modelo, basta con sustituir “Y” en la expresión de cálculo
de los mismos por su expresión completa (entre “llaves” en la expresión de más abajo):
Los estimadores MCO son una combinación lineal de las perturbaciones aleatorias.
INSESGADEZ
En este momento tiene interés demostrar que el valor esperado del parámetro estimado
con MCO coincide con el valor real del parámetro.
E ( βˆ ) = β
ÓPTIMO (EFICIENCIA)
Para demostrar que el estimador MCO es el estimador óptimo se seguirán cuatro pasos4:
[ ] [
COV − VAR( βˆ ) = ( βˆ − E ( βˆ ))( βˆ − E ( βˆ ))' = E ( β + [ X ' X ] X 'U − β )( β + [ X ' X ] X 'U − β )' =
−1 −1
]
[ −1
E ([X ' X ] X 'U )([X ' X ]
−1
X 'U )'] = E [ X ' X ]
−1 −1
] {
X 'UU ' X [X ' X ] = E (UU ' ) = σ I n
2
}
−1 −1 −1
σ [X ' X ] X ' X [X ' X ] = σ [X ' X ]
2 2
4
Esta demostración también se podría realizar comprobando que la varianza del estimador MCO es la
cota de Cramer Râo.
Econometría I. DADE Notas de Clase
Una vez contamos con la expresión de un estimador cualquiera alternativo, hay que
comprobar cuáles son las condiciones que este debe cumplir para ser insesgado.
t
[ −1
E ( β ) = E β + [X ' X ] X 'U + PXβ + PU = ]
[β + [X ' X ] −1
]
X ' E (U ) + PXβ + PE (U ) =
[β + PXβ ]
condición insesgadez PX = 0
t
β = β + [ X ' X ]−1 X 'U + PU
t −1
cov− var(β ) = σ 2 ([ X ' X ] + PP ' )
4) Comparación de varianzas
Finalmente, hay que comprobar que efectivamente las varianzas de los estimadores
MCO siempre son inferiores a las varianzas de cualquier otro estimador insesgado:
t
cov − var(β ) = σ 2 ([ X ' X ] + PP ' ) > σ 2 ([ X ' X ] = cov − var( βˆ )
−1 −1
Esta condición se verifica siempre, ya que PP’ es una matriz por su transpuesta, luego
en su diagonal siempre hay números positivos y es precisamente la diagonal principal
donde en la matriz de varianzas-covarianzas están las varianzas.
Econometría I. DADE Notas de Clase
CONSISTENCIA
Por último, se demostrará que los parámetros MCO son consistentes; es decir, que
ampliando la muestra al total de la población, el valor estimado coincide con el real o,
dicho de otra forma, que cuando contamos con todos los datos, no con una muestra, el
cálculo de MCO da como resultado los parámetros reales, un cálculo exacto, luego con
varianza igual a cero.
p lim( βˆ ) = β ≈ p lim(var(βˆ )) = 0
n →∞ n →∞
−1
σ 2 X'X
p lim(var(βˆ )) = σ 2 [ X ' X ] =
−1
→0
n →∞ n n
Lo antedicho, podría interpretarse como que, a medida que vamos aumentando el
número de datos en nuestra estimación (“n” tiende a infinito), el valor del producto sería
cada vez más pequeño; es decir, se iría aproximando a cero. En el límite, sería nulo
siempre que el segundo valor del producto (la matriz inversa) fuera calculable.
COROLARIO
En definitiva, después de haber observado que los estimadores MCO cumplen con las
cuatro propiedades propuestas (linealidad, insesgadez, optimalidad y consistencia);
además de saber que contamos con las estimaciones paramétricas con mayores garantías
estadísticas, también podemos saber que los coeficientes del modelo se distribuyen
como una Normal, con media el verdadero valor del parámetro (son insesgados) y
varianza COV − VAR ( βˆ ) = σ 2 [X ' X ] . Es decir:
−1
βˆ → N ( β ; σ 2 [X ' X ]−1 )
En cualquier caso, esta expresión no será de utilidad para determinar los intervalos de
confianza de los parámetros (para conocer entre qué bandas se moverán los verdaderos
valores de los parámetros) salvo que obtengamos un método para estimar la varianza de
las perturbaciones aleatorias que interviene en esta fórmula σ 2 .