Está en la página 1de 7

PROPIEDADES DE LOS ESTIMADORES MCO/MV

Profesor Rafael de Arce (rafael.dearce@uam.es)


Ramn Maha (ramon.mahia@uam.es)
Noviembre 2010
INTRODUCCIN
Una vez lograda una expresin matricial para la estimacin de los
parmetros del modelo, es pertinente comprobar las propiedades
estadsticas de los mismos. En este sentido, los parmetros MCO o
Mximo-verosmiles se calcularn as
1
:
[ ] Y X X X ' '

1

donde se ha utilizado la expresin del modelo en forma matricial:
1
1
1 nx
kx
nxk nx
U X Y +
Se demuestra, a continuacin, que estos estimadores son
estimadores lineales, insesgados, ptimos y consistentes
(ELIO
2
+Consistentes). Es decir, cumplen condiciones
estadsticamente deseables para un determinado estimador.
Insesgadez: En primer lugar, contar con un estimador insesgado
nos asegura que el valor esperado de nuestro clculo coincide
con el valor real del parmetro.
Eficiencia: La segunda propiedad permite asegurar que los
parmetros estimados tambin sern ptimos; es decir, sern
los que cuenten con la varianza ms pequea de entre todos los
insesgados
3
.
Consistencia: En tercer lugar, se demostrar que los MCO
tambin son consistentes. Esto quiere decir que el valor
obtenido en la estimacin MCO coincidir con el valor de los
parmetros reales si en lugar de utilizar una muestra usramos
el total de los datos (o dicho de otro modo, una muestra
infinita).
1
La expresin de clculo es la misma para ambos cuando la funcin de densidad de las perturbaciones
aleatorias se distribuye como una normal.
2
BLUE en ingls (Best Linnear Unbiased Estimator) y, a veces, MELI en algunas traducciones.
3
Quiz se puedan encontrar formas de estimar los parmetros con un menor intervalo de variacin, pero
si estos no son insesgados conculcan lo que hemos llamado condicin sinequanon para un valor estimado.
Podemos ser muy precisos en una estimacin, pero si su valor medio o esperanza no coincide con el valor
real, la utilidad de la estimacin quedar en entredicho.
1
Adicionalmente, suele aadirse a la insesgadez, eficiencia y
consistencia la deseable propiedad matemtica de la linealidad. En
concreto, en nuestro contexto, entendemos por linealidad del
estimador el hecho de que los estimadores sean combinacin lineal
de las perturbaciones aleatorias. Esta relacin lineal entre estimador
y perturbacin tendr importantes consecuencias para poder
determinar las propiedades de la distribucin de los parmetros. Bajo
el supuesto habitual de normalidad de las perturbaciones aleatorias,
demostrar que los parmetros son una combinacin lineal de stas
lleva inmediatamente a conocer en qu forma se distribuyen nuestros
coeficientes estimados. Sabiendo cul es su funcin de densidad,
podremos calcular con facilidad en qu rango o intervalo se mueven
stos e, incluso, podremos disear algunos contrastes estadsticos
para averiguar el grado de significatividad de estos (en qu medida
podemos decir que los parmetros son distintos de cero o, dicho de
otra forma, en qu grado las variables a las que multiplican dichos
parmetros son relevantes para la explicacin de la variable
endgena del modelo).
LINEALIDAD
Para comprobar que los parmetros estimados son una combinacin
lineal de las perturbaciones aleatorias del modelo, basta con sustituir
Y en la expresin de clculo de los mismos por su expresin
completa (entre llaves en la expresin de ms abajo):
[ ] } {
[ ] [ ] [ ]
WU
u X X X u X X X X X X X
u X Y Y X X X
+
+ +
+



' ' ' ' ' '
' '

1 1 1
1
Los estimadores MCO son una combinacin lineal de las
perturbaciones aleatorias.
Como ya se ha indicado anteriormente, esta comprobacin ser de
especial trascendencia para acometer la fase de validacin del
modelo ya que una funcin lineal de una variable aleatoria que se
distribuye como una normal tambin se distribuye como una normal.
A partir de esta deduccin, podremos determinar los intervalos de
confianza en los que se movern nuestras estimaciones y podremos
realizar hiptesis sobre el valor real de los parmetros a contrastar
estadsticamente.
INSESGADEZ
En este momento tiene inters demostrar que el valor esperado del
parmetro estimado con MCO coincide con el valor real del
parmetro.
2
Para la demostracin, partiremos del resultado obtenido en el
apartado anterior, cuando escribimos los parmetros como una
combinacin lineal de las perturbaciones aleatorias:
[ ] [ ] [ ] [ ] [ ]
[ ]
[ ] [ ] { }



+ +
+
+ +

(
0 ) ( ) ( ' ' ) ' ' ( )

(
' '

' ' ' ' ' ' ' '

1 1
1
1 1 1 1
E
U E U E X X X U X X X E E
U X X X
U X X X X X X X U X X X X Y X X X
El valor esperado del estimador coincide con el real.
PTIMO (EFICIENCIA)
El objeto de esta demostracin es comprobar que los parmetros
estimados mediante MCO son los que tienen la varianza ms pequea
de entre todos los alternativos posibles de la familia de los
insesgados. Utilizaremos dos vas alternativas para demostrar esta
propiedad.
Demostracin 1: Eficiencia de MCO por comparacin con un
estimador alternativo
Para demostrar que el estimador MCO es el estimador ptimo se
seguirn cuatro pasos:
1) Se determina el valor de las varianzas de los estimadores MCO.
2) Se propone un estimador alternativo al MCO cualquiera y se
comprueba cul es la condicin necesaria y suficiente para que dicho
estimador sea insesgado.
3) Se determinan las varianzas de estos estimadores alternativos
4) Se comparan las varianzas de ste con las de los estimadores
MCO.
1) Matriz de varianzas-covarianzas de los estimadores
Partiendo de la expresin hallada al demostrar la linealidad y sabido
que este estimador es insesgado:
[ ] +

)

( Y ' '

1
E U X X X
Podemos calcular la matriz de varianzas-covarianzas de los
parmetros MCO del siguiente modo:
[ ] [ ] [ ] [ ]
[ ] [ ] [ ] [ ] [ ] [ ] { }
[ ] [ ] [ ]
[ ]
1 2
1 2 1 1 2
2 1 1 1 1
1 1
' )

(
' ' ' '
) ' ( ' ' ' ' )' ' ' )( ' ' (
)' ' ' )( ' ' ( ))'

))(

( )


+ +
X X VAR COV
X X X X X X X X
I UU E X X X UU X X X E U X X X U X X X E
U X X X U X X X E E E E VAR COV
n


3
Posteriormente, comprobaremos las varianzas de los parmetros as
estimadas (los elementos de la diagonal principal de la expresin
anterior) son las ms pequeas o no de entre todos los estimadores
insesgados posibles.
2) Estimador alternativo insesgado
Sumando una matriz P no nula a la expresin del estimador MCO se
obtiene la expresin general de un estimador cualquiera alternativo,
del que habr que comprobar qu condiciones ha de cumplir para ser
insesgado.
En primer lugar, escribimos la expresin de un parmetro alternativo
simplemente adicionando a la frmula de los MCO una matriz P
distinta de cero. Posteriormente, escribimos este parmetro
alternativo sustituyendo Y por su valor:
[ ] [ ] } {
[ ] [ ] [ ]
[ ] [ ] PU PX U X X X
PU PX U X X X X X X X
U X Y Y P X X X
+ + +
+ + +
+ +




' '
' ' ' '
' '
1
1 1
1

Una vez contamos con la expresin de un estimador cualquiera


alternativo, hay que comprobar cules son las condiciones que este
debe cumplir para ser insesgado.
[ ] [ ]
[ ] [ ]
[ ]
[ ] PU U X X X
PX
PX
U PE PX U E X X X
PU PX U X X X E E
+ +

+
+ + +
+ + +

' '
0 insesgadez condicin
) ( ) ( ' '
' ' ) (
1
1
1



En la expresin anterior, efectivamente es necesario verificar la


siguiente condicin para que no haya sesgo:
0 PX
. En esta
expresin, los parmetros no pueden contener ningn cero, ya que se
supone que la especificacin del modelo es correcta (no sobra
ninguna variable explicativa). Por ello, la expresin anterior de la
insesgadez de los parmetros alternativos queda reducida a que:
0 PX .
3) Matriz de varianzas-covarianzas del estimador
alternativo
4
A continuacin, se calcula la expresin de la matriz de varianzas-
covarianzas de estos estimadores que, para ser insesgados, nos
permiten suprimir de los clculos cualquier producto en el que
intervenga 0 PX (o su transpuesta).
[ ] [ ] [ ]
{ } [ ] [ ] [ ]
[ ] [ ] [ ] [ ] [ ]
{ } [ ] [ ] [ ] [ ]
{ } [ ]
[ ] ) ' ' ( ) var( cov
) ' ' ( 0
) ' ' ' ' ' ' ' ' ( ) ' (
' ' ' ' ' ' ' ' ' ' ' '
)' ' ' )( ' ' ( 0 ) (
))' ( ' ' ))( ( ' ' ( ) var( cov
1 2
1 2
1 1 1 1 2 2
1 1 1 1
1 1
1 1
PP X X
PP X X PX
PP X X PX P X X X X X X X X X I UU E
P PUU X X X PUU P UU X X X X X X UU X X X E
PU U X X X PU U X X X E E
E PU U X X X E PU U X X X E
n
+
+
+ + +
+ + +
+ +
+ + + +


4) Comparacin de varianzas
Finalmente, hay que comprobar que efectivamente las varianzas de
los estimadores MCO siempre son inferiores a las varianzas de
cualquier otro estimador insesgado:
[ ] [ ] )

var( cov ' ( ) ' ' ( ) var( cov


1 2 1 2
> +

X X PP X X

Esta condicin se verifica siempre, ya que PP es una matriz por su


transpuesta, luego en su diagonal siempre hay nmeros positivos y
es precisamente la diagonal principal donde en la matriz de
varianzas-covarianzas estn las varianzas.
Demostracin 2: Cota de Cramer Rao
La cota de Cramer Rao
4
expresa una cota inferior para la varianza
de un estimador insesgado (lineal o no, por cierto).
La expresin matemtica de esta cota es:
( )
1
2
2
,

1
]
1

u L
E CCR
Lo que ledo vendra a ser: Menos la inversa de la esperanza
matemtica de la derivada segunda del logaritmo de la funcin de
verosimilitud (funcin de informacin de Fisher) respecto del
parmetro de inters.
4
O tambin cota inferior de Cramr-Rao (CRLB), llamada as en honor a Harald Cramr y Calyampudi
Radhakrishna Rao.
5
En nuestro caso, recordemos que el logaritmo de la funcin de
verosimilitud era (en el documento sobre los estimador MCO y MV se
ofrecieron detalles a este respecto):
( ) ( ) ( )

,
_

2
1
2
2 /
2 2 /
1
2
1
exp 2 ) (


n
i
i
n
n
n
i
i
u
u f u f L
O lo que es igual, expresada matricialmente:
( ) U U
n n
L Ln '
2
1
ln
2
2 ln
2
) (
2
2

( ) ( ) ( )

'

2
1
ln
2
2 ln
2
) (
2
2
X Y X Y
n n
L Ln

( ) ( )

X X Y X Y Y
n n
L Ln ' ' ' ' 2 '
2
1
ln
2
2 ln
2
) (
2
2
+

As pues, la primera derivada respecto a es (observe que en los dos


primeros sumandos no aparece el trmino ):
( ) ( )
( )

X X Y X
X X Y X Y Y
L Ln
' 2 ' 2
2
1
' ' ' ' 2 '
2
1
) (
2
2
+

De modo que la segunda derivada sera:


( ) X X
L Ln
'
1 ) (
2 2
2

De donde se deduce que la CCR es:


( )
( ) ( ) [ ] ( )
1 2 1 2
1
2
1
2
2
' ' '
1 ,


1
]
1


1
]
1

X X X X E X X E
u L
E CCR

Es decir, efectivamente, la cota de varianza mnima coincide con la


varianza de nuestro estimador MCO/MV de donde se deduce que
nuestro estimador es eficiente (tiene varianza mnima).
6
CONSISTENCIA
Por ltimo, se demostrar que los parmetros MCO son consistentes;
es decir, que ampliando la muestra al total de la poblacin, el valor
estimado coincide con el real o, dicho de otra forma, que cuando
contamos con todos los datos, no con una muestra, el clculo de MCO
da como resultado los parmetros reales, un clculo exacto, luego
con varianza igual a cero.
0 ))

(var( lim )

( lim


n n
p p
Para demostrar esta situacin, emplearemos la segunda expresin (la
de la probabilidad asinttica de la varianza de los estimadores).
Sustituyendo esta frmula por su expresin de clculo (a la que
hemos llegado cuando realizamos la demostracin de la eficiencia u
optimalidad de los parmetros) tenemos:
[ ] 0
'
' ))

(var( lim
1
2
1 2

1
]
1

n
X X
n
X X p
n


Lo antedicho, podra interpretarse como que, a medida que vamos
aumentando el nmero de datos en nuestra estimacin (n tiende a
infinito), el valor del producto sera cada vez ms pequeo; es decir,
se ira aproximando a cero. En el lmite, sera nulo siempre que el
segundo valor del producto (la matriz inversa) fuera calculable.
COROLARIO
En definitiva, despus de haber observado que los estimadores MCO
cumplen con las cuatro propiedades propuestas (linealidad,
insesgadez, optimalidad y consistencia); adems de saber que
contamos con las estimaciones paramtricas con mayores garantas
estadsticas, tambin podemos saber que los coeficientes del modelo
se distribuyen como una Normal, con media el verdadero valor del
parmetro (son insesgados) y varianza [ ]
1 2
' )

(

X X VAR COV . Es
decir:
[ ] ) ' ; (

1 2
X X N
En cualquier caso, esta expresin no ser de utilidad para determinar
los intervalos de confianza de los parmetros (para conocer entre qu
bandas se movern los verdaderos valores de los parmetros) salvo
que obtengamos un mtodo para estimar la varianza de las
perturbaciones aleatorias que interviene en esta frmula
2
.
7