Está en la página 1de 32

Identificación y consistencia

GMM

Estimadores M

Gabriel V. Montes-Rojas

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Marco general

Sea m(x, θ) un modelo paramétrico para E (y |x ) (o cualquier momento de


interés) donde
m(.) es una función conocida de x y θ.
x es un vector de K variables explicativas.
θ es un vector P × 1 de parámetros. θ ∈ Θ ⊆ RP .
Un modelo está correctamente especificado para la media condicional E (y |x ) si
para algún θ0 ∈ Θ,
E (y |x ) = m(x, θ0 )

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Marco general
Tomemos q (w , θ) como una función del vector aleatorio w y el vector de
parámetros θ ∈ Θ.
En general tenemos w = (y , x ) con elementos tı́picos w i de una muestra
{w i : i = 1, 2, ..., N }.
q (.) es una función conocida de w y θ.
θ es un vector P × 1. θ ∈ Θ ⊆ RP .
Un estimador M (M-estimator en inglés) de θ0 resuelve el problema

N
min N −1
θ∈Θ
∑ q (w i , θ),
i =1

N
θ̂ = arg min N −1
θ∈Θ
∑ q (w i , θ)
i =1

Definamos la función θ 7→ MN (θ) donde MN (θ ) ≡ N −1 ∑N


i =1 q (w i , θ) y
θ 7→ MN (θ) donde M (θ ) ≡ E [q (w , θ)].
Notemos que θ̂ es una función de la muestra aleatoria {w i : i = 1, 2, ..., N }.
Algunas veces usaremos la notación θ̂N para enfatizar que depende de la
muestra.
Gabriel Montes-Rojas Estimadores M
Identificación y consistencia
GMM

Marco general

En general asumimos que

θ0 = arg min E [q (w , θ)].


θ∈Θ

E [q (w , θ)] se puede ver en términos estadı́sticos como una función de pérdida


(loss function en inglés).
Ejemplos:
- cuadrática: (.)2 , que es la base de los estimadores MCO
- valor absoluto: |.|, que es la base de la regresión en la mediana.
- máxima verosimilitud: q = −` el log de la función de verosimilitud
(log-likelihood).

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Identificación

La identificación requiere que la solución a la minimización sea única.

E [q (w , θ0 )] < E [q (w , θ)], para todo θ ∈ Θ, θ 6= θ0 .

En otros contextos se usan otras definiciones de identificación. Por ejemplo, en


modelos lineales de regresión se requiere que los parámetros se puedan obtener como
funciones de esperanzas poblacionales.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Consistencia

Dado que θ̂ depende de la función θ 7→ MN (θ) necesitamos “convergencia funcional”.

Convergencia uniforme en probabilidad (uniform convergence in probability):



N
p
max N ∑ q (w i , θ ) − E [q (w , θ )] → 0.
−1
θ∈Θ i =1

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Ley uniforme y débil de los grandes números

Ley uniforme y débil de los grandes números: Supongamos que w es un vector


aleatorio que toma valores en W ⊂ RM , Θ ⊂ RP , y q : W × Θ → R es una función
real. Asumamos que
(a) Θ es compacto;
(b) para cada θ ∈ Θ, q (., θ) es medible en términos de Borel (Borel measurable) sobre
W;
(c) para cada w ∈ W , q (w , .) es contı́nua en Θ; y
(d) |q (w , θ)| < b (w ) para todo θ ∈ Θ, donde b es una función no negativa de W tal
que E [b (w )] < ∞.
Entonces
N
p
max N ∑ q (w i , θ) − E [q (w , θ)] → 0.
−1
θ∈Θ i =1

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Consistencia

Consistencia de los estimatores M: Bajo los supuestos de la convergencia uniforme en


probabilidad, y asumiendo identificación, entonces el estimador M θ̂ (o sea,
p
θ̂ = arg minθ∈Θ N −1 ∑N
i =1 q (w i , θ)) satisface θ̂ → θ.

p
Supongamos que θ̂ → θ, y asumamos que r (w , θ) satisface los mismos supuestos de
p
q (w , θ). Entonces, N −1 ∑N
i =1 r (w , θ̂) → E [r (w , θ0 )].

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Ejemplo MCO

En los modelos MCO m(x, β) = E (y |x ) = x β y q (y , x, β) = [y − m(x, β)]2 .


Para la identificación,

E [q (y , x, β 0 )] = E [y 2 + m(x, β 0 )2 − 2ym(x, β 0 )2 ]
= E [(x β 0 )2 + u 2 + (x β 0 )2 − 2(x β 0 )2 ] = σ2

E [q (y , x, β)] β6= β0 = E [y 2 + m(x, β)2 − 2ym(x, β)2 ]


= E [(x β 0 )2 + u 2 + (x β)2 − 2(x β 0 )(x β)]
= σ 2 + E (x β 0 − x β )2

Entonces,
E [q (x, β 0 )] < E [q (x, β)] para todo β ∈ B, β 6= β 0 .

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Score de la función objetivo

Si q (w , .) es contı́nuamente diferenciable en el interior de Θ, entonces con


probabilidad tendiendo a uno, θ̂ resuelve la condición de primer orden
N
∑ s (w i , θ̂) = 0,
i =1

donde  0
∂q (w , θ) ∂q (w , θ) ∂q (w , θ)
s (w , θ)0 = ∇θ q (w , θ) = , , ...,
∂θ1 ∂θ2 ∂θP
es el score de la función objetivo, un vector P × 1.
Esta condición se satisface en general con igualdad (pero no siempre, ver regresión por
cuantiles). Para MCO siempre es con igualdad.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Score de la función objetivo

Si E [q (w , θ)] es contı́nuamente diferenciable en el interior de Θ, entonces una


condición para la miniminzación es

∇θ E [q (w , θ)]θ=θ0 = 0.

Si las derivadas y las esperanzas se pueden intercambiar (Teorema de


Convergencia Dominada), entonces

E [∇θ q (w , θ0 )] = E [s (w , θ0 )] = 0.

p
Además si θ̂ → θ, entonces bajo las condiciones estándar de regularidad

N
p
N −1 ∑ s (w i , θ̂) → E [s (w , θ0 )].
i =1

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Score de la función objetivo

Un estimador que se define por


N
θ̂ = arg min k ∑ s (w i , θ)kM
θ∈Θ i =1

se llama estimador Z (del inglés Z-estimator, por “zero”). Aquı́ kkM es una norma
pre-especificada (en general la normal euclidiana).
Para este caso deberı́amos usar una condición de identificación diferente:

E [s (w , θ)] = 0 ⇐⇒ θ = θ0 .

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Hessiano de la función objetivo

Si q (w , .) es diferenciable al menos dos veces en el interior de Θ, entonces


definamos el hessiano de la función objetivo como,

∂2 q (w , θ) ∂s (w , θ)
H (w , θ) = ∇2θ q (w , θ) = =
∂θ∂θ0 ∂θ0
Por el teorema del valor medio aplicado a q (w , θ) en el valor θ0 ,
!
N N N
∑ s (w i , θ̂) = ∑ s (w i , θ0 ) + ∑ Ḧ i (θ̂ − θ0 ),
i =1 i =1 i =1

donde Ḧ i ≡ H (w i , θ̃) y θ̃ es un vector donde cada elemento está en el segmento


entre θ̂ y θ0 .
Notar que la solución implica ∑N
i =1 s (w i , θ̂) = 0.
Por otro lado notar que N −1 ∑N i =1 s (w i , θ̂) es un promedio, que converje en
p
probabilidad a E [s (w , θ0 )] dado que θ̂ → θ0 cuando N → ∞, usando LGN.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Expansiones asintóticas

p
Ahora con N −1 ∑N
i =1 s (w i , θ0 ) → E [s (w , θ0 )] = 0 también podemos aplicar la
LGN.
d
También vamos a usar el TCL, N −1/2 ∑N i =1 s (w i , θ0 ) → N (0, B 0 ), donde B 0 se
define más abajo, la varianza de s (w , θ0 ).
p
Usando argumentos similares para el score θ̂ → θ0 , entonces por teorı́a
asintótica (LGN y teorema de Slutsky)

N
p
N −1 ∑ H (w i , θ̃) → E [H (w , θ0 )].
i =1

Para estimadores M, si θ0 está identificado entonces E [H (w , θ0 )] es definida


positiva.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Expansiones asintóticas

La expansión en el valor real de los parámetros θ0 juega un rol fundamental en


el análisis asintótico.
Tomemos
√ la igualdad anterior y multipliquemos ambos lados de la igualdad por
1/ N,
!
√ N N √
0 = 1/ N ∑ s (w i , θ0 ) + 1/N ∑ Ḧ i N (θ̂ − θ0 ).
i =1 i =1

Reordenando los términos obtenemos la expansión asintótica de primer orden de


θ̂:
! −1 " #
√ N N
N (θ̂ − θ0 ) = N −1 ∑ Ḧ i −N −1/2 ∑ s i (θ0 )
i =1 i =1

donde s i (θ0 ) = s (w i , θ0 ).

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Expansiones asintóticas

Además, usando A0 ≡ E [H (w , θ0 )],


" #
√ N
N (θ̂ − θ0 ) = A0−1 −N −1/2 ∑ s i (θ0 )
i =1
 ! −1 " #
N N
+  N −1 ∑ Ḧ i − A0−1  −N −1/2
∑ s i (θ0 )
i =1 i =1
" #
N
= A0−1 −N −1/2 ∑ s i (θ0 ) + op (1) · Op (1)
i =1
" #
N
= A0−1 −N −1/2 ∑ s i (θ0 ) + op (1)
i =1

Definamos la función de influencia de θ̂ como e (w i , θ0 ) ≡ e i (θ0 ) ≡ A0−1 s i (θ0 ).


Esta mide la “influencia” de cada observación particular i en el estimador.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Normalidad asintótica

Normalidad asintótica: Además de los supuestos necesarios para consistencia,


asumamos que
(a) θ0 ∈ intΘ;
(b) s (w , .) es continuamente diferenciable en el interior de Θ para todo w ∈ W ;
(c) Cada elemento en H (w , θ) esta acotado en valor absoluto por una función b (w ),
donde E [b (w )] < ∞;
(d) A0 ≡ E [H (w , θ0 )] es definida positiva;
(e) E [s (w , θ0 )] = 0; y
(f) Cada elemento en s (w , θ0 ) tiene momento segundo finito (varianza finita).
Entonces,
√ d
N (θ̂ − θ0 ) → N (0, A0−1 B 0 A0−1 ),
donde B 0 ≡ E [s (w , θ0 )s (w , θ0 )0 ] = Var [s (w , θ0 )]. Ası́,

Avar (θ̂) = A0−1 B 0 A0−1 /N.

Notemos la fórmula sandwich: A0−1 B 0 A0−1 . Esta aparecerá muchas veces en el futuro.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Ejemplo MCO

Resolver este caso para MCO.


Notar que

s (w , β) = ∇θ q (w , β) = −2x 0 (y − x β),
que nos da la clásica condición E [x 0 u ] = 0.
El hessiano es

A0 = E [H (w , β 0 )] = 2E [x 0 x ].

Si asumimos homoscedasticidad (E [uu 0 |x ] = σ2 I ),

B 0 = E [s (w , β 0 )s (w , β 0 )0 ] = 4σ2 E [x 0 x ]
Entonces,
√ d
N ( β̂ − β 0 ) → N (0, σ2 E [x 0 x ]−1 ).

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Ejemplo MCO

Si tenemos heteroscedasticidad:

B 0 = E [s (w , β 0 )s (w , β 0 )0 ] = 4E [x 0 u 0 ux ]

y entonces B 0 6= A0 .
En este caso,
√ d
N ( β̂ − β 0 ) → N (0, E [x 0 x ]−1 E [x 0 u 0 ux ]E [x 0 x ]−1 ).

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método delta

La expansión asintótica se puede usar para funciones de parámetros.


Consideremos
√ la función θ 7→ g (θ). Nos gustarı́a saber la distribución de
N (g (θ̂) − g (θ0 )).
Asumamos que
√ d
N (θ̂ − θ0 ) → N (0, V θ̂ ),
θ 7→ g (θ) es diferenciable en θ0 (o sea, la primera derivada existe y es
contı́nua en θ0 ).
Entonces,

√ d
N (g (θ̂) − g (θ0 )) → N 0, ∇θ g (θ0 )V θ̂ ∇θ g (θ0 )0


Por el teorema de Slutsky:

p
∇θ g (θ̂)V̂ θ̂ ∇θ g (θ̂)0 → ∇θ g (θ0 )V θ̂ ∇θ g (θ0 )0 ,

donde V̂ θ̂ es un estimador consistente de V θ̂ .

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Ejemplo: Elasticidades de largo plazo

Consideremos el modelo yt = β 0 + xt β 1 + yt −1 α1 + ut donde (y , x ) estan en


logaritmos.
La elasticidad de corto plazo viene dado por del efecto de x en y viene dado por
β1 .
La elasticidad de largo plazo viene dado por del efecto de x en y viene dado por
β1
1− α1 .
β̂ 1
Obtener la distribución de 1−α̂1 .

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

Supongamos el modelo de regresión lineal y = x β + u. En este modelo


podemos tener que x es endógena (o algunas xs), por lo que β no puede ser
estimado con MCO. Supongamos que x es un vector 1 × K y β es K × 1. X es
la matriz de datos N × K . y y u son vectores N × 1.
Supongamos un conjunto de J variables exógenas, z que dan lugar a las
condiciones de momento, E (u |z ) = 0J .
Si J = K el modelo está exactamente identificado. Ejemplo:
E (u |z ) = 0J da lugar a las condiciones de momento E (z 0 u ) = 0J (probar).
Entonces podemos plantear las siguientes condiciones empı́ricas
X 0 u ( β̂) = X 0 (y − X β̂) = 0J . La solución es MCO.
Si J > K el modelo está sobre-identificado (over-identified). Notemos que en
este caso la solución no es única. Para cada combinación de K condiciones de
momento tenemos un estimador diferente...

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

Tomemos g (w , θ) un vector J × 1, g (w , θ) = (g1 (w , θ), . . . , gJ (w , θ))0 que


mapea W × Θ 7→ g (w , θ), y también g i (θ) ≡ g (w i , θ).
Asumir que E [g (w i , θ0 )] = 0.
Una condición necesaria mı́nima para la identificación es θ0 is J ≥ P (que haya
al menos tantos momentos como parámetros a estimar).
Cuando J = P, entonces θ0 se estima por la contraparte muestral
N −1 ∑ N 0
i =1 g (w , θ0 ) = 0 . Este es el caso de MCO donde g (w , θ) = x (y − x β ),
el modelo lineal que tenı́amos antes.
Cuando J > P, entonces el Método de los momentos generalizados (GMM en
inglés) usa una métrica cuadrada para minimizar ∑N
i =1 g (w , θ):
" #0 " #
N N
min
θ∈Θ
∑ g (w i , θ) Ξ̂ ∑ g (w i , θ)
i =1 i =1

donde Ξ̂ es una matriz de pesos J × J simétrica y semidefinida positiva.


Ξ̂ tiene un rol central en el modelo GMM. En particular se encarga de “pesar”
cada condición de momento gj . Ejemplo: Supongamos que g1 tiene más
varianza que g2 . Entonces deberı́amos usar más información de g2 que de g1 .

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

h i0 h i
Definamos QN (θ) = ∑N i =1 g (w i , θ) Ξ̂ ∑i =1 g (w i , θ) . Bajo condiciones de
N

regularidad estándares QN (θ) converge uniformemente a


p
{E [g i (θ)]}0 Ξ0 {E [g i (θ)]} donde Ξ̂ → Ξ0 .
Entonces el estimador GMM es
" #0 " #
N N
θ̂GMM = argminθ∈Θ ∑ g (w i , θ) Ξ̂ ∑ g (w i , θ) .
i =1 i =1

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados


Bajo el supuesto que g (w , .) es contı́nuamente diferenciable en int (Θ), θ0 ∈ Θ,
entonces la condición de primer orden para θ̂ es
" #0 " #
N N
∑ ∇θ g i (θ̂) Ξ̂ ∑ g i (θ̂) ≡ 0.
i =1 i =1

Definamos
matriz J × P de rango P, G 0 ≡ E [∇θ g i (θ̂)];
matriz P × P de rango P, A0 ≡ G 00 Ξ0 G 0 ;
matriz P × P de rango P, B 0 ≡ G 00 Ξ0 Λ0 Ξ0 G 0 ;
matriz J × J de rango J, Λ0 ≡ E [g i (θ0 )g i (θ0 )0 ] = Var [g i (θ0 )].
Con manipulaciones algebraicas llegamos a
N √
0 = G 00 Ξ0 N −1/2 ∑ g i (θ0 ) + A0 N (θ̂ − θ0 ) + op (1)
i =1

Entonces,

√ N
∑ g i (θ0 ) + op (1) → N (0, A0−1 B 0 A0−1 )
d
N (θ̂ − θ0 ) = −A0−1 G 00 Ξ0 N −1/2
i =1

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

El estimador GMM más eficiente requiere Ξ0 = Λ0−1 porque

(G 00 Ξ0 G 0 )−1 (G 00 Ξ0 Λ0 Ξ0 G 0 )(G 00 Ξ0 G 0 )−1 − (G 00 Λ0−1 G 0 )−1 ,


o sea, la diferencia entre dos estimadores GMM es una matriz semidefinida
positiva.
Notemos que no podemos tener Λ0 antes de estimar θ̂. Sin embargo, solo
necesitamos un estimador consistente, θ̃, para estimar primero Λ0 , y luego se
construye el estimador GMM.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados


Siguiendo con el modelo lineal sobre-identificado, podemos plantear el problema
como encontrar un cero a Z 0 u ( β) = 0J donde u ( β) = y − X β es un vector
N × 1. Como J > P = K tenemos más ecuaciones que parámetros, entonces no
hay solución única.
Para transformar esto en un problema de solución única, lo transformamos en
una forma cuadrática. Para cualquier matriz Ξ positiva semi-definida J × J,

0
β̂Ξ 0 0 0 0 0
GMM = arg min(Z u ( β )) Ξ (Z u ( β )) = arg min Z (y − X β ) Ξ Z (y − X β )

β β

" #0 " #
N N
= arg min
β
∑ z i0 ui ( β) Ξ ∑ z i0 ui ( β)
i =1 i =1

De esta manera J condiciones de momento se transformaron en una función


cuadrática a ser minimizada, que tienen solución única.
También lo podemos escribir en función de lo anterior como

β̂ GMM = arg min QN ( β)


β

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

Tomemos ahora la primera derivada de esta función y resolvamos para que


evaluada en β̂ sea 0:
 
∂QN ( β̂) ∂d 0 0
 ∂d y − X β̂ 2
= 0J = û (Z ΞZ )û = û 0 Z ΞZ 0 (−X ),
∂β d û d β̂ N

donde û = y − X β̂ y usamos ∂Ab/∂b = A y ∂(b 0 Ab )/∂b = 2b 0 A, donde b es


un vector columna y A es una matriz simétrica. Entonces tenemos,

β̂ΞGMM = (X 0 Z ΞZ 0 X )−1 X 0 Z ΞZ 0 y ,
donde enfatizamos que depende de Ξ.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

Si las condiciones de momento son válidas, el estimador es consistente:

β̂ΞGMM = (X 0 Z ΞZ 0 X )−1 X 0 Z ΞZ 0 y = (X 0 Z ΞZ 0 X )−1 X 0 Z ΞZ 0 (X β + u )

p
= β + (X 0 Z ΞZ 0 X )−1 X 0 Z ΞZ 0 u → β, N → ∞
p
usando N1 Z 0 u → 0J y que 1 0
NZ X converge a una matrı́z no nula cuando
N → ∞.
Este estimador no es factible porque no tenemos Ξ. Para ello necesitamos
calcular la varianza asintótica...

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

Calculemos la varianza asintótica,

Var ( β̂ΞGMM ) = plimN →∞ (X 0 Z ΞZ 0 X )−1 (X 0 Z ΞZ 0 uu 0 Z ΞZ 0 X )(X 0 Z ΞZ 0 X )−1 .

1 0 p
Si hacemos Ξ̂ = NZ u → E [z i0 ui ui0 u i ] = (Ξ∗ )−1 , entonces tenemos la varianza
óptima:

Var ( β̂∗GMM ) = plimN →∞ (X 0 Z Ξ∗ Z 0 X )−1 .


Prueba: Para ver que este es el estimador más eficiente calculemos Var ( β̂∗GMM ) − Var ( β̂Ξ
GMM ) =
plimN →∞ (X 0 Z Z 0 uu 0 Z Z 0 X )−1 − (X 0 Z ΞZ 0 X )−1 (X 0 Z ΞZ 0 uu 0 Z ΞZ 0 X )(X 0 Z ΞZ 0 X )−1 =
(ΣXZ Ξ∗ ΣXZ
0 ) −1 − ( Σ 0 −1 ∗ 0 0
XZ ΞΣXZ ) (ΣXZ ΞΞ ΞΣXZ )(ΣXZ ΞΣXZ )
−1 donde Σ
XZ =
1
N plimN →∞ X 0 Z . Esto
puede escribirse como una forma cuadrática = −D [I − H (H 0 H )−1 H 0 ]D donde
0 ) −1 ( Σ
D = (ΣXZ ΞΣXZ ∗ 1/2 ) y H = (Ξ∗ )−1/2 Σ
XZ Ξ (Ξ ) XZ .

El estimador GMM se tiene que armar con ponderaciones que son inversamente
proporcionales a la varianza de las condiciones de momento.
Estos modelos reciben el nombre de mı́nimos cuadrados generalizados (MCG).

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Método de los momentos generalizados

Supongamos que ui ∼ i.i.d.(0, σ2 ) y que Z = X , es decir son exógenas.


Entonces tenemos los supuestos de Gauss-Markov. En este caso,
Ξ−1 = Var (Z 0 u ) = E (Z 0 uu 0 Z ) = E [Z E (uu 0 |Z )Z 0 ] = σ2 E [Z Z 0 ] = σ2 E [X X 0 ],
entonces β̂∗GMM = β̂ MCO .
Supongamos que ui |xi ∼ i.i.d.(0, h(xi )) y que Z = X . Entonces
Ξ−1 = Var (Z 0 u ), que no se puede simplificar.
Supongamos que E (uu 0 |X ) = Ω y que Z = X . Modelo de efectos aleatorios,
clusters, etc. (ver datos en panel)
Supongamos que Z 6= X . Variables instrumentales.

Gabriel Montes-Rojas Estimadores M


Identificación y consistencia
GMM

Referencias

Estas notas se basan en


Capı́tulos 12, 13 y 14 de Wooldridge.
Newey, W.K., y McFadden, D. (1994), “Large Sample Estimation and
Hypothesis Testing,” en Handbook of Econometrics, Volumen 4, ed. R.F. Engle
y D. McFadden. Amsterdam: North Holland, 2111–2245.
Van der Vaart, A.W. (1998), Asymptotic Statistics. Cambridge University Press.

Gabriel Montes-Rojas Estimadores M

También podría gustarte