Está en la página 1de 52
EL METODO GENERALIZADO DE LOS MOMENTOS Alfonsa Denia e Ignacio Mauleén* WP-EC 95-06 * A. Denia: Universidad de Alicante; I. Mauleén: Instituto Valenciano de Investigaciones Econémicas y Universidad de Alicante. Editor: Instituto Valenciano de Investigaciones Econémicas, S.A. Primera Edicién Junio 1995. ISBN: 84-482-1008-5 Depésito Legal: V-2104-1995 Impreso por Copisteria Sanchis, S.L., Quart, 121-bajo, 46008-Valencia, Tmpreso en Espafa EL METODO GENERALIZADO DE LOS MOMENTOS Alfonsa Denia e Ignacio Mauleén RESUMEN El método generalizado de los momentos es una técnica de estimacién muy general, que permite interpretar la mayor parte de los métodos de estimacién conocidos como casos particulares, incluido el de méxima verosimilitud bajo ciertas condiciones. Ademés, este procedimiento permite desarrollar métodos de estimacién nuevos, especialmente adaptados a problemas planteados por la macroeconomfa contemporiinea. El objeto de este trabajo es presentar, de forma sistemdtica, el conjunto de resultados, propiedades y aplicaciones més relevantes del método mencionado. PALABRAS CLAVE: Estimacién por simulacién, matriz generalizada de covarianzas, método de momentos. ABSTRACT ‘The generalized method of moments is a common estimation technique which allows us to interpret most part of the known estimation methods as well as particular cases, including maximum likelihood under certain conditions. This procedure also allows us to develop new estimation methods, specially suited for the present macroeconomic problems, The aim of this paper is to systematically present the most relevant results, properties and applications of this method. KEY WORDS: Simulation estimation, generalized covariance matrix, method of moments, pecans I. INTRODUCCION. Aunque existen importantes trabajos previos, tales como los desarrollados por Sargan (1958) y Malinvaud (1970), por citar algunos de ellos, es a partir fundamentalmente del trabajo de Hansen (1982) cuando el Método Generalizado de Jos Momentos (MGM) adquiere un importante desarrollo te6rico, y también, en especial en los iiltimos afios, un notable incremento en los trabajos empiricos, en particular, los desarrollados en el Ambito de la macroeconomia. La relativa proliferacién de trabajos, tanto tedricos como aplicados, vinculados a este método de estimacién puede estar debida, al menos en cierto sentido, a que los estimadores MGM incluyen como casos particulares a buena parte de los estimadores habituales en econometria, tales como los MCO, VI, MC2E, e incluso en determinadas ocasiones al MV. Pero también a que, como veremos en los epigrafes siguientes, este método de estimacién alternativo slo precisa de ciertas condiciones de ortogonalidad, es decir de lo que también se denomina ‘condiciones de los momentos’, y no de la funcién de densidad como tal. Como contrapartida, al no utilizar toda la informacién disponible en la muestra, el estimador MGM puede no resultar eficiente, hecho este no muy limitativo si el objetivo esencial es encontrar un estimador consistente. La existencia de ciertas condiciones de ortogonalidad se emplea para encontrar el estimador MGM que minimice una determinada funcién objetivo. Como veremos, estas condiciones de ortogonalidad hacen referencia, en general, al hecho de que la esperanza del producto cruzado entre la perturbacién aleatoria y las variables observables en un modelo econométrico es igual a cero. Estas perturbaciones aleatorias, que no son observables, pueden ser reemplazadas por tuna expresiGn equivalente, que esté expresada en funcién del verdadero vector de pardmetros y las variables observadas. La notable proliferacién de trabajos en este tema, y a la que ya hemos aludido, probablemente dificulta la tarea de sintetizar los resultados, las aplicaciones y, en general, los muy diversos aspectos que se engloban en un titulo tan genérico como el aqui presentado. Sin embargo, creemos que un intento de sistematizacién, aun con el riesgo de obviar alguna cuestién de cierta relevancia, 0 de no profundizar en exceso en otras, es importante en la medida que puede ayudar a obtener una visién panordmica de este método de estimacién, asf como de sus aplicaciones mds relevantes. Por otra parte, tampoco existen trabajos que presenten, desde nuestro punto de vista, un visién tan global como la que aqui se presenta, (al menos no en castellano). Los trabajos de Hall (1993) y de Ogaki (1993), muy pedagégicos ambos, el primero como una buena introduccién al tema, y el segundo por su orientacién a las principales aplicaciones de este método, no se corresponden exactamente con la idea de presentar de forma relativamente extensiva este método de estimacién, tal y como los propios autores sefialan. Es evidente, que también se podrfa haber optado por centramos en aspectos més especificos del mismo; sin embargo, creemos que ambas opciones son igualmente vilidas, y desde luego complementarias, Es precisamente el répido crecimiento de esta literatura lo que nos ha Hevado a pensar que podria resultar de utilidad un documento de esta naturaleza. El trabajo esté desarrollado como sigue: En el epfgrafe segundo se presenta una breve descripeién del método de los momentos, que es un caso especifico del MGM, y que sirve a su vez como introduccién al MGM. A este método se dedica el apartado Ill, en el que se incluyen las propiedades bésicas del mismo, La seccién IV se centra en la estimacién de la matriz de covarianzas de los momentos. El epigrafe V incluye los principales contrastes existentes, tanto para detectar una posible sobreidentificacién en el modelo, como contrastes de hipdtesis generales sobre 8. En la seccién VI se incluyen algunas aplicaciones y ejemplos especificos del MGM. En particular, se obtiene el estimador éptimo para el caso lineal cuando las perturbaciones estén correlacionadas con los_—_regresores, son _—heterocedésticas autocorrelacionadas. La VII discute 1a relacién entre el estimador maximo ‘verosimil y quasi maximo verosimil con el MGM. La seccién VIII presenta el método de los momentos simulados. Finalmente, algunas conclusiones y campos de aplicabilidad del método expuesto (en particular, al caso de los modelos econométricos no lineales) se presenta, brevemente, en la seccién IX. METODO DE LOS MOMENTOS. ‘Supongamos que disponemos de un determinado conjunto de observaciones de una variable y,, cuya ley de probabilidad depende de un vector de parémetros desconocidos, 8, que queremos estimar. Para ello disponemos de dos vias alternativas, i) estimar por Maxima Verosimilitud, para lo que evidentemente debemos conocer por completo la forma de la funcién de verosimilitud, y seleccionar el resultado que genere un valor més alto para la funcién de verosimilitud muestral, o bien, ii) utilizar un método altemativo que permita estimar el vector @, sin necesidad de conocer 1a funcién de densidad de la variable aleatoria y,, pero utilizando alternativamente algunos momentos de la variable aleatoria, asf como la idea de que las condiciones de ortogonalidad (de la que se hizo una répida referencia en la introduccién y sobre la que volveremos en breve) sélo pueden ser satisfechas por los verdaderos valores de los parémetros, Para entender mejor esta segunda via se incluyen los dos ejemplos siguientes. Ejemplo I1.1. Supongamos que Y, procede de una x2 con v grados de libertad, que disponemos de una muestra de tamafio T y que estamos interesados en estimar precisamente V. Evidentemente, v puede ser estimado por MV a partir de su funcién de densidad. Sin embargo, también sabemos que Ef] = v, y que fl UTEy,, por lo que esto sugiere que una estimacién altemativa a 1a MV de v i. Es decir, se despeja el pardmetro estimado de se limita a fi = v, 0 UD) interés, tras igualar los correspondientes momentos muestrales alos poblacionales. En esencia esto es lo que se conoce como el método de los momentos, y descansa en la idea bdsica de que en muestras aleatorias, un estadistico muestral convergeré en probabilidad a una constante. Obviamente esta constante, es a su vez, funcién de pardmetros desconocidos, @ (kx), que caracterizan la funcién de densidad de la variable y,, por lo que los momentos poblacionales de la distribucién serdn funcién de los mismos, tal que Ely'] = H(@). Para estimar estos k parémetros caleulamos los correspondientes momentos muestrales y, tal y como se ha comentado anteriormente, se igualan Jos momentos muestrales con los poblacionales. Finalmente los pardmetros se expresan en funcién de los momentos. Es decir, el método de los momentos obtiene el 6 para el cual se cumple que, A ae 4@ = ay, y¥, a a Obsérvese que lo anterior implica que Ely! - 1O] = 0, que slo puede ser satisfecha por el verdadero valor del pardmetro, y que se denomina *condicién de momento’ y [1] que representa la correspondiente ’condicién de momento muestral” rs A am ¥ [y'- 4.@] = 0 rea) a siendo el estimador elegido justamente aquel que cumple la condicién de momento muestral, y que se tratard de un estimador consistente, puesto que * 4,@) —2> 1,(@) para un T suficientemente grande. Ejemplo 112. Si ¥, es una variable aleatoria con E[Y] = H, y 0° = ELY- uF, los estimadores de momentos de pL y O° serdn sus correspondiente contrapartidas muestrales. Si ademds, Y, es Normal, los estimadores de momentos anteriores coinciden con el Maximo Verosimil. Bajo otra distribucién el resultado general es que los estimadores MV serdn més eficientes. Recuérdese que, como se comenté anteriormente y como se aprecia en estos ejemplos, el método de los momentos no precisa informacién completa de la funcién de densidad, sino que requiere Gnicamente ciertas especificaciones de los momentos; de hecho, de esto también se deduce una ventaja, y es que no se requiere hacer ningdn supuesto sobre la distribucién de la variable aleatoria. Ill. METODO GENERALIZADO DE LOS MOMENTOS. DEFINICION GENERAL Y PROPIEDADES. En los dos ejemplos previos contabamos con el mismo niimero de momentos poblacionales que de parémetros a estimar, sin embargo, hay casos en los cuales esta igualdad no se cumple, por lo que para utilizar toda la informacién disponible en la muestra es necesario utilizar una via que reconcilie las diversas estimaciones que surgen de un _ sistema sobredeterminado. En estos casos, el método de los momentos no resultard eficiente, siendo necesario recurrir al denominado Método generalizado de los momentos. Ejemplo III.1. Supongamos que ahora, siguiendo con el ejemplo IL.2, 6” = f(t). En este caso, dispondrfamos de dos momentos y de un tnico parémetro a estimar. El problema es, por tanto, cémo elegir un estimador de wi, sabiendo que, elisa) -* 01 aL, By /Ter-v} =o =m) Alternativamente podemos definir las funciones: x Ly /- nemo m 4 FG, -w*/cr-y- oF = mew & Y tratar de elegir j1 tan préximo como sea posible a las dos opciones. Como E(m,) = E(m,) = 0, una posibilidad serfa minimizar una funcién criterio tal como, M= m’A m, donde m’ im,.m,), y A es una matriz simétrica, definida positiva y no singular, En realidad, A es una matriz de ponderaciones que reflejaré la importancia que estemos dando a cada una de las dos posibilidades de estimar jt, y que serd, en este ejemplo, de orden (2 x 2). Obviamente, si A = I la funcién criterio que se pretende minimizar es la suma de cuadrados, tipo MCO. IIL1. Funcién criterio. Sea z, un vector de variables aleatorias de orden (hx) que son observadas en el momento t, y sea @ un vector (kx1) de pardmetros desconocidos, y sea m,(z,,0) un vector (jxl), con k < J, Efm,] = 0, evaluado en el verdadero valor de 8. Las j filas de Efm,] = 0 se conocen como las condiciones de ortogonalidad. Sea 4 a matriz de todas las observaciones de dimensién (Txh). Con cardcter general, los momentos poblacionales serdn funcién de los parémetros ©, (©). Por otro lado, los momentos muestrales correspondientes serén distintas funciones g(.) de las observaciones. Por tanto, podemos escribir, ahora, Io siguiente, = fae ae Is,e/t = = GG, me.) = 7.0) (3 donde se cumpliré que, plim tng?) =0 [a es decir, que los momentos muestrales Zg(z)/T convergerdn en probabilidad a los poblacionales 7(0,). Nétese, asimismo, que los momentos fh, serén o(1/v7). El estimador MGM de @ seré aquel que minimice una determinada funcién criterio. Una posibilidad es min (1i,"é,). Sin embargo, en un contexto més general, podemos construir una funcién criterio usando una matriz A, de tal forma que el objetivo sera min (ii,"A,t,). El estimador MGM 6 seré el valor de ice 7 10 siendo A, una matriz arbitraria de ponderaciones, simétrica, definida positiva, no singular, y A,= O(1) (plim A, = A), que no depende de @, pero que puede ser funcién de los datos. Cuando J = k, el minimo en Ia funcién objetivo C, se conseguir simplemente haciendo m,(6) = 0. En este caso es evidente que no importa la eleccién de la matriz de ponderaciones, puesto que la funcién criterio seré cero para cualquier matriz A. Si J > k, entonces hay més condiciones de ortogonalidad que parémetros a estimar y no se cumpliré n,(6) = 0. En general, ahora la proximidad del i-ésimo elemento de m,(8) a cero dependeré de la ponderacién correspondiente a la i-ésima condicién de ortogonalidad. Es por ello que se necesita una via que reconcilie las diversas estimaciones que surgen de un sistema sobredeterminado, 111.2. Identificaci6n. Consideraremos que un modelo esté asintsticamente identificado si para 0 # 0° existe alguna secuencia de funciones criterio C,, tal que plim ce) + plim C,(@%), donde al menos uno de los plim existe y es una constante finita, © expresado de otro modo, si plim C,(6') = plim C0), entonces, 6! = 6% Para analizar la identificacién supondremos que mi es derivable en un entorno de 0; esto es, (01/00) = D matriz de orden (Jxk) (2,/29,) = D,, 8] ‘Ademés, supondremos que D es O(1), y de rango completo (rg(plim D) = k) para @ © Ng, En general, D depende de T, pero esto se omite por simplicidad de notacién. En segundo lugar supondremos que C, evaluado en @ es dos veces diferenciable. Desarrollando por Taylor la funcién C(.) evaluada en un valor il 6, alrededor del verdadero valor 0, obtenemos: a{@ - 0) + 47208 - 0)'(8%c, /o0a0" (8) = Cle) + (8C,/29), yr - 0) 19) siendo 6° algtin punto intermedio entre 6 y 6, y donde (8¢,/80), = 2 D'Aim (°C, 78060, ) = 2IDAa (2n00,) + (eD'78,) A m) si (27/0, 9) existe y es O(1), y dado que m = O(1/v#), tendremos lo siguiente, (8C,/30), ——> ©. [10] 38°C, /8080"}= 2[D"AD| Por tanto, plim [C,@) - C,(0)] = @ - 6)(D'AD)g(B- @) = 0 En esta ultima expresién, tanto D como A corresponden a sus plims, aunque Ja notacién se simplifique por comodidad. Asf, A y D no dependen de T, pero si de 0", por el momento. Se puede asegurar que la forma cuadrética anterior es definida positiva, ya que D es de rango completo. Ademds, A es de rango completo en 6", por lo que D(6 - 8) es igual a cero, Ambas cosas implican que © = 0, por lo que @ esté identificado (més concretamente, esti asint6ticamente identificado). Resumen de condiciones: Le i es derivable dos veces con respecto a 0, cumpligndose, ademas que, LL.- ém/ae = D, es O(1), 1.2.~ plim D, = D; rg(D) = k, 8 € 0, 1.3.- 81/80,80 es ende 1n/0,80, es O(1) en 6 © Ny 'e 12 2.- A, es una matriz de ponderaciones que satisface 2.1 es simétrica y definida no negativa. 2.2. A= 0) 2.3. re(plim A,) es completo (es decir, es no singular). 3. m= O(IWT) 111.3. Consistencia. Supondremos que hemos obtenido el estimador de © por MGM (8). Como se obtiene minimizando una funcién criterio que es definida no negativa para todo T, tendremos que, 0 in(2x6)Ain(2x8) < in(21,8)"A,sa(219) Por otra parte, y como in(27,0) = 0(1/V7), es inmediato que, 0 = plim in(21,8)"A,si(21,8) = pim ia(2x9)"A, (210) y como @ esta identificado en el sentido del apartado anterior, concluimos que, plim 6 = 0 A es decir, 8 es un estimador consistente de 0. TIL4. Distribucién asintotica. Un estimador consistente 6 es asintsticamente normal si la secuencia de variables aleatorias (T'7(@ - 6)) tiende en distribucién a una Normal multivariante, con media cero y matriz de covarianzas finita, 13 Dado que el estimador MGM es aquel que se obtiene al minimizar C,, y asumiendo que existe un mfnimo interior, la minimizacién se reduce a derivar la funcién criterio con respecto a 0 e igualarla a cero, es decir, ALA D’Am = 0 a1) donde ahora, m es 1(8), y D representa la matriz de derivadas de la funcién ti evaluadas en 0. Linealizando la expresi6n anterior se obtiene, Bran + D,6 - ») = 0 [12] donde, m(6) = six) + Dgs(d - 0) y se cumpliré, lo siguiente, i) 6° © ©, 0), por lo que plim 0° ii) Dor = amvao|,_ 4+ 013) iii) Dado que 6° —? 56, plim D, = plim D Despejando se obtiene la expresién, vr. 6) =- [Bap]! Beavt ii = Hew, w = VT ia 04) » » 2 donde Hz = - [BAD] B*A. Como 6 es consistente, plim H,, = H, donde todo esté evaluado en el verdadero valor de los parémetros, 0. El algoritmo para resolver iterativamente el estimador de 0, a partir de las ecuaciones no lineales de [11], puede obtenerse inmediatamente a partir del desarrollo de [12], y vendré dado por, 8, = 6 - @’ADy'D:Am, (15) 14 donde el subindice * en el estimador de @ obtenido en Ia iteracién *i'. Como es habitual, por otra parte, puede afadirse un pardmetro al segundo término en la expresién anterior, para asegurar que el estimador en el paso i+1, efectivamente conduce aun valor menor de la funcién criterio, que el estimador del paso i. indica que la correspondiente expresin esté evaluada Finalmente, por el TCL, y teniendo en cuenta que i es la media muestral de un proceso con media cero, se puede asumir, bajo ciertas condiciones de regularidad (tales como la estacionariedad de z,, la continuidad de 1i(), junto con algunas restricciones para los momentos) que VT in —2-> N(0,). Por * otra parte, dado que 6 es un estimador consistente, junto con la existencia de D, se cumple, teniendo en cuenta el Teorema de Cramer que, A é : v7@- 6) —25 HVT ih a es decir, vT (8- 6€) >> N(O,V) [16] donde V = H' H H°@ H = [D’AD]'D’A@AD [D’AD]" u7 TILS. Eficiencia, En este apartado se presenta la forma de seleccionar la matriz A,, que de lugar a un estimador con las menores varianzas posibles. La condi eficiente es que A, tienda a una matriz que resulte proporcional a la inversa de la matriz de covarianzas asintética de ih, cuando T —> e», Por tanto, el A 6ptimo es @'', Sustituyendo en H’ H, tenemos que 4 in jn para que el estimador 6, obtenido minimizando C,, sea He H = [p’o"p]" us] Se trata de probar que esta es la menor matriz de covarianzas asint6tica, en el sentido de que la diferencia entre la matriz de covarianzas de un 15 estimador alternativo al dptimo, 0 y la de este, 6 es una matriz semidefinida positiva, Es decir, hay que probar alternativamente que sus inversas cumplen Ia condicién de que D’"'D - D'AD[D’A®AD] 'D’AD es una matriz semidefinida positiva, Para probar esto, efectuaremos las operaciones siguientes, D’®''D - D’AD[D’A®AD] “'D'AD = pe [1 ~ @!/? AD[DA@AD] 'D’Ad!? Jo’ = [19] =w[r- perp) tp ]y siendo P = @'/?AD, y que es una forma cuadrética semidefinida positiva, puesto que la matriz asociada a la forma cuadrética es idempotente. Una forma, quizé més intuitiva, de obtener el resultado anterior, puede derivarse teniendo en cuenta que podemos escribir lo siguiente, m = m@) +0 [20] siendo m los momentos observados, m(.) una funcién conocida, y °u’ un error con as propiedades E(u) = 0 y Var(u) = ® (al menos asintéticamente). El problema de estimacién de @ en este contexto puede enfocarse como un caso de minimos cuadrados generalizados no lineales. Asf, los pasos a efectuar son, (i transformar a ecuacién anterior premultiplicdndola por &"? y, (ii) linealizar m(Q) alrededor de algin valor de @. El estimador que se obtiene para @ con este procedimiento conduce, precisamente, al algoritmo propuesto en el apartado anterior (véase [15]) para obtener el estimador MGM de 6. Finalmente, aunque el dptimo de A sea ©"! no se puede decir, en general, que el estimador MGM sea globalmente eficiente, El estimador de MV sera més eficiente, en principio, aunque hay casos en los que ambos coinciden. IIL6. Combinacién éptima de momentos. Una cuestién que puede surgir de forma natural, es qué momentos 0 combinaciones de momentos es més conveniente utilizar para estimar los pardmetros. Este apartado discute los diversos aspectos relacionados con la 16 misma. Consideremos ahora el MGM a partir de los momentos transformados m'= R'm, siendo R una matriz de constantes de orden (Jxr), rg(R) = 1, K $v $ J. De la simple aplicacién directa de los supuestos y de las f6rmulas anteriores, 1a varianza asint6tica de 6 basada en los momentos transformados seré, ay, O= [DRIR’@R]'R’Dy" (21) puesto que ahora: ni /20= RD (xk) vt —25 N(0, (R’@R)) Procediendo de forma similar al correspondiente apartado de eficiencia, la diferencia de varianzas asintotica entre los momentos originales y los transformados es una matriz semidefinida _positiva. Alternativamente consideraremos la diferencia de las inversas, esto es, fav, O11: fav.) = (D’@'p) - [D’R[R’@R]'R'D] =pe'?[1- o'!? RoR) RO” JoMD (22) we[1- perp) Py donde P = ©'?R, y que es una forma cuadrdtica semidefinida positiva, puesto que, de nuevo, la matriz correspondiente es idempotente. Si r = J entonces existe R’, y la diferencia anterior es cero, de lo que se deduce que cualquier transformacién no singular de los momentos genera idénticamente el mismo estimador. El resultado anterior es igualmente vélido si R es una funcién, no necesariamente lineal, de ti, con tal que sea derivable una vez, y el rango asintético de la matriz de derivadas en un entomo de 0 sea J (aunque en este caso la equivalencia seria asintética, y los estimadores no serfan necesariamente idénticos para un T finito). Debe precisarse, no obstante, que toda esta discusién se refiere a momentos asint6ticamente no dependientes, en el sentido de que su matriz de varianzas y covarianzas debe ser invertible. Asf, consideremos, por ejemplo, Wy el siguiente modelo dinamico, 1 OY t Me + & donde los €, son errores iid (0,07). La estimacién MCO del vector « depende de los momentos muestrales siguientes: Zy, y,/T, By?,/T, By2/T, By, /t, 2y,,¥/T. Aunque asintsticamente los momentos Eyy,/T y Ly, y,,/T, por ejemplo, sean equivalentes, para T finito no lo son. Asi, el método MGM no es estrictamente equivalente al MCO, para T finito, aunque asint6ticamente si se cumple dicha equivalencia (esta matizaci6n puede tener importancia en el caso de Ios momentos simulados; véase Ia discusién en epigrafes posteriores, y Smith (1993). IV. ESTIMACION DE LA MATRIZ DE COVARIANZAS DE LOS MOMENTOS. En epigrafes anteriores hemos denominado a ® como la varianza asintética de la media muestral (0,2), por lo que, si vT i —2-5 N(0,®), se cumplird que © = Jigy T Efi’) bajo condiciones bastante generales, Si el proceso m(0,z) estéserialmente incorreladoentonces, @® podria estimarse z consistentemente mediante la expresién, ©” = (1/T) ) [m,z)] [moz,)]", que requiere conocer 8. Sin embargo, para un 6 consistente, y bajo la hipétesis de z a no correlacién serial se cumpliré que $ = (1/1) ¥ [m@z)] [mbz)]} 4. a Silas funciones m(z,0) estén correlacionadas serialmente tendremos que, zt TEfiin’] = T'E) J (£2), donde f, = m(z,0). et oS El problema que surge aqui es que el niimero de autocovarianzas crece cuando T —> ©, y, por tanto, no pueden ser estimadas consistentemente. La solucién a este problema es no paramétrica, y esqueméticamente puede decirse que la via es introducir una secuencia de ponderaciones que decrecen cuando p aumenta, siendo p el orden de la autocovarianza, y que por tanto tenderén a ica del estimador de @ propuesto cero cuando p tienda a «, Esta es la idea bi 18 por Newey-West (1987), y al que vamos a referimos a continuacién. Bajo el supuesto de autocorrelacién serial, y de heterocedasticidad de forma desconocida, Newey-West (1987), proponen el siguiente estimador no paramétrico de @: $=3,, +20 - sn] (,,+ 6] R31 = 0m 3,,ln6z)] [m2 JT (24 siendo s el orden de la autocorrelacién. Finalmente, como mi.) depende de 8, es necesario que 6 sea un estimador consistente de aquel. Si no hay autocorrelacién, $, . es un estimador consistente de @ en presencia de heterocedasticidad [White (1980)]. El problema que se plantea aqui es cémo determinar la longitud de s, teniendo en cuenta que necesitamos un estimador consistente de 0. En general, la via propuesta es comenzar con un estimador consistente pero ineficiente de ©, haciendo A = I. Esto permite obtener una estimacién inicial de 3, y por tanto, una primera matriz de ponderaciones A = (9)", y un nuevo estimador de @. Sucesivamente se puede ir alargando el valor de p hasta que = Ge, Un ejemplo puede clarificar la férmula anterior. Asi, en el caso del modelo lineal general, sin correlacién entre errores y regresores, la férmula anterior conduciré a la siguiente expresién, bert 2 bar} (xt + d (1 - 1D) x + x, Slag, 14, } a “at que serfa un estimador consistente de , bajo heterocedasticidad autocorrelacién de formas desconocidas. Existen diferentes vias para estimar , y desde luego alguna de ellas puede resultar preferible a 1a desarrollada por Newey-West en determinados contextos. Sin embargo, el método de Newey y West tiene en general buenas propiedades. Esta circunstancia, junto a su relativa simplicidad lo hace uno de los métodos de estimacién més conocidos de ®. 19 Recientemente, no obstante, un estimador propuesto por Andrews y Monahan (1992), est ganando popularidad. Para presentar este método comenzaremos por obrservar que la mayoria de los estimadores de se basan en expresiones del tipo, Te © = CIR) ksi, )0W) P25] eT donde, k(,) es el Kemel, $, es el pardmetro que determina la amplitud de la banda, y que depende de los datos. El factor T/(T-K) es un factor de correccién de grados de libertad para muestras pequefias, y @(s) ya ha sido definida en [24]. De hecho, el estimador de Newey y West se puede considerar un caso particular de este. Dentro de este esquema genérico presentado se encuadra el trabajo desarrollado por Andrews y Monahan (1992). La idea central se basa en utilizar tun estimador de Kernel preblanqueado, que requiere de tres etapas. En la primera fase se estima un VAR para m(Q,z) (para el caso MCO seria x,t). Evidentemente, el VAR no tiene por qué ser el "verdadero modelo’, pero se usa para eliminar parte de la dependencia temporal de m(6,z); de hecho, en situaciones especificas conocidas pueden existir modelos altemativos al VAR que den mejores resultados. En la segunda fase se obtiene una estimacién de ® (expresién’[25]) basada en los residuos del VAR, a partir de Ia expresién del estimador de Kernel, que incluye como posibilidad precisamente, aunque no \inica, al estimador propuesto por Newey-West. La expresién final para (3) seria, GM PV ee a (26) any vo s<0 ites donde ¥* son los residuos obtenidos en el VAR. Finalmente, el estimador de Kemel preblanqueado mediante el VAR, &* tiene la expresién Sah Gy, 6 A] en 20 A » donde A, son los coeficientes estimados en el VAR (m, = 2,Am__ + V, seria la forma del VAR utilizado para ajustar m). Entre las ventajas que presenta el método desarrollado por Andrews y Monahan destaca el hecho de que permite obtener mejores resultados cuando las perturbaciones presentan estructuras autorregresivas, y, en general, en muestras finitas su comportamiento parece ser més preciso que el estimador més general de Newey y West. Conviene subrayar, por iiltimo, que para una matriz A en [7], paramétrica y distinta, aunque préxima, a @"!, puede que sea mejor definir el MGM con dicha A para T finito (la matriz de varianzas seria la de u7). V. CONTRASTES. V.1. Contraste de sobreidentificacién. Cuando se dispone del mismo niimero de pardmetros a estimar (Kk) que de eouaciones de momentos (J), el modelo est exactamente identificado por lo que Ja funcién criterio C, ser minima con m igual a cero, al existir un conjunto de estimaciones para el cual m se anula, siendo irrelevante, por tanto, la matriz. de ponderaciones. Sin embargo, si J > k el modelo esté sobreidentificado, habiendo més ecuaciones de momentos que parémetros a estimar @, por lo que las ecuaciones de momentos en estos casos suponen implicitamente un conjunto de (J - k) restricciones de sobreidentificacién, El objetivo central de este epigrafe es presentar un contraste de sobreidentificacién, es decir, de la validez de las (-b) ecuaciones adicionales. Vamos a demostrar que este contraste es el siguiente, T(m A m) ot, : [28] Este contraste slo es valido si J > k, obviamente, y si A = ©". 24 Por otro lado sabemos, por la distribucién de las formas cuadréticas y si las condiciones de ortogonalidad se cumplen, que [vt a] a [vt a] 25 xf [29] donde ti esté evaluada en el verdadero valor de 0. Sin embargo, la expresién anterior no se mantiene exactamente cuando se evalua en 8, La razn es que ahora J combinaciones lineales del vector m (kx1) son iguales a cero, por lo que los grados de libertad de la consiguiente forma cuadrética serén ahora (J - k). A continuacién se prucba este resultado, Teniendo en cuenta la expresién [13] m= i + D,@- 0) = th + DCH ti) = [I = D(D’ADy'D*A Ji. Obsérvese que tanto A como D depende de T, y estén evaluadas para diferentes estimadores de 0. Como todos ellos son consistentes y el contraste se desarrolla en el contexto del andlisis asint6tico se han omitido, por simplicidad, estos detalles, sin pérdida de generalidad. Ahora, 4 Avr [t-a@pcprapy 'D’a!?] [a!? aa vt] [30] =[- vww'w)'y]w = ¥w Si A = 67, entonces, w = A”? mvT 25 NO, I) (31) Siendo Y una matriz simétrica e idempotente, y con rg(¥) = tr (¥) = J - k, es inmediato que se cumple, THAM=w¥ ws 2 B2] a8) 22 V.2. Contrastes de restricciones generales sobre 0. Supongamos que estamos interesados en contrastar un conjunto q de restriccionés no lineales sobre 0, de la forma H,: g(9) = R(@) - x = 0, siendo © el vector de pardmetros a estimar, y g(0) una funcién diferenciable conocida, con rg (9 g/90) = rg (G) = q. Denominaremos a 6 el estimador MGM. restringido, y a 6 el obtenido sin imponer ninguna restriccin. TEST de WALD w= Tle@] (avare(Rd -1)}"[e] - 133] con AVARE(R@) - r) = G'(AVARE@))G A AA. AVARE(6) = D'o" En general, la matriz de covarianzas asintética AVARE se obtendrfa a partir de [23] y [24]. CONTRASTE DE MULTIPLICADORES DE LAGRANGE Para el contraste LR sélo es preciso minimizar la funcién objetivo sujeta al conjunto de restricciones R(6). Cémo el test LR esté basado en el gradiente del logaritmo de la funcién de verosimilitud, evaluado en 0, y puesto que a su vez esta funcién es una funcién criterio, parece obvio que la via serd, por tanto, obtener el gradiente de la funcién objetivo m'S m. Ast, LR = T [indy &' 6] [BSD]! [Bo AO] —2> iG Ba] CONTRASTE DEL "TIPO RATIO DE VEROSIMILITUD" Este contraste es, al igual que el obtenido en el contexto de los modelos estimador por MY, Ia diferencia entre la funcién criterio evaluada sin incluir las restricciones e incluyéndolas. 23 LR = T [ny G'in®) - nyo 'HAG] - x BS) En el caso del contraste de Wald, la distribucién se obtiene por aplicacién inmediata de resultados generales. En los otros dos, sin embargo, €l resultado no es inmediato, puesto que aqui no se trata del contexto de estimacién MV. No obstante, es automético demostrar que la distribucién asintética es la indicada, Para ello basta con observar que el criterio propuesto para obtener el 8 por MGM, dividido por dos, cumple la condicién siguiente, (acveoWwF —2-> N (0, plim(a°c/aeae")) cuando estén todas las expresiones evaluadas en el verdadero valor, 0, y C(O) = (m’"'m)/2. Esta es la propiedad fundamental que satisface 1a funcién de verosimilitud, y que se requiere para obtener las distribuciones asintsticas analizadas. Por tanto, los contrastes aquf presentados convergen a las distribuciones indicadas. Es importante subrayar que se requiere que A converja a &", para que los resultados anteriores sean vélidos (véase, también, Newey (1985) y Davidson-Mckinnon (1993)). VIL APLICACIONES Y EJEMPLOS. Tal y como se comenté en el epfgrafe introductorio, muchos estimadores pueden verse como casos particulares del método generalizado de los momentos. Concretamente, MCO, VI, MC2E, entre otros, e incluso en algunos casos MV, lo son del MGM. En este epfgrafe se desarrollaran como ejemplos el método de las Variables instrumentales y los Minimos Cuadrados en dos Etapas, para mds casos coneretos se puede consultar Hamilton (1994), 24 VII. Método de las variables instrumentales. Consideremos el modelo lineal: Y = XB + u, donde X es una matriz de variables explicativas (Txk), algunas de las cuales son endégenas, de tal forma que plim [X’w/T] # 0. Sea Z una matriz de variables predeterminadas (Txx) que estén correlacionadas con X, pero no correlacionadas con u, de tal foma que, plim [Z’u/T] = 0 rg plim [Z’X/T] = k 136] rg plim [Z°Z/T] = r Las r condiciones de ortogonalidad son ahora, E[zg, - x'p)] = Elzu] = 0 7] © en forma matricial E[Z'u] = 0, con m = (Z'w/T). La funcién criterio en este ejemplo seré, por tanto, CG) = (wz) a @wt) [38] Con respecto a la identificacién, a=Y-XPp=u-x@-p) Zi = Zu - ZX B- B) (wzt) a Wir) = (wz) A @urt) -2(wz/t) A ZT) B- By + G- p(X zma(zxm)6 - B) Supongamos que, plim (az/r) A (zavT) = plim(wzyr) A (zur) 139) Entonces, dado que plim [Z'v/T] = 0, tendremos Io siguiente, 25 @ - By [plim(x'z/T) A plim(z"x/T)]G - B) 140] Dado que el rango de la forma cuadrdtica es k, la Unica solucién posible es que f= B. Por lo que respecta a la consistencia, sabemos que, ZU = Z'u - 2X (f - B), por lo que sustituyendo y aplicando un argumento similar al anterior, plim@@zr)a(zetrt) = plim - prez) a (2xm)18-— 0 y, consecuentemente, plim 8 = B La solucién se obtiene derivando C, con respecto a B e igualando a cero, de donde, B = pezazxy'x’ZAz’'y (42) Segiin se elijan Z y A, contamos con un amplio conjunto de estimadores conocidos que son casos particulares del VI. Ast, por ejemplo, si Z= X y A= (xx/T)? estamos ante el estimador MCO. Si Z = X, pero hay heterocedasticidad, el estimador MOM es el MCO, pero la matriz. de covarianzas asint6tica es la dada por White, mientras que corresponderd a Ia expresién dada por Newey-West si hay autocorrelacién. Por contra, si hay autocorrelacién entre X y u, Z representa el conjunto de K variables instrumentales. Si J > k, pero se mantienen los supuestos acerca de u, el estimador resultante es el MC2E. Ejemplo V1.1. Supongamos que y, = x°B + u, y que también ahora se cumple que las J condiciones de ortogonalidad son, E[z(y, - x'B,)] = 0, siendo B, el verdadero valor del vector de parémetros. Pero se sabe que J > k. Es decir, el modelo est4 sobredeterminado. Ahora no se puede hacer in(8) = 0. Obsérvese que si el modelo esté exactamente identificado entonces es suficiente con hacer m(B) = 0, por lo que en este caso, 26 inf) = Z'(Y - Xf) = 0, ahora 8 = (2x) puesto que en este caso A es inrelevante, Pero como J > k, ahora, debemos minimizar C,, lo que, como vimos en la expresi6n [9], supone igualar a cero Ia expresién, (0¢,/00), = 2 D'Aii evaluada en 6, y que en este ejemplo concreto seré igual a, oe 2 o= {- amy xz} A {am Ya; M’%, (MT) —> N (0, eam) con AVAR(0) = plim T (%"M (M’QM)'M’x)", por lo que, ahora la diferencia entre las covarianzas asintéticas de ambos es semidefinida positiva, esto es, ’Q"1% - #M (M'OM)'M’S es una matriz semidefinida positiva, por lo que el estimador de los momentos basados en (30'u/T) es dptimo dentro de la clase de estimadores MGM. Un estimador equivalente asintéticamente se obtiene ceo th resolviendo X°Q"'u = 0. En todo caso, esta argumentacién proporciona el estimador éptimo, dentro de la clase MGM. El problema bésico aqui, de todas formas, es que en algunos casos se desconoce E[X]. La discusién anterior es aplicable a modelos que incumplen dos de los supuestos clisicos fundamentales, es decir, plim X’wT # 0, Var(u) # o°L. Esté claro que la solucién requiere una correccién doble, que consistiré en aplicar variables instrumentales y minimos cuadrados generalizados. El problema es en qué orden, y el método que se acaba de exponer, responde precisamente a esa pregunta. El doble problema mencionado surge naturalmente, por ejemplo, en los modelos de expectativas racionales. Asi, a, Els lI) + 3B, I) = ax, + ax, + uy, donde *u,’, por construccién, estar correlacionado con x, y X,,, ademés, de presentar autocorrelacién serial de algtn tipo, que dependeré del modelo espectfico que siga x, Otro criterio de eleccién se basa en el conocimiento o desconocimiento de Q. Cuando nos encontramos ante un problema de heterocedasticidad, y desconocemos Ia forma de Q podemos estimar no paramétricamente Z'QZ.. 30 Como, Zor = wy [zzpo?] & es un estimador consistente de E[(ZZ')x"], y se cumple que, lim (Z’Oz/T) plim 1/T ; [zzpu'] = 1 White (1980), si desconocemos u,, utilizaremos en su lugar un estimador consistente 0. Ast, es posible aplicar el MGM andlogo al MCO. Por otra parte, 2 - IY, zu’) = (ZO"wT) 1 que se trata de un estimador consistente de Bleue), pero que evidentemente no es cero. Esto indica que el estimador MGM anélogo al MCG no es consistente, En el caso en el que plim(X’w/T) = 0, la comparacién la debemos plantear de otra forma, Si Q es conocida o puede estimarse, el estimador dptimo es el MCG, es decir, el basado en (X’Q"u/T). Por eso, en presencia de heterocedasticidad conocida el MGM andlogo al MCG es superior al MGM anélogo al MCO. Si Q no puede estimarse, el estimador MGM anélogo al MCG es inconsistente, como acaba de verse. Por otra parte, el estimador MGM anélogo al MCO, que se basarfa en minimizar el criterio u'X(X'QX)"X"u, conduce a la solucién MCO bisica. Una alternativa es utilizar un estimador MGM andlogo al MCO, pero con un conjunto de instrumentos més amplio que X, por ejemplo Z = (XX), donde X? incluye todos los productos cruzados de las variables en X. En este caso, la comparacién de varianzas conduce a lo siguiente, XZLQZ)'Z"X - XK(KAXY' KK = xo" [o”z(z:02) za - a!’xwaxy xa" Ja"? xo" [yw w'iy' - yss'y'ysy'sy]a"’x 31 donde X = ZS y w= Q'°Z y S es una matriz de seleccién, La matriz. de la forma cuartica es (y- ys) ¥ como PyPys = Pys es idempotente y semidefinida positiva, As, finalmente, este estimador proporciona una varianza menor, y es superior al MCO bésico (Cragg(1983)). Otra altemativa posiblemente mejor en muestras finitas, consiste en utilizar una matriz E en lugar de Q para aplicar la férmula del MGM. Si E es, por ejemplo, una matriz paramétrica sencilla, y préxima a ©, para T finito el estimador de los parémetros puede ser mejor. En este caso, la matriz de varianzas y covarianzas seré la equivalente a la dada en [17], que, como siempre, puede estimarse no paramétricamente sin =Y-xf=u-XQ-p)=u-X@PXXPy Ge X(XPX)"X'P, Ju donde P, = Z(2'Z)'Z’. Consideremos ahora, (@2y'?Z%I6 = [h- @ a Pex(e2wzy'ZX) KALIL Zulo = vw donde w = (Z'Z)'/?Z'u/o —*+ N(O1). Por otra parte Y es una matriz simétrica, idempotente y de rango J - k, de modo que, finalmente, r(wzr)(zzrry(zarr)/o* = (W20)(Zz)"(Zz)""(Zt/o) = ww > 2 que es el resultado obtenido de forma general anteriormente. 32, En el caso del contraste andlogo al de cociente de MV, la expresién serfa, @Pa-UP H/o 57 ae a Nx siendo i y U, respectivamente, los residuos obtenidos con el estimador de variables instrumentales restringido y sin restringir. Finalmente, en el caso del contraste basado en los multiplicadores de Lagrange, la expresién concreta serfa, P_X(XPX) XP, a)/o eal Xa VII. MAXIMA VEROSIMILITUD, MGM Y OTROS PRINCIPIOS DE ESTIMACION. Supongamos que disponemos de un conjunto de observaciones muestrales de tamafio T de una variable aleatoria y,, con funcién de densidad condicionada para la t-ésima observacién A(y,¥,. : )y Le THY LY, wn) que asumimos cumple las condiciones habituales de regularidad, Por tanto se cumpliré s0L/00 dy = 0, puesto que hemos asumido que el dominio de y es independiente de 0, y que JAL/I0 existe. Por otro lado sabemos que S3L/38 dy : = s(alnL/20) L dy = 0. Llamaremos a InL/30=m, y como E[ainL/20] = s(alnL/a8)Ldy tenemos que E[m] = 0, ya se trate de la esperanza condicionada o de la no condicionada. Con J = k, E[m] = 0 representa el conjunto de las condiciones de ortogonalidad que se requieren para estimar el vector @. Como, ademis, estamos asumiendo el mismo nimero de condiciones de ortogonalidad que de pardmetros a estimar, y basdndonos en los criterios que establece el MGM, parece natural pensar que la solucién para @ serfa i = 0, es decir; x (1) ¥ m@) = 0 (47) a 33 que coincide con las condiciones necesarias de primer orden para un maximo en Ja funcién de verosimilitud Ln L(0)/28 = 0, suponiendo que esta funcién es diferenciable y que su méximo no ocurre en un extremo de su campo de definicién. Por lo que respecta a la obtencién de la matriz de covarianzas de 0, segiin la expresién [17] V = [D’@"D}. Cémo D = (Ani/00), 1a matriz de covarianzas del estimador MV puede aproximarse mediante la expresin: Av@) = am{6o"b } (48) con, B= (oive0|_ = any, oy é ‘ p $= a F [mb] [m@)]* en ausencia de correlacién serial. a Finalmente, si el modelo est correctamente especificado podemos esperar que § converja en probabilidad a Ia matriz de informacién, 1, y que B, asimismo, converja a I, por lo que a partir de [46], y dando por supuesto todas las especificaciones previamente seflaladas, tendremos que, vt (6-0) —2>N@,ry [49] En definitiva, el estimador MV es un caso particular del estimador MGM, exactamente identificado. En general, no obstante, las funciones utilizadas para definir los momentos muestrales en la aplicacién del MGM no coinciden con las del MV, y asf, serén menos eficientes. En ciertos casos, de todos modos, ambos pueden coincidir: un ejemplo de esto es el caso en el que la funcién de verosimilitud pueda escribirse como una funcién mondtona del criterio MGM. En ciertos casos se escoge una funcién de densidad incorrecta para las observaciones, o bien se desconoce si la eleccin ha sido adecuada. La funcién de densidad en estos casos se escoge por razones de conveniencia, y porque se 34 considera razonable en algtin sentido, El estimador obtenido es entonces el de pseudo méxima verosimilitud (PMV). Gourieroux, et al (1984), analizan la consistencia y la distribucién asintstica de estos estimadores con bastante generalidad. Como los estimadores serén generados por alguna expresin del tipo [47], estos estimadores pueden considerarse, asfmismo, como un caso particular del método de los momentos. No obstante, la matriz asintética de varianzas y covarianzas no vendr4 dada por [49] generalmente, sino obviamente por [48]. Como en el caso de la comparacién de los métodos MGM y MY, las funciones utilizadas para definir los momentos no tienen por qué coincidir y, por consiguiente, no es posible realizar una comparacin general sobre la eficiencia relativa de ambos estimadores. Se puede afirmar, no obstante, que los estimadores MGM seran mds robustos que los PMV, en general, En este sentido, no es ilégico considerar el estimador MGM como preferible al PMV, ya que es tanto 0 més robusto, y el PMV no tiene por qué ser més eficiente, en general. Los procedimientos de estimacién indirecta propuestos por Gourieroux et. al. (1993) por un lado, y Gallant y Tauchen (1994), pueden considerarse como una prolongacién del procedimiento PMV, en cierto sentido. Estos autores proponen maximizar un criterio determinado, por ejemplo una funcién de itud, seleccionada por algtin motivo intuitive de proximidad con la verosimi verdadera verosimilitud, pero que no coincidiré con ella (hasta aquf el planteamiento seria similar al caso PMV). Esta funcién se optimiza con respecto a un conjunto de parémetros auxiliares, y si estos parémetros son funciones bien definidas de los pardmetros de interés, es posible generar estimadores consistentes y asintéticamente Normales de estos tltimos, bajo condiciones muy generales. Todas las operaciones a las que se ha hecho referencia se evan a cabo mediante simulaciones (optimizacién identificacién de la relacién funcional entre parémetros auxiliares y de interés). La aplicabilidad de este método es, en principio, tan amplia como la del método de los momentos simulados. No obstante, la eleccién del criterio a optimizar puede ser arbitraria en muchos casos, mientras que la eleccién de los momentos, como pieza esencial de informacién a ajustar, sigue siendo una eleceién natural en ausencia de otro tipo de informacién. Otros principios de estimacién relacionados con el MGM son el de distancia minima (Malinvaud, (1970)) y el analégico (Manski, (1994)). El principio de distancia mfnima sugiere obtener estimadores de modo que se 35 minimice “la distancia (geométrica) entre un vector de caracteristicas poblacionales, funciones a su vez de los parémetros de interés, y funciones equivalentes de los datos muestrales. Es inmediato ver que, en este sentido, el estimador de distancia MGM es un caso particular del estimador de distancia minima. No obstante, si tenemos en cuenta que el estimador MGM puede definirse equivalentemente mediante una transformacién funcional no singular de los momentos, la diferencia entre los dos principios de estimacién es minima. Por Ultimo, el principio analégico propone obtener estimadores de alguna caracteristica poblacional (no necesariamente un pardmetro) reproduciendo en la muestra las operaciones andlogas a las que definen en la poblacién 1a caracteristica de interés. Un ejemplo es la estimacién de la mediana y, en general, de los quantiles, sin efectuar ningtin supuesto previo acerca de la forma de la funcién de densidad subyacente, Enunciado de esta manera, el principio analégico es mds amplio que el MGM y que el MV, y posiblemente sea el principio de estimacién mAs general que existe. No obstante, generalidad y utilidad no son dos propiedades que vayan necesariamente unidas. De hecho, las propiedades generales del principio analégico no estin bien desarrolladas, y es dudoso que puedan Ilegar a estarlo. Tampoco es del todo claro, ademés, que este principio cuente con un excesivo interés. De hecho, la mayor parte de los problemas de estimacién conocidos pueden tratarse con los procedimientos més coneretos. ya discutidos, y cuyas propiedades, por otra parte, son suficientemente bien conocidas, Ademés, incluso estimadores de caracteristicas como Ia mediana o los quantiles pueden obtenerse a partir de un estimador de momentos: para ello se puede suponer una funcién de densidad suficientemente general, por ejemplo, un producto de la Normal por una suma de polinomios hermitianos ponderados, a su vez, por ciertas funciones de los momentos hasta tun orden preespecificado (a veces denominada funcién de densidad de Sargan); a partir de aqui, obtener la mediana y los quantiles es una simple cuestién numérica. En definitiva, podemos concluir este apartado afirmando que, posiblemente, los dos principios de estimacién mds productivos para la econometria, con sus miltiples variantes, obviamente, son el MV y el MGM. ‘Aunque el MV pueda considerarse formalmente un caso particular del MGM, en muchos casos de interés prictico no seré asi. El MV tiende a ser més eficiente, pero puede ser menos robusto que el MGM. El MV puede adaptarse para que genere estimadores consistentes en cualquier caso (estimacién indirecta), pero el MGM sigue ofreciendo un criterio de estimacién ’més natural’. 36 Otros prineipios, como el de distancia mfnima o el analégico, pueden ser entendidos, en opiniGn de los autores, m4s como una caracteristica de algunos estimadores, que como auténticos métodos o principios de estimacién independiente y operativos. VII. ESTIMACION MEDIANTE MOMENTOS SIMULADOS. Ejemplo VILLI. Sea y, = m + ¢@, i = Int, donde y, son 0, y Varfe] = observaciones, y la distribucién de ’e’ es conocida, con Efe] 0°, y son independientes. Supongamos que se generan J observaciones x, de la siguiente forma, x, = m + u, donde u, se ha generado a partir de la distribucién de ‘e" Consideremos, ahora, el estimador m’, obtenido al minimizar la siguiente expresin con respecto a m, = C(m) [50] Para analizar las propiedades del estimador, es stil escribir C(m) del modo siguiente, C(m) = [m"- m+é [51] donde & = Ee/I, i = Eu/s. Derivando e igualando a cero, obtenemos el estimador de m, es decir, acvom = - 2[m"-m+e-a}=0 de donde m Es inmediato, ahora, que m + a § donde j = Zy/ty X= Ex/D, y por tanto, C(m) = 0. 37 ‘As{, el estimador es tinico y alcanza el minimo valor posible del criterio propuesto, Por otra parte, el resultado es intuitivamente aceptable: se simulan valores para y, con sucesivas medias, hasta que la media muestral de ambas series, observada y simulada (que aqui hemos denominado x,) coinciden. Por otra parte, es inmediato que, Elm] = m’ + E[é] - Eft] = m’, es decir, es un estimador insesgado. La varianza se obtiene fécilmente puesto que ’e,’ y 'y son independientes. Asf, Vom) = of + O10 (o)(i + 3) [52] Finalmente, la distribucién de m® puede obtenerse con facilidad, si se conoce la de e, y por tanto, las de & y i, Por ejemplo, si e, es normal, m - N(m‘(o*)(1 + 1) Debe subrayarse que los valores simulados deben permanecer constantes para todos los valores de *m’, es decir, deben simularse s6lamente una vez: de otro modo la distribucién del estimador_ no seria. la _indicada (computacionalmente el ahorro es pequeiio, no obstante). Sie’ no esté distribuido normalmente, el resultado es vélido asintéticamente, con tal de que I/J no tienda a infinito. Si J tiende a infinito més répidamente que I, obtenemos, (im - mvt —25 No?) que es un resultado standard, para el estimador usual de la media. En definitiva, la idea basica de este procedimiento es sustituir en el criterio de estimacién C, la media m por una estimacién simulada de dicha media Zx/J. Asi, para J alto, es evidente que, como esta expresién seré un estimador consistente de m’, el estimador final de la media serd el convencional. Ademés, la varianza adicional del estimador (recogida en el factor de correccién (1 + I/J)) refleja el hecho de que se est4 utilizando una media simulada. 38

También podría gustarte