Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La sección central muestra las estimaciones de los coeficientes, los errores estándar y las estadísticas t, que difieren
un poco de los resultados en la Tabla 4(i) de KCC, ya que las estimaciones del informe de KCC para un modelo
ligeramente diferente. Al igual que en KCC, ambas variables de I+D, LRD y LFRD están relacionadas positivamente con
LTFP, y los coeficientes son estadísticamente significativos.
La parte inferior de la salida muestra varias estadísticas de resumen. Nótese en particular, la “varianza a
de los residuos DOLS. La raíz cuadrada de esta varilargo plazo” reportada por qˆ que se muestra obtenida
1.2 , la varianza media estimada a largo plazo de
condicionado a ,
u1it u2it
ance, 0.0367, es algo más alto que el valor del “SE de la regresión” de 0.0205, que se basa en el estimador
ordinario de la varianza residual.
Al hacer clic en Ver/Representaciones, se muestran los comandos utilizados para estimar la ecuación,
junto con una representación de texto de la relación a largo plazo:
Nótese el componente “[CX=DETERM]” que muestra que hay términos de tendencia heterogéneos
adicionales en la relación (en este caso, los efectos fijos). La presencia de este término indica a EViews
que utilice esta información al construir modelos y al calcular ajustes y pronósticos.
Supongamos, por ejemplo, que seleccionamos Proc/Make Model de nuestra ecuación estimada. EViews
creará un objeto modelo que contiene los resultados de la ecuación:
Machine Translated by Google
Ejemplos: 985
Observe la presencia de EQ4I_EFCT en la ecuación del modelo y en el archivo de trabajo. Al hacer doble clic en EQ4I en
el objeto del modelo, se muestra la ecuación:
Observe que hemos reemplazado los componentes deterministas “[CX=DETERM]” en la especificación de la ecuación con
los valores ajustados en la serie EQ4I_EFCT. En este caso, EQ4I_EFCT solo contiene los efectos fijos estimados, pero de
manera más general mantendrá los valores ajustados para los términos deterministas en su regresión.
Para estimar el modelo usando DOLS, mostramos nuevamente el cuadro de diálogo de la ecuación, completamos la parte
superior como antes:
y cambie el Método a Dynamic OLS (DOLS). Para que coincida con la configuración en KCC, configuramos el Método de
panel en Agrupado y especificamos los retrasos y adelantos fijos , con 2 retrasos y 1 adelanto:
Machine Translated by Google
Haga clic en Aceptar para estimar la ecuación utilizando el método de covarianza predeterminado. EViews
mostrará los resultados:
largo plazo
Una vez más, la parte superior del cuadro de diálogo muestra el método de estimación, la muestra y la información
sobre la configuración empleada en la estimación. Tenga en cuenta, en particular, que el cálculo de la matriz de
covarianza del coeficiente por defecto utiliza un estimador de la varianza a largo plazo calculada mediante un
kernel de Bartlett y un ancho de banda Newey-West fijo.
Los coeficientes de largo plazo, los errores estándar y las estadísticas t están cerca de sus contrapartes en la
Tabla 5(i) de KCC.
Podemos contrastar estos resultados con las estimaciones de la media del grupo de las mismas especificaciones.
Los resultados de FMOLS de la media del grupo se pueden obtener llamando a la ecuación de FMOLS original y
seleccionando Agrupados en el menú desplegable Método de panel . Los resultados del coeficiente FMOLS
medio del grupo están dados por:
Machine Translated by Google
Detalles técnicos—987
que difieren notablemente de las estimaciones agrupadas, lo que sugiere que la heterogeneidad en la ecuación de
integración de monedas o las covarianzas a largo plazo pueden ser importantes. Del mismo modo, los resultados
DOLS correspondientes a la media del grupo,
Detalles técnicos
OLS completamente modificado
Phillips y Moon (1999), Pedroni (2000) y Kao y Chiang (2000) ofrecen extensiones del estimador
OLS totalmente modificado de Phillips y Hansen (1990) a configuraciones de panel.
FMOLS agrupados
El estimador FMOLS agrupado descrito por Phillips y Moon (1999) es una extensión directa
del estimador estándar de Phillips y Hansen. Dadas las estimaciones del promedio Lˆ Qˆ
covarianzas a largo plazo y , podemos definir la variable dependiente modificada y la serie
términos de corrección de correlación
+ –1
si
ÿ-
si qˆ 12Qˆ 22
uˆ
2
(46.5)
y
–1
lˆ+12 ÿ
lˆ 12 – qˆ
12
Qˆ
22
L 22 (46.6)
X˜ donde y y˜it
y es la qˆ eso son los datos correspondientes purgados de las tendencias deterministas individuales,
promedio
varianza
a largo
1.2 plazo de u1it
condicionado a . En el caso líder de
u2it
interceptos específicos individuales, ÿ-
y yit yi X˜ eso ÿ Xit – Xi son los degradados vari
y˜itables .
ÿ ÿ
ÿ
bˆ FP ÿ
ÿ ÿ ÿX˜ itX˜ itÿ ÿ X˜ ity˜it ÿ (46.7)
ÿÿ ÿ
yo = 1 t=1 yo = 1 t=1
Machine Translated by Google
Vale la pena señalar que el estimador agrupado simplemente suma las secciones transversales por separado en
el numerador y el denominador.
Las estimaciones de las covarianzas a largo plazo pueden obtenerse mediante enfoques estándar utilizando los
residuos obtenidos al estimar la Ecuación (46.1) y después de eliminar la determinación uˆit
componentes ísticos en la Ecuación (46.2). Tenga en cuenta que EViews le permite relajar la suposición de b
comunes en estas estimaciones de primera etapa. Dadas las estimaciones de las covarianzas individuales a largo
L i plazo Qˆ para cada
i , formamos sección
nuestros transversal
estimadores y los
tomando promedios
simples de ción:
cortes transversales
norte norte
L L i Qˆ Qˆ i (46.8)
ÿÿ ÿÿ
yo = 1 yo = 1
Phillips y Moon (1999) muestran que bajo suposiciones apropiadas, la distribución asintótica del estimador combinado es
asintóticamente normal bajo límites secuenciales como ÿ T N, ÿ ÿ
ÿ . Después
2ÿ –1
límite
ÿ
N–1 T bˆ ÿ ÿ FP – b ÿ ÿ Nq1.2 ,
0 aQ22 ÿ (46.9)
TN , ÿ ÿ
para una constantea que depende de la especificación de la variable determinista, donde q1.2 es el
– –1
varianza a largo plazo de condicional en u1t , dado por
u2t q1.2
ÿ
–1
En lugar de estimar la varianza asintótica directamente usando estimaciones de q1.2 Q22 , y el
a
correspondiente para cada especificación determinista posible, EViews adopta el enfoque de Pedroni (2000) y
Mark y Sul (2003) de formar un estimador consistente usando momentos de los regresores:
–1
VˆFP ÿ
qˆ 1.2 ÿ
FP
METRO
(46.10)
dónde
norte T
1 ÿ
1 ÿ
---- ------
METRO
FP ÿ ÿ norte ÿ
ÿ ÿ X˜ itX˜ itÿ (46.11)
ÿ T2 ÿ
yo = 1 t=1
En un trabajo relacionado, Mark y Sul (2003) proponen una forma sándwich de este estimador que permite
varianzas heterogéneas:
–1 –1
VˆFP ÿ
METRO
FP
ÿ
D FP ÿ
METRO
FP (46.12)
dónde
norte T
1 ÿ
1 ÿ
D FP ---- ------
ÿ ÿ norte ÿ qˆ 1.2i ÿ ÿ X˜ itX˜ itÿ (46.13)
ÿ T2 ÿ
yo = 1 t=1
Machine Translated by Google
Detalles técnicos—989
–1
y las estimaciones de la varianza a largo plazo se calculan – qˆcada
qˆ 11i para
ÿ
qˆ 1.2i 12i Qˆsección
22i qˆ 21i transversal de qˆ qˆ . Tenga
pueden aplicar correcciones de grado de libertad a y para comparar con el error estándar deenregresión cuenta que
se
1.2 estándar 1.2i
de los estimadores de regresión.
FMOL ponderados
Pedroni (2000) y Kao y Chiang (2000) describen estimadores FMOLS agrupados factibles para paneles
cointegrados heterogéneos donde las varianzas a largo plazo difieren entre secciones transversales.
Nuevamente usamos estimaciones de primera etapa de las ecuaciones de largo plazo y de regresores para obtener la
Qˆ y
Lˆ residuales, estimar las varianzas individuales de largo plazo yi dejar i ,
+ –1
ÿ
– qˆ (46.14)
lˆ 12i l 12i 12i Qˆ 22i L 22i
++ –1 1 2ÿ –1 2ÿ
ÿ
– – qˆ (46.15)
si si qˆ 12Qˆ 22 uˆ 1.2i ÿ qˆ 1.2i X˜ itÿ qˆ 12iX˜ bˆ – ÿ ÿÿ it ÿ 0
2
ÿ
–1 2ÿ ÿ
–1 2ÿ ++
ÿ
qˆ 1.2i
ÿ
(46.16)
y˜itÿ si
ÿ ÿ
–1 2ÿ ÿ + ÿ
–1 2ÿ ÿ
b FW
ÿ ÿ
X˜ itÿy˜itÿ lˆ _ 12i ÿ (46.17)
ÿÿ ÿ
yo = 1 t=1 yo = 1 t=1
Pedroni (2000, 2001) propone un estimador FMOLS de media agrupada que promedia las estimaciones
FMOLS de la sección transversal individual:
norte T –1 T
ÿ ÿ ÿ
1 ÿ
---- – lˆ (46.19)
ÿ bˆ FG ÿÿ ÿ ÿ
X˜ itX˜ itÿ ÿ
de la media muestral de los vectores de cointegración, en contraste con los estimadores agrupados y ponderados.
Estimamos la matriz de covarianza asintótica para este estimador calculando la varianza del promedio de las
estimaciones individuales:
norte T –1
1 ÿ 1
Vˆ ------ ------
FG ÿÿ ÿ qˆ
1.2i ÿ ÿ ÿX˜ itX˜ itÿ (46.20)
N2 ÿ T2 ÿ
yo = 1 t=1
Vale la pena señalar que las estadísticas t básicas obtenidas con este estimador de covarianza difieren de la
estadística t propuesta por Pedroni (1991), que agrega estadísticas individuales a lo largo de la dimensión transversal.
Kao y Chiang (2000), Mark y Sul (1999, 2003) y Pedroni (2001) proponen extensiones del estimador DOLS de
Saikkonen (1992) y Stock y Watson (1993) a configuraciones de datos de panel. Panel DOLS implica aumentar la
ecuación de regresión de cointegración de panel con retrasos y adelantos específicos de la sección transversal de ÿXit
para eliminar la endogenidad asintótica y la correlación
serial.
Pooled DOLS
Kao y Chiang (2000) describen el estimador DOLS agrupado en el que usamos mínimos cuadrados ordinarios para
estimar una ecuación de regresión de cointegración aumentada:
Rhode Island
ÿ
X˜ itÿb ÿ ÿ –
si ÿX˜ it j ÿÿ en v˜ 1it (46.21)
j qi ÿ –
donde y y˜it X˜ son los datos depurados de las tendencias deterministas individuales. Tenga en cuenta que
eso
norte T –1 norte T
ÿ ÿ
bˆ DP ÿ
ÿ
ÿ ÿ ÿ W˜ itW˜ itÿ ÿ
ÿ ÿ ÿ W˜ ity˜itÿ (46.22)
gˆ DP
ÿÿ ÿ ÿÿ ÿ
yo = 1 t=1 yo = 1 t=1
Kao y Chiang (2000) muestran que la distribución asintótica de este estimador es la misma que bˆ DP
para FMOLS agrupados. Podemos estimar la matriz de covarianza asintótica de usando la submatriz correspondiente
de:
–1
Vˆ ÿ
qˆ ÿ
METRO
(46.23)
DP 1.2 DP
dónde
Machine Translated by Google
Detalles técnicos—991
norte T
ÿÿ
1 1
METRO
DP ÿÿ
----
norte
ÿÿ
------
ÿ W˜ itW˜ itÿ (46.24)
ÿ ÿT2
yo = 1 t=1
qˆ y
1.2 es un estimador de la varianza residual de largo plazo.
ÿ
–1 ÿ ÿ
–1
VˆDP METRO
DP D DP METRO
DP (46.25)
dónde
norte T
1
ÿ
1
ÿ
D DP ÿÿ
----
norte
ÿ qˆ
ÿ
1.2i
------
ÿ W˜ itW˜ itÿ ÿ
(46.26)
T2 ÿ
yo = 1 t=1
DOLS ponderados
Mark y Sul (1999) describen un estimador DOLS ponderado simple que permite la heterogeneidad en las varianzas a
largo plazo. Defina la regresión ponderada:
norte T –1 norte T
ÿ ÿ ÿ ÿ
bˆ DW –1 –1
ÿ ÿ
ÿ
ÿ qˆ 1.2i W˜ itW˜ itÿ ÿ ÿ qˆ 1.2i W˜ ity˜itÿ
ÿ (46.27)
ÿÿ ÿ ÿÿ ÿ
gˆ DW yo = 1 t=1 yo = 1 t=1
qˆ para estimaciones individuales de la varianza a largo plazo 1.2i obtained after preliminary DOLS estima
ción.
norte T –1
ÿ
1 –1
ÿ
1
ÿ ÿÿ
ÿ ------
ÿ
VˆDW ÿ ---- qˆ 1.2i ÿ (46.28)
ÿ W˜ itW˜ itÿ ÿ
ÿ norte ÿ
T2 ÿÿ
yo = 1 t=1
Tenga en cuenta que esta forma muy simple de estimación ponderada difiere del estimador más complejo descrito
por Kao y Chiang (2000), que combina la corrección de endogenidad FMOLS, la ponderación de la variable
dependiente y los regresores, y la corrección de correlación serial DOLS.
Pedroni (2001) extiende el concepto de estimador agrupado a la estimación DOLS promediando las estimaciones
DOLS de sección transversal individual:
norte T –1 T
1 ÿ ÿ ÿ ÿ
bˆ DG
ÿ ÿ norte
---- ÿÿ ÿ
ÿÿ
W˜ itW˜ itÿ
ÿ
ÿ
ÿ W˜ ity˜itÿ
ÿ
ÿ (46.29)
gˆ DG yo = 1 t=1 t=1
Machine Translated by Google
Nuevamente notamos que las estadísticas t básicas que involucran este estimador de covarianza difieren de la
estadística t propuesta por Pedroni (1991) que agrega estadísticas individuales a través de la dimensión de la
sección transversal.
Referencias
Baltagi, Badi (2008). Análisis econométrico de datos de panel, Nueva York: John Wiley & Sons.
Baltagi, Badi y Chihwa Kao (2000). “Paneles no estacionarios, Cointegración en paneles y Paneles dinámicos: una
encuesta”, en Baltagi, BH ed., Paneles no estacionarios, Cointegración de paneles y Paneles dinámicos,
15, Ámsterdam: Elsevier, 7–51.
Breitung, Jörg y M. Hashem Pesaran (2008). “Raíces unitarias y cointegración en paneles”, en Mátyás,
László y Patrick Sevestre, eds. The Econometrics of Panel Data, Berlín: Springer-Verlag Berlin Hei delberg.
Hansen, Bruce E. (1992). “Estimación y prueba eficientes de vectores de cointegración en presencia de tendencias
deterministas”, Journal of Econometrics, 53, 87-121.
Kao, Chihwa y Min-Hsien Chiang (2000). “Sobre la estimación e inferencia de una regresión cointegrada en datos de
panel”, en Baltagi, BH et al. eds., Paneles no estacionarios, Cointegración de paneles y Paneles dinámicos, 15,
Amsterdam: Elsevier, 179–222.
Kao, Chihwa, Chiang, Min-Hsien y Bangtian Chen (1999). “Desbordamientos internacionales de I+D: una aplicación de
estimación e inferencia en la cointegración de paneles”, Oxford Bulletin of Economics and Statistics, 61, 693–711.
Mark, Nelson C. y Donggyu Sul (1999). "Un estimador de vector de cointegración computacionalmente simple para datos
de panel", manuscrito de la Universidad Estatal de Ohio.
Mark, Nelson C. y Donggyu Sul (2003). “Estimación del Vector de Cointegración por Panel DOLS y Long-run
Money Demand”, Oxford Bulletin of Economics and Statistics, 65, 655–680.
Pedroni, Pedro (2000). “OLS totalmente modificado para paneles heterogéneos cointegrados”, en Baltagi, BH ed.,
Nonstationary Panels, Panel Cointegration and Dynamic Panels, 15, Amsterdam: Elsevier, 93–130.
Pedroni, Pedro (2001). “Pruebas de paridad del poder adquisitivo en paneles cointegrados”, The Review of Economics
and Statistics, 83, 727–731.
Phillips, Peter CB y Bruce E. Hansen (1990). “Inferencia Estadística en Variables Instrumentales Regres
sion with I(1) Processes”, Review of Economics Studies, 57, 99-125.
Phillips, Peter CB y Hyungsik R. Moon (1999). "Teoría del límite de regresión lineal para datos de panel no estacionarios",
Econometrica, 67, 1057-1111.
Saikkonen, Pentti (1992). “Estimación y prueba de sistemas cointegrados mediante una aproximación autorregresiva”,
Econometric Theory, 8, 1-27.
Stock, James H. y Mark Watson (1993). “Un estimador simple de vectores de cointegración en sistemas integrados de
orden superior”, Econometrica, 61, 783-820.
Machine Translated by Google
EViews ofrece varios niveles de soporte para cálculos en archivos de trabajo de panel.
En el nivel más básico, en ausencia de configuraciones específicas del panel, si el cálculo de una estadística está
disponible en un archivo de trabajo del panel, EViews calcula la estadística en los datos apilados, teniendo en cuenta
las costuras entre los datos al evaluar los retrasos y adelantos de las variables. Esta clase de cálculo asume
implícitamente la homogeneidad entre las secciones transversales.
En los entornos más sofisticados, como los estimadores de ecuaciones vistos en el Capítulo 45.
“Estimación de panel”, a partir de la página 917 y el Capítulo 46. “Estimación de cointegración de panel”, en la
página 973, EViews admite varios procedimientos que explican específicamente varios aspectos de la estructura de
panel de los datos.
En el resto de este capítulo, describimos algunos otros cálculos en EViews que son "conscientes del panel" en
el sentido de que hay configuraciones que dan cuenta de la estructura del panel de los datos. Algunos de estos
temas se discuten en otra parte; en estos casos, simplemente proporcionamos un enlace a la discusión relevante.
EViews proporciona herramientas para mostrar gráficos de series temporales con datos de panel. Puede usar estas
herramientas para mostrar un gráfico de los datos apilados, gráficos individuales o combinados para cada sección
transversal, o un gráfico de serie temporal de estadísticas resumidas para cada período.
Para mostrar gráficos de panel para una serie o grupo de series en un archivo de trabajo fechado, abra la ventana de
la serie o grupo y haga clic en Ver/Gráfico... para que aparezca el cuadro de diálogo Opciones de gráfico . En la
sección de opciones del panel en la parte inferior derecha del cuadro de diálogo, EViews le ofrece una variedad de
opciones sobre cómo desea mostrar los datos.
Machine Translated by Google
Aquí vemos el diálogo para graficar una sola serie. Tenga en cuenta, en particular, la sección de opciones de Panel específica del
archivo de trabajo del panel que controla cómo se deben manejar las múltiples secciones transversales en su panel. Si selecciona
Apilar secciones transversales, EViews mostrará un solo gráfico de los datos apilados, etiquetados con la sección transversal y la
fecha. Por ejemplo, con un gráfico de tipo Línea y símbolo , tenemos
De manera alternativa, al seleccionar Secciones transversales individuales se muestran gráficos de series de tiempo separados
para cada sección transversal, mientras que Secciones transversales combinadas muestra líneas separadas para cada sección transversal.
Machine Translated by Google
—995
en un solo gráfico. Le advertimos que ambos tipos de gráficos de panel pueden volverse difíciles de leer
cuando hay una gran cantidad de secciones transversales. Por ejemplo, los gráficos individuales para los
10 datos de panel de sección transversal que se muestran aquí brindan información sobre tendencias
generales, pero pocos detalles:
Las dos opciones restantes le permiten trazar un solo gráfico que contiene estadísticas de resumen para
cada período.
De manera similar, podemos mostrar un gráfico de picos de las medianas de F para cada período:
La visualización de vistas gráficas de un objeto de grupo en un archivo de trabajo del panel implica elecciones
similares sobre el manejo de la estructura del panel.
Por estadísticas
Si bien no es específicamente compatible con el panel, hay una variedad de lugares en EViews donde puede usar
una variable de clasificación para calcular estadísticas por grupo. En estos casos, puede usar el identificador @crossid
para calcular las estadísticas de cada sección transversal.
Por ejemplo, puede abrir un objeto de serie y seleccionar Ver/Estadísticas por clasificación... para mostrar
estadísticas resumidas para varios grupos:
Machine Translated by Google
Por estadísticas—997
De manera similar, puede probar la igualdad de medias entre secciones transversales (Ver/Pruebas de
igualdad por clasificación...). Simplemente abra la serie, luego seleccione Ver/Estadísticas y pruebas descriptivas/
Machine Translated by Google
Pruebas de igualdad por clasificación... Ingrese FN en el campo de edición Serie/Grupo para clasificar y
seleccione Aceptar para continuar. EViews calculará y mostrará los resultados de un ANOVA para F, clasificando los
datos por ID de empresa. La parte superior de los resultados de ANOVA viene dada por:
Análisis de variación
Nótese en este ejemplo que tenemos relativamente pocas secciones transversales con un número moderado de
observaciones en cada empresa. Los datos con un gran número de identificadores de grupo y pocas observaciones
no se recomiendan para este tipo de prueba. Para probar la igualdad de medias entre períodos, abra el cuadro de
diálogo e ingrese AÑO o DATEID como la serie por la cual clasificará.
Machine Translated by Google
de edición Dentro del gráfico . Haga clic en Aceptar para mostrar los diagramas de caja con la configuración predeterminada.
Un conjunto particularmente útil de herramientas no específicas del panel que se pueden usar para el análisis del
panel son las funciones de estadísticas por grupo (Capítulo 13. “Referencia de funciones y operadores”, comenzando
en la página 580 de la Referencia de programación y comandos). Las estadísticas por grupo que le permiten calcular
estadísticas por ID de sección transversal y combinar fusionan esos resultados con los datos originales. Por ejemplo,
la expresión simple
calcula las desviaciones de las medias de la sección transversal para la serie Y y coloca los resultados en la serie
YDEMEAN.
Los datos estructurados en panel emplean más de una dimensión para identificar una observación determinada. En
el caso más común donde el panel combina series de tiempo y datos transversales, tenemos datos para unidades
transversales N y períodos. En esta configuración,
yo = 1,Xit, ÿ t = 1, ,ÿ
T.
nos enfocamos en una sola variable aleatoria X , con observaciones individuales denotadas .
X
A veces es conveniente ver las para diferentes secciones transversales (o períodos de tiempo) como variables
aleatorias distintas. Este desglose de una sola variable aleatoria en múltiples variables aleatorias nos permite definir
medidas de asociación entre secciones transversales o períodos para una serie de panel dada.
Por ejemplo, podemos definir las covarianzas contemporáneas o entre secciones transversales para
X :
Machine Translated by Google
(dependencia) entre los datos para diferentes secciones transversales en un momento dado.
X
De manera similar, podemos definir el período o las covarianzas dentro de la sección transversal para:
ÿ jst ÿE ÿXsÿ E– Xs
ÿ ÿ ÿ ÿ Xt Xt
E –ÿÿ ÿ (47.2)
dónde
Xtÿ ÿ ÿ X1t ,X2t
,, ÿ XNt ÿ , t ÿ 1, T . Las covarianzas dentro de la sección transversal
,ÿ
mide la asociación entre los datos en diferentes períodos para una sección transversal dada.
Las covarianzas y correlaciones de panel se utilizan ampliamente en el análisis de datos de panel. Por ejemplo:
• Las correlaciones contemporáneas entre variables macroeconómicas a menudo se utilizan para examinar la
naturaleza de las relaciones entre diferentes países (ver, por ejemplo, Obstfeld y Rogoff, 2001, p. 368).
• De manera análoga, las covarianzas de período de los residuos se pueden usar para calcular GLS factible
estimadores que corrigen la correlación dentro de la sección transversal (conglomerado).
Una vez que desapilamos los datos, el cálculo de las estimaciones de las medidas de panel de asociación para una
sola serie sigue los métodos estándar (referencia cruzada a grupos). Por ejemplo, los estimadores estándar de
Pearson para la covarianza de la sección transversal contemporánea utilizan la variación a lo largo del tiempo para
obtener estimaciones:
T
1
---
jˆij ÿ ÿ T ÿ Xit Xi
– ÿÿ Xjt Xj ÿ – (47.3)
t=1
T T
donde Xi ÿ ÿ T-1 salir y .
t=1 Xj T–1 ÿ ÿ t=1 xjt
Los estimadores de Pearson correspondientes de las covarianzas del período utilizan la variación en la dimensión de
la sección transversal para proporcionar estimaciones:
norte
----
1
jˆ S t Pulse
Xt ÿ – ÿXs Xs (47.4)
ÿÿ
norte
ÿ – ÿ
yo = 1
norte norte
dónde salir y .
Xt N – 1 yo = 1 xn–1 yo = 1 xi
Machine Translated by Google
Otras medidas de asociación pueden definirse de manera similar. Para obtener información sobre los diversos métodos
compatibles con EViews, consulte "Análisis de covarianza", que comienza en la página 568 de la Guía del usuario I.
Decirle a EViews que calcule medidas de asociación para una serie en un archivo de trabajo estructurado en panel es
sencillo. Simplemente abra la serie y seleccione Ver/Panel de covarianza... para mostrar el cuadro de diálogo. Tenga
en cuenta que el archivo de trabajo debe estar estructurado como un panel para que la entrada del menú de covarianza
del panel esté disponible.
La única diferencia notable en el cuadro de diálogo actual son los botones de opción que le permiten elegir si
desea calcular las covarianzas contemporáneas o las covarianzas entre períodos.
ances
Machine Translated by Google
Al cambiar la configuración en el cuadro de diálogo de la porción Estadísticas , puede indicarle a EViews que
calcule una variedad de otras medidas de asociación (correlaciones de rango no centradas de Pearson, Spearman
y tau de Kendall), así como estadísticas de prueba para determinar si la medida de asociación es correcta.
cero.
Además, puede especificar una muestra para utilizarla en el cálculo y seleccionar si desea que EViews emplee la
eliminación por lista para equilibrar la muestra en caso de que falten valores en la serie. Si va a trabajar con series
con observaciones faltantes, debe tener en cuenta que:
• EViews calculará las covarianzas para todas las secciones transversales (para covarianzas contemporáneas)
o períodos (para covarianzas entre períodos) en la muestra especificada, incluso si no hay observaciones
válidas para una sección transversal o período relevante. Si desea excluir períodos o secciones
transversales del análisis, debe hacerlo configurando la muestra.
• Para las covarianzas de la sección transversal, al verificar la configuración Equilibrar muestra - (eliminación
en forma de lista) se indica a EViews que equilibre los datos eliminando los datos de los períodos en los
que faltan valores para cualquier sección transversal.
• Para las covarianzas de período, la configuración Balance sample - (eliminación por lista) eliminará los
datos de secciones transversales completas en las que falten observaciones para cualquier período.
Para ilustrar, seguimos a Obstfeld y Rogoff (2001) al calcular las correlaciones entre países para el crecimiento
del consumo per cápita (DCPCH) para los países del Grupo de los Siete durante el período de 1973 a 1992. Los
datos, que son de Penn World La Tabla 5.6 se proporciona en el archivo de trabajo "PWT56_CONSUMP.wf1" en la
carpeta Archivos de ejemplo en el directorio de instalación de EViews.
Abra el archivo de trabajo y la serie DCPCH, seleccione Ver/Panel de covarianza... y complete el cuadro de diálogo
como se muestra arriba. Haga clic en Aceptar para calcular las estadísticas solicitadas y mostrar los resultados.
Machine Translated by Google
covarianza
Correlación
ALEMANIA,
Observaciones CANADA ciervo JAPÓN FRANCIA OESTE ITALIA Reino Unido
CANADA 0.000929
1.000000
20
Estos resultados muestran las correlaciones en los valores de DCPCH entre secciones transversales.
Del mismo modo, podemos indicar a EViews que calcule las covarianzas entre períodos, obtenemos
correlaciones entre períodos. Rellene el cuadro de diálogo como en el ejemplo anterior, cambiando el Tipo a
Covarianzas entre períodos y cambie la muestra a “1973 1992” ya que los datos para DCPCH en 1972 no están
disponibles (debido al retraso en la diferencia).
Machine Translated by Google
Si tuviera que usar la muestra original de “1972 1992”, la matriz de correlación entre períodos resultante contendría
solo NA (ya que la opción de muestra balanceada eliminaría todas las observaciones). Haga clic en Aceptar para
aceptar la configuración y calcular la relación entre covarianzas y correlaciones.
En “Covarianzas del panel”, a partir de la página 999, discutimos cómo una sola variable del panel podría desagregarse
en múltiples variables aleatorias, permitiéndonos calcular medidas de asociación entre diferentes secciones
transversales o períodos. Podemos ampliar este enfoque básico calculando los componentes principales de la variable
de panel utilizando una de las medidas de asociación.
La siguiente discusión asume que está familiarizado con las herramientas para el análisis de componentes
principales en EViews. En "Componentes principales", a partir de la página 586 de la Guía del usuario I , se
proporcionan antecedentes sobre el cálculo, la visualización y el almacenamiento de los componentes principales y
las puntuaciones .
Para calcular y mostrar los resultados de los componentes principales para una serie de paneles, abra la serie y
seleccione Ver/Componentes principales del panel... para mostrar el cuadro de diálogo. Tenga en cuenta que el
archivo de trabajo debe estar estructurado como un panel para que la entrada del menú de covarianza del panel esté disponible.
Machine Translated by Google
La segunda pestaña,
denominada Cálculo, controla
el cálculo de la medida de
asociación utilizada en el análisis
de componentes principales.
Una tarea común es guardar las puntuaciones de los componentes principales para su uso en análisis posteriores.
En consecuencia, EViews proporciona herramientas fáciles de usar para guardar las puntuaciones del análisis de
los componentes principales de su panel en el archivo de trabajo. Como estas herramientas son prácticamente
idénticas a las documentadas en “Guardar puntajes de componentes” en la página 593, aquí solo ofrecemos una
descripción abreviada.
Para guardar las puntuaciones de los componentes en el archivo de trabajo, utilizará el procedimiento de componentes
principales del panel. Haga clic en Proc/Crear componentes principales del panel... para mostrar el cuadro de diálogo.
Machine Translated by Google
El cuadro de diálogo es prácticamente igual al que se muestra para guardar las puntuaciones de los componentes
principales de un grupo; de hecho, la primera pestaña es idéntica.
• Debe proporcionar nombres para las series en las que desea guardar las puntuaciones y, opcionalmente,
nombres para las cargas y las matrices de vectores propios, y el vector de valores propios.
• Es importante destacar que el menú desplegable Escala en la parte inferior del cuadro de diálogo se usa para
determinar las propiedades de sus puntajes. De forma predeterminada, la escala se establece en Normalizar
cargas para que las puntuaciones tengan varianzas iguales a los valores propios de la descomposición. En
su lugar, puede optar por guardar puntajes normalizados (Normalizar puntajes), puntajes y cargas
ponderadas iguales (Pesos simétricos) o cargas ponderadas por el usuario (Peso de carga del usuario).
La segunda pestaña se utiliza para describir el cálculo de la medida de asociación (utilizada en el cálculo). Las
opciones son aquellas para calcular las covarianzas del panel como se describe en “Visualización de los componentes
principales” en la página 1004.
Una ilustración
Para ilustrar, calculamos los componentes principales de las correlaciones entre países para el crecimiento del
consumo per cápita (DCPCH) para los países del Grupo de los Siete durante el período de 1973 a 1992 (Obstfeld
y Rogoff, 2001). Los datos, que son de Penn World Table 5.6, se proporcionan en el archivo de trabajo
"PWT56_CONSUMP.wf1" en la carpeta Archivos de ejemplo en el directorio de instalación de EViews.
Machine Translated by Google
Abra el archivo de trabajo y la serie DCPCH, seleccione Ver/Panel de componentes principales... y haga
clic en Aceptar para calcular los componentes principales utilizando la configuración predeterminada y mostrar
los resultados básicos en forma de tabla:
Aquí vemos información de encabezado que describe el cálculo y dos de tres de las secciones de salida. La
primera sección proporciona un resumen de los valores propios de la matriz de correlación, mientras que la
segunda sección muestra los vectores propios correspondientes. No se muestra aquí, pero está presente en el
resultado real, es la propia matriz de correlación estimada.
Estos resultados en la primera sección muestran que los primeros cuatro componentes representan alrededor del
90% de la varianza escalada total en los valores de DCPCH entre secciones transversales. La segunda sección
describe los coeficientes de combinación lineal. Vemos que el primer componente principal (etiquetado como "PC1")
es una combinación lineal aproximadamente igual de los siete del crecimiento del consumo per cápita del país.
Podría pensarse que este componente representa el componente común en el crecimiento del consumo del G7.
Alternativamente, podemos indicar a EViews que calcule y grafique los valores propios asociados con las
correlaciones entre períodos. Haga clic en Ver/Panel Componentes principales... para mostrar el cuadro de
diálogo
Machine Translated by Google
vaya a la sección Mostrar , seleccione Gráficos de valores propios y marque todas las casillas de verificación de
visualización para que EViews muestre los tres gráficos de valores propios. A continuación, haga clic en el Cálculo
y haga clic en el botón Covarianzas entre periodos para que EViews desagrupe los datos en diferentes periodos.
Es importante tener en cuenta que debe cambiar la muestra a "1973 1992" ya que los datos de DCPCH en
1972 no están disponibles (DCPCH es una diferencia rezagada). Si tuviera que usar la muestra original de “1972
1992”, la opción de muestra balanceada eliminaría todas las observaciones y
Machine Translated by Google
la matriz de correlación entre periodos resultante contendría solo NA. El análisis de componentes principales en esta
matriz fallaría.
Haga clic en Aceptar para aceptar la configuración. Los resultados de esta vista (después de reorganizar ligeramente
los gráficos) se muestran a continuación:
EViews ofrece formas específicas de panel de pruebas de causalidad de Granger ("Causalidad de Granger" en la
página 606) de la Guía del usuario I.
En la configuración del archivo de trabajo del panel, EViews realiza pruebas de causalidad específicas de los datos del
panel. En estos escenarios, las regresiones de mínimos cuadrados pueden tomar varias formas diferentes, dependiendo
de las suposiciones hechas sobre la estructura de los datos del panel. Dado que la causalidad de Granger se calcula
ejecutando regresiones bivariadas, existen varios enfoques diferentes para probar la causalidad de Granger en un contexto
de panel.
si ,t ÿ
ÿ ÿÿ ÿ ÿÿ
a0, i a1, i yi t – 1, ÿ al i yi t , , – 1 b1, i xi t –, 1 ÿ b1, i xi t – 1ÿ ei t, – 1 b1, i , (47.5)
,
ÿ
ÿ ÿÿ ÿ ÿÿ
a0, i a1, i xi t – 1, ÿ al i xi t , , yi t , – 1 ÿ b1, i yi t – 1ÿ ei
, t (47.6)
cemento
,
Machine Translated by Google
Donde t denota la dimensión del período de tiempo del panel e i denota la dimensión de la sección transversal.
Las diferentes formas de prueba de causalidad de panel difieren en las suposiciones hechas sobre la homogeneidad de
los coeficientes a través de las secciones transversales.
EViews ofrece dos de los enfoques más simples para las pruebas de causalidad en paneles. El primero es tratar los
datos del panel como un gran conjunto de datos apilados y luego realizar la prueba de causalidad de Granger de la
manera estándar, con la excepción de no permitir que los datos de una sección transversal ingresen los valores
rezagados de los datos de la siguiente cruz. -sección. Este método supone que todos los coeficientes son iguales en
todas las secciones transversales, es decir:
(47.8)
b1, yo j , b1, j bl
, , yo
ÿ , ÿ ÿijblj,
Un segundo enfoque adoptado por Dumitrescu-Hurlin (2012) hace una suposición totalmente opuesta, lo que
permite que todos los coeficientes sean diferentes en las secciones transversales:
ÿÿ ÿ a0, i a0, j a1, i a1, j , , ÿ al i al j ,
b1, i b1, j , , ÿ ,bl i blj ÿ ÿij , , , ÿij , (47.9)
(47.10)
,
Esta prueba se calcula simplemente ejecutando regresiones de causalidad de Granger estándar para cada sección
transversal individualmente. El paso anidado es tomar el promedio de las estadísticas de prueba, que se denominan
estadísticas Wbar. Muestran que la versión estandarizada de esta estadística, debidamente ponderada en paneles no
balanceados, sigue una distribución normal estándar. Esto se denomina la estadística Zbar.
(EViews no proporciona versiones integradas de otras pruebas de causalidad de panel, ya que a menudo se basan en
regresiones que utilizan algunos supuestos en la Ecuación (47.5) o, en algunos casos, regresiones de mínimos cuadrados
en dos etapas, a menudo utilizando un modelo de efectos fijos o aleatorios. Es posible realizar estas pruebas estimando
los modelos utilizando un objeto de ecuación de EViews y luego realizar restricciones de coeficientes de prueba de Wald
en los coeficientes apropiados).
Para realizar la prueba, cree un grupo que contenga la serie de interés, luego seleccione Ver/
Causalidad de Granger... para mostrar el cuadro de diálogo de prueba:
Machine Translated by Google
Seleccione el tipo de prueba usando los botones de radio y proporcione una cantidad de retrasos para incluir.
Haga clic en Aceptar para aceptar la configuración y calcular la prueba.
Aquí mostramos los resultados de las pruebas Dumitrescu-Hurlin por parejas utilizando datos de "gaso
line.WF1" (que está disponible en su directorio de ejemplos). Rechazamos la nulidad de que LCARP CAP no
origina homogéneamente LGASPCAR, pero no se dirige en sentido contrario.
El cálculo de las covarianzas a largo plazo se describe con gran detalle en el Apéndice F, “Estimación de la
covarianza a largo plazo” en la página 1115 de la Guía del usuario I. La vista de grupo para calcular las covarianzas
se documenta en “Covarianza a largo plazo” en la página 600 de Guía del usuario I. En los archivos de trabajo de
panel, EViews calcula la matriz de covarianza promedio a largo plazo de Phillips y Moon (1999) obtenida al promediar
las covarianzas a largo plazo en las secciones transversales.
Hay poca diferencia entre la configuración de las covarianzas a largo plazo y las varianzas en la configuración del
panel y sin panel. Sin embargo, puede proporcionar un nombre en el campo de edición de la matriz del Panel a
EViews para guardar una matriz que contenga las estimaciones de covarianza individuales. Cada fila contendrá el
vec o vech de la matriz de resultados para la sección transversal correspondiente.
Supongamos, por ejemplo, que creamos un grupo utilizando las series LCARPCAP y LGASPCAR del archivo de
trabajo "gasolina.WF1". Seleccione Ver/Covarianza a largo plazo... para mostrar el cuadro de diálogo, ingrese
"pan_results" en el campo de edición de la matriz del panel y deje las configuraciones restantes en sus valores
predeterminados:
Machine Translated by Google
Las covarianzas promedio a largo plazo resultantes se muestran en la ventana del grupo:
y los resultados de las secciones transversales individuales se almacenan en la matriz PAN_RESULTS, con el
vech de las covarianzas de las secciones transversales individuales almacenadas en cada fila:
Machine Translated by Google
EViews proporciona herramientas convenientes para las pruebas de raíces unitarias del panel de cómputo. Puede
calcular una o más de las siguientes pruebas: Levin, Lin y Chu (2002), Breitung (2000), Im, Pesaran y Shin (2003),
pruebas de tipo Fisher usando pruebas ADF y PP: Maddala y Wu (1999) , Choi (2001) y Hadri (2000).
Estas pruebas se describen en detalle en “Prueba de la raíz de la unidad del panel”, a partir de la página 617.
Machine Translated by Google
Para comenzar, abrimos la serie F en nuestro archivo de trabajo del panel de ejemplo y aceptamos los valores
predeterminados para calcular el resumen de varias pruebas de raíz unitaria en el nivel de F. Los resultados están dados por
Cruz
Método Estadística Prob.** secciones Obs.
**
Las probabilidades para las pruebas de Fisher se calculan utilizando un Chi asintótico
-distribución cuadrada. Todas las demás pruebas asumen normalidad asintótica.
Tenga en cuenta que hay bastante desacuerdo en estos resultados en cuanto a si F tiene una raíz unitaria, incluso dentro de
las pruebas que evalúan la misma hipótesis nula (p. ej., Im, Pesaran y Shin frente a las pruebas Fisher ADF y PP).
Machine Translated by Google
Para obtener información adicional sobre los resultados intermedios, podemos volver a ejecutar el procedimiento
de raíz unitaria del panel, esta vez eligiendo una estadística de prueba específica. El cálculo de los resultados de la
prueba IPS, por ejemplo, muestra (además de los resultados IPS anteriores) los resultados estadísticos de la prueba
ADF para cada sección transversal del panel:
Cruz máx.
sección t-estado problema E(t) E(Var) Hacer Hacer Nota 1 1 18
1 -2.3596 0,1659 -1,511 0,953
2 -3.6967 0,0138 -1,511 0,953 1 1 18
3 -2.1030 0,2456 -1,511 0,953 1 1 18
4 -3.3293 0,0287 -1,511 0,953 1 1 18
5 0.0597 0,9527 -1,511 0,953 1 1 18
6 1.8743 0,9994 -1,511 0,953 1 1 18
7 -1.8108 0,3636 -1,511 0,953 1 1 18
8 -0.5541 0,8581 -1,511 0,953 1 1 18
9 -1.3223 0,5956 -1,511 0,953 1 1 18
10 -3.4695 0,0218 -1,511 0,953 1 1 18
EViews proporciona una serie de procedimientos para calcular las pruebas de cointegración del panel. Las
siguientes pruebas están disponibles en EViews: Pedroni (1999, 2004), Kao (1999) y prueba tipo Fisher utilizando la
metodología de prueba de Johansen (Maddala y Wu (1999)). Los detalles de estas pruebas se describen en "Detalles
de cointegración del panel", a partir de la página 1038.
Para ilustrar, realizamos una prueba de cointegración de panel de Pedroni. La única modificación de la configuración
predeterminada que hacemos es seleccionar Selección automática para la duración del retraso. Haga clic en
Aceptar para aceptar la configuración y realizar la prueba.
Machine Translated by Google
Estadística problema
La parte superior del resultado indica el tipo de prueba, la hipótesis nula, las variables exógenas y otras
opciones de prueba. La siguiente sección proporciona varios estadísticos de prueba de cointegración de panel
de Pedroni que evalúan la nula frente a las alternativas homogénea y heterogénea. En este caso, ocho de los
once estadísticos no rechazan la hipótesis nula de no cointegración al tamaño convencional de 0,05.
La parte inferior de la tabla informa los resultados de la sección transversal auxiliar que muestran el cálculo
intermedio utilizado para formar las estadísticas. Para la prueba de Pedroni, esta sección se divide en dos
secciones. La primera sección contiene los resultados no paramétricos de Phillips-Perron, y la segunda sección
presenta los resultados paramétricos de Dickey-Fuller aumentados.
Machine Translated by Google
Puede probar la dependencia de la sección transversal en una serie en un archivo de trabajo estructurado en panel.
Hay una variedad de pruebas para la dependencia de la sección transversal en la literatura, y EViews ofrece las
siguientes pruebas:
• Breusch-Pagan (1980) LM
• Mensaje (2004) CD
Consulte “Prueba de dependencia de la sección transversal del panel” en la página 958 para obtener más información.
Remuestreo de paneles
Resample... realiza un remuestreo en todas las series del grupo. Se proporciona una descripción del
procedimiento de remuestreo en “Remuestreo” en la página 435 de la Guía del usuario I. Cuando vuelve a
muestrear desde un archivo de trabajo de panel, EViews le ofrece una opción adicional de volver a muestrear a
través de secciones transversales o no. El valor predeterminado asume que las secciones transversales no son idénticas, por lo que
Machine Translated by Google
que el nuevo muestreo no se realiza a través de secciones transversales, sino que se realiza sección transversal
por sección transversal.
Hay disponible una amplia gama de análisis en archivos de trabajo estructurados en panel que no se han
rediseñado específicamente para utilizar la estructura de panel de sus datos. Estas herramientas le permiten
trabajar con los datos apilados y analizarlos, mientras aprovecha el soporte para manejar retrasos y adelantos en
el archivo de trabajo estructurado del panel.
Si bien se admite una amplia variedad de análisis apilados, varias vistas y procedimientos no están disponibles
en archivos de trabajo estructurados en panel. No puede, por ejemplo, realizar ajustes estacionales o estimar
ARCH o modelos de espacio de estados con el panel apilado.
Machine Translated by Google
Referencias
Dumitrescu, Elena-Ivona y Christophe Hurlin (2012). “Prueba de no causalidad de Granger en Heteroge
Newous Panels”, Economic Modeling, 29, 1450-1460.
Phillips, Peter CB y Hyungsik R. Moon (1999). "Teoría del límite de regresión lineal para datos de panel no
estacionarios", Econometrica, 67, 1057-1111.
Machine Translated by Google
• El Capítulo 48. “Pruebas de cointegración”, en la página 1023, documenta las pruebas de la presencia de relaciones de
cointegración entre variables no estacionarias en configuraciones de panel y sin panel.
• El Capítulo 49. "Análisis factorial", en la página 1043 , describe las herramientas para el análisis multivariante.
utilizando el análisis factorial.
Las herramientas generales para el análisis multivariante utilizando el objeto de grupo, incluidas las estadísticas de resumen,
el análisis de covarianza y los componentes principales, se analizan en el Capítulo 12. “Grupos”, a partir de la página 543 de
la Guía del usuario I.
Machine Translated by Google
El hallazgo de que muchas macroseries temporales pueden contener una raíz unitaria ha estimulado el desarrollo
de la teoría del análisis de series temporales no estacionarias. Engle y Granger (1987) señalaron que una combinación
lineal de dos o más series no estacionarias puede ser estacionaria. Si existe tal combinación lineal estacionaria, se
dice que las series temporales no estacionarias están cointegradas. La combinación lineal estacionaria se denomina
ecuación de cointegración y puede interpretarse como una relación de equilibrio a largo plazo entre las variables.
Este capítulo describe varias herramientas para probar la presencia de relaciones de cointegración entre variables
no estacionarias en configuraciones de panel y sin panel.
Las dos primeras partes de este capítulo se centran en las pruebas de cointegración que emplean el marco de
sistema de Johansen (1991, 1995) o las estadísticas de prueba basadas en residuos de Engle-Granger (1987) o
Phillips-Ouliaris (1990). La sección final describe las pruebas de cointegración en entornos de panel donde puede
calcular las pruebas de Pedroni (1999), Pedroni (2004) y Kao (1999), así como una prueba tipo Fisher utilizando una
metodología subyacente de Johansen (Maddala y Wu, 1999) .
Las pruebas de Johansen se pueden realizar utilizando un objeto de grupo o un objeto Var estimado. Las pruebas
residuales se pueden calcular usando un objeto de grupo o un objeto de ecuación estimado usando métodos de
regresión no estacionarios. Las pruebas del panel se pueden realizar utilizando un objeto Pool o un objeto Group en
una configuración de archivo de trabajo del panel. Tenga en cuenta que se ofrecen pruebas de cointegración
adicionales como parte del diagnóstico para una ecuación estimada mediante métodos no estacionarios.
Consulte “Pruebas de cointegración” en la página 282.
Si se detecta cointegración, se pueden utilizar métodos de corrección de errores vectoriales (VEC) o de regresión no
estacionaria para estimar la ecuación de cointegración. Consulte “Corrección de errores de vectores (VEC)
Modelos” en la página 726 y Capítulo 26. “Regresión de cointegración”, a partir de la página 267
para detalles.
EViews admite pruebas de cointegración basadas en VAR utilizando la metodología desarrollada en Johan sen
(1991, 1995) realizadas con un objeto de grupo o un objeto Var estimado.
ÿ ÿÿ ÿ ÿ
yt A1yt –1 ÿ Izquierda p – Bxt e t (48.1)
dónde:
pags pags
–
PAGS ÿ
ÿ ai yo , Soldado americano
ÿ–ÿ Sí (48.3)
yo = 1 de ÿ ÿ1
El teorema de representación de Granger afirma que si la matriz de coeficientes tiene rango reducido, entonces
PAGS
pruebas de raíces unitarias a cada serie en el VAR. Consulte “Pruebas de raíz unitaria” en la página 589 para obtener detalles
sobre cómo realizar pruebas de raíz unitaria en EViews.
Su serie puede tener medias distintas de cero y tendencias deterministas, así como tendencias estocásticas.
De manera similar, las ecuaciones de cointegración pueden tener intersecciones y tendencias deterministas.
La distribución asintótica del estadístico de prueba LR para la cointegración no tiene la distribución habitual
2
X distribución y depende de los supuestos realizados con respecto a las tendencias deterministas.
Machine Translated by Google
Por lo tanto, para realizar la prueba, debe hacer una suposición con respecto a la tendencia subyacente a sus datos.
Para cada caso de fila en el cuadro de diálogo, la columna COINTEQ enumera las variables deterministas que aparecen dentro de
las relaciones de cointegración (término de corrección de error), mientras que la columna FUERA enumera las variables deterministas
que aparecen en la ecuación VEC fuera de las relaciones de cointegración. Los casos 2 y 4 no tienen el mismo conjunto de términos
deterministas en las dos columnas.
Para estos dos casos, parte del término determinista está restringido a pertenecer únicamente a la relación de cointegración. Para los
casos 3 y 5, los términos deterministas son comunes en las dos columnas y la descomposición de los efectos deterministas dentro y
fuera del espacio de cointegración no se identifica de manera única; consulte la discusión técnica a continuación.
En la práctica, los casos 1 y 5 rara vez se utilizan. Debe usar el caso 1 solo si sabe que todas las series tienen media cero. El caso
5 puede proporcionar un buen ajuste dentro de la muestra, pero producirá pronósticos poco plausibles fuera de la muestra. Como
guía aproximada, use el caso 2 si ninguna de las series parece tener una tendencia. Para series de tendencias, utilice el caso 3 si
cree que todas las tendencias son estocásticas; si cree que algunas de las series son estacionarias en tendencia, use el caso 4.
Si no está seguro de qué supuesto de tendencia usar, puede elegir la opción Resumen de los 5 supuestos de tendencia (caso 6)
para ayudarlo a determinar la elección del supuesto de tendencia. Esta opción indica el número de relaciones de cointegración bajo
cada uno de los 5 supuestos de tendencia, y podrá evaluar la sensibilidad de los resultados al supuesto de tendencia.
Podemos resumir los cinco casos de tendencias deterministas considerados por Johansen (1995, p. 80–
84) como:
Bx ÿ ÿ ÿ bÿyt
a – 1 r ÿ 3.
H1 *ÿ ÿ r : No importa – 1 t 0ÿ
Bx ÿ ÿ ÿ bÿyt
a –1rÿ
H1ÿ ÿ r : No importa – 1 t 0ÿ ÿ aÿg0
4. Los datos de nivel y las ecuaciones de cointegración tienen tendencias lineales: yt
H rÿ ÿ : No importa – 1 Bx ÿ ÿ
t ÿ a bÿyt – 1 r0 ÿr1t ÿ ÿ ÿ ÿ ÿ t aÿ g0 g1 ÿ
Machine Translated by Google
Los términos asociados con son los términos deterministas “fuera” de la relación de cointegración aÿ
ciones. Cuando un término determinista aparece tanto dentro como fuera de la relación de cointegración,
la descomposición no se identifica de manera única. Johansen (1995) identifica la parte que pertenece
dentro del término de corrección de error al proyectar ortogonalmente los términos exógenos en el
espacio deamodo que sea el espacio nulo de
de identificación tal quepara
diferente aÿaÿÿ
que 0 término de corrección de .error
a el EViews usa
tenga un media
una método
muestral de cero.
Más específicamente, identificamos la parte dentro del término de corrección de error haciendo una regresión de las relaciones
de integración de la moneda bÿyt en una tendencia constante (y lineal).
Variables exógenas
El cuadro de diálogo de prueba le permite especificar variables exógenas adicionales para incluir en la prueba xt
VAR. La tendencia constante y lineal no debe aparecer en el cuadro de edición, ya que se especifican mediante las cinco
opciones de Especificación de tendencia . Si elige incluir variables exógenas, tenga en cuenta que los valores críticos
informados por EViews no tienen en cuenta estas variables.
Los términos deterministas que se agregan con mayor frecuencia son las variables ficticias estacionales. Tenga en
cuenta, sin embargo, que si incluye variables ficticias estacionales estándar 0–1 en el VAR de prueba, esto afectará tanto
la media como la tendencia de la serie de nivel. Para manejar este problema, Johansen yt
(1995, página 84) sugiere utilizar variables ficticias estacionales centradas (ortogonalizadas), que desplazan la media sin
contribuir a la tendencia. Las variables ficticias estacionales centradas para series trimestrales y mensuales se pueden
generar con los comandos:
Intervalos de retraso
Debe especificar los retrasos de la prueba VAR como pares de intervalos. Tenga en cuenta que los rezagos se especifican
como rezagos de los primeros términos diferenciados usados en la regresión auxiliar, no en términos de los niveles. Por
ejemplo, si escribe “1 2” en el campo de edición, el VAR de prueba retrocede yÿ yÿ y cualquier otra variable en yÿque ,
hayatexógena
especificado.
t -1
t -2 en, cuenta
Tenga que, encon
cointegración términos de la en
un retraso serie de niveles,
la serie el retraso
de niveles , yt más grande es 3. Para ejecutar una prueba de
Valores criticos
De manera predeterminada, EViews calculará los valores críticos para la prueba utilizando los valores p de MacKinnon-
Haug Michelis (1999). En su lugar, puede optar por informar el Osterwald-Lenum (1992) en los niveles del 5 % y el 1 %
cambiando la selección del botón de opción de MHM a Osterwald-Lenum.
Machine Translated by Google
A modo de ejemplo, a continuación se muestra la parte del encabezado del resultado de la prueba de cointegración para
el sistema de cuatro variables utilizado por Johansen y Juselius (1990) para los datos daneses.
Como se indica en el encabezado de la salida, la prueba no asume ninguna tendencia en la serie con una intersección
restringida en la relación de cointegración (calculamos la prueba utilizando la suposición 2 en el cuadro de diálogo,
Intercepción (sin tendencia) en CE - sin intersección en VAR) , incluye tres variables ficticias estacionales
ortogonalizadas D1–D3 y utiliza un retraso en las diferencias (dos retrasos en los niveles) que se especifica como "1 1" en
el campo de edición.
La siguiente parte de la tabla informa los resultados para probar el número de relaciones de cointegración.
Se reportan dos tipos de estadísticas de prueba. El primer bloque informa las llamadas estadísticas de seguimiento y el
segundo bloque (que no se muestra arriba) informa las estadísticas de valores propios máximos . Para cada bloque, la
primera columna es el número de relaciones de cointegración bajo la hipótesis nula, la segunda columna son los valores
propios ordenados de la matriz en (48.3), la tercera columna es el estadístico de prueba y las dos últimas columnas son
PAGS
los 5% y 1% valores críticos. Los valores críticos (distribución no estándar) se tomaron de MacKinnon-Haug-Michelis
(1999), por lo que difieren ligeramente de los informados por Johansen y Juselius (1990).
Machine Translated by Google
*
Ninguna 0,433165 30.08745 28.58808 0,0319
A lo sumo 1 0,177584 10.36195 22.29962 0,8059
Como máximo 2 0,112791 6.342731 15.89210 0,7486
Como mucho 3 0,043411 2.352233 9.164546 0,7071
rechacemos. El resultado de este procedimiento de prueba secuencial se informa en la parte inferior de cada bloque.
donde escomo
el i-ésimo
p valor propio más grande de la matriz en (48.3) que se informa en la segunda columna de
la tabla de salida.
El segundo bloque de la salida informa la estadística de valores propios máximos que prueba la hipótesis nula
r
de las relaciones de cointegración r ÿ 1 Esta
frente a la alternativa de las relaciones de cointegración. prueba
estadística
se de
calcula como:
–
LRmáxÿ rr ÿ 1 ÿ ÿ – logÿ T 1 lr ÿ 1 ÿ
(48.5)
–
LRtrÿ ÿ rk LRtr ÿ r ÿ 1 k
Machine Translated by Google
.
para r ÿ 0 1,, , ÿ k – 1
• Los valores críticos están disponibles para k = 10 serie. También tenga en cuenta que los valores críticos
depender de los supuestos de tendencia y pueden no ser apropiados para modelos que contienen otros
regresores deterministas. Por ejemplo, una variable ficticia de cambio en la prueba VAR implica una
tendencia lineal rota en la serie de nivel. yt
• La estadística de traza y la estadística de valores propios máximos pueden producir resultados contradictorios.
Para tales casos, le recomendamos que examine el vector de cointegración estimado y base su elección
en la interpretabilidad de las relaciones de cointegración; ver Johan sen y Juselius (1990) para un ejemplo.
• En algunos casos, las pruebas de raíces unitarias individuales mostrarán que algunas de las series son inter P
rallado, pero la prueba de cointegración indicará que la matriz tiene rango completo k ÿ
( r). Esta aparente contradicción puede ser el resultado de la baja potencia de las pruebas de cointegración,
derivada quizás de un tamaño de muestra pequeño o que sirve como indicación de error de especificación.
Relaciones de cointegración
La segunda parte del resultado proporciona estimaciones de las relaciones de cointegración y los parámetros
b de
ajuste. Como es bien sabido, ela vector de cointegración no se identifica a menos que impongamos
b alguna
normalización arbitraria. El primer bloque reporta estimaciones de y basadas en la normalización bÿS11b ÿ I bdefinida
a en Johansen (1995). Nota , dónde S11
que la transposición de se informa
b en Coeficientes de cointegración no restringidos , de modo que la primera
fila es el primer vector de cointegración, la segunda fila es el segundo vector de cointegración, y así sucesivamente.
MLR LRY EI VA
-21,97409 22,69811 -114,4173 92.64010 C 133.1615
14,65598 -20,05089 3,561148 100.2632 -62.59345
7,946552 -25,64080 4,277513 -44.87727 62.74888
1,024493 -1,929761 24,99712 -14.64825 -2.318655
Los bloques restantes reportan estimaciones de una normalización diferente para cada número
posible de relaciones de cointegración r ÿ 0 1,, , ÿ k – 1. Esta normalización alternativa expresa
Machine Translated by Google
D(IBO)
D(IDE)
Imposición de restricciones
Para realizar la prueba de cointegración de un objeto Var, primero deberá estimar un VAR con sus variables
como se describe en “Estimación de un VAR en EViews” en la página 689. A continuación, seleccione Ver/Prueba
de cointegración... en el menú Var y especifique las opciones en la pestaña Especificación de prueba de
cointegración como se explicó anteriormente. Luego abra la pestaña Restricciones VEC . Ingresará sus
restricciones en el cuadro de edición que aparece cuando marca Imponer restricciones
caja:
Machine Translated by Google
Se proporciona una descripción completa de cómo ingresar sus restricciones en "Imposición de restricciones de VEC"
en la página 729.
Si impone restricciones en la vista Prueba de cointegración , la parte superior de la salida mostrará los resultados de la
prueba sin restricciones como se describe anteriormente. La segunda parte del resultado comienza mostrando los
resultados de la prueba LR para restricciones vinculantes.
Restricciones:
a(3,1)=0
Si las restricciones no son vinculantes para un rango en particular, las filas correspondientes se llenarán con NA. Si las
restricciones son vinculantes pero el algoritmo no convergió, la fila correspondiente se llenará con un asterisco “*”.
(Debería volver a hacer la prueba aumentando el número de iteraciones o relajando el criterio de convergencia). Para el
resultado de ejemplo que se muestra arriba, vemos que la restricción única a31 ÿ 0
es vinculante sólo bajo el supuesto de que
Machine Translated by Google
hay una relación de cointegración. Condicional a que exista una sola relación de cointegración, la prueba
LR no rechaza la restricción impuesta a niveles convencionales.
B(2,1) = 1
Dado que esta es una restricción en el segundo vector de cointegración, EViews mostrará resultados
para rangos r ÿ 2 3,, , ÿ k – 1 (si el VAR tiene solo k ÿ 2 variables, EViews devolverá un
mensaje de error que indica que el "rango implícito de las restricciones debe ser de orden reducido").
Para cada rango, el resultado informa si se logró la convergencia y el número de iteraciones. El resultado
también informa si las restricciones identifican todos los parámetros de cointegración bajo el rango asumido.
Si se identifican los vectores de cointegración, estándar asintótico b
los errores se informarán junto con los parámetros.
Puede usar un grupo o un objeto de ecuación estimado usando cointreg para realizar pruebas de
cointegración basadas en residuos de una sola ecuación de Engle y Granger (1987) o Phillips y Ouliaris
(1990). En "Antecedentes" en la página 267 se proporciona una descripción del modelo de ecuación única
subyacente a estas pruebas . Los detalles sobre el cálculo de las pruebas y las opciones asociadas se
pueden encontrar en "Pruebas basadas en residuos", en la página 282.
Ilustramos las pruebas de cointegración de una sola ecuación utilizando el ejemplo de paridad del poder
adquisitivo de Hamilton (1994) (pág. 598) para el logaritmo del nivel de precios de EE. UU. (P_T), el
logaritmo del tipo de cambio dólar-lira (S_T) y el logaritmo de el nivel de precios italiano (PSTAR_T) de
1973m1 a 1989m10. Usaremos estos datos, que se proporcionan en "Hamilton_rates.WF1", para construir
pruebas de Engle-Granger y Phillips-Ouliaris asumiendo que la constante es el único regresor determinista
en la ecuación de cointegración.
Para realizar las pruebas de cointegración de Engle-Granger o Phillips-Ouliaris, primero cree un grupo,
digamos G1, que contenga las series P_T, S_T y PSTAR_T, luego seleccione View/Cointegration Test/
Machine Translated by Google
Prueba de cointegración de una sola ecuación desde la barra de herramientas del grupo o el menú principal. Se abre la
página Especificación de prueba de cointegración para solicitarle información sobre la prueba.
El lado derecho del cuadro de diálogo se utiliza para especificar la forma de la ecuación de cointegración. La principal
ecuación de cointegración se describe en la sección Especificación de ecuaciones . Debe usar el menú desplegable
Especificación de tendencias para elegir de la lista de supuestos de variables de tendencias deterministas preespecificados
(Ninguno, Constante (nivel), Tendencia lineal, Tendencia cuadrática). Si desea incluir regresores deterministas que no se
ofrecen en la lista preespecificada, puede ingresar los nombres de las series o expresiones en el cuadro de edición de
regresores deterministas . Para nuestro ejemplo, dejaremos la configuración en sus valores predeterminados, con la
especificación de Tendencia establecida en Constante (Nivel) y no se especificarán regresores deterministas adicionales.
La sección de especificación de regresores debe utilizarse para especificar tendencias deterministas u otros regresores que
deben incluirse en las ecuaciones de los regresores pero no en la ecuación de cointegración. En nuestro ejemplo, Hamilton
apunta a la evidencia de una desviación distinta de cero en los regresores, por lo que seleccionaremos Tendencia lineal en el
menú desplegable Tendencias adicionales .
Resultados intermedios:
Las dos partes superiores de la salida describen la configuración de la prueba y resumen los resultados de la prueba.
Con respecto a los resultados de la prueba, tenga en cuenta que EViews calcula tanto el estadístico tau de Engle-
Granger (estadístico t ) como el coeficiente de autocorrelación normalizado (que llamamos estadístico z) para los
residuos obtenidos usando cada serie en el grupo como la variable dependiente en un regresión de cointegración. Aquí
vemos que los resultados de la prueba son muy similares para diferentes variables dependientes, con el estadístico tau
fallando uniformemente en rechazar el valor nulo de no cointegración en niveles convencionales. Los resultados para
las estadísticas z son mixtos, con los residuos de la ecuación P_T rechazando la raíz unitaria nula al nivel del 5%. En
general, sin embargo, las estadísticas de prueba sugieren que no podemos rechazar la hipótesis nula de no cointegración.
La parte inferior de los resultados muestra cálculos intermedios para la prueba correspondiente a cada variable
dependiente. “Pruebas basadas en residuos,” en la página 282 ofrece una discusión de estas estadísticas. Notamos
que solo hay 2 tendencias estocásticas en la distribución asintótica (en lugar de las 3 correspondientes al número de
variables en el grupo) como resultado de nuestra suposición de una deriva distinta de cero en los regresores.
Alternativamente, puede calcular la estadística de prueba de Phillips-Ouliaris. Una vez más seleccione Ver/
Prueba de cointegración/Prueba de cointegración de una sola ecuación en la barra de herramientas Grupo o
en el menú principal, pero esta vez elija Phillips-Ouliaris en el menú desplegable Método de prueba .
Machine Translated by Google
Haga clic en el botón Aceptar para aceptar las Opciones, luego en Aceptar nuevamente para calcular las estadísticas
de la prueba y mostrar los resultados:
Machine Translated by Google
Resultados intermedios:
Rho* SE 0.018547 0.018644 0.018617 Varianza residual 0.162192 6.411674 0.619376 Varianza
residual de larga duración 0.408224 13.02214 1.419722 Autocovarianza
0.123016 residual de longitudes
3.305234 0.400173
Bandwa.00.2.2.2.2.2.2.m.2.2.2.2.
201 201
2 2
En contraste con las pruebas de Engle-Granger, los resultados son bastante similares para las seis pruebas y la prueba
de Phillips-Ouliaris no rechaza la hipótesis nula de que las series no están cointegradas. Como antes, la parte inferior de
la salida muestra resultados intermedios para la prueba asociada con cada variable dependiente.
El gran interés y la disponibilidad de los datos de panel ha llevado a enfatizar la extensión de varias pruebas estadísticas
a los datos de panel. La literatura reciente se ha centrado en las pruebas de cointegración en un entorno de panel.
EViews calculará uno de los siguientes tipos de pruebas de cointegración de panel: Pedroni (1999), Pedroni (2004), Kao
(1999) y una prueba tipo Fisher utilizando una metodología subyacente de Johansen (Maddala y Wu 1999).
Puede realizar una prueba de cointegración utilizando un objeto Pool o un grupo en una configuración de archivo de
trabajo del panel. Nos centramos aquí en la configuración del panel; realizando una prueba de cointegración usando un Pool
Machine Translated by Google
implica solo diferencias menores en la especificación (consulte “Realización de pruebas de cointegración”, a partir
de la página 860 para obtener una discusión sobre las pruebas en la configuración de datos agrupados).
Para realizar la prueba de cointegración del panel utilizando un objeto de grupo, primero debe asegurarse de estar en un
archivo de trabajo estructurado del panel (Capítulo 44. “Trabajar con datos del panel”, en la página 893). Si tiene un
archivo de trabajo de panel con una sola sección transversal en la muestra, puede realizar una de las pruebas estándar
de cointegración de una sola ecuación utilizando su submuestra.
cointegración/Prueba de
cointegración del panel... para
mostrar el cuadro de diálogo de cointegración.
(Tenga en cuenta que la prueba de Pedroni solo estará disponible para grupos que contengan siete series o menos).
Las opciones personalizables asociadas con las pruebas de Pedroni y Kao son muy similares a las opciones que se
encuentran en las pruebas de raíz de unidad de panel (“Prueba de raíz de unidad de panel” en la página 617).
La parte de especificación de tendencia determinista del cuadro de diálogo especifica los regresores exógenos que se
incluirán en la regresión de segunda etapa. Debe seleccionar Intersección individual si desea incluir efectos fijos
individuales, Intersección individual y tendencia individual si desea incluir tendencias y efectos fijos individuales, o Sin
intersección o tendencia para no incluir regresores. La prueba de Kao solo permite la intercepción individual.
La sección de longitud de retraso se utiliza para determinar el número de retrasos que se incluirán en la regresión de
segunda etapa. Si selecciona Selección automática, EViews determinará el retraso óptimo utilizando el criterio de
información especificado en el menú desplegable (Akaike, Schwarz, Han nan-Quinn). Además, puede proporcionar un
retardo máximo que se utilizará en la selección automática. Un campo vacío indicará a EViews que calcule el retraso
máximo para cada sección transversal en función del número de observaciones. La longitud de retraso máxima
predeterminada para cross-sec i
ción se calcula como:
Machine Translated by Google
ÿ
1 4ÿ
Si ÿ ÿ ÿ 100 ÿ
Ti ( ÿ) ÿ ÿ – k ÿ 3, 12 int mín
La prueba de Pedroni emplea la estimación kernel tanto paramétrica como no paramétrica de la varianza a largo plazo. Puede
usar las secciones Cálculo de varianza y Longitud de retraso para controlar el cálculo de los estimadores de varianza
paramétrica. La parte de estimación espectral del cuadro de diálogo le permite especificar la configuración para la estimación
no paramétrica. Puede seleccionar entre varios tipos de kernel (Bartlett, Parzen, espectral cuadrático) y especificar cómo
se seleccionará el ancho de banda (Newey-West automático, Newey-West fijo, especificado por el usuario). El ancho de
banda fijo de Newey-West viene dado por ÿ 4 T y la parte de estimación espectral de la configuración del cuadro de diálogo
2 9ÿ
se describe a continuación. i ÿ ÿ 100 . La prueba de Kao utiliza la longitud de retraso
La sección de especificación de
Aquí proporcionamos una breve descripción de las pruebas de cointegración compatibles con EViews. Las pruebas de
Pedroni y Kao se basan en las pruebas de cointegración de dos pasos (basadas en residuos) de Engle-Granger (1987). La
prueba de Fisher es una prueba combinada de Johansen.
La prueba de cointegración de Engle-Granger (1987) se basa en un examen de los residuos de una regresión espuria
realizada con variables I(1). Si las variables están cointegradas, los residuos deberían ser I(0). Por otro lado, si las variables
no están cointegradas, los residuos serán I(1). Pedroni (1999, 2004) y Kao (1999) extienden el marco de trabajo de Engle-
Granger a las pruebas que involucran datos de panel.
Machine Translated by Google
Pedroni propone varias pruebas de cointegración que permiten interceptos heterogéneos y coeficientes de
tendencia a través de secciones transversales. Considere la siguiente regresión
para t ÿ 1, ,ÿ T i ÿ 1, ; ,ÿ N m ÿ 1, ; ,ÿ
Mi ;se
donde
supone
y que sonXinte di
rallado de orden uno, por ejemplo , I(1). Los parámetros comer
y son efectos individuales y de tendencia que
pueden establecerse en cero si se desea.
o
Pi
una
ÿ
mucho – 1 ÿ ÿ
vÿ
nosotros eÿ eso j – eso
(48.8)
jÿ1
para cada sección transversal. Pedroni describe varios métodos de construcción de estadísticos para probar
la hipótesis nula de no cointegración ( ri ÿ 1 ). Hay dos hipótesis alternativas: la
alternativa homogénea, ri ÿ ÿ ÿ r ÿ 1 i para todos (que Pedroni denomina la prueba dentro de
la dimensión o prueba de estadísticas de panel), y la alternativa heterogénea, ri ÿ 1 i para todos
(también conocida como la prueba estadística entre dimensiones o de grupo).
ÿN T, –mN (48.9)
-------------------------------- ÿ Nÿ ÿ 0 1,
en
La prueba de Kao sigue el mismo enfoque básico que las pruebas de Pedroni, pero especifica interceptos
específicos de la sección transversal y coeficientes homogéneos en los regresores de la primera etapa.
por
Machine Translated by Google
pegar
ÿ
ÿ
salir – 1 e it ,
(48.12)
para t ÿ 1, , ÿ T i;ÿ 1, , ÿ norte . En términos más generales, podemos considerar ejecutar la primera etapa
Ecuación de regresión (48.6), que requiere que el secciones
sea heterogéneo, que sea
transversales homogéneo
y establezca
bi ai enlos
todos todas las
coeficientes de tendencia gi a cero.
una
ÿ
reit – 1 v it
ÿ (48.13)
una
ÿ
r˜ eit – 1
ÿ
ÿwj eÿ _ ÿ v
eso (48.14)
eso j –
jÿ1
T Nÿ ÿ rˆ
ÿ 3– N
1
DFr
ÿ ------------------------------------------------- -
(48.15)
10.2
* ÿ 6Njˆ ÿ ÿ 2jˆ 0v ÿ
tr en
DFT
ÿ ------------------------------------------------- --------------------
(48.18)
2 2 2 2
jˆ 0v ÿ ÿ 2jˆ ÿ 3jˆ
ÿ ÿÿ10jˆ 0v ÿ
en en
t ÿ 6Njˆ ÿ ÿ 2jˆ 0v ÿ
r˜ en
alimentador automático de documentos
ÿ ------------------------------------------------- --------------------
(48.19)
2 2 2 2
jˆ 0v ÿ ÿ 2jˆ ÿ 3jˆ
ÿ ÿÿ10jˆ
en en 0v ÿ
2 2 2 es
Nÿ ÿ 0 1, jˆ con
asintóticamente,
la varianza estimada
donde lade varianza
largo plazo
estimada
jˆ 0v converge a 2 en
ÿ-
jˆ en jˆ tu -2
– 2 –2
2 jˆ 0u 0ue
. ÿ
jˆ j0e
La covarianza de
de
ingenio
ÿ
(48.20)
una
se estima como
Machine Translated by Google
Referencias—1041
norte T
2
jˆ en jˆ tu 1
S
ÿ
2
ÿÿNUEVO TESTAMENTO--------
ÿ wˆ itwˆ itÿ (48.21)
jˆue jˆe _ yo = 1 t = 1
2
ÿ
jˆ 0u jˆ 0ue
Qˆ
2
jˆ 0ue jˆ 0e
(48.22)
norte T ÿ T
1 1 1 ÿ
ÿ ÿ----
norte
---
T
ÿ ---
wˆ itwˆ itÿ ÿ ÿTk tÿ ÿ ÿ b
ÿ
ÿ ÿ wˆ itwˆ it – tÿ wˆ it – twˆ it
ÿ
b
donde eskuna de las funciones del kernel admitidas y es el ancho de banda.
Fisher (1932) deriva una prueba combinada que utiliza los resultados de las pruebas independientes individuales.
Maddala y Wu (1999) utilizan el resultado de Fisher para proponer un enfoque alternativo para probar la cointegración
en datos de panel mediante la combinación de pruebas de secciones transversales individuales para obtener un
estadístico de prueba para el panel completo.
Si es
pi el valor p de una prueba de cointegración individual para la sección transversal i , luego bajo el
hipótesis nula para el panel,
norte
2
2 pi logÿ ÿ x ÿ 2N (48.23)
–ÿ
yo = 1
2
Por defecto, EViews informa la x valor basado en MacKinnon-Haug-Michelis (1999) p-val
ues para la prueba de trazas de cointegración de Johansen y la prueba de valores propios máximos.
Referencias
Boswijk, H. Peter (1995). “Identificabilidad de sistemas cointegrados”, Informe técnico, Instituto Tinbergen.
Engle, Robert F. y CWJ Granger (1987). “Cointegración y Corrección de Errores: Representación, Esti
mation, and Testing”, Econometrica, 55, 251–276.
Fischer, RA (1932). Métodos estadísticos para trabajadores de investigación, 4ª edición, Edimburgo: Oliver & Boyd.
Hamilton, James D. (1994). Análisis de series temporales, Princeton: Princeton University Press.
Johansen, Soren (1991). “Estimación y Prueba de Hipótesis de Vectores de Cointegración en Vector Gaussiano
Modelos autorregresivos”, Econometrica, 59, 1551–1580.
Johansen, Soren (1995). Inferencia basada en la probabilidad en modelos autorregresivos de vectores cointegrados, Oxford:
Prensa de la Universidad de Oxford.
Johansen, Soren y Katarina Juselius (1990). “Estimación de máxima verosimilitud e inferencias sobre la integración de
monedas, con aplicaciones a la demanda de dinero”, Oxford Bulletin of Economics and Statistics, 52, 169–210.
Machine Translated by Google
Kao, Chinwa D. (1999). "Regresión espuria y pruebas basadas en residuos para cointegración en datos de panel",
Revista de Econometría, 90, 1–44.
MacKinnon, James G. (1996). “Funciones de distribución numérica para pruebas de raíz unitaria y cointegración,”
Diario de Econometría Aplicada, 11, 601-618.
MacKinnon, James G., Alfred A. Haug y Leo Michelis (1999), “Numerical Distribution Functions of
Pruebas de cociente de probabilidad para la cointegración”, Journal of Applied Econometrics, 14, 563-577.
Maddala, GS y S. Wu (1999). “Un estudio comparativo de pruebas de raíces unitarias con datos de panel y un nuevo
Prueba simple”, Boletín de Economía y Estadística de Oxford, 61, 631–52.
Osterwald-Lenum, Michael (1992). “Una Nota con Cuantiles de la Distribución Asintótica de la Maxi
Estadísticas de prueba de rango de cointegración de probabilidad máxima”, Oxford Bulletin of Economics and Statistics,
54, 461–472.
Pedroni, P. (1999). “Valores críticos para las pruebas de cointegración en paneles heterogéneos con regresores múltiples”,
Boletín de economía y estadística de Oxford, 61, 653–70.
Pedroni, P. (2004). “Cointegración de Paneles; Propiedades asintóticas y de muestras finitas de las pruebas de series de tiempo
agrupadas con una aplicación a la hipótesis de PPP”, Econometric Theory, 20, 597–625.
Machine Translated by Google
El análisis factorial exploratorio es un método para explicar las relaciones de covarianza entre un número de variables
observadas en términos de un número mucho menor de variables no observadas , denominadas factores.
EViews proporciona una amplia gama de herramientas para realizar análisis factoriales, desde calcular la matriz de
covarianza a partir de datos sin procesar hasta la construcción de estimaciones de puntuación factorial.
El análisis factorial en EViews se lleva a cabo utilizando el objeto factor. El resto de este capítulo describe el uso del objeto
factor EViews para realizar un análisis factorial exploratorio.
Con el objeto de factor EViews puede:
• Examinar diagnósticos.
EViews ofrece una amplia gama de opciones en cada una de estas áreas. Puede, por ejemplo, seleccionar de un menú de
métodos automáticos para elegir el número de factores a retener, o puede especificar un número arbitrario de factores. Puede
estimar su modelo usando factores principales, factores principales iterados, máxima verosimilitud, mínimos cuadrados no
ponderados, mínimos cuadrados generalizados y estimación de covarianza particionada no iterativa (PACE). Una vez que
obtenga las estimaciones iniciales, las rotaciones se pueden realizar utilizando cualquiera de los más de 30 métodos
ortogonales y oblicuos, y las puntuaciones de los factores se pueden estimar en más de una docena de formas.
Comenzamos con una discusión sobre el proceso de creación y especificación de un objeto de factor y el uso del objeto
para estimar el modelo, realizar la rotación de factores y estimar las puntuaciones de los factores.
Esta sección asume cierta familiaridad con el modelo de factor común y los diversos problemas asociados con la especificación,
la rotación y la puntuación. Aquellos que requieran detalles adicionales pueden consultar “Antecedentes”, a partir de la página
1074.
A continuación, proporcionamos una descripción general de las vistas, los procedimientos y los miembros de datos
proporcionados por el objeto de factor, seguido de un ejemplo ampliado que destaca las características seleccionadas.
El resto del capítulo proporciona información básica relevante sobre el modelo de factor común. Nuestra discusión es
necesariamente limitada; la literatura sobre análisis factorial es extensa,
Machine Translated by Google
por decir lo menos, y no podemos intentar una visión global. Para aquellos que requieren un tratamiento detallado,
el tratamiento de la longitud del libro de Harman (1976) es una referencia estándar. Otras encuestas útiles incluyen
Gorsuch (1983) y Tucker y MacCallum (1977).
El análisis factorial en EViews se lleva a cabo usando un objeto factorial. Puede crear y especificar el objeto de factor de
varias formas. Los métodos más fáciles son:
• Seleccione Objeto/Nuevo objeto en el menú del archivo de trabajo, elija Factor e ingrese la especificación
ificación en el cuadro de diálogo Especificación de factor .
• Resalte varias series, haga clic con el botón derecho, seleccione Abrir/como factor... e ingrese la especificación
ción en el diálogo.
También puede usar los comandos factor o factest para crear y especificar su objeto de factor.
La medida de dispersión de interés se especifica mediante la pestaña Datos del cuadro de diálogo y el modelo factorial
se define mediante la pestaña Estimación . Las siguientes secciones describen estos ajustes en detalle.
Especificación de datos
El primer elemento de la pestaña Datos es el menú desplegable Tipo , que se utiliza para especificar si desea calcular
una matriz de correlación o covarianza a partir de los datos de la serie, o proporcionar una matriz de usuario que
contenga una medida de asociación previamente calculada.
Machine Translated by Google
Especificación de covarianza
Método
Tenga en cuenta que el cálculo de las puntuaciones de los factores ("Puntuación" en la página 1084) no es compatible
con los modelos de factores que se ajustan a las medidas tau de Spearman o Kendall. Sin embargo, si desea calcular
puntajes para medidas basadas en estos métodos, puede estimar un modelo factorial que se ajuste a una matriz
especificada por el usuario.
Variables
Debe ingresar la lista de series o grupos que contienen series que desea emplear para el análisis.
(Tenga en cuenta que cuando crea su objeto de factor a partir de un objeto de grupo o un conjunto de series
resaltadas, EViews asume que desea calcular una medida de asociación de la serie especificada e inicializará el campo
de edición utilizando los nombres de las series).
Muestra
Debe especificar una muestra de observaciones e indicar si desea equilibrar la muestra. De forma predeterminada,
EViews realizará una eliminación por lista cuando encuentre valores faltantes. Esta opción se ignora cuando se realiza
un análisis parcial (que solo se puede calcular para muestras balanceadas).
parcialización
Las covarianzas o correlaciones parciales se pueden calcular para cada par de variables de análisis ingresando una
lista de variables condicionantes en el campo de edición.
Machine Translated by Google
No se admite el cálculo de puntajes factoriales para modelos ajustados a correlaciones o covarianzas parciales. Sin
embargo, para calcular las puntuaciones de las medidas en esta configuración, puede estimar un modelo factorial que
se ajuste a una matriz especificada por el usuario.
Ponderación
Cuando especifique un método de ponderación, se le pedirá que ingrese el nombre de una serie de ponderación. Hay
cinco opciones de peso diferentes: frecuencia, varianza, desviación estándar, varianza escalada y desviación estándar
escalada.
Puede optar por calcular las covarianzas utilizando el estimador de máxima verosimilitud o la fórmula corregida de
grado de libertad. De forma predeterminada, EViews calcula estimaciones de ML (sin corrección de df) de las
covarianzas. Tenga en cuenta que esta elección puede ser relevante incluso si va a trabajar con una matriz de
correlación, ya que se pueden usar datos estandarizados al construir puntajes factoriales.
• Debe especificar el
nombre de una matriz EViews
• Se pueden proporcionar nombres de columna para etiquetar los resultados. Si no se proporciona, las variables se
etiquetarán como "V1", "V2", etc. No necesita proporcionar nombres para todas las columnas; los nombres
genéricos se reemplazarán con los nombres especificados en el orden en que se proporcionan.
Machine Translated by Google
Especificación de estimación
La configuración de estimación principal se muestra cuando hace clic en la pestaña Estimación del cuadro de
diálogo Especificación de factor. Hay cuatro secciones en el cuadro de diálogo que le permiten controlar el método,
la cantidad de factores, las comunalidades iniciales y otras opciones. Describimos cada uno en
giro.
Método
Número de factores
• Si selecciona Análisis paralelo (media) o Análisis paralelo (cuantil) en el menú desplegable, la página de
diálogo cambiará para ofrecerle varias opciones adicionales.
Machine Translated by Google
En el Número de factor
secciones, EViews le
solicitará el número de
simulaciones que se ejecutarán
y, cuando corresponda, el
cuantil de la distribución
empírica que se usará para
comparación.
De forma predeterminada,
EViews compara los valores
propios de la matriz reducida
con los valores propios simulados.
Este enfoque está en el
espíritu de Humphreys e Ilgen
(1969), quienes utilizan la matriz
reducida SMC. Si
De forma predeterminada, la primera vez que estime un modelo de factor dado, el campo de edición
Semilla estará en blanco; puede proporcionar su propio valor entero, si lo desea. Si no se proporciona
una semilla inicial, EViews seleccionará aleatoriamente un valor semilla en el momento de la estimación.
El valor de esta semilla inicial se guardará con el objeto de factor para que, por defecto, la estimación
posterior emplee la misma semilla. Si desea utilizar un valor diferente, simplemente ingrese un nuevo
valor en el campo de edición Semilla o presione el botón Borrar para que EViews dibuje un nuevo valor
semilla aleatorio.
• Para Especificado por el usuario, se le pedirá que ingrese el número real de factores que
desea emplear.
Comunidades iniciales
Se requieren estimaciones iniciales de las varianzas comunes para la mayoría de los métodos de estimación.
Para métodos iterativos como ML y GLS, las comunalidades iniciales son simplemente valores iniciales para la
estimación de singularidades. Para la estimación del factor principal, las comunalidades iniciales son fundamentales
para la construcción de las estimaciones (consulte “Factores principales”, en la página 1077).
Machine Translated by Google
• Partitioned (PACE) realiza una estimación PACE no iterativa del modelo factorial y utiliza las estimaciones
ajustadas de las varianzas comunes. El número de factores utilizados es
• La configuración de fracciones diagonales aleatorias le indica a EViews que use un formato aleatorio diferente.
fracción de cada elemento diagonal de la matriz de dispersión original.
• Los valores de singularidad especificados por el usuario se restarán de las variaciones originales para formar
estimaciones de comunalidad. Deberá especificar el nombre del vector que contiene las unicidades en el campo
de edición Vector . Por defecto, EViews buscará en los primeros elementos del vector de coeficiente C los
valores de unicidad.
Para facilitar el uso de esta opción, EViews colocará los valores de unicidad estimados en el vector de
coeficientes C. Además, puede usar el miembro de datos de ecuación @unique para acceder a la unicidad
estimada de un objeto de factor con nombre.
Opciones de estimación
Ya hemos visto el control de iteración y las opciones de números aleatorios que están disponibles para varios métodos
de estimación y número de factores. Las opciones restantes se refieren a la escala de resultados y el manejo de casos
de Heywood.
Escalada
Algunos métodos de estimación garantizan que las sumas de las estimaciones de unicidad y las comunalidades
estimadas sean iguales a los elementos de la matriz de dispersión diagonal; por ejemplo, los modelos de factores
principales calculan las estimaciones de singularidad como el residuo después de tener en cuenta las comunalidades
estimadas.
En otros casos, tanto la unicidad como las cargas se estiman directamente. En estos entornos, es posible que la suma
de los componentes difiera sustancialmente de las varianzas originales.
Puede hacer cumplir la condición de sumar marcando la casilla Escalar estimaciones para que coincidan
con las varianzas observadas . Si se selecciona esta opción, EViews ajustará automáticamente sus estimaciones
de unicidad y cargas para que la suma de las varianzas únicas y comunes coincida con las diagonales de la matriz
de dispersión. Tenga en cuenta que cuando se ha aplicado el escalado, las unicidades y cargas informadas diferirán
de las utilizadas para calcular las estadísticas de ajuste; la salida principal de la estimación indicará la presencia de
resultados escalados.
Machine Translated by Google
En el curso de la iteración de la estimación del factor principal, uno puede encontrar comunalidades estimadas, lo que
implica que al menos una varianza única es menor que cero; estas situaciones se denominan casos Heywood.
Cuando se encuentra con un caso de Heywood en EViews, hay varios enfoques que puede tomar. De forma
predeterminada, EViews dejará de iterar e informará el conjunto final de estimaciones (Detener e informar final), junto
con una advertencia de que los resultados pueden ser inapropiados. Alternativamente, puede indicar a EViews que
informe los resultados de la iteración anterior (Detener e informar al final), establecer los resultados en cero y continuar
(Establecer en cero, continuar) o ignorar la varianza única negativa y continuar (Ignorar y continuar).
Factores rotativos
Puede realizar una rotación de factores en un objeto de factor estimado con dos o más factores retenidos. Simplemente
acceda al cuadro de diálogo Rotación de factores haciendo clic en el botón Rotar o seleccionando Proc/Rotar... en
el menú de objetos de factores y seleccione la configuración de rotación deseada.
El tipo y el método
los menús desplegables se pueden
usar para especificar el método de
rotación básico (consulte “Tipos de
rotación”, en la página 1082 para
obtener una descripción de los
métodos admitidos). Para algunos
métodos, también se le solicitará
que ingrese los valores de los
parámetros.
En el ejemplo representado,
especificamos una rotación Pro
max oblicua con un parámetro de
potencia de 3,0. El paso de pre-rotación ortogonal Promax realiza Varimax (Orthomax con un parámetro de 1).
De forma predeterminada, EViews no pesa las cargas por fila antes de la rotación. Para estandarizar los datos,
simplemente cambie el menú desplegable Peso de fila a Kaiser o Cureton-Mulaik.
Además, EViews utiliza la matriz de identidad (cargas no rotadas) como valor inicial predeterminado para las
iteraciones de rotación. La sección denominada Valores iniciales le permite realizar diferentes inicializaciones:
• Puede indicarle a EViews que utilice una rotación aleatoria inicial seleccionando Aleatorio en el menú desplegable
Valores iniciales. El cuadro de diálogo cambia para pedirle que especifique el número.
Machine Translated by Google
Al igual que con el generador de números aleatorios que se usa en el análisis paralelo, el valor de esta
semilla inicial se guardará con el objeto de factor para que, de manera predeterminada, la rotación
posterior emplee los mismos valores aleatorios. Puede anular esta inicialización ingresando un valor en
el campo de edición Semilla o presionando el botón Borrar para que EViews dibuje un nuevo valor
semilla aleatorio.
• Puede proporcionar una rotación inicial especificada por el usuario. Simplemente seleccione Especificado por el
usuario en el menú desplegable Valores iniciales, proporcione el nombre de una matriz que se usará como T
m mÿ
el inicio .
• Por último, si anteriormente ha realizado una rotación, puede utilizar los resultados existentes como
valores iniciales para una nueva rotación. Puede, por ejemplo, realizar una rotación Quar timax oblicua a
partir de una solución Varimax ortogonal.
Una vez que haya especificado su método de rotación, puede hacer clic en Aceptar. EViews estimará la matriz
de rotación y presentará una tabla que informa las cargas rotadas, la correlación de factores, la matriz de
rotación de factores, la matriz de rotación de carga y los valores de la función objetivo de rotación.
Tenga en cuenta que la matriz de estructura factorial no está incluida en el resultado de la tabla; se puede ver
por separado seleccionando View/Structure Matrix en el menú de objetos de factores.
Además, EViews guardará los resultados de la rotación con el objeto factor. Otras rutinas que se basan en
cargas estimadas, como la puntuación de factores, le ofrecerán la opción de utilizar las cargas no rotadas o
rotadas. Puede mostrar su tabla de resultados de rotación en cualquier momento seleccionando Ver/Resultados
de rotación en el menú de factores.
Estimación de puntajes
La estimación de la puntuación del factor se puede realizar como una vista o un procedimiento del objeto del factor.
Visualización de puntuaciones
Para mostrar coeficientes de puntuación o puntuaciones, haga clic en el botón Puntuación en la barra de herramientas de
factores, o seleccione Ver/Puntuaciones... en el menú de factores.
Machine Translated by Google
La vista de puntajes le permite mostrar: (1) una tabla que muestra los coeficientes de puntaje de los factores, los
índices de indeterminación y validez, y las medidas de univocidad; (2) una tabla de valores de puntuación de factores
para un conjunto de observaciones; (3) un gráfico de líneas de las puntuaciones; (4) diagramas de dispersión de
puntajes en pares de factores; (4) biplots de puntajes y cargas en pares de factores.
Debe especificar el formato de visualización haciendo clic en el cuadro de lista para elegir uno de: Resumen de
tabla, Hoja de cálculo, Gráfico de líneas, Diagrama de dispersión y Gráfico biplot.
Puntuaciones Coeficientes
Para estimar puntuaciones, primero debe especificar un método para calcular los coeficientes de puntuación. Para
una breve discusión de los métodos, consulte “Estimación de la puntuación” en la página 1085. Los detalles se
proporcionan en Gorsuch (1983), Ten Berge et. al (1999), Grice (2001), McDonald (1981), Green (1969).
Primero debe decidir si usar coeficientes refinados (Coeficientes exactos), ajustar los coeficientes refinados
(Coeficientes gruesos) o calcular coeficientes gruesos basados en las cargas factoriales (Cargas gruesas). De
forma predeterminada, EViews calculará estimaciones de puntajes utilizando coeficientes exactos.
A continuación, si los factores rotados están disponibles, se utilizarán como predeterminados. Debe marcar Usar
cargas no rotadas para usar las cargas originales.
• Si selecciona Coeficientes exactos o Coeficientes gruesos, EViews le solicitará un Método de Coef. Puede
elegir entre los siguientes métodos: Regresión (Thur-
Machine Translated by Google
regresión de Stone, variables ideales (variables idealizadas de Harmon), WLS de Bartlett (mínimos
cuadrados ponderados de Bartlett), Anderson-Rubin (Ten Berge et al. generalizaron Anderson-Rubin-
McDonald) y Green (Green, minimización de MSE).
Los coeficientes ponderados simplificados se calcularán recodificando elementos del coeficiente o matriz de
carga. En el método sin restricciones , a los valores de la matriz que son mayores (en valor absoluto) que
algún umbral se les asignan valores que conservan el signo de -1 o 1; todos los demás valores se recodifican en
0.
Los dos métodos restantes restringen los pesos de los coeficientes para que cada variable se cargue en un solo
factor. Si selecciona Único - recodificar, solo el elemento con el valor absoluto más alto en una fila se recodifica
a un valor distinto de cero; si selecciona Unique - drop, las variables con una carga superior al umbral se
establecen en cero.
Puede indicar a EViews que guarde la matriz de coeficientes de puntuaciones en el archivo de trabajo ingresando un
nombre de objeto de EViews válido en el campo de edición Guardar matriz de coeficientes .
Datos de puntuaciones
Deberá especificar un conjunto de variables observables para usar en la puntuación y una muestra de observaciones.
Los puntajes estimados se calcularán tomando una combinación lineal de los observables estandarizados sobre las
muestras especificadas.
Si está disponible, EViews llenará el campo de edición de Observables con los nombres de las variables originales
utilizadas en el cálculo. Se le preguntará si desea estandarizar los datos especificados usando los momentos obtenidos
de la estimación o si estandarizar los datos usando los momentos recién calculados obtenidos de los datos. En el caso
típico, donde calificamos las observaciones usando los mismos datos que usamos en la estimación, estos momentos
coincidirán.
Cuando se calculan puntajes para observaciones o variables que difieren de la estimación, la elección tiene una
importancia considerable.
Si ha estimado su objeto a partir de una matriz especificada por el usuario, debe ingresar los nombres de las variables
que desea usar como observables. Dado que los momentos de los datos originales no están disponibles en esta
configuración, se calcularán a partir de las variables especificadas.
Opciones de gráfico
Cuando muestre vistas de gráficos de sus resultados, se le preguntará qué factores mostrar; por defecto, EViews graficará
todos sus factores. Los diagramas de dispersión y los biplots brindan opciones adicionales para manejar gráficos
múltiples, para centrar el gráfico alrededor de 0 y para gráficos biplot, etiquetado de obs y escalado de carga que deberían
ser familiares de nuestra discusión sobre impresión.
Machine Translated by Google
componentes principales (consulte “Otros gráficos (cargas variables, puntuaciones de componentes, biplots)”, a
partir de la página 591).
Guardar puntajes
El procedimiento de puntuación le permite guardar valores de puntuación en series en el archivo de trabajo. Al guardar
partituras con Proc/Crear partituras..., EViews abre un cuadro de diálogo que difiere solo ligeramente del cuadro de
diálogo de vista. En lugar de una sección de visualización , EViews proporciona una sección de especificación de
salida en la que debe ingresar una lista de puntajes para guardar o una lista de índices para los puntajes en el campo de
edición.
Para guardar los dos primeros factores como series AA y BB, puede ingresar "AA BB" en el campo de edición. Si, en
cambio, proporciona los índices "1 2", EViews guardará los dos primeros factores usando los nombres predeterminados
"F1" y "F2", a menos que haya nombrado previamente sus factores usando Proc/
Nombre Factores....
Vistas de factores
EViews proporciona una serie de vistas de objetos de factores que le permiten examinar las propiedades de su modelo
de factores estimado.
Especificación
Además, el objeto tiene un método de rotación válido, Quartimax oblicuo, que se estimó utilizando las 25 rotaciones
oblicuas aleatorias predeterminadas. Si no se hubieran realizado rotaciones, la especificación de rotación habría dicho
"El factor no tiene una rotación válida".
Por último, vemos que hemos proporcionado dos nombres de factores, "Verbal" y "Espacial", que se utilizarán en lugar
de los nombres predeterminados de los dos primeros factores "F1" y "F2".
Machine Translated by Google
Salida de estimación
Seleccione Ver/Resultado de estimación para mostrar el resultado de estimación principal (cargas no rotadas,
comunalidades, unicidades, varianza explicada por factores, estadísticas de bondad de ajuste seleccionadas). Como
alternativa, puede hacer clic en el botón de la barra de herramientas Estadísticas para mostrar esta vista.
Resultados de rotación
Haga clic en Ver/resultados de rotación para mostrar la tabla de salida que se genera al realizar una rotación (cargas
rotadas, correlación de factores, matriz de rotación de factores, matriz de rotación de carga y valores de la función
objetivo de rotación).
Seleccione Ver/Resumen de bondad de ajuste para mostrar una tabla de estadísticas de bondad de ajuste. Para
los modelos estimados por ML o GLS, EViews calcula una gran cantidad de medidas de ajuste absolutas y relativas.
Para obtener detalles sobre estas medidas, consulte “Evaluación del modelo”, a partir de la página 1079.
Vistas de matriz
Puede mostrar vistas de hojas de cálculo de varias matrices de interés. Estas vistas de matriz se dividen en cuatro
grupos: matrices basadas en la matriz de dispersión observada, matrices basadas en la matriz reducida, matrices
ajustadas y matrices residuales.
Covarianzas observadas
• La entrada de covarianza muestra la matriz de dispersión original, mientras que la matriz de covarianza
escalada escala la matriz original para tener diagonales unitarias. En el caso de que la matriz original sea una
correlación, estas dos matrices obviamente serán las mismas.
• Observaciones muestra una matriz del número de observaciones utilizadas en cada par
comparación.
• Las correlaciones parciales mostrarán la matriz de correlaciones parciales, donde cada elemento
ment representa la correlación parcial de las variables condicionadas a las restantes variables. Las
correlaciones parciales pueden calcularse escalando la covarianza anti-imagen a unidades diagonales y luego
realizando un ajuste de signo.
Machine Translated by Google
Covarianza reducida
Puede visualizar las matrices reducidas inicial o final seleccionando Ver/Matriz de covarianza reducida/
y Usar unicidad inicial o Usar unicidad final.
Covarianzas ajustadas
Para mostrar las matrices de covarianza ajustadas, seleccione Ver/Matriz de covarianza ajustada/ y
la submatriz deseada. Covarianza total muestra la covarianza estimada utilizando las estimaciones de
varianza común y única, mientras que Covarianza común muestra la estimación de la varianza basada
únicamente en los factores comunes.
Covarianzas residuales
Seleccione Ver/Matriz de covarianza residual/ y la matriz deseada, Usar covarianza total o Usar
covarianza común. La matriz residual calculada usando la covarianza total generalmente tendrá
números cercanos a cero en la diagonal principal; la matriz calculada utilizando la covarianza común
tendrá números cercanos a las unicidades en la diagonal (consulte “Escalado”, en la página 1049 para
conocer las advertencias).
La matriz de estructura factorial reporta las correlaciones entre las variables y los factores. La correlación
es igual a la matriz de cargas (posiblemente rotada) multiplicada por la matriz de correlación factorial,
LF ; para factores ortogonales, la matriz de estructura se simplifica para que la correlación sea
dada por la matriz de cargas, . L
Vistas de cargamentos
Puede examinar sus cargas rotadas o no rotadas en forma de hoja de cálculo o gráfica.
Puede Ver/Cargas/Matriz de cargas para mostrar la matriz de cargas actual en forma de hoja de cálculo.
Si se ha realizado una rotación, esta vista mostrará las cargas rotadas; de lo contrario, mostrará las
cargas no rotadas. Para ver las cargas sin rotar, siempre puede seleccionar Ver/Cargas/Matriz de
Cargas sin rotar.
Machine Translated by Google
Las otras configuraciones le permiten controlar el manejo de múltiples gráficos y si los gráficos deben estar centrados
alrededor del origen.
Puntuaciones
Seleccione Ver/Puntuaciones... para calcular estimaciones de coeficientes de puntuación de factor y para calcular
valores de puntuación de factor para observaciones. Esta vista y el procedimiento correspondiente se describen en detalle
en “Estimación de puntuaciones”, en la página 1051.
Valores propios
Una clase importante de diagnóstico del modelo factorial es un examen de los valores propios de las matrices no
reducidas y reducidas. Además de ser de interés independiente, estos valores propios son fundamentales para varios
métodos para seleccionar el número de factores.
• Para basar los cálculos en la matriz reducida observada, inicial reducida o final escalada,
• Para la visualización de tablas, puede incluir los vectores propios y la matriz de dispersión correspondientes en
la salida haciendo clic en la casilla de verificación Salida adicional correspondiente .
Machine Translated by Google
• Para la visualización de gráficos, también puede visualizar las diferencias de valores propios y la acumulación
proporción representativa de la varianza representada por cada valor propio. Los gráficos de diferencia también
muestran el valor medio de la diferencia; el gráfico de proporción acumulada muestra una línea de referencia con
pendiente igual al valor propio medio.
Vistas adicionales
Las vistas adicionales le permiten examinar:
Las dos primeras vistas corresponden a los cálculos utilizados en la formación de estimaciones iniciales de comunalidad
(ver “Estimación de comunalidad” en la página 1078). La última vista es un "índice de simplicidad factorial" que se encuentra
entre 0 y 1 e indica el grado en que los datos son adecuados para el análisis factorial común. Los valores de MSA por
encima de 0,90 se consideran “maravillosos”; los valores en los 0,80 son “meritorios”; los valores en los 0,70 son "medios";
los valores de los 60 son "mediocres", los valores de los 0,50 son "miserables" y todos los demás son "inaceptables"
Procedimientos factoriales
Se puede acceder a los procedimientos de factor haciendo clic en el botón Proc en la barra de herramientas de factor o
seleccionando Proc en el menú principal de objetos de factor y seleccionando el procedimiento deseado:
• Rotar... se utiliza para realizar la rotación de factores mediante el cuadro de diálogo Rotación de factores . Ver
“Factores de rotación” en la página 1050.
• Hacer puntajes... se usa para guardar puntajes de factores estimados como series en el archivo de trabajo. Ver
• Los factores de nombre... se pueden utilizar para proporcionar etiquetas especificadas por el usuario para los factores. Por
de forma predeterminada, los factores se etiquetarán como "F1" y "F2" o "Factor 1" y "Factor 2", etc. Para
proporcionar sus propios nombres, seleccione Factores de proceso/nombre... e ingrese una lista de factores
Machine Translated by Google
Un ejemplo: 1059
nombres EViews utilizará los nombres especificados en lugar de las etiquetas genéricas en la salida de tablas y gráficos.
Para borrar un conjunto de nombres de factores especificados previamente, simplemente abra el cuadro de diálogo y
elimine los nombres existentes.
El objeto factor proporciona varias vistas para examinar los resultados de la estimación y rotación de factores. Además de estas
vistas, EViews proporciona varios miembros de datos de objetos que le permiten acceder directamente a los resultados.
Por ejemplo, si tiene un objeto de factor estimado, FACT1, puede guardar las estimaciones de varianza únicas en un vector
en el archivo de trabajo usando el comando:
Para obtener una lista completa de los miembros de datos de objetos de factores, consulte "Miembros de datos de factores" en
la página 186 en la Referencia de programación y comandos.
Un ejemplo
Ilustramos las características básicas del objeto factor mediante el análisis de un subconjunto de los datos clásicos de Holzinger
y Swineford (1939), que consta de medidas en 24 pruebas psicológicas para 145 niños del área de Chicago que asisten a la
escuela Grant-White (Gorsuch, 1983). Un gran número de autores han utilizado estos datos para ilustrar varias características
del análisis factorial. Los datos sin procesar se proporcionan en el archivo de trabajo de EViews "Holzinger24.WF1". Trabajaremos
con un subconjunto compuesto por siete de las 24 variables: VISUAL (percepción visual), CUBOS (relaciones espaciales),
PARAGRAPH (comprensión de párrafo), SENTENCE (completar oraciones), WORDM (significado de palabras), PAPEL1 (formas
de papel) y FLAGS1 (formas de rombo).
(Como señaló Gorsuch (1983, p. 12), los datos sin procesar y las correlaciones publicadas no coinciden; por ejemplo, los
datos en "Holzinger24.WF1" producen correlaciones que difieren de las reportadas en la Tabla 7.4 de Harman (1976) Aquí,
supondremos que los datos sin procesar son
Machine Translated by Google
correcto; más adelante, le mostraremos cómo trabajar directamente con la matriz de correlación informada de Harman).
Especificación y Estimación
Dado que previamente hemos creado un
una versión balanceada de la muestra del archivo de trabajo. Puede cambiarlos como desee, pero por ahora usaremos esta
configuración.
Un ejemplo: 1061
los valores iniciales para las comunalidades se tomarán de las correlaciones múltiples al cuadrado (SMC).
Usaremos la configuración predeterminada para nuestro ejemplo, por lo que puede hacer clic en Aceptar para
continuar.
EViews estima el modelo y muestra la vista de resultados. Aquí, vemos la parte superior de los resultados
principales. La información de encabezado proporciona información básica sobre la configuración utilizada en
la estimación e información básica de estado. Vemos que la estimación usó las 145 observaciones en el archivo
de trabajo y convergió después de cinco iteraciones.
Debajo del encabezado hay una sección que muestra las estimaciones de las cargas ortogonales no rotadas,
las comunalidades y las estimaciones de unicidad obtenidas de la estimación.
Primero vemos que el método MAP de Velicer ha retenido dos factores, etiquetados como "F1" y "F2". Un
breve examen de las cargas no rotadas indica que PARAGRAPH, SENTENCE y WORDM se cargan en el
primer factor, mientras que VISUAL, CUES, PAPER1 y FLAGS1 se cargan en el segundo factor. Por lo tanto,
podríamos etiquetar razonablemente el primer factor como una medida de la habilidad verbal y el segundo factor
como un indicador de la habilidad espacial. Volveremos sobre esta interpretación en breve.
A la derecha de las cargas están las estimaciones de comunalidad y unicidad que distribuyen las diagonales de
la matriz de correlación en componentes comunes (explicados) e individuales (no explicados). Las comunalidades
se obtienen calculando las normas de fila de la matriz de cargas, mientras que las unicidades se obtienen
directamente del algoritmo de estimación ML. 0.4912 0.5682 Vemos , por ejemplo, que el 56% ( 0.563 ) de la
correlación
ÿ
ÿ para la variable VISUAL y el 69% ( 0.692 )
La siguiente sección proporciona información resumida sobre la varianza total y la proporción de la varianza
común explicada por cada uno de los factores, derivada de la adopción de normas de columna de la matriz de
cargas. Primero, notamos que la varianza explicada por los dos factores es 3.55, que está cerca del 51% ( 3.55 7.0 ÿ
) de la varianza total (suma de las diagonales de la matriz de correlación).
Además, vemos que el primer factor F1 representa el 77% ( 2.72 3.55 ÿ ) de
la varianza común y el segundo factor F2 explica el 23% restante ( 0.82 3.55 ÿ
).
La parte inferior de la salida muestra información básica de bondad de ajuste para la especificación estimada. La
primera columna muestra la función de discrepancia, el número de parámetros y los grados de libertad (contra el
modelo saturado) para la especificación estimada. Para este método de extracción (ML), EViews también muestra la
prueba de bondad de ajuste chi-cuadrado y Versión ajustada de Bartlett de la prueba. Ambas versiones de la prueba
tienen valores de p superiores a 0,75, lo que indica que dos factores explican adecuadamente la variación de los
datos.
Con fines de comparación, EViews también presenta resultados para el modelo de independencia (sin factor) que
muestran que un modelo sin factores no modela adecuadamente las varianzas.
Una vez que hemos estimado la especificación de nuestro factor, podemos examinar una variedad de diagnósticos.
Primero, examinaremos una variedad de estadísticas e índices de bondad de ajuste seleccionando Ver/
Resumen de bondad de ajuste del menú de factores.
Machine Translated by Google
Un ejemplo: 1063
Modelo
Como puede ver, EViews calcula una gran cantidad de medidas de ajuste absolutas y relativas. Además
de las estadísticas de discrepancia, chi-cuadrado y chi-cuadrado de Bartlett vistas anteriormente, EViews
calcula criterios de información escalados, índices de validación cruzada esperados, índices de ajuste
generalizados, así como varias medidas basadas en estimaciones de no centralidad. También se presentan
índices de ajuste incremental que comparan el ajuste del modelo estimado con el modelo de independencia
(consulte “Evaluación del modelo”, a partir de la página 1079 para obtener más información).
Tenga en cuenta que los elementos diagonales de la matriz residual son cero ya que hemos restado la
covarianza ajustada total (que incluye las unicidades). Para reemplazar las diagonales (casi) cero con las
estimaciones de unicidad, seleccione Ver/Matriz de covarianza residual/
Uso de la covarianza común.
Un ejemplo: 1065
MSA
VISUAL 0.800894
CUBOS 0.825519
PÁRRAFO 0.785366
FRASE 0.802312
PALABRA 0.800434
PAPEL1 0.800218
BANDERAS1 0.839796
MSA de Kaiser 0.803024
Correlación parcial:
VISUAL 1.000000
CUBOS 0.169706 1.000000
PÁRRAFO 0.051684 0.070761 1.000000
FRASE 0.015776 -0.057423 0.424832 1.000000
PALABRA 0.070918 0.044531 0.420902 0.342159 1.000000
PAPEL1 0.239682 0.192417 0.102062 0.042837 -0.088688 1.000000
BANDERAS1 0.321404 0.047793 0.022723 0,105600 0,050006 0,102442 1.000000
Cada celda de esta matriz contiene la correlación parcial de las dos variables, controlando las variables restantes.
Rotación de factores
La rotación de factores se puede utilizar para simplificar la estructura de los factores y facilitar la interpretación de
los factores. Para este ejemplo, consideraremos una rotación ortogonal y otra oblicua. Para realizar una rotación
de factores, haga clic en el botón Rotar en la barra de herramientas de factores o seleccione Proc/
Girar... del menú principal de factores.
Machine Translated by Google
Al igual que con las cargas no rotadas, las variables PARAGRAPH, SENTENCE y WORDM se cargan en el
primer factor mientras que VISUAL, CUBES, PAPER1 y FLAGS1 se cargan en el segundo factor.
Las secciones restantes de la salida muestran la correlación de factores rotados, la matriz de rotación inicial,
las matrices de rotación aplicadas a los factores y las cargas, y las funciones objetivo para las rotaciones. En
este caso, las matrices de correlación de factores y de rotación inicial son matrices de identidad ya que
estamos realizando una rotación ortogonal a partir de las cargas no rotadas. Los resultados restantes se
presentan a continuación:
Machine Translated by Google
Un ejemplo: 1067
Tenga en cuenta que las matrices de rotación de factores y rotación de carga son idénticas ya que
estamos realizando una rotación ortogonal.
La parte superior de los resultados muestra información sobre el método de rotación y las cargas iniciales.
Justo debajo del encabezado están las cargas rotadas. Tenga en cuenta que la importancia relativa de
las cargas VISUAL, CUBES, PAPER1 y FLAGS1 en el segundo factor es algo más evidente para los
factores oblicuos.
Machine Translated by Google
con el gran elemento fuera de la diagonal que indica que la restricción del factor de ortogonalidad era muy
vinculante.
Tenga en cuenta que, en ausencia de ortogonalidad, las matrices de rotación de factores y rotación de carga
difieren.
Machine Translated by Google
Un ejemplo: 1069
De forma predeterminada, EViews utilizará las cargas rotadas si están disponibles; tenga en cuenta la casilla de verificación
que le permite utilizar las cargas no rotadas. Marque esta casilla y haga clic en Aceptar para mostrar el gráfico de cargas sin
girar.
Puntuaciones de factores
Haga clic en Ver/Puntuaciones... para que aparezca el cuadro de diálogo de puntuación de factores. Como puede ver, hay varias
formas de estimar los factores y varias vistas de los resultados. Por ahora, nos concentraremos en mostrar un resumen de las
estimaciones de la regresión de la puntuación factorial y en generar un gráfico bigráfico de las puntuaciones y las cargas.
El método
predeterminado
método de regresión
de Stone, y para
aplicar estos
coeficientes
cientes a los
observables
datos utilizados en la
extracción de factores
ción
en nuestro examen
Por ejemplo,
EViews
precompletará la muestra y la información observable; todo lo que tenemos que hacer es seleccionar nuestra configuración de salida de pantalla.
Machine Translated by Google
Un ejemplo: 1071
ting, y el método para calcular los coeficientes. Al seleccionar Resumen de tabla, EViews genera una
salida que describe la estimación del coeficiente de puntuación.
La parte superior de la salida resume la configuración de estimación del coeficiente de puntaje de factor y
muestra los coeficientes de factor utilizados en el cálculo de puntajes:
VERBAL ESPACIAL
VISUAL 0.030492 0.454344
CUBOS 0.010073 0.150424
PÁRRAFO 0.391755 0.101888
FRASE 0.314600 0.046201
PALABRA 0.305612 0.035791
PAPEL1 0.011325 0.211658
BANDERAS1 0.036384 0.219118
Vemos que la puntuación VERBAL de un individuo se calcula como una combinación lineal de los datos
centrados para VISUAL, CUBOS, etc., con pesos dados por la primera columna de coeficientes (0,03, 0,01,
etc.).
Índices de indeterminación:
Multiple-R Corr. Mínima R-cuadrada.
VERBAL 0.940103 0.883794 0.767589
ESPACIAL 0.859020 0.737916 0.475832
Los índices de indeterminación muestran que la correlación entre los factores estimados y las variables es
alta; la correlación múltiple para el primer factor está muy por encima de 0,90, mientras que la correlación
para el segundo factor es de alrededor de 0,85. Los índices de correlación mínima también son rea
sonables, lo que sugiere que las soluciones alternativas de puntuación factorial están altamente
correlacionadas. Como mínimo, la correlación entre dos medidas diferentes de los factores ESPACIALES
será de casi 0,50.
Las siguientes secciones informan los coeficientes de validez, los elementos fuera de la diagonal de la
matriz de univocidad y, para fines de comparación, la matriz de correlación factorial teórica y la correlación
de puntajes estimados:
Machine Translated by Google
Coeficientes de Validez:
Validez
VERBAL 0.940103
ESPACIAL 0.859020
VERBAL 1.000000
ESPACIAL 0.627734 1.000000
Correlación de factores:
VERBAL ESPACIAL
VERBAL 1.000000
ESPACIAL 0.527078 1.000000
Los coeficientes de validez superan el 0,80 recomendado por Gorsuch (1983) y se acercan al objetivo más estricto de 0,90
recomendado para usar las puntuaciones estimadas como reemplazo de las variables originales.
La matriz de univocidad informa las correlaciones entre los factores y las puntuaciones de los factores, que deben ser similares
De manera similar, la matriz de correlación de puntajes estimados debe estar cerca de la matriz de correlación de factores de
población. Los valores fuera de la diagonal generalmente coinciden, aunque como suele ser el caso, la correlación de la puntuación
del factor de 0,627 es un poco más alta que el valor de la población de 0,527.
Para mostrar un gráfico bigráfico del uso de estas puntuaciones, seleccione Ver/Puntuaciones... y seleccione Gráfico
bigráfico en el cuadro de lista Mostrar .
Machine Translated by Google
Un ejemplo: 1073
La correlación positiva entre las puntuaciones VERBAL y ESPACIAL es obvia. Los valores atípicos muestran que el
individuo 96 puntúa alto y el individuo 38 bajo tanto en la capacidad espacial como en la verbal, mientras que el individuo
52 puntúa mal en la capacidad espacial en relación con la verbal.
el archivo de trabajo,
seleccione Proc/Make
Scores... y complete el
cuadro de diálogo. El
diálogo de procedimiento
difiere del
cuadro de diálogo de
vista solo en la sección
Especificación de salida .
Hemos nombrado previamente nuestros factores, podemos especificar los índices “1 2” y hacer clic en Aceptar.
EViews abrirá un grupo sin título que contiene los resultados guardados en las series VERBAL y ESPACIAL.
Machine Translated by Google
Fondo
Comenzamos con un breve bosquejo de las características básicas del modelo de factor común. Nuestra
notación es paralela a la discusión en Johnston y Wichtern (1992).
El modelo
El modelo factorial asume que para el individuo i , el vector multivariado observable
es p xi
generado por:
ÿ
ÿ (49.1)
Xi – m LFi e i
donde es
un un vector
vector p variables
m de ÿ 1 de medias variables,
no observadas es una
matriz de, coeficientes
estandarizadas denominadas Lfactores
p mÿ , comunes,
Fi y esesun
mÿ1 pÿ1 no
La carga factorial o matriz patrón vinculaLlos factores comunes no observados con los datos
L
observados. La j-ésima fila de representa las cargas de la j-ésima variable sobre los factores
comunes. Alternativamente, podemos ver la fila como los coeficientes de los factores comunes para
la j-ésima variable.
Además, la matriz de estructura factorial que contiene las correlaciones entre las variables y
los factores puede obtenerse de:
Machine Translated by Google
Fondo—1075
donde XF
ÿ ÿ , ÿ ÿ E Xÿ ÿi –Fimÿÿ
Inicialmente, hacemos la suposición adicional de que los factores son ortogonales, de modo que F ÿ I
(Relajaremos esta suposición en breve). Después:
var Xÿ ÿ ÿ LLÿ ÿ W
(49.5)
ÿÿ, ÿL
donde XF
2
Nótese que con factores ortogonales, las comunalidades hj están dados por los elementos diagonales
de LLÿ (las normas de fila de ). L
Número de factores
En general, se acepta que elegir el número de factores es una de las decisiones más importantes que
se toman en el análisis factorial (Preacher y MacCallum, 2003; Fabrigar, et al., 1999; Jackson, 1993;
Zwick y Velicer, 1986). En consecuencia, existe una literatura amplia y variada que describe métodos para
determinar el número de factores, de los cuales las referencias enumeradas aquí son solo un pequeño
subconjunto.
La regla de Kaiser-Guttman, comúnmente denominada "valores propios mayores que 1", es, con mucho, el
método más utilizado. En este enfoque, uno calcula los valores propios de la matriz de dispersión no
reducida y retiene tantos factores como el número de valores propios que exceden el promedio (para una
matriz de correlación, el valor propio promedio es 1, de ahí la descripción comúnmente empleada). El criterio
ha sido duramente criticado por muchos por varios motivos (p. ej., Preacher y MacCallum, 2003), pero sigue
siendo popular.
Los valores propios de la matriz no reducida se pueden usar de una manera ligeramente diferente. Puede
metro
optar por conservar tantos factores como sean necesarios para que la suma de los primerospropios
valoresexceda
alguna fracción umbral de la varianza total. Este método se usa con más frecuencia en el análisis de
componentes principales, donde los investigadores suelen incluir componentes que comprenden el 95% de
la varianza total (Jackson, 1993).
Machine Translated by Google
(para m ÿ 0, , ÿ p – 1 ). El número de factor retenido es el número que minimiza este promedio. La intuición
aquí es que la correlación parcial cuadrática promedio se minimiza donde la matriz residual está más cerca
de ser la matriz identidad.
Zwick y Velicer (1986) proporcionan evidencia de que el método MAP supera a otros métodos en una
variedad de condiciones.
palo roto
Podemos comparar las proporciones relativas de la varianza total que explica cada valor propio con las
proporciones esperadas obtenidas al azar (Jackson, 1993). Más precisamente, el método de la barra rota
compara la proporción de la varianza dada por el j-ésimo valor propio más grande de la matriz no reducida
con el valor esperado correspondiente obtenido de la distribución de la barra rota. El número de factores
retenidos es el número de proporciones que exceden sus valores esperados.
Standard Error Scree (Zoski y Jurs, 1996) es un intento de formalizar las comparaciones visuales de
pendientes utilizadas en la prueba de pantalla visual. Se basa en los errores estándar de conjuntos de
líneas de regresión que se ajustan a valores propios posteriores; cuando el error estándar de la regresión a
través de los valores propios posteriores cae por debajo del umbral especificado, se supone que los factores
restantes son insignificantes.
Análisis paralelo
El análisis paralelo (Horn, 1965; Humphreys e Ilgen, 1969; Humphreys y Montanelli, 1975) implica
comparar los valores propios de la matriz de dispersión (no reducida o reducida) con los resultados
obtenidos de la simulación utilizando datos no correlacionados.
La simulación de análisis paralelo se lleva a cabo mediante la generación de múltiples conjuntos de datos
aleatorios de variables aleatorias independientes con las mismas varianzas y el mismo número de
observaciones que los datos originales. Se calcula la matriz de correlación o covarianza de Pearson de los
datos simulados y se realiza una descomposición de valores propios para cada conjunto de datos. El número
de factores retenidos se basa entonces en el número de valores propios que exceden su contraparte
simulada. El umbral de comparación suele elegirse para que sean los valores medios de los datos simulados,
como en Horn (1965), o un cuantil específico, como recomienda Glorfeld (1995).
Métodos de estimación
Existen varios métodos para extraer (estimar) las cargas factoriales y las varianzas específicas de una
matriz de dispersión observada.
Machine Translated by Google
Fondo—1077
EViews admite la estimación mediante máxima verosimilitud (ML), mínimos cuadrados generalizados
(GLS), mínimos cuadrados no ponderados (ULS), factores principales y factores principales iterados, y
estimación de matriz de covarianza dividida (PACE).
Una clase de métodos de extracción implica minimizar una función de discrepancia con respecto a S
las cargas y varianzas únicas (Jöreskog, 1977). Sea la matriz de dispersión observada y la matriz ajustada
sea Sÿ ÿ L, W ÿ LLÿ ÿ W . Luego, las funciones de
discrepancia para ML, GLS y ULS están dadas por:
DMLÿ ÿ S , S
ÿ
tr S–1 S S–1
p – ln S –
2
DGLSÿ ÿ S , S ÿ ÿtrÿIP – S–1 ÿS ÿÿ2 (49.6)
2
DULSÿ ÿ S , S ÿ ÿÿtrÿ S – S ÿÿ2
Los métodos ML y GLS no varían en escala, por lo que el cambio de escala de la matriz de datos original o
la matriz de dispersión no altera los resultados básicos. Los métodos ML y GLS requieren que la matriz de
dispersión sea definida positiva.
ULS no requiere una matriz de dispersión definida positiva. La solución es equivalente a la solución iterada
del factor principal.
Factores principales
El método del factor principal (eje principal) se deriva de la noción de que los factores comunes deben
explicar la porción común de la varianza: los elementos fuera de la diagonal de la matriz de dispersión y las
porciones de comunalidad de los elementos diagonales. En consecuencia, para alguna estimación inicial de
las varianzas únicas W0 , podemos definir la dispersión reducida
juego, Gorsuch,
SR W01993).
ÿ-
ÿ ÿ S W0 matriz de , y luego ajustar esta matriz usando factores comunes (ver, por ejemplo
El método del factor principal ajusta la matriz reducida utilizando los primeros metro
Los valores propios y los
vectores. Estimaciones de carga, L1 valores propios se obtienen a partir de los vectores propios de la matriz reducida.
Dadas las estimaciones de carga, podemos formar una matriz residual de varianza
ÿ
común, E1 S L1L1 . Las estimaciones de las unicidades se obtienen a partir de los elementos diagonales.
ÿ-
Estimación de comunalidad
La construcción de la matriz reducida a menudo se describe como el reemplazo de los elementos diagonales de la
matriz de dispersión con estimaciones de las comunalidades. La estimación de estas comunalidades ha recibido
considerable atención en la literatura. Entre los enfoques están (Gorsuch, 1993):
a
• Fracción de las diagonales: usa una fracción constante de los elementos diagonales originales de . Un caso
especial
S importante es utilizar vistos como aquellos de una
un solución
ÿ 1 ; lasdeestimaciones
componentesresultantes
principalespueden
truncados.
ser
• Mayor correlación: seleccione la mayor correlación absoluta de cada variable con cualquier
otra variable en la matriz.
• Correlaciones múltiples al cuadrado (SMC): con mucho, el método más popular; usa el
correlación múltiple al cuadrado entre una variable y las otras variables como una estimación de la comunalidad.
Los SMC proporcionan una estimación de comunalidad conservadora, ya que son un límite inferior para la
comunalidad en la población. Las comunalidades basadas en SMC se calculan como hi0
2 ii yo
Iteración
Habiendo obtenido estimaciones de factores principales basadas en estimaciones iniciales de las comunalidades,
podemos repetir la extracción de factores principales usando las normas de fila de L1 como estimaciones
actualizadas de las comunalidades. Este paso puede repetirse por un número fijo de iteraciones, o hasta que los
resultados sean estables.
Si bien el enfoque es popular, algunos autores se oponen firmemente a iterar los factores principales de la convergencia
(p. ej., Gorsuch, 1983, p. 107-108). Realizar un pequeño número de iteraciones parece ser menos polémico.
Ihara y Kano (1986) proporcionan un estimador de forma cerrada (no iterativo) para el modelo de factor común que es
consistente, asintóticamente normal e invariante de escala. El método requiere una partición de la matriz de dispersión
en conjuntos de variables, lo que llevó a Cudeck (1991) a llamarlo estimador de matriz de covarianza dividida (PACE).
Diferentes particiones de las variables pueden conducir a diferentes estimaciones. Cudeck (1991) y Kano (1990)
proponen de forma independiente un método eficiente para determinar una partición deseable.
Dado que el estimador PACE no es iterativo, es especialmente adecuado para la estimación de modelos de factores
grandes o para proporcionar estimaciones iniciales para métodos de estimación iterativos.
Machine Translated by Google
Fondo—1079
Un paso importante en el análisis factorial es la evaluación del ajuste del modelo estimado. Dado que un modelo
de análisis factorial es necesariamente una aproximación, nos gustaría examinar qué tan bien se ajusta un
modelo específico a los datos, teniendo en cuenta la cantidad de parámetros (factores) empleados y el tamaño
de la muestra.
Hay dos clases generales de índices para la selección y evaluación de modelos en modelos analíticos factoriales.
La primera clase, que puede denominarse índices de ajuste absolutos, se evalúa utilizando los resultados de la
especificación estimada. Se han utilizado varios criterios para medir el ajuste absoluto, incluida la conocida
prueba de chi-cuadrado de adecuación del modelo. No existe una especificación de referencia con la que
comparar el modelo, aunque puede haber una comparación con la dispersión observada del modelo saturado.
La segunda clase, que puede denominarse índices de ajuste relativo, compara la especificación estimada con los
resultados de una especificación de referencia, normalmente el factor común cero (modelo de independencia).
Antes de describir los diversos índices, primero definimos el estadístico de prueba chi-cuadrado como una función
T Nk que
de la función de discrepancia, y notamos ÿ ÿ un
ÿD–modelo , Svariables
Sÿ ÿ qcon
pm , p
y los factores
metro tienen cargas
ÿ ÿ factoriales
ÿÿ1–m ÿ –mÿ
1 ÿÿ 2– 1 ÿ 2 m mÿ parámetros libres ( pm
y elementos de singularidad,
metro restricciones implícitas de correlación cero en el
menos factores). Como hayÿ 1pÿpÿ
2 ÿ distintos elementos de la matriz de dispersión, hay un
total de grados
gl ppdeÿ libertad
ÿ ÿ ÿ 1 restantes.
ÿ2–q
Tenga en cuenta también que las medidas descritas a continuación no se informan para todos los métodos de estimación.
Ajuste absoluto
Las funciones de discrepancia para ML, GLS y ULS vienen dadas por la Ecuación (49.6). Las discrepancias del
factor principal y del factor principal iterado se calculan usando la función ULS, pero D
generalmente superan el valor mínimo de ULS de .
Bajo los supuestos de distribución normal multivariante y una especificación de factor especificada
correctamente estimada por ML o GLS, el estadístico de prueba chi-cuadrado T se distribuye como una
variable aleatoria
2x _ asintótica con gl grados de libertad (p. ej., Hu y Bentler, 1995). Un gran valor
de la estadística en relación con el df indica que el modelo se ajusta mal a los datos
(perceptiblemente peor que el modelo saturado).
Machine Translated by Google
Tenga en cuenta que comúnmente se realizan dos conjuntos distintos de pruebas de chi-cuadrado. El
primer conjunto compara el ajuste del modelo estimado con un modelo saturado; el segundo conjunto de
pruebas examina el ajuste del modelo de independencia. Las primeras a veces se denominan pruebas
de adecuación del modelo , ya que evalúan si el modelo estimado se ajusta adecuadamente a los datos.
Las últimas pruebas a veces se denominan pruebas de esfericidad , ya que prueban la suposición de que
no hay factores comunes en los datos.
Criterios de información
Los criterios de información estándar (IC) como Akaike (AIC), Schwarz (SC), Hannan-Quinn (HQ) pueden
adaptarse para su uso con el análisis factorial ML y GLS. Estos índices son medidas de ajuste útiles, ya
que premian la parsimonia al penalizar en función del número de parámetros.
La construcción de la medida de criterios de información del análisis factorial EViews emplea una versión
l Nk ÿ –ÿ yÿ comienza
escalada de la discrepancia como el logaritmo de verosimilitud 2
–ÿD , Siguiendo
formando el IC estándar.
a Akaike (1987),
volvemos a centrar los criterios restando el valor del modelo saturado, y siguiendo a Cudeck y Browne
(1983) y la convención de EViews, escalamos aún más por el número de observaciones para eliminar el
efecto del tamaño de la muestra. . La forma de análisis factorial resultante de los criterios de información
viene dada por:
AIC N kÿ ÿÿ – D Nÿ
– ÿ ÿ 2 ÿ N df
SC Nÿkÿÿ – D–Nÿ
ÿ ÿ lnÿ ÿ N ÿ N df (49.7)
HQ N ÿk ÿÿ – D–Nÿ
ÿ 2 lnÿ ÿ ÿ lnÿ ÿ N ÿ N df
Debe tener en cuenta que estas estadísticas a menudo se citan sin escala, a veces sin ajustar el
modelo saturado. La mayoría de las veces, si hay discrepancias, multiplicar los valores informados de
EViews por alineará los resultados. Tenga
norte
en cuenta también que la definición actual utiliza el número
ajustado de observaciones en el numerador del término principal.
Cuando utilice criterios de información para la selección del modelo, tenga en cuenta que el modelo con
el valor más pequeño se considera el más deseable.
Otras medidas
El residuo cuadrático medio (RMSR) viene dado por la raíz cuadrada de la media de los residuos de
covarianza total cuadrados únicos. El residuo cuadrático medio estandarizado (SRMSR) es una versión
estandarizada de varianza de este RMSR que escala los residuos usando las diagonales de la matriz de
dispersión original, luego calcula el RMSR de los residuos escalados (Hu y Bentler, 1999).
Machine Translated by Google
Fondo—1081
Hay una serie de otras medidas de ajuste absoluto. Lo remitimos a Hu y Bentler (1995, 1999) y Browne y Cudeck
(1993), McDonald y Marsh (1990), Marsh, Balla y McDonald (1988) para obtener detalles sobre estas medidas y
recomendaciones sobre su uso. Tenga en cuenta que donde hay pequeñas diferencias en las diversas descripciones
de las medidas debido a las correcciones del grado de libertad, hemos utilizado las fórmulas proporcionadas por
Hu y Bentler (1999).
Ajuste incremental
Los índices de ajuste incrementales miden la mejora en el ajuste del modelo sobre una especificación más
restringida. Por lo general, la especificación restringida se elige para que sea el factor cero o el modelo de
independencia.
EViews informa hasta cinco medidas de ajuste relativo: el índice de ajuste no normado de Tucker-Lewis generalizado
(NNFI), el índice de ajuste normalizado (NFI) de Bentler y Bonnet, el índice de ajuste relativo (RFI) de Bollen, el
índice de ajuste incremental (IFI) de Bollen y el índice comparativo de Bentler Índice de ajuste (CFI). Ver Hu y
Bentler (1995) para más detalles.
Tradicionalmente, la regla general era que los modelos aceptables tuvieran índices de ajuste superiores a 0,90,
pero la evidencia reciente sugiere que este criterio de corte puede ser inadecuado. Hu y Bentler (1999) brindan
algunas pautas para evaluar los valores de los índices; para la estimación de ML recomiendan el uso de dos
índices, con valores de corte cercanos a 0,95 para el NNFI, RFI, IFI, CFI.
Rotación
Las cargas y factores estimados no son únicos; podemos obtener otros que se ajusten idénticamente a la
estructura de covarianza observada. Esta observación se encuentra detrás de la noción de rotación de factores,
en la que aplicamos matrices de transformación a los factores y cargas originales con la esperanza de obtener
una estructura factorial más simple.
ÿ
Xi – m LFi e ÿ
i (49.8)
dónde E FiFi ÿ ÿÿ ÿ Im . Supongamos que premultiplicamos nuestros factores por una matriz Tÿ donde TÿT m mÿ rotación
ÿF . Entonces podemos reescribir la ecuación del modelo factorial (49.1) como:
ÿ
Xi – m L T–1 ÿ ÿÿTÿFi e ÿ i
ÿ
L˜ F˜ ÿ yo y
yo
(49.9)
que es un modelo de factor común observacionalmente equivalente con cargas y factores rotados
L˜ L T–1 ÿ ÿ ÿÿ F˜ donde se da ,la correlación de los factores rotados i
ÿ TÿFi
por:
Tipos de Rotación
Hay dos tipos básicos de rotación que implican diferentes restricciones en . F en ortogonal
rotación, imponemos F restricciones en la matriz de transformación de modo que
m mÿ ÿ – 1 ÿ 2 T
ÿI , lo que implica que los factores rotados son ortogonales. En rotación oblicua, imponemos
solamente metro
restricciones en T , requiriendo los elementos diagonales de igualF 1.
Hay un gran número de métodos de rotación. La mayoría de los métodos que involucran la minimización de
una función objetivo que miden la complejidad de la matriz factorial rotada con respecto a la elección de
T , sujeto
(2001, 2002) describen algoritmos para arealizar rotaciones
cualquier ortogonales
restricción y oblicuas
en la correlación deminimizando la complejidad
factores. Jennrich
objetivo.
ÿ ÿ ÿ ÿ
f Lÿ ÿ
ÿ
ÿ ÿ ÿ ÿÿ 1 – ÿ
ÿ ÿ lijlik ÿ ÿk ÿ
ÿ ÿ lijlpj (49.11)
k ÿÿ ÿ ÿ
yo = 1 jÿ1 kj ÿ jÿ1 yo = 1 piÿ _
El primer término de suma entre paréntesis, que se basa en el producto exterior de la i-ésima fila de las
cargas al cuadrado, proporciona una medida de complejidad. Las filas que tienen pocos elementos distintos
de cero tendrán una complejidad baja en comparación con las filas con muchos elementos distintos de cero.
Por lo tanto, el primer término de la función es una medida de la complejidad de las filas (variables) de la matriz
de cargas. De manera similar, el segundo término de suma entre paréntesis es una medida de la complejidad
de la j-ésima columna de la matriz de cargas al cuadrado. El segundo término proporciona una medida de la
complejidad de la columna (factor) de la matriz de cargas. De ello se deduce que los valores más altos de
asignan mayor
k peso a la complejidad de los factores y menos peso a la complejidad de las variables.
Junto con la familia CF, EViews admite los siguientes métodos de rotación:
bicuartimax • •
Crawford-Ferguson • •
entropía •
Relación de entropía
•
ecuamax • •
Machine Translated by Google
Fondo—1083
Parsimonia de factores
• •
Crawford-Ferguson generalizado • •
geomin • •
Infomax • •
Oblimax •
oblimin •
Ortomax • •
Parsimax • •
Simplicidad de patrón • •
promax •
Quartimax/Quartimin • •
Simplimax • •
Tándem I •
finalmente yo •
Objetivo
• •
Varimax • •
EViews emplea las variantes de Crawford-Ferguson de las funciones objetivas Biquartimax, Equamax,
Factor Parsi mony, Orthomax, Parsimax, Quartimax y Varimax. Por ejemplo, el objetivo EViews
Orthomax para el parámetro se evalúa utilizando el Crawford-Ferguson g
objetivo con factor complejidad peso kg ÿ ÿ p .
Estas formas de las funciones objetivo producen los mismos resultados que las versiones estándar en
el caso ortogonal, pero se comportan mejor (p. ej., no permiten el colapso de los factores) bajo rotación
oblicua directa (ver Browne 2001, p. 118-119). Tenga en cuenta que el oblicuo Crawford-Ferguson
Quarti max es equivalente a Quartimin.
Los dos métodos ortoblicuos, Promax y Harris-Kaiser, realizan una rotación ortogonal inicial, seguida
de un ajuste oblicuo. Para ambos métodos, EViews ofrece cierta flexibilidad en la elección de la rotación
inicial. De forma predeterminada, EViews realizará una rotación Orthomax inicial con el parámetro
predeterminado establecido en 1 (Varimax). Para realizar la rotación inicial con Quartimax, debe
establecer el parámetro Orthomax en 0. Consulte Gorsuch (1993) y Harris-Kaiser (1964) para obtener
más detalles.
Algunos métodos de rotación requieren la especificación de uno o más parámetros. A continuación se proporciona
una breve descripción y los valores predeterminados utilizados por EViews:
Machine Translated by Google
Estandarización
Ponderar las filas de la matriz de carga inicial antes de la rotación a veces puede mejorar la solución rotada
(Browne, 2001). La estandarización de Kaiser pondera las filas por las raíces cuadradas inversas de las
comunalidades. La estandarización de Cureton-Mulaik asigna pesos entre cero y uno a las filas de la matriz
de carga usando una función más complicada de la matriz original.
Ambos métodos de estandarización pueden generar inestabilidad en casos con pequeñas comunalidades.
Valores iniciales
Los valores iniciales para los procedimientos de minimización del objetivo de rotación se toman típicamente
como la matriz de identidad (las cargas no rotadas). La presencia de mínimos locales es una posibilidad
distinta y puede ser prudente considerar rotaciones aleatorias como valores iniciales alternativos. Las
rotaciones ortogonales aleatorias pueden usarse como valores iniciales para la rotación ortogonal; se pueden
usar rotaciones ortogonales u oblicuas aleatorias para inicializar la minimización del objetivo de rotación
oblicua.
Puntuación
Los factores utilizados para explicar la estructura de covarianza de los datos observados no se observan,
pero se pueden estimar a partir de las cargas y los datos observables. Estas estimaciones de puntaje
factorial pueden usarse en análisis de diagnóstico posteriores o como sustitutos de los datos observados de
mayor dimensión.
Machine Translated by Google
Fondo—1085
Estimación de puntuación
ˆ
Podemos calcular estimaciones de puntuación de factores como una combinación lineal de datos observados:
Soldado americano
ˆ
Soldado americano
ÿ Wˆ ÿ ÿ Zi mZ ÿ – (49.12)
esto no es obligatorio; podemos, por ejemplo, utilizar coeficientes obtenidos de un conjunto de datos para calificar a
los individuos en un segundo conjunto de datos.
En
Se han propuesto varios métodos para estimar los coeficientes de puntuación. La primera clase W
de los métodos de puntuación de factores calcula estimaciones exactas o refinadas de los pesos de los coeficientes.
En términos generales, estos métodos optimizan alguna propiedad de las puntuaciones estimadas con respecto
a la elección de W . Por ejemplo, el enfoque de regresión de Thurstone maximiza la
correlación de las puntuaciones con los factores reales (Gorsuch, 1983). Otros métodos minimizan una
función de los errores estimados con respecto
eh En , sujeto
a las puntuaciones de los factores acoplados.
a restricciones en el estiPor ejemplo,
Anderson y Rubin (1956) y McDonald (1981) calculan estimadores de mínimos cuadrados ponderados de
las puntuaciones de los factores, sujeto a la condición de que la estructura de correlación implícita de las
puntuaciones Wˆ ÿSWˆ F , es igual a .
El segundo conjunto de métodos calcula pesos de coeficientes gruesos en los que los elementos de W
están restringidos a ser valores (-1, 0, 1). Estos pesos simplificados se determinan mediante la recodificación de
elementos de la matriz de cargas factoriales o una matriz de pesos de coeficientes exactos sobre la base de sus
magnitudes. A los valores de las matrices que son mayores que algún umbral (en valor absoluto) se les asignan
valores correspondientes al signo de -1 o 1; todos los demás valores se recodifican en 0 (Grice, 2001).
Evaluación de puntuación
Hay un número infinito de estimaciones de puntuación factorial que son consistentes con una estimación
modelo de factores Esta falta de identificación, denominada factor de indeterminación, ha recibido considerable
atención en la literatura (ver, por ejemplo, Mulaik (1996); Steiger (1979)), y es una de las principales razones de la
multiplicidad de métodos de estimación y del desarrollo de procedimientos para evaluar la calidad de un conjunto
dado de puntajes (Gorsuch, 1983, p. 272).
Ver Gorsuch (1993) y Grice (2001) para una discusión adicional de las siguientes medidas.
Índices de indeterminación
Hay dos tipos distintos de índices de indeterminación. El primer conjunto mide la correlación
2
r El P S–1 ÿ G r
múltiple entre cada factor y las variables observadas, y su cuadrado.
las correlaciones múltiples al cuadrado se obtienen a partir de las diagonales de
la matrizSdonde es la matriz de dispersión observada y G ÿ LF es la matriz de estructura factorial.
Ambos índices varían de 0 a 1, siendo deseables valores altos.
Machine Translated by Google
El segundo tipo de índice de indeterminación informa la correlación mínima entre estimaciones alternativas de las
2
puntuaciones de los factores, rÿ – 1 ÿ
2r . La medida de correlación mínima oscila entre -1 y 1.
Los valores positivos altos son deseables, ya que indican que diferentes conjuntos de puntajes de factores producirán
resultados similares.
r
Grice (2001) sugiere que los valores que no excedan 0,707 en un grado significativo son problemáticos, ya que los
valores por debajo de este umbral implican que podemos generar dos conjuntos de puntajes factoriales que son
ortogonales o correlacionados negativamente (Green, 1976).
Siguiendo a Gorsuch (1983), podemos definir Rff como matriz de correlación de factores de población,
Rss como matriz de correlación de puntuación de factores y Rfs como la matriz de correlación de los factores
conocidos con las estimaciones de puntuación. En general, nos gustaría que estas matrices fueran similares.
Los elementos diagonales de Rfs se denominan coeficientes de validez . Estos coeficientes oscilan entre -1 y 1,
siendo deseables valores positivos altos. Las diferencias entre las validaciones y las correlaciones múltiples son
evidencia de que las puntuaciones factoriales calculadas tienen determinaciones más bajas que las calculadas usando
r
los valores de -. Gorsuch (1983) recomienda obtener valores de validez de al menos 0,80 y señala que pueden ser
necesarios valores superiores a 0,90 si deseamos utilizar las estimaciones de puntuación como sustitutos de los factores.
Los elementos fuera de la diagonal de Rfs nos permiten medir la univocidad, o el grado en que las puntuaciones de
los factores estimados tienen correlaciones con las de otros factores. Valores fuera de la diagonal de Rff
que difieren de los de son evidencia de sesgo de univocidad.
RFS
Por último, obviamente nos gustaría que las puntuaciones estimadas de los factores coincidieran con las correlaciones
entre los propios factores. Podemos evaluar la precisión correlacional de las estimaciones de las puntuaciones
comparando los valores de Rss con los valores de .
Rff
Referencias
Akaike, H. (1987). “Análisis factorial y AIC”, Psychometika, 52(3), 317–332.
Anderson, TW y H. Rubin (1956). "Inferencia estadística en análisis factorial", en Neyman, J., editor, Actas del tercer
simposio de Berkeley sobre estadística matemática y probabilidad, Volumen V, 111-
150. Berkeley y Los Ángeles: University of California Press.
Bernaards, CA y RI Jennrich (2005). “Algoritmos de proyección de gradiente y software para criterios de rotación arbitraria
en análisis factorial”, Medición educativa y psicológica, 65(5), 676-696.
Browne, MW (2001). "Una descripción general de la rotación analítica en el análisis factorial exploratorio", Multivariante
Investigación del comportamiento, 36(1), 111–150.
Browne, MW y R. Cudeck (1993). “Formas alternativas de evaluar el ajuste del modelo”, en KA Bollen y JS
Long (eds.), Testing Structural Equation Models, Newbury Park, CA: Sage.
Machine Translated by Google
Referencias—1087
Cudeck, R. y MW Browne (1983). “Cross-validation of Covariance Structures,” Multivariate Behav ioral Research, 18,
147–167.
Dziuban, CD y EC Shirkey (1974). “¿Cuándo es adecuada una matriz de correlación para el análisis factorial?”
Boletín Psicológico, 81(6), 358–361.
Fabrigar, LR, DT Wegener, RC MacCallum y EJ Strahan (1999). “Evaluación del uso de Explor
Análisis factorial atorio en la investigación psicológica”, Psychological Methods, 4(3), 272–299.
Glorfeld, LW (1995). “Una mejora en la metodología de análisis paralelo de Horn para seleccionar el número correcto de
factores a retener”, Medición educativa y psicológica, 55(3), 377–393.
Gorsuch, RL (1983). Análisis factorial, Hillsdale, Nueva Jersey: Lawrence Erlbaum Associates, Inc.
Green, BF, Jr. (1969). "Mejores compuestos lineales con una estructura específica" , Psychometika, 34 (3), 301–
318.
Green, BF, Jr. (1976). “Sobre la controversia del puntaje factorial”, Psychometika, 41(2), 263–266.
Grice, JW (2001). "Computing and Evaluating Factor Scores", Métodos psicológicos, 6(4), 430–450.
Harman, HH (1976). Análisis factorial moderno, tercera edición revisada, Chicago: Universidad de Chicago
Prensa.
Harris, CW y HF Kaiser (1964). "Soluciones analíticas de factores oblicuos mediante transformaciones ortogonales"
Psychometrik, 29(4), 347–362.
Hendrickson, A. y P. White (1964). “Promax: un método rápido para la rotación a estructura simple oblicua
tura”, The British Journal of Statistical Psychology, 17(1), 65–70.
Cuerno, JL (1965). "Una justificación y prueba para el número de factores en el análisis factorial" , Psychometika,
30(2), 179–185.
Hu, L.-T. y PM Bentler (1995). “Evaluación del ajuste del modelo”, en RH Hoyle (Ed.), Structural Equation Mod
eling: conceptos, problemas y aplicaciones, Thousand Oaks, CA: Sage.
Hu, L.-T. y PM Bentler (1999). “Criterios de corte para índices de ajuste en análisis de estructura de covarianza: criterios
convencionales frente a nuevas alternativas”, Modelado de ecuaciones estructurales, 6(1), 1–55.
Humphreys, LG y DR Ilgen (1969). “Nota sobre un criterio para el número de factores comunes”, Edu
Medida nacional y psicológica, 29, 571–578.
Humphreys, LG y RG Montanelli, Jr. (1975). “Una investigación del criterio de análisis paralelo para determinar el número
de factores comunes”, Investigación conductual multivariante, 10, 193–206.
Ihara, M. e Y. Kano (1995). "Un nuevo estimador de la unicidad en el análisis factorial" , Psychometika,
51(4), 563-566.
Jackson, DA (1993). “Reglas de parada en el análisis de componentes principales: una comparación de análisis heurístico
and Statistical Approaches”, Ecology, 74(8), 2204–2214.
Jennrich, RI (2001). “Un procedimiento general simple para la rotación ortogonal”, Psychometika, 66(2), 289–
306.
Jennrich, RI (2002). “Un método general simple para la rotación oblicua”, Psychometika, 67(1), 7–20.
Johnson, RA y DW Wichern (1992). Análisis estadístico multivariante aplicado, tercera edición, superior
Saddle River, Nueva Jersey: Prentice-Hall, Inc.
Jöreskog, KG (1977). “Factor Analysis by Least-Squares and Maximum Likelihood Methods”, en Statisti cal Methods for
Digital Computers, K. Enslein, A. Ralston y HS Wilf, (eds.), Nueva York: John Wiley & Sons, Inc.
Kano, Y. (1990). “Estimación no iterativa y elección del número de factores en el análisis factorial exploratorio”, Psychometika,
55(2), 277–291.
Marsh, HW, JR Balla y RP McDonald (1988). “Índices de bondad de ajuste en el análisis factorial confirmatorio: el efecto del
tamaño de la muestra”, Psychological Bulletin, 103(3), 391–410.
McDonald, RP (1981). "Estimadores de mínimos cuadrados restringidos de factores comunes oblicuos", Psy
chometrika, 46(2), 277–291.
McDonald, RP y HW Marsh (1990). “Elección de un modelo multivariado: no centralidad y bondad de ajuste”, Psychological
Bulletin, 107(2), 247–255.
Predicador, KJ y RC MacCallum (2003). "Reparación de la máquina de análisis de factores eléctricos de Tom Swift"
Comprensión de las estadísticas, 2(1), 13–32.
Ten Berge, JMF, WP Krijnen, T. Wansbeek y A. Shapiro (1999). “Algunos resultados nuevos sobre métodos de predicción de
puntuaciones de factores que preservan la correlación”, Álgebra lineal y sus aplicaciones, 289, 311–318.
Tucker, L.R y RC MacCallum (1997). Análisis factorial exploratorio, manuscrito no publicado.
Velicer, WF (1976). “Determinación del número de componentes a partir de la matriz de correlaciones parciales”,
Psychometrik, 41(3), 321–327.
Zoski, KW y S. Jurs (1996). “Una contraparte objetiva de la prueba de pantalla visual para el análisis factorial: la pantalla de
error estándar”, Medición educativa y psicológica, 56(3), 443–451.
Zwick, WR y WF Velicer (1986). “Factores que influyen en cinco reglas para determinar el número de
Componentes para retener”, Psychological Bulletin, 99(3), 432–442.
Machine Translated by Google
EViews estima los parámetros de una amplia variedad de modelos no lineales, desde ecuaciones de mínimos
cuadrados no lineales hasta modelos de máxima verosimilitud y especificaciones GMM. Estos tipos de problemas
de estimación no lineal no tienen soluciones de forma cerrada y deben estimarse utilizando métodos iterativos.
EViews también resuelve sistemas de ecuaciones no lineales. Una vez más, no hay soluciones de forma cerrada
para estos problemas, y EViews debe usar un método iterativo para
obtener una solución.
A continuación, brindamos detalles sobre los algoritmos utilizados por EViews al tratar con la estimación y la
solución no lineales, y las configuraciones opcionales que brindamos para permitirle controlar la estimación.
Nuestra discusión aquí es necesariamente breve. Para obtener detalles adicionales, lo remitimos a las
discusiones bastante legibles en Press, et al. (1992), Quandt (1983), Thisted (1988) y Amemiya (1983).
Cuando estima una ecuación en EViews, ingresa información de especificación en la pestaña Especificación
del cuadro de diálogo Estimación de ecuación . Al hacer clic en la pestaña Opciones , se muestra un cuadro de
diálogo que le permite configurar varias opciones para controlar el procedimiento de estimación. El contenido del
cuadro de diálogo diferirá según las opciones disponibles para un procedimiento de estimación en particular.
La pestaña Opciones para modelos binarios se muestra aquí. Para otros estimadores y técnicas de estimación
(p. ej ., sistemas), el cuadro de diálogo diferirá para reflejar las diferentes opciones de estimación disponibles.
Machine Translated by Google
Método de optimización
La mayoría de los estimadores no lineales de EViews le ofrecen la posibilidad de elegir el método de optimización.
Para estos estimadores, el menú desplegable Método de optimización le permite elegir entre los métodos BFGS, Gauss-
Newton, Newton-Raphson y EViews Legacy . El método predeterminado es específico del estimador.
En general, las diferencias entre las estimaciones deberían ser pequeñas para especificaciones no lineales de buen
comportamiento, pero si experimenta dificultades de optimización, es posible que desee experimentar con métodos.
Tenga en cuenta que el legado de EViews es una implementación particular de Gauss Newton con Marquardt o pasos de
búsqueda de línea, y se proporciona para la compatibilidad de estimación hacia atrás.
El método Step le permite elegir el enfoque para elegir los pasos iterativos candidatos.
El método predeterminado es Marquardt, pero en su lugar puede seleccionar Dogleg o Line Search.
Consulte “Algoritmos de optimización” en la página 1095 para obtener una discusión detallada.
Iteración y Convergencia
Hay dos reglas de parada de iteración comunes: basadas en el cambio en la función objetivo, o basadas en el cambio en
los parámetros. La regla de convergencia utilizada en EViews se basa en cambios en los valores de los parámetros. Esta
regla es generalmente conservadora, ya que el cambio en la función objetivo puede ser bastante pequeño a medida que
nos acercamos al óptimo (así es como elegimos la dirección), mientras que los parámetros aún pueden estar cambiando.
La regla exacta en EViews se basa en comparar la norma del cambio en los parámetros con la norma de los valores de
los parámetros actuales. Más específicamente, la prueba de convergencia es:
Machine Translated by Google
vÿ yo ÿ 1 ÿ 2 – vÿ ÿi
------------------------------------ peaje _ (C.1)
vÿ ÿi 2
Sin embargo, antes de tomar las normas, cada parámetro se escala en función de la norma más grande
observada en las iteraciones de la derivada de los residuos de mínimos cuadrados con respecto a ese
parámetro. Este sistema de escalado automático hace que los criterios de convergencia sean más robustos a
los cambios en la escala de los datos, pero significa que reiniciar la optimización desde los valores convergentes
finales puede provocar iteraciones adicionales, debido a ligeros cambios en el valor de escalado automático
cuando se inicia. de los nuevos valores de los parámetros.
El proceso de estimación logra la convergencia si se alcanza la regla de parada usando la tolerancia especificada
en el cuadro de edición Convergencia del Diálogo de estimación o el Diálogo de opciones de estimación. Por
defecto, el cuadro se llenará con el valor de tolerancia especificado en las opciones de estimación global, o si
el objeto de estimación ha sido estimado previamente, se llenará con el valor de convergencia especificado
para el último conjunto de estimaciones.
EViews puede dejar de iterar incluso cuando no se logra la convergencia. Esto puede suceder por dos razones.
Primero, el número de iteraciones puede haber alcanzado el límite superior preespecificado. En este caso, debe
restablecer el número máximo de iteraciones a un número mayor e intentar iterar hasta lograr la convergencia.
En segundo lugar, EViews puede emitir un mensaje de error que indica "No se pudo mejorar" después de varias
iteraciones. Esto significa que aunque los parámetros continúan cambiando, EViews no pudo encontrar una
dirección o un tamaño de paso que mejore la función objetivo. Esto puede suceder cuando la función objetivo se
comporta mal; debe asegurarse de que su modelo esté identificado.
También puede probar otros valores iniciales para ver si puede acercarse al óptimo desde otras direcciones.
Por último, los EViews pueden converger, pero le advierten que existe una singularidad y que los coeficientes
no son únicos. En este caso, EViews no informará errores estándar o estadísticas t para las estimaciones de
coeficientes.
Los procedimientos de estimación iterativos requieren valores iniciales para los coeficientes del modelo.
No existen reglas generales para seleccionar valores iniciales para los parámetros. Obviamente, cuanto más se
acerque a los valores reales, mejor, por lo que si tiene conjeturas razonables para los valores de los parámetros,
estos pueden ser útiles. En algunos casos, puede obtener valores iniciales estimando una versión restringida
del modelo. En general, sin embargo, es posible que tenga que experimentar para encontrar buenos valores
iniciales.
• Para problemas del tipo de mínimos cuadrados no lineales, EViews utiliza los valores del vector de
coeficientes en el momento en que comienza el procedimiento de estimación como valores iniciales.
• Para los estimadores del sistema y ARCH, EViews utiliza valores iniciales basados en la estimación preliminar
OLS o TSLS de una sola ecuación. En los cuadros de diálogo de estos estimadores, no aparecerá el menú
desplegable para configurar los valores iniciales.
• Para técnicas de estimación seleccionadas (binario, ordenado, conteo, censurado y truncado), EViews tiene
algoritmos incorporados para determinar los valores iniciales utilizando información específica sobre la
función objetivo. Estos se etiquetarán en el menú desplegable Valores de coeficiente inicial como EViews
proporcionados.
En los dos últimos casos, puede cambiar este comportamiento predeterminado seleccionando un elemento del
menú desplegable Valores de coeficiente inicial . Puede elegir fracciones de los valores iniciales predeterminados,
cero o proporcionados por el usuario arbitrariamente.
Si selecciona Suministrado por el usuario, EViews utilizará los valores almacenados en el vector de coeficiente
C en el momento de la estimación como valores iniciales. Para ver los valores iniciales, haga doble clic en el vector
de coeficiente en el directorio del archivo de trabajo. Si los valores parecen ser razonables, puede cerrar la ventana
y continuar con la estimación de su modelo.
Si desea cambiar los valores iniciales, primero asegúrese de que la vista de hoja de cálculo del vector de coeficientes
esté en modo de edición, luego ingrese los valores de los coeficientes. Cuando haya terminado de establecer los
valores iniciales, cierre la ventana del vector de coeficientes y estime su modelo.
También puede establecer valores de coeficientes iniciales desde la ventana de comandos utilizando el comando
PARAM. Simplemente ingrese la palabra clave param , seguida de pares de coeficientes y sus valores deseados:
establece C(1)=153, C(2)=.68 y C(3)=.15. Todos los demás elementos del vector de coeficientes se dejan sin
cambios.
Por último, si desea utilizar coeficientes estimados de otra ecuación, seleccione Proc/Actualizar coeficientes de
ecuación en la barra de herramientas de la ventana de ecuación.
Para problemas de mínimos cuadrados no lineales o situaciones en las que especifique los valores iniciales,
tenga en cuenta que:
• Una mala elección de los valores iniciales puede hacer que falle el algoritmo de mínimos cuadrados no
lineales. EViews comienza la estimación no lineal tomando derivadas de la función objetivo.
Machine Translated by Google
ción con respecto a los parámetros, evaluados en estos valores. Si estos derivados no se comportan
bien, es posible que el algoritmo no pueda continuar.
Si, por ejemplo, los valores iniciales son tales que todas las derivadas son cero, verá inmediatamente
un mensaje de error que indica que EViews ha encontrado una "matriz casi singular" y el
procedimiento de estimación se detendrá.
• A menos que la función objetivo sea globalmente cóncava, los algoritmos iterativos pueden
detenerse en un óptimo local. Por lo general, no habrá evidencia de este hecho en ninguno de los
resultados de la estimación.
Si le preocupa la posibilidad de óptimos locales, puede que desee seleccionar varios valores iniciales
y ver si las estimaciones convergen en los mismos valores. Una sugerencia común es estimar el
modelo y luego alterar aleatoriamente cada uno de los coeficientes estimados en algún porcentaje,
luego usar estos nuevos coeficientes como valores iniciales en la estimación.
Cálculo de derivadas
En muchos procedimientos de estimación de EViews, puede especificar la forma de la función para la
ecuación media o la función objetivo. Por ejemplo, al estimar un modelo de regresión, puede especificar
una expresión no lineal arbitraria en los coeficientes. En estos casos, al estimar el modelo, EViews necesita
calcular las derivadas de la función especificada por el usuario.
EViews utiliza dos técnicas para evaluar derivadas: numérica (diferencia finita) y analítica.
En la mayoría de los casos, no necesita preocuparse por la configuración del cálculo de la derivada. El
motor de estimación de EViews generalmente empleará expresiones analíticas para las derivadas, si es
posible, o calculará derivadas numéricas altas, cambiando entre un cálculo de menor precisión al principio
del procedimiento iterativo y un cálculo de mayor precisión para las iteraciones posteriores y el cálculo final.
Para el optimizador heredado, EViews puede ofrecerle la opción de calcular expresiones analíticas
para estas derivadas (si es posible) o calcular derivadas numéricas de diferencias finitas en los casos en
que la derivada no sea constante. Además, si se calculan derivadas numéricas, puede optar por favorecer
la velocidad de cálculo (menos evaluaciones de funciones) o favorecer la precisión (más evaluaciones de
funciones)
• Para algunos procedimientos en los que el rango de especificaciones permitidas es limitado (p. ej., VAR,
pools), EViews siempre utiliza la primera y/o segunda derivada analíticas, independientemente de los valores
de estas configuraciones.
• En un número limitado de casos, EViews siempre utilizará derivadas numéricas. Por ejemplo, los modelos
GARCH seleccionados (consulte “Métodos de derivación” en la página 250) y los modelos de espacio de
estados siempre usan derivadas numéricas. Como se señaló anteriormente, las derivadas del coeficiente
MA siempre se calculan numéricamente.
• Los objetos logl siempre usan derivadas numéricas a menos que proporcione las derivadas analíticas en la
especificación.
Calcular las derivadas numéricas más precisas requiere evaluaciones de funciones objetivas adicionales. El
legado de EView calcula derivadas numéricas mediante una diferencia finita unilateral (favorece la velocidad) o
mediante una rutina de cuatro puntos mediante la extrapolación de Richardson (favorece la precisión). Se
proporcionan detalles adicionales en Kincaid y Cheney (1996). El motor EViews más nuevo calcula las derivadas en
un método adaptativo para lograr una alta precisión.
Las derivadas analíticas a menudo serán más rápidas y precisas que las derivadas numéricas, especialmente si
las derivadas analíticas se han simplificado y optimizado cuidadosamente para eliminar las subexpresiones
comunes. En ocasiones, las derivadas numéricas implicarán menos operaciones de punto flotante que las analíticas
y, en estas circunstancias, pueden ser más rápidas.
Machine Translated by Google
Algoritmos de optimización—1095
Algoritmos de optimización
Dada la importancia de la configuración adecuada de las opciones de estimación de EViews, puede resultar útil
revisar brevemente varios algoritmos básicos de optimización utilizados en la estimación no lineal. Recuérdese
que el problema que se enfrenta en la estimación no lineal es encontrar los valores de los parámetros en
que
optimizan (maximizan o minimizan) una función objetivo Fÿ ÿ v .
Los algoritmos de optimización iterativos funcionan tomando un conjunto inicial de valores para los parámetros
decir vÿ ÿ 0 , y luego realizando cálculos basados en estos valores para obtener un mejor conjunto de parámetros.
valores eter, vÿ ÿ ,
1 . Este proceso se repite para vÿ ÿ 2 vÿ ÿ 3 y así sucesivamente hasta la función objetivo
ción yaF no mejora entre iteraciones.
Hay tres partes principales en el proceso de optimización: (1) obtener los valores iniciales de los parámetros,
(2) actualizar el vector de parámetros candidatos en cada iteración
en y (3) determinar cuándo hemos alcanzado el
valor óptimo.
Si la función objetivo es globalmente cóncava de manera que hay un único máximo, cualquier algoritmo que
mejore el vector de parámetros en cada iteración eventualmente encontrará este máximo (suponiendo que el
tamaño de los pasos dados no sea despreciable). Si la función objetivo no es globalmente cóncava, diferentes
algoritmos pueden encontrar diferentes máximos locales, pero todos los algoritmos iterativos sufrirán el mismo
problema de no poder diferenciar un máximo local y un máximo global.
Lo principal que distingue a los diferentes algoritmos es la rapidez con la que encuentran el máximo.
Desafortunadamente, no hay reglas estrictas y rápidas. Para algunos problemas, un método puede ser más
rápido, para otros problemas puede que no. EViews proporciona diferentes algoritmos y, a menudo, le permitirá
elegir qué método le gustaría usar.
Las siguientes secciones describen estos métodos. Los algoritmos utilizados en EViews se pueden
clasificar en términos generales en tres tipos: métodos de segunda derivada , métodos de primera derivada y
métodos sin derivada . Los métodos de la segunda derivada de EViews evalúan los valores de los parámetros
actuales y las derivadas primera y segunda de la función objetivo para cada observación. Los métodos de la
primera derivada utilizan solo las primeras derivadas de la función objetivo durante el proceso de iteración.
Como sugiere el nombre, los métodos libres de derivadas no calculan derivadas.
Para modelos binarios, ordenados, censurados y de conteo, EViews puede estimar el modelo utilizando
Newton-Raphson o escalada cuadrática.
Newton-Raphson
Los valores candidatos para los parámetros se
vÿ pueden
ÿ1 obtener usando el método de Newton
Raphson linealizando las condiciones de primer orden ÿF ÿ ÿv en los valores actuales de los parámetros,
vÿ ÿi :
Machine Translated by Google
– vÿ ÿi ÿ ÿ0
ÿi vÿ ÿ ÿ gÿ ÿi Hÿ yo ÿ 1 ÿ
–1
(C.2)
vÿ yo ÿ 1 ÿ
ÿ
–
vÿ ÿi Hÿ ÿi gÿ ÿi
2
ÿ .
donde es el vector gradiente y es la matriz ÿv H, ÿ
2 ÿF ÿhessiana g F ÿv
–1
vÿ yo ÿ 1 ÿ
ÿ
vÿ ÿi
– H˜ gÿ ÿi ÿ ÿi ÿ-
Hÿ ÿi ÿ aI
(C.3)
donde H˜ – ÿ ÿi
El efecto de esta modificación es empujar las estimaciones de los parámetros en la dirección del vector de
gradiente. La idea es que cuando estamos lejos del máximo, la aproximación cuadrática local a la función
puede ser una mala guía para su forma general, por lo que es mejor que simplemente sigamos el gradiente.
La corrección puede proporcionar un mejor rendimiento en lugares alejados del óptimo y permite el cálculo
del vector de dirección en los casos en que la arpillera es casi singular.
Para los modelos que se pueden estimar mediante métodos de segunda derivada, EViews utiliza la
escalada cuadrática como método predeterminado. Puede optar por utilizar el Newton-Raphson tradicional o
los métodos de la primera derivada que se describen a continuación, seleccionando el algoritmo deseado en
el menú Opciones.
Tenga en cuenta que los errores estándar asintóticos siempre se calculan a partir de la arpillera no modificada
una vez que se logra la convergencia.
Los métodos de la segunda derivada pueden ser computacionalmente costosos ya que necesitamos evaluar k kÿ ÿ ÿ 1
elementos de la matriz de la segunda derivada en cada iteración. Además, las segundas
ÿ2
derivadas calculadas pueden ser difíciles de calcular con precisión. Una alternativa es emplear métodos
que requieran solo las primeras derivadas de la función objetivo en los valores de los parámetros.
Para otros modelos no lineales seleccionados (ARCH y GARCH, GMM, State Space), EViews proporciona
dos métodos de primera derivada: Gauss-Newton/BHHH o Marquardt.
Machine Translated by Google
Algoritmos de optimización—1097
Los modelos de sistemas y ecuaciones simples no lineales se estiman utilizando el método de Marquardt.
Gauss-Newton/BHHH
Este algoritmo sigue el de Newton-Raphson, pero reemplaza el negativo de Hessian por una aproximación formada por
la suma del producto exterior de los vectores de gradiente para la contribución de cada observación a la función objetivo.
Para las funciones de mínimos cuadrados y logaritmo de verosimilitud, esta aproximación es asintóticamente equivalente
a la hessiana real cuando se evalúa en los valores de los parámetros que maximizan la función. Cuando se evalúa lejos del
máximo, esta aproximación puede ser bastante pobre.
El algoritmo se denomina Gauss-Newton para problemas generales de mínimos cuadrados no lineales y, a menudo, se
atribuye a Berndt, Hall, Hall y Hausman (BHHH) para problemas de máxima verosimilitud.
Las ventajas de aproximar el hessiano negativo por el producto exterior del gradiente son que (1) necesitamos evaluar solo
las primeras derivadas y (2) el producto exterior es necesariamente semidefinido positivo. La desventaja es que, lejos del
máximo, esta aproximación puede proporcionar una guía deficiente de la forma general de la función, por lo que es posible
que se necesiten más iteraciones para la convergencia.
Marquardt
El algoritmo de Marquardt modifica el algoritmo de Gauss-Newton exactamente de la misma manera que la escalada
cuadrática modifica el método de Newton-Raphson (agregando una matriz de corrección (o factor de cresta) a la aproximación
de Hesse).
La corrección de la cresta maneja los problemas numéricos cuando el producto exterior es casi singular y puede mejorar
la tasa de convergencia. Como arriba, el algoritmo empuja los valores de los parámetros actualizados en la dirección del
gradiente.
Para los modelos que se pueden estimar mediante métodos de primera derivada, EViews utiliza Marquardt como método
predeterminado. En muchos casos, puede optar por utilizar Gauss-Newton tradicional a través del menú Opciones.
Tenga en cuenta que los errores estándar asintóticos siempre se calculan a partir de la aproximación hessiana no
modificada (Gauss Newton) una vez que se logra la convergencia.
Tenga en cuenta que mientras EViews hará un intento rudimentario de encontrar un buen paso, l en realidad no está
optimizado en cada iteración ya que el cálculo del vector de dirección suele ser más importante
Machine Translated by Google
que la elección del tamaño del paso. Sin embargo, es posible que EViews no pueda encontrar un tamaño de paso
que mejore la función objetivo. En este caso, EViews emitirá un mensaje de error.
sabio.
EViews también realiza una búsqueda rudimentaria de prueba y error para determinar el factor de a para marzo
EViews utiliza (una versión de) la búsqueda en cuadrícula para la rutina de suavizado exponencial.
Una vez que se han determinado los bloques, cada bloque se resuelve a su vez. Si el bloque no contiene
simultaneidad, cada ecuación en el bloque simplemente se evalúa una vez para obtener valores para cada una de
las variables.
Si un bloque contiene simultaneidad, las ecuaciones en ese bloque se resuelven mediante un método de Gauss
Seidel o Newton, según cómo se hayan configurado las opciones del solucionador.
Gauss-Seidel
De forma predeterminada, EViews utiliza el método de Gauss-Seidel al resolver sistemas de ecuaciones no lineales.
Supongamos que el sistema de ecuaciones está dado por:
x1 ÿ ÿf1 x1ÿx2
,,,,ÿÿxN
xN Con
x2 ÿ ,,,, _ _ _ Con
(C.4)
ÿ
El problema es encontrar un punto fijo tal que x fxz ÿ ÿ ÿ , . Gauss-Seidel emplea una regla de
actualización iterativa de la forma:
Machine Translated by Google
ÿ yo ÿ 1 ÿ
x ÿ ÿ , f xÿ ÿi ÿ Con . (C.5)
para encontrar la solución. En cada iteración, EViews resuelve las ecuaciones en el orden en que
aparecen en el modelo. Si una variable endógena que ya se resolvió en esa iteración aparece más tarde
en alguna otra ecuación, EViews usa el valor como se resolvió en esa iteración.
Por ejemplo, la k-ésima variable en la i-ésima iteración se resuelve mediante:
ÿ ÿ ÿ ÿ yo – 1 ÿ ÿ xk yo – 1 ÿ ÿ yo – 1 ÿ
ÿi xk ÿi ÿ ÿ fk x1 , ,ÿi, x2 ÿi ÿ xk – 1 ÿ xk , ,,ÿÿ1xN , Con
ÿ . (C.6)
El rendimiento del método de Gauss-Seidel puede verse afectado por el reordenamiento de las ecuaciones.
Si el método de Gauss-Seidel converge lentamente o no lo hace, debe intentar mover las ecuaciones
con relativamente pocas variables endógenas del lado derecho y sin importancia para que aparezcan al
principio del modelo.
Método de Newton
El método de Newton para resolver un sistema de ecuaciones no lineales consiste en resolver
repetidamente una aproximación lineal local al sistema.
Fxz ÿ ÿ , ÿ0 (C.7)
F el conjunto de ecuaciones, es
donde es X el vector de variables endógenas y es el vector de variables Con
exógenas.
En el método de Newton, hacemos una aproximación lineal al sistema alrededor de unos valores xÿ
y : zÿ
ÿ
Fxz ÿ ÿ , ÿ
F xÿ ÿ ÿ F xÿ ÿ ÿ, zÿ ÿ, zÿ ÿx 0 ÿ
(C.8)
ÿx
y luego use esta aproximación para construir un procedimiento iterativo para actualizar nuestra suposición
actual para:X
–1
ÿ
xt ÿ 1
ÿ-
xt , zÿ ÿ ÿ
F xto , zÿ ÿ (C.9)
ÿ ÿxF xt
El procedimiento se repite hasta que los cambios entreXperíodos sean menores que una tolerancia
especificada.
Tenga en cuenta que, a diferencia de Gauss-Seidel, el orden de las ecuaciones bajo Newton no
afecta la tasa de convergencia del algoritmo.
Machine Translated by Google
Método de Broyden
El método de Broyden es una modificación del método de Newton que trata de disminuir el costo de
cálculo de cada iteración mediante el uso de una aproximación a las derivadas del sistema de
ecuaciones en lugar de las verdaderas derivadas del sistema de ecuaciones al calcular el paso de
Newton. Es decir, en cada iteración, el método de Broyden da un paso:
–1
xt ÿ 1 ÿ-
xt jt F ÿxto , zÿ ÿ (C.10)
ÿ ÿF xt ÿ 1 ÿ , ÿ zÿ F ------------------------------------------------
ÿ --------------------------------------------
xt – ÿ , ÿ zÿ J Dxÿÿ – tDx
Jt ÿ 1 jt (C.11)
DxÿDx
dónde Dx xt ÿ 1 xt . Esta
ÿ – actualización tiene una serie de propiedades deseables (ver el Capítulo 8 de
Dennis y Schnabel (1983) para más detalles).
En EViews, la aproximación jacobiana se inicializa tomando las verdaderas derivadas del sistema
de ecuaciones en los valores iniciales de . El procedimiento
X de actualización dado anteriormente se
repite hasta que losXcambios entre períodos sean menores que una tolerancia especificada. En algunos
casos, el método puede detenerse antes de llegar a una solución, en cuyo caso se toma un nuevo
X , yde
conjunto de derivadas del sistema de ecuaciones en los valores actuales laued usando estas
actualización derivadas
es continua
como la nueva aproximación jacobiana.
El método de Broyden comparte muchas de las propiedades del método de Newton, incluido el hecho
de que no depende del orden de las ecuaciones en el sistema y que, por lo general, convergerá
rápidamente en la vecindad de una solución. En comparación con el método de Newton, el método de
Broyden normalmente tardará menos en realizar cada iteración, pero puede necesitar más iteraciones
para converger en una solución. En la mayoría de los casos, el método de Broyden tardará menos
tiempo en resolver un sistema que el método de Newton, pero el rendimiento relativo dependerá de la
estructura de las derivadas del sistema de ecuaciones.
Referencias
Amemiya, Takeshi (1983). “Modelos de regresión no lineal”, Capítulo 6 en Z. Griliches y MD Intriligator
(eds.), Handbook of Econometrics, volumen 1, Ámsterdam: Elsevier Science Publishers BV
Berndt, E., Hall, B., Hall, R. y Hausman, J. (1974). Estimación e inferencia en modelos estructurales no lineales, Annals
of Economic and Social Measurement, Vol. 3, 653–665.
Machine Translated by Google
Referencias—1101
Dennis, JE y RB Schnabel (1983). “Métodos de la secante para sistemas de ecuaciones no lineales”, Numerical
Métodos de Optimización Sin Restricciones y Ecuaciones No Lineales. Prentice Hall, Londres.
Kincaid, David y Ward Cheney (1996). Análisis numérico, 2.ª edición, Pacific Grove, CA: Brooks/
Compañía Editorial Cole.
More y Sorensen (1983). “Computing a Trust Region Step”, SIAM Journal of Scientific Statistical Computing, 4, 553–572.
Press, WH, SA Teukolsky, WT Vetterling y BP Flannery (1992). Recetas Numéricas en C, 2da edi
ción, Cambridge University Press.
Quandt, Richard E. (1983). "Problemas y métodos computacionales", Capítulo 12 en Z. Griliches y MD
Intriligator (eds.), Manual de econometría, Volumen 1, Ámsterdam: Elsevier Science Publishers BV
Thisted, Ronald A. (1988). Elements of Statistical Computing, Nueva York: Chapman and Hall.
Machine Translated by Google
Muchos objetos de estimación de EViews proporcionan rutinas integradas para examinar los gradientes y
derivados de sus especificaciones. Puede, por ejemplo, utilizar estas herramientas para examinar las derivadas
analíticas de su especificación de regresión no lineal en forma numérica o gráfica, o puede guardar los
gradientes de su rutina de estimación para pruebas de especificación.
Se puede acceder a las vistas de degradado y derivadas desde la mayoría de los objetos de estimación
seleccionando Ver/Gradientes y Derivados o, en algunos casos, Ver/Gradientes, y luego seleccionar la vista
adecuada.
Si desea guardar los valores numéricos de sus gradientes y derivados, deberá utilizar los procedimientos de
gradiente y derivados. Se puede acceder a estos procesos desde el menú principal de Procesos .
Tenga en cuenta que no todas las vistas y procesos están disponibles para todos los objetos de estimación o todas las
técnicas de estimación.
Gradientes
EViews le brinda la capacidad de examinar y trabajar con los gradientes de la función objetiva para una
variedad de objetos de estimación. Examinar estos gradientes puede proporcionar información útil para evaluar
el comportamiento de su rutina de estimación no lineal, o puede usarse como base de varias pruebas de
especificación.
Dado que EViews proporciona una variedad de métodos y técnicas de estimación, la noción de gradiente es
un poco difícil de describir en términos casuales. EViews generalmente informará los valores de las condiciones
de primer orden utilizadas en la estimación. Para tomar el ejemplo más simple, los mínimos cuadrados
ordinarios minimizan los residuos de la suma de los cuadrados:
2
Sÿ ÿ (D.1)
segundo ÿ ÿ ÿ - b ÿ yt Xt
t
Las condiciones de primer orden para esta función objetivo se obtienen derivando con b
respecto a , dando
ÿ – 2 yt Xt ÿ ÿ – ÿb Xt (D.2)
t
EViews le permite examinar tanto la suma como el promedio correspondiente, así como el valor de cada una
de las observaciones individuales. Además, puede guardar los valores individuales en serie para su posterior
análisis.
mínimos cuadrados
ÿ ÿftÿ
ÿ ÿ 2bÿ yt
Xtf ,–
gt
ÿ-
tÿ b ÿ Xt , ÿ
------------------------ ÿÿ
ÿb
Máxima verosimilitud
ÿltÿ
ÿ ------------------------
ÿ Xtb ,
gt
ÿb
P P˜las matrices de proyección correspondientes a las expresiones para los estimadores del Capítulo
donde y son
21. “Variables instrumentales y GMM”, a partir de la página 69, y es la función de contribución de verosimilitud yo
logarítmica.
Tenga en cuenta que las expresiones para los gradientes de regresión se ajustan en consecuencia en
presencia de términos de error ARMA.
Resumen de degradado
Para ver el resumen de los degradados, seleccione Ver/Gradientes y derivados/ Resumen de degradado
o Ver/Gradientes/Resumen. EViews mostrará una tabla de resumen que muestra la suma, la media y la
dirección de Newton asociada con los gradientes. Aquí hay una tabla de ejemplo de una ecuación de estimación
de mínimos cuadrados no lineales:
Hay varias cosas a tener en cuenta sobre esta tabla. La primera línea de la tabla indica que los gradientes se
han calculado en parámetros estimados. Si solicita una vista de gradiente para un
Machine Translated by Google
Gradientes: 1105
objeto de estimación que no se ha estimado con éxito, EViews calculará los gradientes en los valores de los parámetros
actuales y lo anotará en la tabla. Este comportamiento le permite diagnosticar problemas de estimación fallidos utilizando los
valores de gradiente.
En segundo lugar, notará que EViews le informa que los gradientes se calcularon utilizando derivados analíticos. EViews
también le informará si la especificación es lineal, si las derivadas se calcularon numéricamente o si EViews usó una
combinación de técnicas analíticas y numéricas. Le recordamos que todas las derivadas del coeficiente MA se calculan
numéricamente.
Por último, hay una tabla que muestra la suma y la media de los gradientes, así como una columna denominada
"Newton Dir.". La columna informa la dirección de Newton ajustada sin Marquardt utilizada en los procedimientos de
estimación iterativa de la primera derivada (consulte “Métodos de la primera derivada” en la página 1096).
En el ejemplo anterior, todos los valores están "cerca" de cero. Si bien uno podría esperar que estos valores estén siempre
cerca de cero cuando se evalúan en los parámetros estimados, hay una serie de razones por las que esto no siempre será
así. Primero, tenga en cuenta que los valores de la suma y la media tienen una gran variación de escala, por lo que los
cambios en la escala de las variables dependientes e independientes pueden conducir a cambios marcados en estos valores.
En segundo lugar, debe tener en cuenta que, si bien la dirección de Newton está relacionada con los términos utilizados en
los procedimientos de optimización, la prueba de convergencia de EViews no utiliza directamente la dirección de Newton. En
tercer lugar, algunas de las opciones de iteración para la estimación del sistema no iteran los coeficientes o las ponderaciones
por completo hasta la convergencia. Por último, debe tener en cuenta que los valores de estos gradientes son sensibles a la
precisión de cualquier diferenciación numérica.
Hay una serie de situaciones en las que es posible que desee examinar las contribuciones individuales al vector gradiente.
Por ejemplo, una fuente común de singularidad en la estimación no lineal es la presencia de gradientes muy pequeños
combinados con muy grandes en un conjunto dado de valores de coeficiente.
EViews le permite examinar sus gradientes de dos maneras: como una hoja de cálculo de valores o como gráficos de líneas,
con cada conjunto de gradientes de coeficiente representados en un gráfico separado. Con estas herramientas, puede
examinar sus datos en busca de observaciones con valores atípicos para los gradientes.
Serie de degradado
Puede guardar los valores de degradado individuales en serie mediante el procedimiento Crear grupo de degradado.
EViews creará un nuevo grupo que contiene series con nombres de la forma GRAD## donde ## es el siguiente nombre
disponible.
Tenga en cuenta que cuando almacene los gradientes, EViews llenará la serie para el rango completo del archivo de trabajo.
Si ve la serie, asegúrese de establecer la muestra del archivo de trabajo en la muestra utilizada en la estimación si desea
reproducir la tabla que se muestra en las vistas de gradiente.
Machine Translated by Google
Aplicación a Pruebas LM
Las series de gradientes son quizás más útiles para realizar pruebas del multiplicador de Lagrange para
modelos no lineales ejecutando lo que se conoce como regresiones artificiales (Davidson y MacKin non 1993,
Capítulo 6). Una regresión artificial genérica para la prueba de hipótesis toma la forma de una regresión:
ÿ ÿftÿ
u˜t enb˜ÿ Xt , ÿ
------------------------ ÿ ÿ ÿb y Zt (D.3)
donde son b
tu los residuos estimados bajo el modelo restringido (nulo), y son los coeficientes estimados. Son
DEerrores de especificación" que corresponden a desviaciones de la hipótesis
un conjunto de "indicadores de
nula.
Disponibilidad de gradiente
Las vistas de degradado están actualmente disponibles para los objetos de ecuación, logl, sspace y system.
Sin embargo, las vistas no están disponibles actualmente para ecuaciones estimadas por GMM o ecuaciones
ARMA especificadas por expresión.
Derivados
EViews emplea una variedad de reglas para calcular las derivadas utilizadas por los procedimientos de
estimación iterativos. Estas reglas y las configuraciones definidas por el usuario que controlan la obtención de
derivadas se describen en detalle en “Cálculo de derivadas” en la página 1093.
Además, EViews proporciona vistas de objetos y procedimientos de objetos que le permiten examinar los
efectos de esas elecciones y los resultados de la toma de derivadas. Estas vistas y procedimientos le brindan
un acceso rápido y fácil a los derivados de sus funciones especificadas por el usuario.
Cabe señalar que estas vistas y procedimientos no están disponibles para todas las técnicas de estimación.
Por ejemplo, las vistas derivadas actualmente no están disponibles para modelos binarios ya que solo se
permite un conjunto limitado de especificaciones.
Derivado Descripción
La vista Descripción de derivados proporciona un resumen rápido de los derivados utilizados en la estimación.
yt ÿ cÿ ÿ 1 1 – expÿ (D.4)
Machine Translated by Google
Derivados—1107
Después de la estimación de esta única ecuación, podemos mostrar la vista de descripción seleccionando Ver/
Gradientes y derivados.../Descripción de derivados.
C(1) -1 + exp(-c(2) * x)
C(2) -c(1) * x * exp(-c(2) * x)
Hay tres partes en la salida de esta vista. Primero, la línea etiquetada como "Especificación:" describe la
especificación de la ecuación que estamos estimando. Notará que hemos escrito la especificación en términos
del residuo implícito de nuestra especificación.
La siguiente línea describe el método utilizado para calcular las derivadas utilizadas en la estimación.
Aquí, EViews informa que las derivadas se calcularon analíticamente.
Por último, la parte inferior de la tabla muestra las expresiones de las derivadas de la función de regresión
con respecto a cada coeficiente. Tenga en cuenta que las derivadas están en términos del residuo implícito, por
lo que los signos de las expresiones se han ajustado en consecuencia.
En este ejemplo, todas las derivadas se calcularon analíticamente. En algunos casos, sin embargo, EViews no
sabrá cómo tomar derivadas analíticas de su expresión con respecto a uno o más de los coeficientes. En esta
situación, EViews utilizará expresiones analíticas cuando sea posible y numéricas cuando sea necesario, e
informará qué tipo de derivado se utilizó.
para cada coeficiente.
yt ÿ
ÿ cÿ ÿ 1 1 – expÿ – ÿcÿf ÿ 2 xt ÿ ÿ ÿ ÿ y
t
(D.5)
donde esFla función de densidad normal estándar. La vista derivada de esta ecuación es
Machine Translated by Google
Aquí, EViews informa que intentó usar derivadas analíticas, pero que se vio obligado a usar una
derivada numérica para C(2) (ya que aún no se le ha enseñado la derivada de la función @dnorm ).
Si configuramos la opción de estimación para que solo calculemos derivadas numéricas rápidas,
la vista cambiaría a
Si su especificación contiene términos autorregresivos, EViews solo calculará las derivadas con
respecto a la parte de regresión de la ecuación. Sin embargo, la presencia de los componentes AR
se indica en la vista de descripción.
Machine Translated by Google
Derivados—1109
C(1) -1
C(2) -X * exp(-c(2) * x)
Recuerde que las derivadas de la función objetivo con respecto a los componentes AR siempre se calculan
analíticamente utilizando las derivadas de la especificación de regresión y los retrasos de estos valores.
Una palabra de precaución sobre las expresiones derivadas. Para muchas especificaciones de ecuaciones,
las expresiones derivadas analíticas serán bastante largas. En algunos casos, las derivadas analíticas serán
más largas que el espacio asignado a ellas en el resultado de la tabla. Podrá identificar estos casos por el final
"..." en la expresión.
Para ver la expresión completa, deberá crear un objeto de tabla y luego cambiar el tamaño de la columna
correspondiente. Simplemente haga clic en el botón Congelar en la barra de herramientas para crear un objeto
de tabla y luego resalte la columna de interés. Haga clic en Ancho en la barra de herramientas de la tabla e
ingrese un número mayor.
Esta vista de hoja de cálculo muestra el valor de las derivadas de cada observación en el formato de
hoja de cálculo estándar. La vista de gráfico traza el valor de cada una de estas derivadas para cada
coeficiente.
Serie Derivada
Puede guardar los valores derivados en serie para su uso posterior. Simplemente seleccione Proc/
Make Derivative Group y EViews creará un objeto de grupo sin título que contiene la nueva serie.
La serie se llamará DERIV##, donde ## es un número asociado con el próximo nombre libre
disponible. Por ejemplo, si tiene los objetos DERIV01 y DERIV02, pero no DERIV03 en el archivo de
trabajo, EViews guardará el siguiente derivado en la serie DERIV03.
Referencias
Davidson, Russell y James G. MacKinnon (1993). Estimación e Inferencia en Econometría, Oxford:
Prensa de la Universidad de Oxford.
Machine Translated by Google
Como parte del resultado de la mayoría de los procedimientos de regresión, EViews informa varios criterios de
información. Los criterios de información se utilizan a menudo como guía en la selección de modelos (ver, por
ejemplo, Grasa 1989).
Definiciones
Los criterios básicos de información vienen dados por:
yo k
Sea el valor del logaritmo de la función de verosimilitud con los parámetros estimados mediante observaciones.
T
Los diversos criterios de información se basan todos en -2 veces la función de probabilidad logarítmica promedio,
ajustada por una función de penalización.
Para los modelos de análisis factorial, EViews sigue la convención (Akaike, 1987), volviendo a centrar los criterios
restando el valor del modelo saturado. La forma de análisis factorial resultante de los criterios de información viene
dada por:
Además de los criterios de información descritos anteriormente, existen criterios de información especializados
que EViews utiliza al calcular las pruebas de raíz unitaria:
t como:
donde el factor de modificación se calcula
2 ÿ 2
ta2 _ÿ
(E.1)
ÿj _y˜t – 1
t
para como se define en y˜t y ÿ y˜t
t al calcular la ecuación de prueba ADF (38.7), y para
(“Estimador de densidad espectral autorregresiva”, a partir de la página 599) al estimar el espectro de frecuencia cero
(ver Ng y Perron, 2001, para una discusión de los criterios de información modificados).
• Las definiciones utilizadas por EViews pueden diferir ligeramente de las utilizadas por algunos autores.
T
Por ejemplo, Grasa (1989, ecuación 3.21) no divide el AIC por . Otros autores omiten las constantes no
esenciales del logaritmo de verosimilitud gaussiana (generalmente, los términos que implican 2p
).
Si bien las primeras versiones de EViews informaron criterios de información que omitieron términos
constantes esenciales, la versión actual de EViews siempre usa el valor de la función de probabilidad total.
Todos sus objetos de ecuación estimados en versiones anteriores de EViews se actualizarán automáticamente
para reflejar este cambio. Sin embargo, debe tener este hecho en cuenta al comparar resultados de objetos de
tabla congelados o resultados impresos de versiones anteriores.
• Para los sistemas de ecuaciones, cuando corresponda, los criterios de información se calculan
utilizando la probabilidad de registro del sistema completo. El valor logarítmico de verosimilitud se calcula
suponiendo una distribución normal multivariante (gaussiana) como:
ÿ
TM T
yo
– ---------ÿ 1 2 ÿ registro p ÿ – ---log Qˆ (E.2)
2 2
dónde
Qˆ
ÿ
ÿT ÿ
ÿ
ÿ it eˆeˆÿ
ÿÿ (E.3)
METRO es el número de ecuaciones. Tenga en cuenta que estas expresiones solo son estrictamente válidas
cuando hay un número igual de observaciones para cada ecuación. Cuando su sistema está desequilibrado,
EViews reemplaza estas expresiones con la suma apropiada
ciones.
• Las formas de análisis factorial de las estadísticas a menudo se citan en forma no escalada, algunas veces
sin ajustar por el modelo saturado. La mayoría de las veces, si hay discrepancias, multiplicar los valores
informados de EViews por alineará los resultados. T
Machine Translated by Google
Referencias—1113
Como usuario de estos criterios de información como guía de selección de modelos, selecciona el modelo
con el criterio de información más pequeño.
Sin embargo, debe tener en cuenta que los criterios dependen de la unidad de medida de la variable
dependiente. Pory ejemplo, no puede usar criterios de información para seleccionar entre un modelo con
variable dependiente y uno cony log(). y
Referencias
Grasa, Antonio Aznar (1989). Selección del modelo econométrico: un nuevo enfoque, Dordrecht: Kluwer Aca
Editores démicos.
Akaike, H. (1987). “Análisis factorial y AIC”, Psychometika, 52(3), 317–332.
Lütkepohl, Helmut (1991). Introducción al análisis de series temporales múltiples, Nueva York: Springer-Verlag.
Ng, Serena y Pierre Perron (2001). “Selección de longitud de retardo y construcción de pruebas de raíces unitarias con
Buen tamaño y potencia”, Econometrica, 69(6), 1519-1554.
Machine Translated by Google
La matriz de covarianza (varianza) a largo plazo (LRCOV) ocupa un papel importante en el análisis
econométrico moderno. Esta matriz es, por ejemplo, fundamental para el cálculo de matrices de ponderación
GMM eficientes (Hansen 1982), errores estándar robustos heterocedásticos y de autocorrelación (HAC)
(Newey y West 1987), y se emplea en raíces unitarias (Phillips y Perron 1988) y análisis de cointegración
(Phillips y Hansen 1990, Hansen 1992b).
EViews ofrece herramientas para calcular el LRCOV simétrico y el LRCOV unilateral utilizando métodos de
núcleo no paramétrico (Newey-West 1987, Andrews 1991), VARHAC paramétrico (Den Haan y Levin 1997) y
núcleo preblanqueado (Andrews y Monahan 1992). Además, EViews es compatible con los métodos de
selección automática de ancho de banda de Andrews (1991) y Newey-West (1994) para estimadores de
kernel y métodos de selección de longitud de retardo basados en criterios de información para VARHAC y
estimación previa al blanqueamiento.
Discusión Técnica
Nuestra discusión y notación básica sigue el marco de Andrews (1991) y Hansen (1992a).
q Gÿ ÿj (F.1)
ÿÿ
j ÿ –ÿ
dónde
Gÿ ÿj EÿVtVt
ÿ j- _ÿÿ jÿ0
(F.2)
Gÿ ÿj ÿ Gÿ ÿÿ –j jÿ0
q
Estrechamente relacionado con hay dos medidas de la matriz LRCOV unilateral :
L1 ÿ ÿ Gÿ ÿj
jÿ1
ÿ
(F.3)
ÿ ÿ Gÿ
Gÿÿjÿ 0 ÿ L1
ÿ
L0
jÿ0
Machine Translated by Google
– Gÿ ÿ 0 .
ÿ
ÿ
ÿ
Q L0 L0
A pesar del importante papel que juega la matriz LRCOV unilateral en la literatura, nos centraremos
nuestra atención en q , ya que los resultados son generalmente aplicables a las tres medidas; excepción
se hará para temas específicos que requieren comentarios adicionales.
vˆ ÿ ÿ ÿ vˆ
En la literatura econométrica, los métodos para usar un estimador consistente y el Vˆ t Vt
correspondiente para formar una estimación consistente de
seQrefieren a menudo como heteroske
Estimadores de matrices de covarianza consistentes en dasticidad y autocorrelación (HAC).
1. El enfoque del núcleo no paramétrico (Andrews 1991, Newey-West 1987) forma esti
compañerosqde tomando una suma ponderada de las autocovarianzas de la muestra de los datos
observados.
A continuación, ofrecemos una breve descripción de cada uno de estos enfoques, prestando especial atención a los
problemas de elección del kernel, selección del ancho de banda y selección del retraso.
Núcleo no paramétrico
La clase de estimadores de matriz de covarianza HAC kernel en Andrews (1991) se puede escribir como:
ÿ
T
Qˆ
--------------- kj bT ÿ ÿ ÿ Sol ÿ ÿ ÿj (F.4)
ÿ ÿ TK– j ÿ
–ÿ
ˆ
donde las autocovarianzas muestrales estánÿdadas
ÿj por
GRAMO
T
1
---
Sol ÿ ÿj ÿ ÿ Vˆ ÿ
jÿ0
T t Vˆ tj –
(F.5)
t jÿÿ1
Gˆ ÿ ÿj Gˆ ÿ ÿ ÿÿ –j jÿ0
k es una función kernel (o ventana de retardo) simétrica que, entre otras condiciones, es continua en el origen
y satisface para todos con k ÿ ÿ 0k ÿxÿ1 ÿbTÿ ÿ1 0 x ,y es un ancho de banda
Machine Translated by Google
Discusión técnica—1117
La elección de una función kernel y un valor para el parámetro de ancho de banda caracteriza
completamente el estimador HAC kernel.
Hay una gran cantidad de funciones del kernel que satisfacen las condiciones requeridas. EViews
admite el uso de las siguientes formas de kernel:
uniforme truncado
ÿ
ÿ 1 si x ÿ 1.0
k xÿ ÿ ÿ
ÿ0 de lo contrario
Bartlett
ÿ
ÿ1–x si x ÿ 1.0
k xÿ ÿ ÿ
ÿ0 de lo contrario
bohman
ÿ
pecadoÿ ÿ px
ÿ
ÿ
ÿ cosÿ
ÿ 1 – ÿx px ÿ ÿ ------------------------ si x ÿ 1.0
k xÿ ÿ pags
de lo contrario
0ÿ
Daniell
k xÿ ÿ ÿ senÿ ÿ px ÿ ÿ ÿ px
Parzen
ÿ
2 1– 6x
ÿ1–x ÿ si 0.0 ÿ ÿ x 0.5
ÿ
ÿ 3
k xÿ ÿ ÿ si 0.5 ÿ x ÿ 1.0
2 1ÿ ÿ – x ÿ
de lo contrario
ÿ0
Parzen-Riesz
– _
ÿ 2 1x si x ÿ 1.0
ÿ
k xÿ ÿ ÿ
ÿ0 de lo contrario
Parzen-Geométrica
ÿ ÿ11ÿÿÿÿx si x ÿ 1.0
k xÿ ÿ ÿ
ÿ0 de lo contrario
Parzen-Cauchy
ÿ
ÿ
2 ÿ1 ÿ
1x ÿÿ si x ÿ 1.0
k xÿ ÿ ÿ
ÿ0 de lo contrario
espectral cuadrático 25
ÿ
----------------- ÿ pecadoÿ ÿ 6px ÿ 5
k xÿ ÿ 2 ÿ ------------------------------- – cosÿ
5 ÿ ÿÿ6px
6pxÿÿ5
12p2 x
Machine Translated by Google
Tukey Hamming
ÿ
ÿ 0,54
cosÿ0,46
ÿ px ÿ ÿ si x ÿ 1.0
k xÿ ÿ
ÿ0 de lo contrario
Tukey-Hanning
ÿ 0.50 0.50 ÿ cosÿ ÿ px si x ÿ 1.0
ÿ
k xÿ ÿ ÿ
ÿ0 de lo contrario
Tukey-Parzen
ÿ 0.436 0.564 ÿ cosÿ ÿ px si x ÿ 1.0
ÿ
k xÿ ÿ ÿ
ÿ0 de lo contrario
Tenga en cuenta
k xÿ ÿque
ÿ 0para ×ÿ1 para todos los núcleos con la excepción del Daniell y el
Quadratic Spectral. El kernel de Daniell se presenta en forma truncada en Neave (1972), pero EViews usa la
forma no truncada más común. El kernel de Bartlett a veces se denomina kernel de Fejer (Neave 1972).
Se ha empleado una amplia gama de kernels en la estimación de HAC. Hansen (1982) y White (1984) utilizan
el uniforme truncado, Newey y West (1987) utilizan el kernel de Bartlett y Gallant (1987) utiliza el Parzen.
Andrews (1991) introdujo Tukey-Hanning y Quadratic Spec tral en la literatura econométrica, quien muestra
que este último es óptimo en el sentido de minimizar el MSE asintótico truncado del estimador (dentro de una
clase particular de núcleos). Los núcleos restantes se analizan en Parzen (1958, 1961, 1967).
Banda ancha
el ancho de banda bT opera en conjunto con la función kernel para determinar los pesos de las diversas
autocovarianzas de muestra en la Ecuación (F.4). Mientras que algunos autores restringen los valores de ancho
de banda a números enteros, seguimos a Andrews (1991) quien argumenta a favor de permitir anchos de banda
de valor real.
Para construir un estimador kernel no paramétrico operativo, debemos elegir un valor para bT
banda ancha . Bajo condiciones generales (Andrews 1991), la consistencia de la estimación kernel bT tor
se elige
requiere quepara que
Kiefer y Vogelsang bT ÿ yT propongan
bT ÿ ÿ (2002) ÿ 0 T ÿ ÿ establecer
como
.
en un contexto
Alternativamente, bT ÿ T de prueba.
m piso bT ( ) autocovarianzas con peso distinto de cero. Alternativamente, para las funciones del núcleo
Machine Translated by Google
Discusión técnica—1119
La relación variable entre el ancho de banda y el parámetro de truncamiento de retraso implica que se debe examinar la función del kernel
al elegir los valores de ancho de banda para que coincidan con los cálculos que se cotizan en forma de truncamiento de retraso. Por
ejemplo, para hacer coincidir el estimador kernel de Bartlett de Newey-West (1987), que usa retrasos de autocovarianza ponderados, se
metro
requiere establecer bT ÿ m ÿ 1
. En cambio, los estimadores de Hansen (1982) o White (1984), que suman las
Las primeras
metro autocovarianzas no ponderadas deben implementarse utilizando el kernel truncado con bT ÿ
m .
Los resultados teóricos sobre la relación entre los anchos de banda y el MSE asintótico truncado del
estimador kernel proporcionan una discriminación más fina en las tasas a las que deberían aumentar los
anchos de banda. Los anchos de banda óptimos se pueden escribir en la forma:
12ÿÿqÿ1
ÿ bT gT (F.6)
cal tasa óptima, pero Andrews (1991) reporta simulaciones de Monte Carlo que sugieren que 1 5ÿ T funciona bien. Los núcleos
restantes compatibles con EViews tienen ÿ q ÿ 2
ÿ por lo que sus
1 5ÿ
T a un condiciones
anchos de banda óptimos crecen ritmo (aunque
para
señalamos
los teoremas
que eldekernel
anchodedeDaniell
bandanoóptimo).
satisface las
Si bien es teóricamente útil, el conocimiento de la tasa a la que los anchos de banda deberían aumentar
como T ÿ ÿno nos dice el ancho de banda óptimo para un tamaño de muestra dado, ya que la constante
gramo
permanece sin especificar.
Andrews (1991) y Newey y West (1994) ofrecen dos enfoques para estimar . Podemos denominar a estas gramo
técnicas métodos de selección automática de ancho de banda, ya que implican estimar el ancho de banda
óptimo a partir de los datos, en lugar de especificar un valor a priori. Los estimadores de Andrews y Newey-
West para pueden escribirse como: gramo
12ÿÿÿqÿ1
gˆ ÿ ÿ q ck aˆ ÿ ÿ q (F.7)
Cabe señalar que los estimadores de Andrews y Newey-West requieren una estimación de aÿ ÿ q
q
eso requiere formar estimaciones preliminares de y la suavidad q ofrecen
de . Andrews y Newey-West
métodos alternativos para formar estas estimaciones.
Vˆ en un estimador para aÿ ÿ q
coeficientes estimados .
t
ÿ pags
2ÿ ÿ pags
ÿÿ 2ÿ
ÿ ÿÿ
aˆ ÿ ÿ q ÿ
s
ˆf ÿ q ÿ ws
ÿÿ ÿ
ˆf ÿ 0 ÿ ws
s (F.9)
ÿÿ ÿ ÿÿ ÿÿ
s=1 s=1
ÿÿq
donde ˆf s son estimadores paramétricos de la suavidad de la densidad espectral para el -ésimo s
q
variable (parzen's (1957) -th derivadas espectrales generalizadas) en la frecuencia cero. Las estimaciones de
ÿÿq
tores
s para están dadas por:
ÿ
1 q G˜
ÿÿq ------
pm s ÿ ÿ 2p j ÿ s ÿ ÿj (F.10)
j ÿ –ÿ
rˆ s estándar
Sustituyendo los coeficientes estimados AR(1) univariados y los errores s en el
s
G˜ expresiones teóricas para s ÿ ÿj , tenemos:
Machine Translated by Google
Discusión técnica—1121
4 2 4
ÿ ÿ ÿ
pags pags
4sˆ s rˆ s sˆ
s
ÿ
ÿ
-------------------------------------------- ÿ ÿ ---------------------
aˆ ÿ ÿ 1 ÿ
ws
ÿ
ws
ÿÿ ÿ1 r- rˆ ÿ s ÿ2ÿ ÿÿ ÿ 1 rˆ - s ÿ ÿ4ÿ
s=1 s ÿ6 1 ÿ s=1
(F.11)
4 2 4
4sˆ s rˆ s ÿ
pags pags
ÿ ÿ ss ÿ
ÿ
ÿ --------------------- ÿ ÿ ÿ ---------------------
aˆ ÿ ÿ 2 ws ws
ÿÿ ÿ 1 rˆ - s ÿ8 ÿ
ÿÿ ÿ 1 rˆ - s ÿ ÿ4ÿ
s=1 s=1
que puede insertarse en la Ecuación (F.8) para obtener expresiones para los anchos de banda óptimos.
Por último, notamos que las expresiones para ÿ ÿ q aˆ ÿ ÿ q dependen del vector de ponderación que en
se convierte en
erns cómo combinamos el individuo fs una sola medida de suavidad relativa. para todos o s ws ÿ 1
Andrews sugiere utilizar ws ÿ 1 para responder al para todos menos el instrumento cor
Primero, Newey y West definen, para varios rezagos, los estimadores de autocovarianza escalar :
T
1
jˆj
ÿ
---
T
ÿ wÿVˆ tVˆ tj –
ÿw ÿ
wÿGˆ ÿ ÿjw (F.12)
t jÿÿ1
Puedejˆjverse como la autocovarianza de la muestra de una combinación lineal ponderada de los datos mediante
en ponderada de la autocovarianza de la muestra.
ponderaciones, o como una combinación
ances
ÿÿ 1 q
------
q ˆf ÿ ÿ 2p j jj_ _ (F.13)
j nÿ–
ÿ ÿ q ÿ ÿ 0 ÿ ˆf
2
aˆ ÿ ÿ q
ÿ
ÿ pm
ÿ (F.14)
para q ÿ 1 2, . Esta expresión se puede insertar en la Ecuación (F.8) para obtener la expresión del estimador
de ancho de banda óptimo del complemento.
Machine Translated by Google
Al comparar la Ecuación del estimador de Andrews (F.11) con la Ecuación del estimador de
Newey-West (F.14) , vemos dos métodos muy diferentes para destilar los resultados de la p-dimensión
siones de los datos originales en una medida escalar. aÿ
Andrews
ÿq calcula estimaciones paramétricas
de las derivadas generalizadas para los elementos individuales, luego agrega la p
estimaciones en una sola medida. Por el contrario, Newey y West agregan temprano, formando
combinaciones lineales de las matrices de autocovarianza, luego usan los resultados escalares para
calcular estimadores no paramétricos de las medidas de suavidad de Parzen.
Para implementar el método de selección de ancho de banda óptimo de Newey-West, necesitamos un valor
norte , para el parámetro de selección de retraso, que determina cuántas autocovarianzas usar para formar ÿ ÿ
q las estimaciones no paramétricas de f
. Newey y West muestran que debería aumentar a (menos de) norte
una tasa que depende de las propiedades del kernel. Para los núcleos geométricos de Bartlett y Parzen,
2 9ÿ 2 25 ÿ
la tasa es . Para el núcleo espectral
T cuadrático, la tasa
excepción es núcleos
de los Para los truncado
núcleos restantes, la tasa
y de Daniell, paraes que.la
Tlos(con
4 25 ÿ
no se aplican los teoremas de Newey-West).
T
VARHAC paramétrico
Den Haan y Levin (1997) abogan por el uso de métodos paramétricos, especialmente VAR, para
la estimación de LRCOV. El estimador de densidad espectral VAR, al que denominan VARHAC,
consiste en estimar un modelo VAR paramétrico para filtrar
Vˆt deellos
, calcular
datos filtrados
la covarianza
y luegocontemporánea
usar las
estimaciones del modelo VAR para obtener las autocovarianzas implícitas y la matriz LRCOV
correspondiente de los datos filtrados. datos originales.
y
T
1
sol ÿÿ ÿ 0
ÿ -------------
Tq- _
ÿ Vt ÿVt
ÿÿ
(F 16)
t qÿÿ1
Tq- _ ÿ
Qˆ ÿ
------------------------ Dˆ Gˆ ÿ ÿ 0 Dˆ (F.17)
Tq––K
Machine Translated by Google
Discusión técnica—1123
dónde
q –1
ÿ ÿ
D ÿ
ÿ Aj (F.18)
IP – ÿ ÿ
ÿÿ
jÿ1
La implementación de VARHAC requiere una especificación para q , la orden del VAR. Den Haan y T1
3ÿ
Levin utiliza criterios de selección de modelos (AIC o BIC-Schwarz) utilizando un retraso máximo para a
determinar el orden de retraso y proporciona simulaciones del rendimiento del estimador utilizando el orden de
retraso dependiente de los datos.
ÿ
(F.19)
Tq- _
------------------------ Tq- _
L 0 ÿ
Aˆ 1 ÿj Gˆ ÿ ÿ 0 ÿ
ÿ Ip Aˆ – 1 ÿ–1 Gˆ ÿ ÿ 0
ÿÿ -----------------------
Tq – – Kj ÿ 0 Tq––K
Uno podría, como en Park y Ogaki (1991) y Hansen (1992b), usar la matriz de covarianza de la muestra ÿ 1 ÿ T Vˆ
Gˆ ÿ ÿ 0 tVˆ t ÿ ÿ ÿ ÿ para que las estimaciones de L1 y L0 emplean una combinación
de estimaciones de autocovarianza paramétricas y no paramétricas. Alternativamente, de acuerdo con el espíritu G˜ ÿ
Núcleo preblanqueado
Andrews y Monahan (1992) proponen una modificación simple del estimador kernel que realiza un paso de
blanqueamiento previo VAR paramétrico para reducir la autocorrelación en los datos seguido de la estimación
kernel realizada en los datos blanqueados. La estimación LRVAR preblanqueada resultante se vuelve a
colorear para deshacer los efectos de la transformación. Los Andrews y Mona
El enfoque de han es un híbrido que combina las técnicas de núcleo no paramétrico y VARHAC paramétrico.
Existe evidencia (Andrews y Monahan 1992, Newey-West 1994) de que este enfoque de preblanqueamiento
tiene propiedades deseables, reduce el sesgo, mejora las probabilidades de cobertura del intervalo de
confianza y mejora los tamaños de las estadísticas de prueba construidas utilizando la estimación kernel HAC
tores
Machine Translated by Google
jÿ1
A continuación, obtenemos una estimación del LRCOV de los datos blanqueados aplicando un estimador kernel tor
a los residuos:
ÿ
ÿ ˆÿ
Qˆ ÿ ÿj (F.21)
ÿÿ
kj bT ÿ ÿ ÿ ÿ
GRAMO
j ÿ –ÿ
Tq–t
ÿ Vˆ ÿVˆ ÿ ÿ
t tj- _
jÿ0
(F.22)
jq ÿ ÿ ÿ 1
ÿ
Sol ÿÿ ÿj Gˆ ÿ ÿ ÿÿ –j jÿ0
Por último, cambiamos el color del estimador para obtener el estimador LRCOV del núcleo preblanqueado VAR:
Tq- _
Qˆ ÿ ----------------------- Dˆ Qˆ ÿDˆ (F.23)
Tq––K
El procedimiento de núcleo preblanqueado difiere de VARHAC solo en el cálculo del LRCOV de los residuos.
El estimador VARHAC en la Ecuación (F.17) asume que los residuos son ruido blanco, de modo que el LRCOV
puede estimarse
ÿ usando
Ecuación lospermite
(F.21) contemporáneos, mientras que
la heteroscedasticidad el estimador
residual kernel de preblanqueamiento
y la dependencia enuso
serial a través de su la . del
Vermont
matriz de varianza sol ÿÿ ÿ 0 , estimador HAC Qˆ . En consecuencia, puede ser útil ver el procedimiento VARHAC
para x ÿ 0 .
El paso de cambio de color para los estimadores de kernel preblanqueados unilaterales se complica cuando Lˆ
ÿ
permite
configuración de VARHAC, las expresiones la estimación
para los LRCOV
especificación de unilaterales
HAC se
VAR(1) (Park yson
puede Ogaki, 1991).
bastante
usar para Al igual
complejas,
brindar que enlala
pero
información.
1
Suponga que los estimadores VARHAC de las matrices LRCOV unilaterales L1 definidas en la Ecuación (F.19)
vienen dados por y L0 es el estimador kernel unilateral estricto calculado utilizando los datos preblanqueados:
, y let Lˆ ÿ
1
Machine Translated by Google
ÿ ÿ
L 1 kjbT ÿ ÿ ÿ
ÿ
Vamos
ÿ ÿj (F.24)
ÿÿ
jÿ1
Luego, los estimadores LRCOV unilaterales del núcleo preblanqueado están dados por:
1 L1 Tq- _ ÿ
L ÿ
ÿ ------------------------ Dˆ Lˆ 1 D
Tq––K
(F.25)
0 L0 Tq- _ ÿ
L ÿ
ÿ ------------------------ Dˆ Lˆ 1 D
Tq––K
q ck rB rn
uniforme truncado ---
0 0.6611 1 5ÿ
Bartlett
1 1.1447 1 3ÿ 2 9ÿ
bohman
2 2.4201 1 5ÿ 4 25 ÿ
Daniell ---
2 0.4462 1 5ÿ
Parzen
2 2.6614 1 5ÿ 4 25 ÿ
Parzen-Riesz
2 1.1340 1 5ÿ 4 25 ÿ
Parzen-Geométrica
1 1.0000 1 3ÿ 2 9ÿ
Parzen-Cauchy 2 1.0924 1 5ÿ 4 25 ÿ
Tukey-Hanning 2 1.7462 1 5ÿ 4 25 ÿ
Tukey-Parzen 2 1.8576 1 5ÿ 4 25 ÿ
Notas: ÿ es la tasa óptima de aumento para el ancho de banda del núcleo LRCOV. es
rB ÿ 1 2 ÿ ÿ q ÿ 1
la tasa óptima de aumento para el parámetro de selección de retraso en Newey-West (1987) rn
Procedimiento automático de selección de ancho de banda. El kernel uniforme truncado no tiene valores
proscritos teóricamente para y rB ck , pero Andrews (1991) reporta simulaciones de Monte Carlo
ciones que sugieren que estos valores funcionan bien. El valor del kernel de Daniell para rB no es
se sigue de la teoría ya que el kernel no satisface las condiciones del ancho de banda óptimo
teoremas
Machine Translated by Google
Referencias
Andrews, Donald W. K y J. Christopher Monahan (1992). “Un estimador de matriz de covarianza consistente de
heterocedasticidad y autocorrelación mejorado”, Econometrica, 60, 953-966.
Andrews, Donald WK (1991). “Matriz de Covarianza Consistente de Heteroscedaticidad y Autocorrelación Esti
mación”, Econometrica, 59, 817-858.
den Haan, Wouter J. y Andrew Levin (1997). “Guía del profesional para la estimación robusta de la matriz de covarianza”,
Capítulo 12 en Maddala, GS y CR Rao (eds.), Handbook of Statistics vol. 15, Robust Inference, North-Holland:
Amsterdam, 291-341.
Gallant, A. Ronald (1987). Modelos estadísticos no lineales. Nueva York: John Wiley & Sons.
Hamilton, James D. (1994). Análisis de series temporales, Princeton University Press.
Hansen, Bruce E. (1992a). “Estimación de matriz de covarianza consistente para dependiente heterogéneo Pro
procesos”, Econometrica, 60, 967-972.
Hansen, Bruce E. (1992b). “Pruebas de inestabilidad de parámetros en regresiones con procesos I(1)”, Journal of
Estadísticas Económicas y Empresariales, 10, 321-335.
Hansen, Lars Peter (1982). "Propiedades de muestras grandes del método generalizado de estimadores de momentos"
Econométrica, 50, 1029-1054.
Kiefer, Nicholas M. y Timothy J. Vogelsang (2002). “Heteroscedasticidad-Autocorrelación Robusta Stan
Dard Errors usando el kernel de Bartlett sin truncamiento”, Econometrica, 70, 2093-2095.
Neave, Henry R. (1972). “Una comparación de generadores de ventanas de retardo”, Journal of the American Statistical
Asociación, 67, 152-158.
Newey, Whitney K. y Kenneth D. West (1987). “Una matriz de covarianza consistente simple, positiva, semidefinida,
heterocedasticidad y autocorrelación”, Econometrica, 55, 703-708.
Newey, Whitney K. y Kenneth D. West (1994). “Selección automática de longitud de retraso en la matriz de covarianza
Estimación”, Review of Economic Studies, 61, 631-653.
Park, Joon Y. y Masao Ogaki (1991). “Inferencias en modelos cointegrados que utilizan el preblanqueo VAR para estimar la
dinámica de corto plazo”, documento de trabajo n.° 281 del Centro de Investigación Económica de Rochester.
Parzen, Emanual (1957). “Estimaciones consistentes del espectro de una serie temporal estacionaria”, The Annals of
Mathematical Statistics, 28, 329-348.
Parzen, Emanuel (1958). “Sobre estimaciones consistentes asintóticamente eficientes de la función de densidad espectral de
una serie temporal estacionaria”, Journal of the Royal Statistical Society, B, 20, 303-322.
Parzen, Emanual (1967). “Sobre el análisis empírico de series temporales múltiples”, en Lucien M. Le Cam y Jerzy
Neyman (eds.), Actas del Quinto Simposio de Berkely sobre Estadística Matemática y Probabilidad, 1, 305-340.
Blanco, Halbert (1984). Teoría asintótica para econometristas. Orlando: Prensa Académica.
Machine Translated by Google
Índice
(Clave: I = Guía del usuario I; II = Guía del usuario II) diagnóstico UI:92 instrumentos
débiles UI:94
@ contar interfaz de usuario: 199
@mapa UI:228
Añadir factor UI:781, UI:794
@neqna UI:188
Añadir texto al gráfico UI:753
@obsid interfaz de usuario: 900
Adición de datos IU: 291
@obsnum
Complementos I:819
panel observación numeración UI:901 @ranks UI:186 alimentador automático de documentos
nombre del archivo de copia de seguridad UI:76, UI:867 AIC UII: 1111
Véase también criterio de Akaike.
numericos Criterio Akaike UI:15, UII:1111 para ecuación UI:15
1128—Índice
estimación de covarianza a largo plazo UI:603 regresión Interfaz de usuario de ARIMA : 104
de cointegración de panel UI:979 sistema GMM UI:681 Modelos ARIMA UI: 104
pronóstico automático UI:491
Interfaz de usuario de la función Andrews : 422 selección automática UI:491
Prueba de Andrews UI:342, UI:388 selección automática usando X-13 UI:447, UI:450
Prueba de punto de interrupción Andrews-Quandt UI: 208 Enfoque de Box-Jenkins UI: 106
Interfaz de usuario de ANOVA : 408 correlograma UI: 129 verificación
por rangos UI:410
de diagnóstico UI: 127 operador
de diferencia UI: 115 espectro de
Anexando datos UI:291
frecuencia UI: 131 identificación
Raíces AR
UI: 106 respuesta de impulso UI:
invertidas UI: 126
130 raíces UI: 128 especificación
Raíces AR (VAR) UI: 702
UI: 112 valores iniciales UI: 118,
Pronóstico de
UI :124 estructura UI:128
especificación AR UI:
162 en 2SLS UI: 73
en modelos ARIMA UI:100, UI:112 en
IU X-13 : 446
2SLS no lineal UI:77 en mínimos
Interfaz de usuario de ARIMAX : 111
cuadrados no lineales UI:58 en pool
Términos ARMA
UI:866 en sistemas UI:650
en modelos UI:821
estacional UI:102
AR(1)
probando UI: 195
coeficiente UI:100
usando modelos de espacios de estado para UI: 764
Durbin-Watson estadística UI:107 estimación
Interfaz de usuario de ARMAX : 764
UI:112
Expresiones de matriz 1:879
AR(p) UI:101
flechas
estimación UI:113
ARCO UI:243 agregar a un gráfico UI: 755
B-1129
estimación de covarianza a largo plazo UI:603 regresión Prueba de punto de interrupción de Bai Perron
de cointegración de panel UI:979 errores estándar robustos UI:210 computación en EViews UI:213 ejemplos
UI:45 UI:215
detalles técnicos UII:1119 Estimación del punto de corte
Pronóstico automático secuencial de Bai con UI:442
Selección automática de variables UI:60 Prueba Baltagi, Fend y Kao UI:958, UI:1018
Modelos autorregresivos de rezagos distribuidos Ver Filtro de paso de banda UI: 534
ARDL. Banda ancha
regresión UI:330 con base de datos UI:329 gráfico kernel UI: 689, UI: 704
regresión local UI: 706 estimación
de covarianza a largo plazo UI: 603
Gráfico de actualización automática UI: 748 Newey-West (automático) UI: 682, UII: 1121
Newey-West (fijo) UI: 681 regresión de
Actualización automática de la serie UI:203
y las bases de datos UI:207 que se cointegración de panel UI: 979 errores estándar robustos
UI: 45
convierten a la serie normal UI:206
selección en sistema GMM UI:655, UI:681
Gráficos auxiliares UI:700
Gráfico de barras UI: 666
Regresión auxiliar UI:195, UI:198
Interfaz de usuario del núcleo de Bartlett : 681
Probabilidad de registro promedio UI: 336
regresión de cointegración UI:279
Histograma desplazado promedio UI: 686
Machine Translated by Google
1130—Índice
cointegración de panel UI:979 errores estándar robustos UI:45 regresión de cointegración UI:279
Interfaz de usuario de estimación de GMM : 90
Prueba de BDS UI: 420, UI: 636 Interfaz de usuario de arranque : 435
tabla de predicción de expectativas UI:340 índice ajustado Véase también Estimación del punto de ruptura
UI:345 pronóstico UI:345 bondad de ajuste UI:342 Bai y Perron IU: 210
Frecuencias de variables
dependientes de estimación binaria UI:339 predictor perfecto Interfaz de usuario Breitung : 622
C-1131
Estadísticas por grupo UI:401, UI:906, UI:914 especificando el punto de censura UI:359 vistas UI:362
C Censo X-11
1132—Índice
comandos de UI:8
UI: 36
Comentarios UI:116
número máximo por defecto UI: 354 estimaciones
spool UI: 802
recursivas UI: 229 regresión UI: 11 restricciones
tablas UI: 792
UI: 8 escalado UI: 176 estableciendo valores
Interfaz de usuario de muestra común : 187
iniciales UI: 57, UII: 1091 error estándar UI: 12
Comunidades UI:1048
estandarizado UI: 176 pruebas UI: 176 , UI:182
Comparación de archivos de trabajo y páginas UI:92
descomposición de la varianza UI:180 vectores
de UI:20 Operadores de comparación UI:182 con
valores faltantes UI:188
Componente GARCH UI:259
Gráficos de componentes UI:591
Independencia condicional UI:584
Restricciones de coeficiente UI:580 Desviación estándar condicional
D-1133
1134—Índice
ingresar desde el teclado UI: 146, 1: 879 exportar almacenar objetos UI:322 probar
UI: 161, UI: 163 integridad UI:345 usando series
Datos económicos de la Reserva Federal UI:369 de actualización automática con UI:207 ventana UI:319
FRED IU: 369
crear UI:551
personalizar UI:563
personalizar UI:551 formato
estructura IU: 263
de datos UI:555 ejemplo UI:564
Base de datos
fuentes UI:559
alias UI:332
D-1135
Prueba de Dickey-Fuller UI:594 Véase dependiente binaria UI:331 como punto de censura en la
también Pruebas de raíces unitarias. estimación UI:360 creación automática UI:28 generación de
dummies de series de pools UI :857 pools UI:857 usando
Prueba Diebold-Mariano UI:422
@GROUP para crear dummies de pools
Diferencia de la interfaz de usuario promedio móvil: 490
Operador de diferencia UI:184, UI:115
estacional UI:185, UI:115
interfaz de usuario: 857
diferenciando
Dunn-Sidak UI: 575
Machine Translated by Google
1136—Índice
Modelos de conmutación dinámica UI: 511 ficticias automáticas en UI:28 matriz de covarianza de
coeficiente UI:17 escalar de covarianza de coeficiente
Interfaz de usuario de regresión de conmutación dinámica : 510
UI:16 vector de valores p de coeficiente UI:17 vector de
especificación UI:6
UI:597
especificación por lista UI:6 especificar
Véase también Pruebas de raíz unitaria.
por fórmula UI:7 especificar con
Carretes integrados UI: 800 coeficientes no predeterminados UI:9 especificar con
Gráfico CDF empírico restricciones UI:8 especificar sin variable dependiente
UI:692 UI:8 especificar una constante UI:6 almacenar UI:20
Pruebas empíricas de distribución UI:413 representación de texto UI:18 t-statistic UI:12 tiempo de
actualización UI:17 resultados de vectores y matrices UI:17
Gráfico cuantil empírico UI:694
E-1137
variable dependiente binaria UI:333 modelos censurados Interfaz de usuario Eurostat SDMX : 363
UI:358
Evaluación de pronósticos UI:420
colinealidad UI:22 Orden de evaluación UI: 180
convergencia UII:1103 IU de registro : 569
problemas de convergencia UII:1091, UII:1092 Vistas electrónicas
UI:374, UI:379
falla al mejorar UII:1091 para pool UI:864
Interfaz de usuario del foro EViews : 15
Sobresalir
probabilidad de registro UI:
Complemento UI:
572 logl UI: 572 datos
faltantes UI: 10 164 leyendo datos de EViews en UI: 164, 1: 823
archivo Excel
multiecuación UI : 646
problemas de matriz casi singular UII: 1093 importar datos en la matriz UI:161 importar
mínimos cuadrados no lineales UI: 51 opciones datos en la tabla UI:161, UI:796 importar datos en
UII: 1089 modelos ordenados UI: 351 salida UI: 11 el archivo de trabajo UI:150 vincular datos desde
panel UI: 917 residuos de la ecuación UI:20 UI:55 abrir como archivo de trabajo UI:48 abrir como
regresión robusta UI:429 muestra UI:9 ajuste de archivo de trabajo demo UI:17 guardar como UI:161
muestra UI:10 métodos de ecuación simple UI:9
valores iniciales UII:1091 espacio de estado
UI:759, UI:770 sistemas UI:646, UI:654 modelos Variable exógena UI:69 en
truncados interfaz de usuario: 367 modelos UI:781 incertidumbre
UI:815, UI:826
Modelos binarios de tabla de predicción-
1138—Índice
interfaz de usuario doble : 508 Interfaz de usuario del conjunto de datos: 368
de ajuste UI:1055, UI:1079 puntuaciones UI: 872 sesión abierta al hacer doble clic UI: 858 abrir/guardar
F-1139
IU de PDL : 173
aplanar
interfaz de usuario suavizada : 759
carretes UI: 807
error estándar interfaz de usuario: 156, interfaz de usuario: 170
FMOLS Véase OLS totalmente modificado (FMOLS)
espacio de estado interfaz de usuario: 758 interfaz de usuario
fuentes
estática : 161 interfaz de usuario estructural : 162 regresión de
valores
conmutación interfaz de usuario: 524 interfaz de usuario del
predeterminados
sistema : 662 modelos truncados interfaz de usuario: 369
UI:859 tablas UI:791 texto en gráfico UI:753, UI:778
Pronóstico
UI de especificación AR : 162
VAR/VEC UI:712, UI:728 varianza
IU ARIMA : 491
UI:155
ARIMA usando X-13 UI:451 automático con errores AR UI: 163
con modelos ARIMA UI:491
Importación de datos
automático con suavizado ETS UI:521, UI:523 serie automática
externos en la interfaz de usuario del archivo de trabajo: 150
UI:168
abrir como interfaz de usuario del archivo de trabajo: 17
promediando UI:500
Formato
backcasting UI:163 modelos
tablas IU: 790
binarios UI:345 por suavizado
Previsión
exponencial UI:512 modelos censurados UI:363
de fórmula UI:167
ecuaciones con fórmula UI:167 error Interfaz de usuario del marco : 645
1140—Índice
ejemplos UI:251
exponencial GARCH (EGARCH) UI:257 Media móvil geométrica UI:197
Interfaz de usuario de datos de GiveWin : 374
GARCH(1,1) modelo UI:243
GARCH(p,q) modelo UI:245 Prueba de heteroscedasticidad de Glejser UI:198
inicialización UI:249 GLM
GARCH integrado (IGARCH) UI:256 ecuación Consulte Modelos lineales generalizados.
media UI:247 multivariado UI:586 ARCH de Estimación de punto de
potencia (PARCH) UI:258 procedimientos UI:254 ruptura global con UI:442
errores estándar robustos UI:250 pruebas IU: 210
G-1141
1142—Índice
líneas de dibujo y áreas sombreadas UI: 754 CDF empírico UI: gráficos de observación UI: 665
692 sobreviviente de registro empírico UI: 693 cuantil empírico observaciones para etiquetar UI:
UI: 694 sobreviviente empírico UI: 693 barra de error UI: 672 653 orientación UI: 620 regresión
áreas de relleno UI: 663 ortogonal UI: 708 datos por pares
UI: 632 datos de panel UI: 993
opciones de datos de panel UI:
623 pastel UI: 679 colocar texto
primero frente a todos IU:633 en UI: 753 posición UI: 647 ,
líneas de ajuste IU:636 fuente UI:780 imprimir en color UI:782
IU:753 opciones de fuente imprimir UI:782 cuantil-cuantil
IU:778 marco IU:645 borde del UI:695, UI:696, UI:697 datos sin
marco IU:646 color del marco procesar UI:619
IU:645
frecuencia interfaz de de trazado de corte de muestra UI: 767 guardar UI: 783
borde polígono interfaz de usuario:685 histograma puntajes UI:1053 estacional UI:679 serie
kernel UI:687 regresión del kernel UI:703 leyenda vista de serie UI:398
UI:659 fuente de leyenda UI:661 opciones de configuración para gráficos múltiples UI:779 opciones de
UI:661 línea formatos de interfaz de usuario: 661 barra deslizante (pegar con) 1: 830 clasificación
gráfico de líneas UI:665 de texto UI: 753 opciones de texto UI: 778 teórico
H-1143
a UI:135 serie automática UI:197 Interfaz de usuario de dos pasos de Heckman : 371
UI: 199 vista de hoja de cálculo UI: 544 valores Prueba de White UI: 199
regresión de cointegración UI:279 685 gráfico UI: 681 prueba de normalidad UI:
Estimación de GMM UI: 90 194 gráfico de polígono UI: 684 guardar datos
regresión de cointegración de panel UI: 979 UI: 538 ancho variable UI: 678
errores estándar robustos UI: 32, UI: 45
sistema GMM UI: 681
Asistencia de interfaz de usuario : 623
UI:15 Interfaz de
Prueba de heteroscedasticidad de Harvey UI:198 campo 8 en la interfaz de usuario de consulta de la base de datos : 339
1144—Índice
prueba de signo binomial UI: 406 Datos de IHS Global Insight UI:375, UI:376
Brown-Forsythe UI: 412 prueba Datos de IHS Magellan UI: 376
de chi-cuadrado UI: 410 Im, Pesaran y Shin UI:624
Chow breakpoint UI:206 coeficiente Importar datos UI:146
basado UI:176
agregar al final UI:157
coeficiente p-valor UI:12 como matriz UI:161 como
IU CLIENTE : 226
tabla UI:161, UI:796 lectura
CUSUM de cuadrados UI:227 con fecha UI:152
demostración UI:30 pruebas
para objetos de grupo UI:850 de
estadísticas descriptivas UI:404 distribución ASCII UI:150
UI:413
de la IU de la hoja de cálculo : 150
Interfaz de usuario de prueba F : 412
de la IU del archivo de trabajo : 150
Prueba de Hausman UI:235
IU de lectura coincidente : 155
heterocedasticidad UI:197 variable conflictos de nombre IU: 161
irrelevante o redundante UI:190
opciones UI:159
Prueba Kruskal-Wallis UI:410
Véase también Datos
Prueba de Levene UI: 412
extranjeros. lectura secuencial
IU media : 404
UI:157 usando un objeto de grupo UI:854
mediana UI:406
Respuesta de impulso UI:707 Ver
igualdad de múltiples muestras UI:407 no
también VAR.
anidado UI:237 normalidad UI:194 variables
ARMA models UI:130
omitidas UI:189
impulsos generalizados UI:709 errores
estándar UI:708 descomposición
Ramsey RESET UI: 224 UI
estructural UI:709 transformación de impulsos
basado en residuos : 193
UI:709 impulsos especificados por el usuario
Prueba Siegel-Tukey UI:412
UI:709
muestra única UI:404 prueba
Forma funcional incorrecta UI:199, UI:224
de estabilidad UI:205 raíz
Sangría
unitaria UI:419, UI:420, UI:589
Machine Translated by Google
K—1145
IU de observación : 132
gráfico UI:704
con datos agrupados UI: 886 estimación de covarianza a largo plazo UI:602, UI:603
panel de regresión de cointegración UI:979 errores
Variable dependiente entera UI:377
estándar robustos UI:45
Serie integrada UI: 589
sistema GMM HAC UI:655, UI:681
Integridad (base de datos) UI:345
detalles técnicos UII:1117
Intersección en la ecuación UI:6, UI:12
Gráfico de densidad del kernel UI: 687
Interpolar interfaz de usuario: 437
guardar datos UI: 538
Datos intradía UI:45 en
Funciones del kernel UI: 688
muestras UI:140
Regresión del kernel UI: 703
Identificadores de fecha no válidos UI:287
guardar datos UI: 538
Raíces AR invertidas UI: 126
Entrada de
Raíces MA invertidas UI: 126
datos del teclado UI: 146
Irregular data UI:263 Opción de enfoque UI: 858
Prueba de variable irrelevante UI: 190
Interfaz de usuario de enfoque de teclado : 858
1146—Índice
ordenados UI:350
Látex
datos de formatos extranjeros UI:48, UI:55,
IU: 150, IU: 154
Machine Translated by Google
M-1147
Opción de ponderación local UI:707 Varianza a largo plazoVer Covarianza a largo plazo
LOESS UI:706, UI:707 Probabilidad de IU BAJA : 706, IU: 707
registro Ver también Logl. promedio UI:336 Estadística LR UI:189, UI:336, UI:365, UI:367,
interfaz de usuario: 382
modelos censurados UI:358
QLR interfaz de usuario: 385
METRO
1148—Índice
probabilidades de régimen UI:508, UI:523, UI:525 trabajo del panel UI:913 opción de
disponibles UI:521
Marquardt UII:1097
Combinación de coincidencias
actuando en EViews UI:429 constantes
UI:234 por fecha UI:239
de ajuste UI:422 funciones de peso UI:422
muchos a muchos UI:237
muchos a uno UI:236 uno a
Metafecha
muchos UI:235 paneles UI:241
Ver Atributos
usando enlaces UI:234
metarchivo
Operador de coincidencia en consulta de base de datos UI:337 guardar gráfico como metarchivo de Windows. UI:783
Micro TSP abriendo archivos de trabajo UI:315 Microsoft
Match-merge
como IU de importación: 155 Excel
Matlab I: 819
Véase Excel.
Maximización Consulte Optimización (definida por el usuario).
Microsoft PowerPoint pegando
Máximo
número de observaciones UI:873 gráficos y datos en 1:823
Microsoft Word
Máxima probabilidad Véase
pegar gráficos y datos en 1:823
también Logl.
MIDAS
Consulte también Optimización (definida
por el usuario). información completa UI: Almon ponderación UI:315
648 probabilidad pseudo máxima casi generalizada beta ponderación UI:316, UI:317
UI: 385, UI: 403 probabilidad casi máxima UI: 380, ejemplo UI:323 exponencial Almon
UI: 391 usuario especificado UI: 565 McFadden R- ponderación UI:316
squared UI: 336 Media UI: 399 IU de ponderación de PDL :
315 IU de regresión : 313 IU de
ponderación de pasos : 315
Minimización Consulte Optimización (definida por el usuario).
prueba de igualdad UI:408
prueba de hipótesis de UI:404 Discrepancia mínima UI: 1077
Machine Translated by Google
m-1149
UI:831 creando UI:799 definición UI:645 demostración descripción de texto de UI:805, UI:806
UI:347 palabras clave de texto UI:805, UI:806
variables de seguimiento UI:827 enlaces
de actualización UI:801 dependencias de
derivados UI:830 variables UI:804 cambio de variable agregar
mensajes de diagnóstico e historial de iteraciones factor UI:812
interfaz de usuario: 827 interfaz de usuario de vista variable : 803
1150—Índice
norte
opción de iteración UI:55
opción de método de optimización UI:55
NA Consulte NA y datos faltantes. especificación UI:53 valores iniciales
Nadaraya-Watson UI:704 Objeto de UI:56 dos etapas UI:76 dos etapas con
nombre UI:115 reservado UI:115 especificación AR UI:77 ponderada
UI:58 ponderada de dos etapas UI:77, UI:88
con especificación AR IU: 58, IU: 139
Campo de nombre en consulta de base de datos UI:337
Véase también Prueba de datos Prueba de normalidad UI:400, UI:413, UI:194, UI:254,
faltantes UI:188 interfaz de usuario: 704
IU VAR :704
Matriz casi singular UI:22
modelos binarios UI:339 logl Normalizar la fórmula UI:192
O—1151
abrir UI: 106 vista previa UI: usuario de base de datos abierta : 319
107, UI: 325 imprimir UI: 119 datos externos como matriz UI:161
procedimiento UI: 103 muestra datos externos como tabla UI:161, UI:796
UI: 145 mostrar UI: 107 objetos múltiples UI:106 objeto UI:106
opciones UI:315 archivo de trabajo UI:82
1152—Índice
análisis UI:914
tablas de predicción de expectativas UI: 354
equilibrado UI:270
pronóstico UI: 356 puntos límite UI: 356 probabilidad
identificador de celda UI:899
de registro UI: 351 frecuencias variables UI: 354
prueba de cointegración UI:1016, UI:1036
vistas UI: 354
convertir a grupo UI:301 análisis de covarianza
UI:999 crear archivo de trabajo de UI:46
identificadores de sección transversal UI:898
Modelos binarios
residuales ordinarios UI:345
resúmenes de secciones transversales UI:908
modelos censurados UI:363
con fecha UI:269
modelos de conteo UI:382
GLM UI:405 identificadores duplicados UI:268, UI:285 datos de
P-1153
de grupos UI:843 regular UI:270 muestras en de covarianza a largo plazo UI:603 panel de regresión
archivos de trabajo de panel UI:902 Consulte de cointegración UI:979 errores estándar robustos UI:45
también archivo de trabajo de panel. detalles técnicos UII:1117
Parámetros
Park agregó prueba variable UI: 290 guardar gráfico como UI:783
Estimador de parques UI:885 PDL
Autocorrelación parcial UI:418, UI:106 PDL (retraso distribuido polinomial) UI:23, UI:157
restricción de extremo lejano UI: 24
Análisis de covarianza parcial UI:573
errores estándar de previsión UI:157
Machine Translated by Google
1154—Índice
Método configuración
de conversión de frecuencia puntual UI:172, UI:174 Modelo de UI:849 serie de identidad de grupo especial UI:848
conteo de Poisson UI:378 Retrasos polinómicos distribuidos, Ver PDL. especificación UI:845 datos apilados UI:851
criterio de convergencia UI:869 convertir a guardar gráfico como archivo PostScript UI:783
panel UI:307 copiar UI:846 crear UI:849 PowerPoint
sección transversal UI:845 coeficientes pegar gráficos y datos en 1:823
específicos de sección transversal UI:866 Ganancias de elogios UI: 143
definir UI:845 definir grupos de
Precedencia de evaluación UI:180
identificadores UI:846 estadísticas descriptivas UI:858
Variable predeterminada UI: 69
dummy variable UI:857 definiciones de edición UI:846
Tabla de predicción de
estimación UI:864 detalles de estimación UI:879
modelos binarios UI:340 modelos
ordenados UI:354
R-1155
1156—Índice
4.x formato nativo UI:379 formato campo en consulta de base de datos UI:339
portátil UI:380 Eliminación de datos UI: 294
Leer interfaz de usuario: 850 Cambiar nombre de interfaz de usuario: 115
datos del archivo externo como matriz UI:161 datos interfaz de usuario de la base de datos : 343
del archivo externo como tabla UI:161, UI:796 objetos en la base de datos UI:327
Lectura de datos de EViews (en otras aplicaciones) página UI:91 página del archivo de
interfaz de usuario: 164 trabajo UI:91
Reconstruir la interfaz de usuario de la base de datos: 345 Reordenar
Coeficiente recursivo UI:229 interfaz de usuario de la página : 91
IU CLIENTE : 226
Remodelación de una interfaz de usuario de archivo de trabajo: 298
coeficientes UI:11 UI:382 plot UI:18 gráficos de UI:230 pool UI:879 recursivo
UI:225, UI:226 interfaz de usuario estandarizada : 18,
interfaz de usuario: 345, interfaz de usuario: 363, interfaz
de usuario: 368,
colinealidad UI:22
pronóstico UI:147
Estadística F UI:15 UI:382
estudiante UI:231
línea en el gráfico UI:700
suma de cuadrados UI:14
probabilidad de registro UI:14
recortada simétricamente UI:365 sistema
cuantil UI:541 residuos de
UI:20 UI:663 pruebas de UI:193 variable
dependiente truncada UI:368 incondicional
error estándar de UI:14 suma de
UI:125
residuos cuadrados UI:14 estadístico t para
coeficiente UI:12
Machine Translated by Google
S-1157
Interfaz de usuario de función bicuadrada : 422 estimación UI:10 todas las observaciones UI:138
UI:138
Regresión robusta Consulte Mínimos cuadrados robustos.
Errores estándar robustos UI:32 individual UI:187 datos intradía
GLM IU: 387, IU: 396 y valores perdidos UI:139 especificando objeto de muestra
1158—Índice
S—1159
IU de calificación S : 426
mostrar UI:547
actuando en EViews UI:429 constantes observaciones en un gráfico UI:621, UI:762 hoja
de ajuste UI:427 función de peso UI:426 de cálculo mostrar UI:547 valmaps UI:223
archivo de trabajo UI:315
SETAR IU: 461
1160—Índice
T-1161
Interfaz de usuario de descomposición STL : 458 Interfaz de usuario del sistema : 645
1162—Índice
Pestañas
Funciones de serie temporal UI:184
unidireccional UI:415 Interfaz de usuario de la barra de herramientas : 61, interfaz de usuario: 113
V—1163
Constantes de afinación
IU de calificación M : 422 EN
IU de clasificación S : 427
Valmap UI:219
Escriba advertencias UI:230
el campo en la consulta de la base de datos UI: 337 buscar etiqueta para valor UI:228
buscar valor numérico para etiqueta UI:229 buscar
EN valor de cadena para etiqueta UI:229 funciones
UI:228
Datos de la Administración de Información de Energía de EE. UU.
interfaz de usuario: 358
propiedades UI:224
ESTABA
Interfaz de usuario unidireccional : 64
AR raíces UI:702
Prueba de raíz unitaria UI:419, UI:420, UI:589
autocorrelación LM prueba UI:704
aumentada Dickey-Fuller UI:594 autocorrelación prueba UI:704
Dickey-Fuller UI: 594
coeficientes UI:728
Dickey-Fuller GLS sin tendencia UI: 595
cointegración UI:1023
Elliot, Rothenberg y Stock UI: 597
correlogramas UI:703
KPSS UI:597
estimación UI:689, UI:695 salida
fecha del panel UI:617, UI:1014
de estimación UI:691, UI:699 matriz de
Phillips-Perron UI: 596, UI: 597 datos
factorización en prueba de normalidad UI:705 pronóstico
agrupados UI: 859 suposición de
UI:712, UI:728
tendencia UI: 595 con puntos de
Prueba de causalidad de Granger UI:702
interrupción UI: 601
descomposición histórica UI:711 respuesta de
Unidades
impulso UI:707
campo en consulta de base de datos UI:339
Prueba de normalidad de Jarque-Bera UI:704
Machine Translated by Google
1164—Índice
Prueba de
Advertencia sobre la opción de cierre UI: 857 interfaz de usuario activa : 113
Interfaz de usuario de prueba de Watson : 413 interfaz de usuario de base de datos : 319
Z-1165
valores predeterminados de
almacenamiento UI:864 precisión y compresión de
almacenamiento UI:864 configuración de estructura UI:274
estructuración UI:263 vista de resumen UI:75 sin fecha
UI:265
1166—Índice