Está en la página 1de 183

Machine Translated by Google

984—Capítulo 46. Estimación de cointegración de panel

La sección central muestra las estimaciones de los coeficientes, los errores estándar y las estadísticas t, que difieren
un poco de los resultados en la Tabla 4(i) de KCC, ya que las estimaciones del informe de KCC para un modelo
ligeramente diferente. Al igual que en KCC, ambas variables de I+D, LRD y LFRD están relacionadas positivamente con
LTFP, y los coeficientes son estadísticamente significativos.

La parte inferior de la salida muestra varias estadísticas de resumen. Nótese en particular, la “varianza a
de los residuos DOLS. La raíz cuadrada de esta varilargo plazo” reportada por qˆ que se muestra obtenida
1.2 , la varianza media estimada a largo plazo de
condicionado a ,
u1it u2it
ance, 0.0367, es algo más alto que el valor del “SE de la regresión” de 0.0205, que se basa en el estimador
ordinario de la varianza residual.

Al hacer clic en Ver/Representaciones, se muestran los comandos utilizados para estimar la ecuación,
junto con una representación de texto de la relación a largo plazo:

Nótese el componente “[CX=DETERM]” que muestra que hay términos de tendencia heterogéneos
adicionales en la relación (en este caso, los efectos fijos). La presencia de este término indica a EViews
que utilice esta información al construir modelos y al calcular ajustes y pronósticos.

Supongamos, por ejemplo, que seleccionamos Proc/Make Model de nuestra ecuación estimada. EViews
creará un objeto modelo que contiene los resultados de la ecuación:
Machine Translated by Google

Ejemplos: 985

Observe la presencia de EQ4I_EFCT en la ecuación del modelo y en el archivo de trabajo. Al hacer doble clic en EQ4I en
el objeto del modelo, se muestra la ecuación:

Observe que hemos reemplazado los componentes deterministas “[CX=DETERM]” en la especificación de la ecuación con
los valores ajustados en la serie EQ4I_EFCT. En este caso, EQ4I_EFCT solo contiene los efectos fijos estimados, pero de
manera más general mantendrá los valores ajustados para los términos deterministas en su regresión.

Para estimar el modelo usando DOLS, mostramos nuevamente el cuadro de diálogo de la ecuación, completamos la parte
superior como antes:

y cambie el Método a Dynamic OLS (DOLS). Para que coincida con la configuración en KCC, configuramos el Método de
panel en Agrupado y especificamos los retrasos y adelantos fijos , con 2 retrasos y 1 adelanto:
Machine Translated by Google

986—Capítulo 46. Estimación de cointegración de panel

Haga clic en Aceptar para estimar la ecuación utilizando el método de covarianza predeterminado. EViews
mostrará los resultados:

Variable dependiente: LTFP


Método: Panel de mínimos cuadrados dinámicos (DOLS)
Fecha: 15/01/13 Hora: 15:36

Muestra (ajustada): 1974 1989


Períodos incluidos: 16
Secciones incluidas: 22

Panel total de observaciones (equilibradas): 352


Método de panel: estimación agrupada
Determinística de la ecuación de cointegración: C
Especificación de adelantos y retrasos fijos (adelanto = 1, retraso = 2)
Covarianza del coeficiente calculada utilizando el método predeterminado
Varianza a largo plazo (núcleo de Bartlett, ancho de banda fijo de Newey-West) utilizada
para covarianzas de coeficientes

Variable Coeficiente Estándar Error t-estadística problema

LRD 0.109353 0,023067 4,740719 0,037756 0.0000


LRD 0.047674 1,262690 0.2082

R-cuadrado 0,932997 Media var dependiente 0,851443 -0.018869

R-cuadrado ajustado SE SD var dependiente 0,013225 Suma 0.034313

de regresión Varianza de cuadrada resid 0,000156 0.034632

largo plazo

Una vez más, la parte superior del cuadro de diálogo muestra el método de estimación, la muestra y la información
sobre la configuración empleada en la estimación. Tenga en cuenta, en particular, que el cálculo de la matriz de
covarianza del coeficiente por defecto utiliza un estimador de la varianza a largo plazo calculada mediante un
kernel de Bartlett y un ancho de banda Newey-West fijo.

Los coeficientes de largo plazo, los errores estándar y las estadísticas t están cerca de sus contrapartes en la
Tabla 5(i) de KCC.

Podemos contrastar estos resultados con las estimaciones de la media del grupo de las mismas especificaciones.
Los resultados de FMOLS de la media del grupo se pueden obtener llamando a la ecuación de FMOLS original y
seleccionando Agrupados en el menú desplegable Método de panel . Los resultados del coeficiente FMOLS
medio del grupo están dados por:
Machine Translated by Google

Detalles técnicos—987

Variable Coeficiente Estándar Error t-estadística problema

LRD 0.319009 0.021539 14.81044 0.022454 0.0000


LRD -0.061544 -2.740894 0.0064

que difieren notablemente de las estimaciones agrupadas, lo que sugiere que la heterogeneidad en la ecuación de
integración de monedas o las covarianzas a largo plazo pueden ser importantes. Del mismo modo, los resultados
DOLS correspondientes a la media del grupo,

Variable Coeficiente Estándar Error t-estadística problema

LRD 0.401746 0,063727 6,304167 0,055137 0.0000


LRD -0.093889 -1,702828 0.0902

difieren en una cantidad considerable de los resultados agrupados.

Detalles técnicos
OLS completamente modificado

Phillips y Moon (1999), Pedroni (2000) y Kao y Chiang (2000) ofrecen extensiones del estimador
OLS totalmente modificado de Phillips y Hansen (1990) a configuraciones de panel.

FMOLS agrupados

El estimador FMOLS agrupado descrito por Phillips y Moon (1999) es una extensión directa
del estimador estándar de Phillips y Hansen. Dadas las estimaciones del promedio Lˆ Qˆ
covarianzas a largo plazo y , podemos definir la variable dependiente modificada y la serie
términos de corrección de correlación

+ –1
si
ÿ-

si qˆ 12Qˆ 22

2
(46.5)

y
–1
lˆ+12 ÿ
lˆ 12 – qˆ
12

22
L 22 (46.6)

X˜ donde y y˜it
y es la qˆ eso son los datos correspondientes purgados de las tendencias deterministas individuales,
promedio
varianza
a largo
1.2 plazo de u1it
condicionado a . En el caso líder de
u2it
interceptos específicos individuales, ÿ-
y yit yi X˜ eso ÿ Xit – Xi son los degradados vari
y˜itables .

El estimador FMOLS agrupado viene dado por


norte T –1 norte T
ÿ
+ – lˆ+12
ÿ

ÿ ÿ
ÿ
bˆ FP ÿ
ÿ ÿ ÿX˜ itX˜ itÿ ÿ X˜ ity˜it ÿ (46.7)
ÿÿ ÿ
yo = 1 t=1 yo = 1 t=1
Machine Translated by Google

988—Capítulo 46. Estimación de cointegración de panel

Vale la pena señalar que el estimador agrupado simplemente suma las secciones transversales por separado en
el numerador y el denominador.

Las estimaciones de las covarianzas a largo plazo pueden obtenerse mediante enfoques estándar utilizando los
residuos obtenidos al estimar la Ecuación (46.1) y después de eliminar la determinación uˆit
componentes ísticos en la Ecuación (46.2). Tenga en cuenta que EViews le permite relajar la suposición de b
comunes en estas estimaciones de primera etapa. Dadas las estimaciones de las covarianzas individuales a largo
L i plazo Qˆ para cada
i , formamos sección
nuestros transversal
estimadores y los
tomando promedios
simples de ción:
cortes transversales

norte norte

L L i Qˆ Qˆ i (46.8)
ÿÿ ÿÿ
yo = 1 yo = 1

Phillips y Moon (1999) muestran que bajo suposiciones apropiadas, la distribución asintótica del estimador combinado es
asintóticamente normal bajo límites secuenciales como ÿ T N, ÿ ÿ
ÿ . Después

2ÿ –1
límite
ÿ

N–1 T bˆ ÿ ÿ FP – b ÿ ÿ Nq1.2 ,
0 aQ22 ÿ (46.9)
TN , ÿ ÿ

para una constantea que depende de la especificación de la variable determinista, donde q1.2 es el
– –1
varianza a largo plazo de condicional en u1t , dado por
u2t q1.2
ÿ

q11 q12 q22 q21


.

–1
En lugar de estimar la varianza asintótica directamente usando estimaciones de q1.2 Q22 , y el
a
correspondiente para cada especificación determinista posible, EViews adopta el enfoque de Pedroni (2000) y
Mark y Sul (2003) de formar un estimador consistente usando momentos de los regresores:

–1
VˆFP ÿ
qˆ 1.2 ÿ

FP
METRO
(46.10)

dónde
norte T
1 ÿ
1 ÿ
---- ------
METRO
FP ÿ ÿ norte ÿ
ÿ ÿ X˜ itX˜ itÿ (46.11)
ÿ T2 ÿ
yo = 1 t=1

En un trabajo relacionado, Mark y Sul (2003) proponen una forma sándwich de este estimador que permite
varianzas heterogéneas:
–1 –1
VˆFP ÿ
METRO
FP
ÿ

D FP ÿ

METRO
FP (46.12)

dónde
norte T
1 ÿ
1 ÿ
D FP ---- ------
ÿ ÿ norte ÿ qˆ 1.2i ÿ ÿ X˜ itX˜ itÿ (46.13)
ÿ T2 ÿ
yo = 1 t=1
Machine Translated by Google

Detalles técnicos—989

–1
y las estimaciones de la varianza a largo plazo se calculan – qˆcada
qˆ 11i para
ÿ
qˆ 1.2i 12i Qˆsección
22i qˆ 21i transversal de qˆ qˆ . Tenga
pueden aplicar correcciones de grado de libertad a y para comparar con el error estándar deenregresión cuenta que
se
1.2 estándar 1.2i
de los estimadores de regresión.

FMOL ponderados

Pedroni (2000) y Kao y Chiang (2000) describen estimadores FMOLS agrupados factibles para paneles
cointegrados heterogéneos donde las varianzas a largo plazo difieren entre secciones transversales.

Nuevamente usamos estimaciones de primera etapa de las ecuaciones de largo plazo y de regresores para obtener la
Qˆ y
Lˆ residuales, estimar las varianzas individuales de largo plazo yi dejar i ,
+ –1
ÿ
– qˆ (46.14)
lˆ 12i l 12i 12i Qˆ 22i L 22i

++ –1 1 2ÿ –1 2ÿ
ÿ
– – qˆ (46.15)
si si qˆ 12Qˆ 22 uˆ 1.2i ÿ qˆ 1.2i X˜ itÿ qˆ 12iX˜ bˆ – ÿ ÿÿ it ÿ 0
2

para b 0 , una estimación preliminar del coeficiente de largo plazo.

A continuación, formamos las variables ponderadas:

ÿ
–1 2ÿ ÿ

X˜ itÿ Qˆ 22i X eso

–1 2ÿ ++
ÿ
qˆ 1.2i
ÿ

(46.16)
y˜itÿ si

ÿ ÿ
–1 2ÿ ÿ + ÿ
–1 2ÿ ÿ

lˆ 12i qˆ 1.2i lˆ 12i Qˆ 22i

Entonces el estimador viene dado por


norte T –1 norte T
ÿ ÿ ÿÿ

ÿ ÿ X˜ itÿX˜ itÿÿ ÿ
ÿ

b FW
ÿ ÿ
X˜ itÿy˜itÿ lˆ _ 12i ÿ (46.17)
ÿÿ ÿ
yo = 1 t=1 yo = 1 t=1

y la covarianza asintótica se estima usando un estimador de momento como en Pedroni (2000):


norte T –1
ÿ ÿ ÿÿ
1 1
X˜ itÿX˜ itÿÿ ÿ
ÿ
ÿ
VˆFW ÿ ---- ÿ ------ (46.18)
ÿÿ
ÿ norte ÿ
T2 ÿ ÿ
yo = 1 t=1

FMOLS de media de grupo

Pedroni (2000, 2001) propone un estimador FMOLS de media agrupada que promedia las estimaciones
FMOLS de la sección transversal individual:
norte T –1 T
ÿ ÿ ÿ
1 ÿ
---- – lˆ (46.19)
ÿ bˆ FG ÿÿ ÿ ÿ

X˜ itX˜ itÿ ÿ

ÿÿ X˜ ity˜it 12i ÿÿÿ


norte
ÿ ÿÿ ÿ
yo = 1 t=1 t=1

Pedroni (1990) señala que en presencia de heterogeneidad en las relaciones de cointegración, el


estimador de media agrupada ofrece la propiedad deseable de proporcionar estimaciones consistentes
Machine Translated by Google

990—Capítulo 46. Estimación de cointegración de panel

de la media muestral de los vectores de cointegración, en contraste con los estimadores agrupados y ponderados.

Estimamos la matriz de covarianza asintótica para este estimador calculando la varianza del promedio de las
estimaciones individuales:
norte T –1
1 ÿ 1
Vˆ ------ ------
FG ÿÿ ÿ qˆ
1.2i ÿ ÿ ÿX˜ itX˜ itÿ (46.20)
N2 ÿ T2 ÿ
yo = 1 t=1

Vale la pena señalar que las estadísticas t básicas obtenidas con este estimador de covarianza difieren de la
estadística t propuesta por Pedroni (1991), que agrega estadísticas individuales a lo largo de la dimensión transversal.

Dynamic OLOS (DOLES)

Kao y Chiang (2000), Mark y Sul (1999, 2003) y Pedroni (2001) proponen extensiones del estimador DOLS de
Saikkonen (1992) y Stock y Watson (1993) a configuraciones de datos de panel. Panel DOLS implica aumentar la
ecuación de regresión de cointegración de panel con retrasos y adelantos específicos de la sección transversal de ÿXit
para eliminar la endogenidad asintótica y la correlación
serial.

Pooled DOLS

Kao y Chiang (2000) describen el estimador DOLS agrupado en el que usamos mínimos cuadrados ordinarios para
estimar una ecuación de regresión de cointegración aumentada:
Rhode Island

ÿ
X˜ itÿb ÿ ÿ –
si ÿX˜ it j ÿÿ en v˜ 1it (46.21)

j qi ÿ –

donde y y˜it X˜ son los datos depurados de las tendencias deterministas individuales. Tenga en cuenta que
eso

se permite que los coeficientes dinámicos a


decorto plazo sean específicos de la sección transversal.

Dejar Z˜ ÿX˜ la ficticia de sección transversal it j ÿ


eso sean los regresores formados al interactuar los términos con
ÿ

y sea ÿ ÿ . Entonces el estimador


W˜ itÿ X˜se
DOLS
itÿpuede
Z˜ agrupado
variables,
,
escribir
eso
como
ÿÿ

norte T –1 norte T
ÿ ÿ
bˆ DP ÿ
ÿ
ÿ ÿ ÿ W˜ itW˜ itÿ ÿ
ÿ ÿ ÿ W˜ ity˜itÿ (46.22)
gˆ DP
ÿÿ ÿ ÿÿ ÿ
yo = 1 t=1 yo = 1 t=1

Kao y Chiang (2000) muestran que la distribución asintótica de este estimador es la misma que bˆ DP
para FMOLS agrupados. Podemos estimar la matriz de covarianza asintótica de usando la submatriz correspondiente
de:
–1
Vˆ ÿ
qˆ ÿ
METRO
(46.23)
DP 1.2 DP

dónde
Machine Translated by Google

Detalles técnicos—991

norte T
ÿÿ
1 1
METRO
DP ÿÿ
----
norte
ÿÿ
------
ÿ W˜ itW˜ itÿ (46.24)
ÿ ÿT2
yo = 1 t=1

qˆ y
1.2 es un estimador de la varianza residual de largo plazo.

Alternativamente, Mark y Sul (2003) emplean un estimador sándwich

ÿ
–1 ÿ ÿ
–1
VˆDP METRO
DP D DP METRO
DP (46.25)

dónde
norte T
1
ÿ
1
ÿ
D DP ÿÿ
----
norte
ÿ qˆ
ÿ
1.2i
------
ÿ W˜ itW˜ itÿ ÿ
(46.26)
T2 ÿ
yo = 1 t=1

qˆ emplea las estimaciones individuales de la varianza a largo plazo 1.2i .

DOLS ponderados

Mark y Sul (1999) describen un estimador DOLS ponderado simple que permite la heterogeneidad en las varianzas a
largo plazo. Defina la regresión ponderada:
norte T –1 norte T
ÿ ÿ ÿ ÿ
bˆ DW –1 –1
ÿ ÿ
ÿ
ÿ qˆ 1.2i W˜ itW˜ itÿ ÿ ÿ qˆ 1.2i W˜ ity˜itÿ
ÿ (46.27)
ÿÿ ÿ ÿÿ ÿ
gˆ DW yo = 1 t=1 yo = 1 t=1

qˆ para estimaciones individuales de la varianza a largo plazo 1.2i obtained after preliminary DOLS estima
ción.

En EViews, estimamos la matriz de covarianza asintótica de usando la submatriz correspondiente


bˆ DW de:

norte T –1
ÿ
1 –1
ÿ
1
ÿ ÿÿ

ÿ ------
ÿ
VˆDW ÿ ---- qˆ 1.2i ÿ (46.28)
ÿ W˜ itW˜ itÿ ÿ

ÿ norte ÿ
T2 ÿÿ
yo = 1 t=1

Tenga en cuenta que esta forma muy simple de estimación ponderada difiere del estimador más complejo descrito
por Kao y Chiang (2000), que combina la corrección de endogenidad FMOLS, la ponderación de la variable
dependiente y los regresores, y la corrección de correlación serial DOLS.

DOLS de media de grupo

Pedroni (2001) extiende el concepto de estimador agrupado a la estimación DOLS promediando las estimaciones
DOLS de sección transversal individual:

norte T –1 T
1 ÿ ÿ ÿ ÿ
bˆ DG
ÿ ÿ norte
---- ÿÿ ÿ

ÿÿ
W˜ itW˜ itÿ
ÿ
ÿ
ÿ W˜ ity˜itÿ
ÿ
ÿ (46.29)

gˆ DG yo = 1 t=1 t=1
Machine Translated by Google

992—Capítulo 46. Estimación de cointegración de panel

La matriz de covarianza asintótica se obtiene a partir de la correspondiente submatriz de la varianza de la media


de los estimadores individuales:
norte T –1
ÿ ÿ
1 1
VˆFG ÿÿ
------ ÿ qˆ
ÿ
1.2i ------
T2 ÿ
ÿ W˜ itW˜ itÿ
ÿ (46.30)
N2
yo = 1 t=1

Nuevamente notamos que las estadísticas t básicas que involucran este estimador de covarianza difieren de la
estadística t propuesta por Pedroni (1991) que agrega estadísticas individuales a través de la dimensión de la
sección transversal.

Referencias
Baltagi, Badi (2008). Análisis econométrico de datos de panel, Nueva York: John Wiley & Sons.
Baltagi, Badi y Chihwa Kao (2000). “Paneles no estacionarios, Cointegración en paneles y Paneles dinámicos: una
encuesta”, en Baltagi, BH ed., Paneles no estacionarios, Cointegración de paneles y Paneles dinámicos,
15, Ámsterdam: Elsevier, 7–51.

Breitung, Jörg y M. Hashem Pesaran (2008). “Raíces unitarias y cointegración en paneles”, en Mátyás,
László y Patrick Sevestre, eds. The Econometrics of Panel Data, Berlín: Springer-Verlag Berlin Hei delberg.

Hansen, Bruce E. (1992). “Estimación y prueba eficientes de vectores de cointegración en presencia de tendencias
deterministas”, Journal of Econometrics, 53, 87-121.
Kao, Chihwa y Min-Hsien Chiang (2000). “Sobre la estimación e inferencia de una regresión cointegrada en datos de
panel”, en Baltagi, BH et al. eds., Paneles no estacionarios, Cointegración de paneles y Paneles dinámicos, 15,
Amsterdam: Elsevier, 179–222.
Kao, Chihwa, Chiang, Min-Hsien y Bangtian Chen (1999). “Desbordamientos internacionales de I+D: una aplicación de
estimación e inferencia en la cointegración de paneles”, Oxford Bulletin of Economics and Statistics, 61, 693–711.

Mark, Nelson C. y Donggyu Sul (1999). "Un estimador de vector de cointegración computacionalmente simple para datos
de panel", manuscrito de la Universidad Estatal de Ohio.
Mark, Nelson C. y Donggyu Sul (2003). “Estimación del Vector de Cointegración por Panel DOLS y Long-run
Money Demand”, Oxford Bulletin of Economics and Statistics, 65, 655–680.
Pedroni, Pedro (2000). “OLS totalmente modificado para paneles heterogéneos cointegrados”, en Baltagi, BH ed.,
Nonstationary Panels, Panel Cointegration and Dynamic Panels, 15, Amsterdam: Elsevier, 93–130.
Pedroni, Pedro (2001). “Pruebas de paridad del poder adquisitivo en paneles cointegrados”, The Review of Economics
and Statistics, 83, 727–731.
Phillips, Peter CB y Bruce E. Hansen (1990). “Inferencia Estadística en Variables Instrumentales Regres
sion with I(1) Processes”, Review of Economics Studies, 57, 99-125.
Phillips, Peter CB y Hyungsik R. Moon (1999). "Teoría del límite de regresión lineal para datos de panel no estacionarios",
Econometrica, 67, 1057-1111.
Saikkonen, Pentti (1992). “Estimación y prueba de sistemas cointegrados mediante una aproximación autorregresiva”,
Econometric Theory, 8, 1-27.

Stock, James H. y Mark Watson (1993). “Un estimador simple de vectores de cointegración en sistemas integrados de
orden superior”, Econometrica, 61, 783-820.
Machine Translated by Google

Capítulo 47. Estadísticas del panel

EViews ofrece varios niveles de soporte para cálculos en archivos de trabajo de panel.

En el nivel más básico, en ausencia de configuraciones específicas del panel, si el cálculo de una estadística está
disponible en un archivo de trabajo del panel, EViews calcula la estadística en los datos apilados, teniendo en cuenta
las costuras entre los datos al evaluar los retrasos y adelantos de las variables. Esta clase de cálculo asume
implícitamente la homogeneidad entre las secciones transversales.

En los entornos más sofisticados, como los estimadores de ecuaciones vistos en el Capítulo 45.
“Estimación de panel”, a partir de la página 917 y el Capítulo 46. “Estimación de cointegración de panel”, en la
página 973, EViews admite varios procedimientos que explican específicamente varios aspectos de la estructura de
panel de los datos.

En el resto de este capítulo, describimos algunos otros cálculos en EViews que son "conscientes del panel" en
el sentido de que hay configuraciones que dan cuenta de la estructura del panel de los datos. Algunos de estos
temas se discuten en otra parte; en estos casos, simplemente proporcionamos un enlace a la discusión relevante.

Gráficos de series temporales

EViews proporciona herramientas para mostrar gráficos de series temporales con datos de panel. Puede usar estas
herramientas para mostrar un gráfico de los datos apilados, gráficos individuales o combinados para cada sección
transversal, o un gráfico de serie temporal de estadísticas resumidas para cada período.

Para mostrar gráficos de panel para una serie o grupo de series en un archivo de trabajo fechado, abra la ventana de
la serie o grupo y haga clic en Ver/Gráfico... para que aparezca el cuadro de diálogo Opciones de gráfico . En la
sección de opciones del panel en la parte inferior derecha del cuadro de diálogo, EViews le ofrece una variedad de
opciones sobre cómo desea mostrar los datos.
Machine Translated by Google

994—Capítulo 47. Estadísticas del panel

Aquí vemos el diálogo para graficar una sola serie. Tenga en cuenta, en particular, la sección de opciones de Panel específica del
archivo de trabajo del panel que controla cómo se deben manejar las múltiples secciones transversales en su panel. Si selecciona

Apilar secciones transversales, EViews mostrará un solo gráfico de los datos apilados, etiquetados con la sección transversal y la
fecha. Por ejemplo, con un gráfico de tipo Línea y símbolo , tenemos

De manera alternativa, al seleccionar Secciones transversales individuales se muestran gráficos de series de tiempo separados
para cada sección transversal, mientras que Secciones transversales combinadas muestra líneas separadas para cada sección transversal.
Machine Translated by Google

—995

en un solo gráfico. Le advertimos que ambos tipos de gráficos de panel pueden volverse difíciles de leer
cuando hay una gran cantidad de secciones transversales. Por ejemplo, los gráficos individuales para los
10 datos de panel de sección transversal que se muestran aquí brindan información sobre tendencias
generales, pero pocos detalles:

No obstante, el gráfico le ofrece la posibilidad de examinar todas sus secciones transversales de un


vistazo.

Las dos opciones restantes le permiten trazar un solo gráfico que contiene estadísticas de resumen para
cada período.

Para los gráficos de líneas, puede seleccionar la


media más los límites SD y luego usar el menú
desplegable en la parte inferior derecha para elegir entre
mostrar sin límites y 1, 2 o 3 límites de desviación estándar.
Para otros tipos de gráficos, como áreas o picos, solo
puede mostrar las medias de los datos por período.

Para los gráficos de líneas, puede seleccionar Median


plus quan tiles, y luego usar el menú desplegable para
elegir los cuantiles extremos adicionales que se mostrarán.
Para otros tipos de gráficos, solo se puede trazar la mediana.

Supongamos, por ejemplo, que mostramos un gráfico


lineal que contiene la media y 2 límites de desviación
estándar para la serie F. EViews calcula, para cada período, la media y la desviación estándar de F en las
secciones transversales y las muestra en un gráfico de serie temporal:
Machine Translated by Google

996—Capítulo 47. Estadísticas del panel

De manera similar, podemos mostrar un gráfico de picos de las medianas de F para cada período:

La visualización de vistas gráficas de un objeto de grupo en un archivo de trabajo del panel implica elecciones
similares sobre el manejo de la estructura del panel.

Por estadísticas

Si bien no es específicamente compatible con el panel, hay una variedad de lugares en EViews donde puede usar
una variable de clasificación para calcular estadísticas por grupo. En estos casos, puede usar el identificador @crossid
para calcular las estadísticas de cada sección transversal.

Por ejemplo, puede abrir un objeto de serie y seleccionar Ver/Estadísticas por clasificación... para mostrar
estadísticas resumidas para varios grupos:
Machine Translated by Google

Por estadísticas—997

Ingrese @crossid para calcular estadísticas por sección transversal:

Estadísticas descriptivas para FRD


Categorizado por valores de @CROSSID
Fecha: 05/02/13 Hora: 15:43
Muestra (ajustada): 1971 1990
Observaciones incluidas: 440 después de ajustes

@CROSSID 1 2 Estándar medio desarrollo Obs.


34567 0.823050 0.329523 20
8 9 10 11 0.857000 0.169526 20
12 13 14 0.893250 0.153560 20
15 16 17 0.870250 0.170139 20
18 19 20 0.913400 0.106301 20
21 22 0.839050 0.184148 20
0.865650 0.174743 20
0.860900 0.205281 20
0.844000 0.226664 20
0.882750 0.147099 20
0.940250 0.199533 20
0.876000 0.232249 20
0.973600 0.124876 20
0.781800 0.238805 20
0.820250 0.132656 20
0.834050 0.167274 20
0.863000 0.247619 20
0.799700 0.185269 20
0.6662100 0.160519 20
0.116893 20
0.198757 20
0.184872 20
Todos 0.195387 440

De manera similar, puede probar la igualdad de medias entre secciones transversales (Ver/Pruebas de
igualdad por clasificación...). Simplemente abra la serie, luego seleccione Ver/Estadísticas y pruebas descriptivas/
Machine Translated by Google

998—Capítulo 47. Estadísticas del panel

Pruebas de igualdad por clasificación... Ingrese FN en el campo de edición Serie/Grupo para clasificar y
seleccione Aceptar para continuar. EViews calculará y mostrará los resultados de un ANOVA para F, clasificando los
datos por ID de empresa. La parte superior de los resultados de ANOVA viene dada por:

Prueba de igualdad de medias de F


Categorizados por valores de FN
Fecha: 22/08/06 Hora: 17:11

Muestra: 1935 1954


Observaciones incluidas: 200

Método d.f. Probabilidad de valor

Prueba Anova F (9, 190) 293.4251 0.0000


Prueba F de Welch* (9, 71.2051) 259.3607 0.0000

*La prueba permite variaciones de celdas desiguales

Análisis de variación

Fuente de variación df Suma de Sq. Cuadrado medio

Entre 9 3.21E+08 35640052


Dentro de 190 23077815 121462.2

Total 199 3.44E+08 1727831.

Nótese en este ejemplo que tenemos relativamente pocas secciones transversales con un número moderado de
observaciones en cada empresa. Los datos con un gran número de identificadores de grupo y pocas observaciones
no se recomiendan para este tipo de prueba. Para probar la igualdad de medias entre períodos, abra el cuadro de
diálogo e ingrese AÑO o DATEID como la serie por la cual clasificará.
Machine Translated by Google

Covarianzas del panel: 999

Se puede obtener un resumen


gráfico de la información
primaria en el ANOVA
mostrando diagramas de caja
por sección transversal o
período. Para un número
moderado de clases distintas

valores del clasificador, la


pantalla gráfica puede resultar
informativa. Seleccione Ver/
Gráfico... para que aparezca el
Cuadro de diálogo Opciones de gráfico .

Seleccionar gráfico categórico


en el menú desplegable en la

parte superior izquierda, seleccione

Diagrama de caja de la lista de tipos

de gráficos e ingrese FN en el campo

de edición Dentro del gráfico . Haga clic en Aceptar para mostrar los diagramas de caja con la configuración predeterminada.

Un conjunto particularmente útil de herramientas no específicas del panel que se pueden usar para el análisis del
panel son las funciones de estadísticas por grupo (Capítulo 13. “Referencia de funciones y operadores”, comenzando
en la página 580 de la Referencia de programación y comandos). Las estadísticas por grupo que le permiten calcular
estadísticas por ID de sección transversal y combinar fusionan esos resultados con los datos originales. Por ejemplo,
la expresión simple

serie ydemean = y - @meansby(y, @crossid)

calcula las desviaciones de las medias de la sección transversal para la serie Y y coloca los resultados en la serie
YDEMEAN.

Covarianzas del panel

Los datos estructurados en panel emplean más de una dimensión para identificar una observación determinada. En
el caso más común donde el panel combina series de tiempo y datos transversales, tenemos datos para unidades
transversales N y períodos. En esta configuración,
yo = 1,Xit, ÿ t = 1, ,ÿ
T.
nos enfocamos en una sola variable aleatoria X , con observaciones individuales denotadas .

X
A veces es conveniente ver las para diferentes secciones transversales (o períodos de tiempo) como variables
aleatorias distintas. Este desglose de una sola variable aleatoria en múltiples variables aleatorias nos permite definir
medidas de asociación entre secciones transversales o períodos para una serie de panel dada.

Por ejemplo, podemos definir las covarianzas contemporáneas o entre secciones transversales para
X :
Machine Translated by Google

1000—Capítulo 47. Estadísticas del panel

jij E ÿXiÿ Eÿ Xi ÿ ÿE–Xjÿ –ÿ ÿXjÿ ÿÿ (47.1)

dónde , ,,ÿ XiT ÿ


Xiÿ ÿ ÿ Xi1 Xi2 es la variable aleatoria asociada con el para el i-ésimoX
sección transversal, i ÿ 1, N . Las covarianzas contemporáneas son una medida de asociación
,ÿ

(dependencia) entre los datos para diferentes secciones transversales en un momento dado.

X
De manera similar, podemos definir el período o las covarianzas dentro de la sección transversal para:

ÿ jst ÿE ÿXsÿ E– Xs
ÿ ÿ ÿ ÿ Xt Xt
E –ÿÿ ÿ (47.2)

dónde
Xtÿ ÿ ÿ X1t ,X2t
,, ÿ XNt ÿ , t ÿ 1, T . Las covarianzas dentro de la sección transversal
,ÿ

mide la asociación entre los datos en diferentes períodos para una sección transversal dada.

Las covarianzas y correlaciones de panel se utilizan ampliamente en el análisis de datos de panel. Por ejemplo:

• Las correlaciones contemporáneas entre variables macroeconómicas a menudo se utilizan para examinar la
naturaleza de las relaciones entre diferentes países (ver, por ejemplo, Obstfeld y Rogoff, 2001, p. 368).

• Las covarianzas contemporáneas de los residuos de la regresión de panel se utilizan en


computación de estimadores transversales tipo Zellner SUR (Johnston y Dinardo, 1997, p. 318) y en pruebas
de dependencia transversal (Pesaran, 2004). De manera similar, las covarianzas de panel se utilizan como un
primer paso para obtener factores comunes para la raíz unitaria y otras pruebas (Bai y Ng, 2004).

• De manera análoga, las covarianzas de período de los residuos se pueden usar para calcular GLS factible
estimadores que corrigen la correlación dentro de la sección transversal (conglomerado).

Una vez que desapilamos los datos, el cálculo de las estimaciones de las medidas de panel de asociación para una
sola serie sigue los métodos estándar (referencia cruzada a grupos). Por ejemplo, los estimadores estándar de
Pearson para la covarianza de la sección transversal contemporánea utilizan la variación a lo largo del tiempo para
obtener estimaciones:
T
1
---
jˆij ÿ ÿ T ÿ Xit Xi
– ÿÿ Xjt Xj ÿ – (47.3)

t=1
T T
donde Xi ÿ ÿ T-1 salir y .
t=1 Xj T–1 ÿ ÿ t=1 xjt
Los estimadores de Pearson correspondientes de las covarianzas del período utilizan la variación en la dimensión de
la sección transversal para proporcionar estimaciones:
norte

----
1
jˆ S t Pulse
Xt ÿ – ÿXs Xs (47.4)
ÿÿ
norte
ÿ – ÿ
yo = 1
norte norte
dónde salir y .
Xt N – 1 yo = 1 xn–1 yo = 1 xi
Machine Translated by Google

Covarianzas del panel: 1001

Otras medidas de asociación pueden definirse de manera similar. Para obtener información sobre los diversos métodos
compatibles con EViews, consulte "Análisis de covarianza", que comienza en la página 568 de la Guía del usuario I.

Decirle a EViews que calcule medidas de asociación para una serie en un archivo de trabajo estructurado en panel es
sencillo. Simplemente abra la serie y seleccione Ver/Panel de covarianza... para mostrar el cuadro de diálogo. Tenga
en cuenta que el archivo de trabajo debe estar estructurado como un panel para que la entrada del menú de covarianza
del panel esté disponible.

EViews abrirá el cuadro de diálogo


Análisis de covarianza que
proporciona opciones para controlar
el cálculo, la visualización y el
almacenamiento de resultados.

En su mayor parte, el cuadro de


diálogo no cambia con respecto
al cuadro de diálogo de covarianza
para un grupo de series y la
discusión de la configuración allí
es directamente relevante
(consulte “Análisis de covarianza”,
a partir de la página 568) de la
Guía del usuario I.

La única diferencia notable en el cuadro de diálogo actual son los botones de opción que le permiten elegir si
desea calcular las covarianzas contemporáneas o las covarianzas entre períodos.
ances
Machine Translated by Google

1002—Capítulo 47. Estadísticas del panel

Al cambiar la configuración en el cuadro de diálogo de la porción Estadísticas , puede indicarle a EViews que
calcule una variedad de otras medidas de asociación (correlaciones de rango no centradas de Pearson, Spearman
y tau de Kendall), así como estadísticas de prueba para determinar si la medida de asociación es correcta.
cero.

Además, puede especificar una muestra para utilizarla en el cálculo y seleccionar si desea que EViews emplee la
eliminación por lista para equilibrar la muestra en caso de que falten valores en la serie. Si va a trabajar con series
con observaciones faltantes, debe tener en cuenta que:

• EViews calculará las covarianzas para todas las secciones transversales (para covarianzas contemporáneas)
o períodos (para covarianzas entre períodos) en la muestra especificada, incluso si no hay observaciones
válidas para una sección transversal o período relevante. Si desea excluir períodos o secciones
transversales del análisis, debe hacerlo configurando la muestra.

• Para las covarianzas de la sección transversal, al verificar la configuración Equilibrar muestra - (eliminación
en forma de lista) se indica a EViews que equilibre los datos eliminando los datos de los períodos en los
que faltan valores para cualquier sección transversal.

• Para las covarianzas de período, la configuración Balance sample - (eliminación por lista) eliminará los
datos de secciones transversales completas en las que falten observaciones para cualquier período.

Para ilustrar, seguimos a Obstfeld y Rogoff (2001) al calcular las correlaciones entre países para el crecimiento
del consumo per cápita (DCPCH) para los países del Grupo de los Siete durante el período de 1973 a 1992. Los
datos, que son de Penn World La Tabla 5.6 se proporciona en el archivo de trabajo "PWT56_CONSUMP.wf1" en la
carpeta Archivos de ejemplo en el directorio de instalación de EViews.

Abra el archivo de trabajo y la serie DCPCH, seleccione Ver/Panel de covarianza... y complete el cuadro de diálogo
como se muestra arriba. Haga clic en Aceptar para calcular las estadísticas solicitadas y mostrar los resultados.
Machine Translated by Google

Covarianzas del panel: 1003

Análisis de Covarianza de Panel: Ordinario


Serie: DCPCH
Fecha: 17/08/12 Hora: 14:12
Muestra: 1973 1992
Observaciones incluidas: 140
Análisis de relaciones contemporáneas (entre secciones transversales)
Número de secciones transversales empleadas: 7

covarianza
Correlación
ALEMANIA,
Observaciones CANADA ciervo JAPÓN FRANCIA OESTE ITALIA Reino Unido

CANADA 0.000929
1.000000
20

ciervo 0.000364 0.000344


0.643323 20 1.000000
20

JAPÓN 2.39E-05 0.000156 0.000280


0.046872 0.504028 1.000000
20 20 20

FRANCIA 7.83E-05 9.83E-05 0.000117 0.000107


0.248871 20 0.513199 20 0.680323 20 1.000000
20

ALEMANIA, OESTE 0.000211 0.000173 0.000114 9.58E-05 0.000283


0.411637 0.554703 0.403295 0.551423 1.000000
20 20 20 20 20

ITALIA 0.000236 4.42E-05 6.15E-05 4.88E-05 8.84E-05 0.000315


0.436899 0.134410 0.207144 0.266630 0.296038 1.000000
20 20 20 20 20 20

Reino Unido 0.000364 0.000358 0.000293 0.000133 0.000198 0.000160 0.000885


0.401499 20 0.648652 20 0.588630 20 0.434526 20 0.394636 20 0.302919 20 1.000000
20

Estos resultados muestran las correlaciones en los valores de DCPCH entre secciones transversales.

Del mismo modo, podemos indicar a EViews que calcule las covarianzas entre períodos, obtenemos
correlaciones entre períodos. Rellene el cuadro de diálogo como en el ejemplo anterior, cambiando el Tipo a
Covarianzas entre períodos y cambie la muestra a “1973 1992” ya que los datos para DCPCH en 1972 no están
disponibles (debido al retraso en la diferencia).
Machine Translated by Google

1004—Capítulo 47. Estadísticas del panel

Si tuviera que usar la muestra original de “1972 1992”, la matriz de correlación entre períodos resultante contendría
solo NA (ya que la opción de muestra balanceada eliminaría todas las observaciones). Haga clic en Aceptar para
aceptar la configuración y calcular la relación entre covarianzas y correlaciones.

Componentes principales del panel

En “Covarianzas del panel”, a partir de la página 999, discutimos cómo una sola variable del panel podría desagregarse
en múltiples variables aleatorias, permitiéndonos calcular medidas de asociación entre diferentes secciones
transversales o períodos. Podemos ampliar este enfoque básico calculando los componentes principales de la variable
de panel utilizando una de las medidas de asociación.

La siguiente discusión asume que está familiarizado con las herramientas para el análisis de componentes
principales en EViews. En "Componentes principales", a partir de la página 586 de la Guía del usuario I , se
proporcionan antecedentes sobre el cálculo, la visualización y el almacenamiento de los componentes principales y
las puntuaciones .

Visualización de componentes principales

Para calcular y mostrar los resultados de los componentes principales para una serie de paneles, abra la serie y
seleccione Ver/Componentes principales del panel... para mostrar el cuadro de diálogo. Tenga en cuenta que el
archivo de trabajo debe estar estructurado como un panel para que la entrada del menú de covarianza del panel esté disponible.
Machine Translated by Google

Componentes principales del panel—1005

La primera pestaña del cuadro de diálogo, denominada Componentes, especifica la configuración de


visualización, salida y selección de los componentes principales. La pestaña es prácticamente idéntica a la
que se muestra cuando calcula los componentes principales de un grupo de series (consulte “Realización
de análisis de covarianza”, a partir de la página 569). La única diferencia menor está en el campo de edición
para el Número máximo de componentes que se conservarán. En la configuración del panel, el campo de
edición se rellena con "*", que es un sustituto del número máximo de componentes (número de secciones
transversales o períodos); en la configuración de grupo, este campo de edición se rellena con el número de
variables.
Machine Translated by Google

1006—Capítulo 47. Estadísticas del panel

La segunda pestaña,
denominada Cálculo, controla
el cálculo de la medida de
asociación utilizada en el análisis
de componentes principales.

Una vez más, el cuadro de


diálogo prácticamente no ha
cambiado con respecto al
utilizado en la configuración de
los componentes principales del
grupo, con la notable excepción
de los botones de opción que le
permiten elegir si desea calcular
las covarianzas contemporáneas
o las covarianzas entre
períodos.

El cálculo predeterminado calcula los componentes principales usando la matriz de correlación


contemporánea (entre secciones transversales), pero puede usar los menús desplegables Tipo y
Método para elegir usar las correlaciones de rango no centradas de Pearson, Spearman y Kendall.
sí.

Guardar puntajes de componentes

Una tarea común es guardar las puntuaciones de los componentes principales para su uso en análisis posteriores.
En consecuencia, EViews proporciona herramientas fáciles de usar para guardar las puntuaciones del análisis de
los componentes principales de su panel en el archivo de trabajo. Como estas herramientas son prácticamente
idénticas a las documentadas en “Guardar puntajes de componentes” en la página 593, aquí solo ofrecemos una
descripción abreviada.

Para guardar las puntuaciones de los componentes en el archivo de trabajo, utilizará el procedimiento de componentes
principales del panel. Haga clic en Proc/Crear componentes principales del panel... para mostrar el cuadro de diálogo.
Machine Translated by Google

Componentes principales del panel—1007

El cuadro de diálogo es prácticamente igual al que se muestra para guardar las puntuaciones de los componentes
principales de un grupo; de hecho, la primera pestaña es idéntica.

En la primera pestaña, describirá la salida que desea de EViews:

• Debe proporcionar nombres para las series en las que desea guardar las puntuaciones y, opcionalmente,
nombres para las cargas y las matrices de vectores propios, y el vector de valores propios.

• Es importante destacar que el menú desplegable Escala en la parte inferior del cuadro de diálogo se usa para
determinar las propiedades de sus puntajes. De forma predeterminada, la escala se establece en Normalizar
cargas para que las puntuaciones tengan varianzas iguales a los valores propios de la descomposición. En
su lugar, puede optar por guardar puntajes normalizados (Normalizar puntajes), puntajes y cargas
ponderadas iguales (Pesos simétricos) o cargas ponderadas por el usuario (Peso de carga del usuario).

La segunda pestaña se utiliza para describir el cálculo de la medida de asociación (utilizada en el cálculo). Las
opciones son aquellas para calcular las covarianzas del panel como se describe en “Visualización de los componentes
principales” en la página 1004.

Una ilustración
Para ilustrar, calculamos los componentes principales de las correlaciones entre países para el crecimiento del
consumo per cápita (DCPCH) para los países del Grupo de los Siete durante el período de 1973 a 1992 (Obstfeld
y Rogoff, 2001). Los datos, que son de Penn World Table 5.6, se proporcionan en el archivo de trabajo
"PWT56_CONSUMP.wf1" en la carpeta Archivos de ejemplo en el directorio de instalación de EViews.
Machine Translated by Google

1008—Capítulo 47. Estadísticas del panel

Abra el archivo de trabajo y la serie DCPCH, seleccione Ver/Panel de componentes principales... y haga
clic en Aceptar para calcular los componentes principales utilizando la configuración predeterminada y mostrar
los resultados básicos en forma de tabla:

Análisis de componentes principales del panel


Serie: DCPCH
Fecha: 29/08/12 Hora: 15:55
Muestra: 1972 1992
Observaciones incluidas: 147
Análisis de relaciones contemporáneas (entre secciones transversales)
Calculado usando: correlaciones ordinarias
Extrayendo 7 de 7 componentes posibles

Valores propios: (Suma = 7, Promedio = 1)


Acumulativo Acumulativo
Número Valor Diferencia Proporción Valor Proporción

1 3.735308 2.644171 0.5336 3.735308 0.5336


2 1.091137 0.246793 0.1559 4.826445 0.6895
3 0.844344 0.214297 0.1206 5.670789 0.8101
4 0.630047 0.258421 0.0900 6.300836 0.9001
5 0.371627 0.163062 0.0531 6.672463 0,9532
6 0.208565 0.089592 0.0298 6.881027 0,9830
7 0.118973 --- 0.0170 7.000000 1,0000

Vectores propios (cargas):

Sección transversal computadora 1 computadora 2 computadora 3 computadora 4 computadora 5 computadora 6 computadora 7

CANADA 0.326828 0.680374 -0.151109 -0.035987 0.329621 -0.022346 0.544974


ciervo 0.429951 0.113511 -0.499405 -0.018909 0.172759 0.356079 -0.629172
JAPÓN 0.386426 -0.539826 0.095487 0.196637 0.118652 0.556905 0.432733
FRANCIA 0,408552 ALEMANIA, -0.346313 0.187099 -0.283874 0,506102 -0.574024 -0.109172
OESTE 0,392449 ITALIA 0,280698 REINO 0.019595 0.049549 -0.656370 -0,634238 0.030900 0.095454
UNIDO 0,399098 0.330954 0.793017 0.245221 -0,047112 0.154858 -0.310595
-0.054291 -0.228706 0.623011 -0,432216 -0.456208 0.048876

Aquí vemos información de encabezado que describe el cálculo y dos de tres de las secciones de salida. La
primera sección proporciona un resumen de los valores propios de la matriz de correlación, mientras que la
segunda sección muestra los vectores propios correspondientes. No se muestra aquí, pero está presente en el
resultado real, es la propia matriz de correlación estimada.

Estos resultados en la primera sección muestran que los primeros cuatro componentes representan alrededor del
90% de la varianza escalada total en los valores de DCPCH entre secciones transversales. La segunda sección

describe los coeficientes de combinación lineal. Vemos que el primer componente principal (etiquetado como "PC1")
es una combinación lineal aproximadamente igual de los siete del crecimiento del consumo per cápita del país.
Podría pensarse que este componente representa el componente común en el crecimiento del consumo del G7.

Alternativamente, podemos indicar a EViews que calcule y grafique los valores propios asociados con las
correlaciones entre períodos. Haga clic en Ver/Panel Componentes principales... para mostrar el cuadro de
diálogo
Machine Translated by Google

Componentes principales del panel—1009

vaya a la sección Mostrar , seleccione Gráficos de valores propios y marque todas las casillas de verificación de
visualización para que EViews muestre los tres gráficos de valores propios. A continuación, haga clic en el Cálculo
y haga clic en el botón Covarianzas entre periodos para que EViews desagrupe los datos en diferentes periodos.

Es importante tener en cuenta que debe cambiar la muestra a "1973 1992" ya que los datos de DCPCH en
1972 no están disponibles (DCPCH es una diferencia rezagada). Si tuviera que usar la muestra original de “1972
1992”, la opción de muestra balanceada eliminaría todas las observaciones y
Machine Translated by Google

1010—Capítulo 47. Estadísticas del panel

la matriz de correlación entre periodos resultante contendría solo NA. El análisis de componentes principales en esta
matriz fallaría.

Haga clic en Aceptar para aceptar la configuración. Los resultados de esta vista (después de reorganizar ligeramente
los gráficos) se muestran a continuación:

Pruebas de causalidad de panel

EViews ofrece formas específicas de panel de pruebas de causalidad de Granger ("Causalidad de Granger" en la
página 606) de la Guía del usuario I.

En la configuración del archivo de trabajo del panel, EViews realiza pruebas de causalidad específicas de los datos del
panel. En estos escenarios, las regresiones de mínimos cuadrados pueden tomar varias formas diferentes, dependiendo
de las suposiciones hechas sobre la estructura de los datos del panel. Dado que la causalidad de Granger se calcula
ejecutando regresiones bivariadas, existen varios enfoques diferentes para probar la causalidad de Granger en un contexto
de panel.

En general, las regresiones bivariadas en un contexto de datos de panel toman la forma:

si ,t ÿ
ÿ ÿÿ ÿ ÿÿ
a0, i a1, i yi t – 1, ÿ al i yi t , , – 1 b1, i xi t –, 1 ÿ b1, i xi t – 1ÿ ei t, – 1 b1, i , (47.5)

,
ÿ
ÿ ÿÿ ÿ ÿÿ
a0, i a1, i xi t – 1, ÿ al i xi t , , yi t , – 1 ÿ b1, i yi t – 1ÿ ei
, t (47.6)
cemento
,
Machine Translated by Google

Prueba de causalidad del panel: 1011

Donde t denota la dimensión del período de tiempo del panel e i denota la dimensión de la sección transversal.

Las diferentes formas de prueba de causalidad de panel difieren en las suposiciones hechas sobre la homogeneidad de
los coeficientes a través de las secciones transversales.

EViews ofrece dos de los enfoques más simples para las pruebas de causalidad en paneles. El primero es tratar los
datos del panel como un gran conjunto de datos apilados y luego realizar la prueba de causalidad de Granger de la
manera estándar, con la excepción de no permitir que los datos de una sección transversal ingresen los valores
rezagados de los datos de la siguiente cruz. -sección. Este método supone que todos los coeficientes son iguales en
todas las secciones transversales, es decir:

a0, yo a0, j a1, yo a1, , alj , , ÿij , (47.7)

(47.8)
b1, yo j , b1, j bl
, , yo
ÿ , ÿ ÿijblj,
Un segundo enfoque adoptado por Dumitrescu-Hurlin (2012) hace una suposición totalmente opuesta, lo que
permite que todos los coeficientes sean diferentes en las secciones transversales:
ÿÿ ÿ a0, i a0, j a1, i a1, j , , ÿ al i al j ,
b1, i b1, j , , ÿ ,bl i blj ÿ ÿij , , , ÿij , (47.9)

(47.10)
,

Esta prueba se calcula simplemente ejecutando regresiones de causalidad de Granger estándar para cada sección
transversal individualmente. El paso anidado es tomar el promedio de las estadísticas de prueba, que se denominan
estadísticas Wbar. Muestran que la versión estandarizada de esta estadística, debidamente ponderada en paneles no
balanceados, sigue una distribución normal estándar. Esto se denomina la estadística Zbar.

(EViews no proporciona versiones integradas de otras pruebas de causalidad de panel, ya que a menudo se basan en
regresiones que utilizan algunos supuestos en la Ecuación (47.5) o, en algunos casos, regresiones de mínimos cuadrados
en dos etapas, a menudo utilizando un modelo de efectos fijos o aleatorios. Es posible realizar estas pruebas estimando
los modelos utilizando un objeto de ecuación de EViews y luego realizar restricciones de coeficientes de prueba de Wald
en los coeficientes apropiados).

Para realizar la prueba, cree un grupo que contenga la serie de interés, luego seleccione Ver/
Causalidad de Granger... para mostrar el cuadro de diálogo de prueba:
Machine Translated by Google

1012—Capítulo 47. Estadísticas del panel

Seleccione el tipo de prueba usando los botones de radio y proporcione una cantidad de retrasos para incluir.
Haga clic en Aceptar para aceptar la configuración y calcular la prueba.

Pruebas de causalidad del panel Dumitrescu Hurlin por pares


Fecha: 05/02/13 Hora: 15:58

Muestra: 1960 1978


Retrasos: 2

Hipótesis nula: Estado W. Zbar-Stat. problema

LGASPCAR no causa LCARPCAP de forma homogénea 2.81017 0.59203 0.5538

LCARPCAP no causa homogéneamente LGASPCAR 4.59763 3.17200 0.0015

Aquí mostramos los resultados de las pruebas Dumitrescu-Hurlin por parejas utilizando datos de "gaso
line.WF1" (que está disponible en su directorio de ejemplos). Rechazamos la nulidad de que LCARP CAP no
origina homogéneamente LGASPCAR, pero no se dirige en sentido contrario.

Desviaciones a largo plazo del panel

El cálculo de las covarianzas a largo plazo se describe con gran detalle en el Apéndice F, “Estimación de la
covarianza a largo plazo” en la página 1115 de la Guía del usuario I. La vista de grupo para calcular las covarianzas
se documenta en “Covarianza a largo plazo” en la página 600 de Guía del usuario I. En los archivos de trabajo de
panel, EViews calcula la matriz de covarianza promedio a largo plazo de Phillips y Moon (1999) obtenida al promediar
las covarianzas a largo plazo en las secciones transversales.

Hay poca diferencia entre la configuración de las covarianzas a largo plazo y las varianzas en la configuración del
panel y sin panel. Sin embargo, puede proporcionar un nombre en el campo de edición de la matriz del Panel a
EViews para guardar una matriz que contenga las estimaciones de covarianza individuales. Cada fila contendrá el
vec o vech de la matriz de resultados para la sección transversal correspondiente.

Supongamos, por ejemplo, que creamos un grupo utilizando las series LCARPCAP y LGASPCAR del archivo de
trabajo "gasolina.WF1". Seleccione Ver/Covarianza a largo plazo... para mostrar el cuadro de diálogo, ingrese
"pan_results" en el campo de edición de la matriz del panel y deje las configuraciones restantes en sus valores
predeterminados:
Machine Translated by Google

Desviaciones a largo plazo del panel: 1013

Las covarianzas promedio a largo plazo resultantes se muestran en la ventana del grupo:

y los resultados de las secciones transversales individuales se almacenan en la matriz PAN_RESULTS, con el
vech de las covarianzas de las secciones transversales individuales almacenadas en cada fila:
Machine Translated by Google

1014—Capítulo 47. Estadísticas del panel

Prueba de raíces unitarias del panel

EViews proporciona herramientas convenientes para las pruebas de raíces unitarias del panel de cómputo. Puede
calcular una o más de las siguientes pruebas: Levin, Lin y Chu (2002), Breitung (2000), Im, Pesaran y Shin (2003),
pruebas de tipo Fisher usando pruebas ADF y PP: Maddala y Wu (1999) , Choi (2001) y Hadri (2000).

Estas pruebas se describen en detalle en “Prueba de la raíz de la unidad del panel”, a partir de la página 617.
Machine Translated by Google

Prueba de raíz unitaria del panel—1015

Para calcular la prueba de raíz unitaria en


una serie, simplemente seleccione Ver/
Prueba de raíz unitaria… desde el

menú de un objeto de serie.

De manera predeterminada, EViews


calculará un resumen de las primeras
cinco pruebas de raíces unitarias, cuando

corresponda, pero puede usar el menú


desplegable en la esquina superior izquierda
para seleccionar una.
estadístico de prueba individual.

Además, puede usar el cuadro de


diálogo para especificar configuraciones
de tendencia e intercepción, para especificar
la selección de longitud de retardo y para
proporcionar detalles sobre la estimación espectral utilizada en el cálculo de la estadística o estadísticas de prueba.

Para comenzar, abrimos la serie F en nuestro archivo de trabajo del panel de ejemplo y aceptamos los valores
predeterminados para calcular el resumen de varias pruebas de raíz unitaria en el nivel de F. Los resultados están dados por

Prueba de raíz unitaria del panel: Resumen


Fecha: 22/08/06 Hora: 17:05

Muestra: 1935 1954


Variables exógenas: efectos individuales
Retrasos especificados por el usuario en: 1

Selección de ancho de banda de Newey-West utilizando el kernel de Bartlett


Observaciones equilibradas para cada prueba

Cruz
Método Estadística Prob.** secciones Obs.

Nulo: raíz unitaria (supone un proceso de raíz unitaria común)


Levin, Lin y Chut* 1.71727 0.9570 10 180

Nulo: raíz unitaria (supone un proceso de raíz unitaria individual)


Im, Pesaran y Shin W-stat -0.51923 0.3018 10 180

ADF - Chi-cuadrado de Fisher 33.1797 0.0322 10 180

PP - Chi-cuadrado de Fisher 41.9742 0.0028 10 190

**
Las probabilidades para las pruebas de Fisher se calculan utilizando un Chi asintótico
-distribución cuadrada. Todas las demás pruebas asumen normalidad asintótica.

Tenga en cuenta que hay bastante desacuerdo en estos resultados en cuanto a si F tiene una raíz unitaria, incluso dentro de
las pruebas que evalúan la misma hipótesis nula (p. ej., Im, Pesaran y Shin frente a las pruebas Fisher ADF y PP).
Machine Translated by Google

1016—Capítulo 47. Estadísticas del panel

Para obtener información adicional sobre los resultados intermedios, podemos volver a ejecutar el procedimiento
de raíz unitaria del panel, esta vez eligiendo una estadística de prueba específica. El cálculo de los resultados de la
prueba IPS, por ejemplo, muestra (además de los resultados IPS anteriores) los resultados estadísticos de la prueba
ADF para cada sección transversal del panel:

Resultados de la prueba ADF intermedia

Cruz máx.
sección t-estado problema E(t) E(Var) Hacer Hacer Nota 1 1 18
1 -2.3596 0,1659 -1,511 0,953
2 -3.6967 0,0138 -1,511 0,953 1 1 18
3 -2.1030 0,2456 -1,511 0,953 1 1 18
4 -3.3293 0,0287 -1,511 0,953 1 1 18
5 0.0597 0,9527 -1,511 0,953 1 1 18
6 1.8743 0,9994 -1,511 0,953 1 1 18
7 -1.8108 0,3636 -1,511 0,953 1 1 18
8 -0.5541 0,8581 -1,511 0,953 1 1 18
9 -1.3223 0,5956 -1,511 0,953 1 1 18
10 -3.4695 0,0218 -1,511 0,953 1 1 18

Promedio -1.6711 -1.511 0.953

Pruebas de cointegración de panel

EViews proporciona una serie de procedimientos para calcular las pruebas de cointegración del panel. Las
siguientes pruebas están disponibles en EViews: Pedroni (1999, 2004), Kao (1999) y prueba tipo Fisher utilizando la
metodología de prueba de Johansen (Maddala y Wu (1999)). Los detalles de estas pruebas se describen en "Detalles
de cointegración del panel", a partir de la página 1038.

Para calcular una prueba de cointegración de panel, seleccione Ver/Prueba de cointegración/Prueba de


cointegración de panel... en el menú de un grupo de EViews. Puede usar varias opciones para especificar la
especificación de tendencia, la selección de longitud de retraso y los métodos de estimación espectral.

Para ilustrar, realizamos una prueba de cointegración de panel de Pedroni. La única modificación de la configuración
predeterminada que hacemos es seleccionar Selección automática para la duración del retraso. Haga clic en
Aceptar para aceptar la configuración y realizar la prueba.
Machine Translated by Google

Prueba de cointegración de panel: 1017

Prueba de cointegración residual de Pedroni


Serie: IVM MM
Fecha: 13/12/06 Hora: 11:43

Muestra: 1968M01 1995M12


Observaciones incluidas: 2688
Secciones incluidas: 8

Hipótesis Nula: Sin cointegración


Supuesto de tendencia: sin tendencia determinista
Selección de retraso: SIC automático con un retraso máximo de 16
Selección de ancho de banda Newey-West con kernel Bartlett

Hipótesis alternativa: coeficientes AR comunes. (dentro de la dimensión)


Estadística
Estadística problema ponderada problema

Estadística v del panel 4.219500 0.0001 4.119485 0.0001


Panel estadístico rho -0.400152 0,3682 -2,543473 0,0157
Panel PP-Estadística 0.671083 0,3185 -1,254923 0,1815
Panel ADF-Estadística -0.216806 0.3897 0.172158 0.3931

Hipótesis alternativa: coeficientes AR individuales. (entre-dimensión)

Estadística problema

Grupo rho-Estadística -1.776207 0.0824

Grupo PP-Estadística -0.824320 0.2840

Grupo ADF-Estadística 0.538943 0.3450

La parte superior del resultado indica el tipo de prueba, la hipótesis nula, las variables exógenas y otras
opciones de prueba. La siguiente sección proporciona varios estadísticos de prueba de cointegración de panel
de Pedroni que evalúan la nula frente a las alternativas homogénea y heterogénea. En este caso, ocho de los
once estadísticos no rechazan la hipótesis nula de no cointegración al tamaño convencional de 0,05.

La parte inferior de la tabla informa los resultados de la sección transversal auxiliar que muestran el cálculo
intermedio utilizado para formar las estadísticas. Para la prueba de Pedroni, esta sección se divide en dos
secciones. La primera sección contiene los resultados no paramétricos de Phillips-Perron, y la segunda sección
presenta los resultados paramétricos de Dickey-Fuller aumentados.
Machine Translated by Google

1018—Capítulo 47. Estadísticas del panel

Resultados específicos de la sección transversal

Resultados Phillips-Peron (no paramétricos)

identificación cruzada AR(1) Variación Ancho de banda HAC Obs.


AUT 0.959 54057.16 46699.67 23.00 321
AUTOBÚS 0,959 98387,47 98024,05 7.00 321
CON 0,966 144092,9 125609,0 4.00 321
CST 0,933 579515,0 468780,9 6.00 321
DEP 0,908 896700,4 572964,8 7.00 321
FLOR 0,941 146702,7 165065,5 6.00 321
HAY 0.975 2996615. 2018633. 3.00 321
QUÉ 0.991 2775962. 3950850. 7.00 321

Resultados Dickey-Fuller aumentados (paramétrico)

identificación cruzada AR(1) Variación Retraso retraso máximo Obs.


AUT 0.983 48285.07 5 dieciséis 316
AUTOBÚS 0.971 95843.74 1 dieciséis 320
CON 0.966 144092.9 0 dieciséis 321
CST 0.949 556149.1 1 dieciséis 320
DEP 0,974 647340,5 2 dieciséis 319
FLOR 0.941 146702.7 0 dieciséis 321
HAY 0.976 2459970. 6 dieciséis 315
QUÉ 0.977 2605046. 3 dieciséis 318

Prueba de dependencia de la sección transversal del panel

Puede probar la dependencia de la sección transversal en una serie en un archivo de trabajo estructurado en panel.
Hay una variedad de pruebas para la dependencia de la sección transversal en la literatura, y EViews ofrece las
siguientes pruebas:

• Breusch-Pagan (1980) LM

• Pesaran (2004) escala LM

• Baltagi, Feng y Kao (2012) LM escalado con corrección de sesgo

• Mensaje (2004) CD

Consulte “Prueba de dependencia de la sección transversal del panel” en la página 958 para obtener más información.

Remuestreo de paneles

Resample... realiza un remuestreo en todas las series del grupo. Se proporciona una descripción del
procedimiento de remuestreo en “Remuestreo” en la página 435 de la Guía del usuario I. Cuando vuelve a
muestrear desde un archivo de trabajo de panel, EViews le ofrece una opción adicional de volver a muestrear a
través de secciones transversales o no. El valor predeterminado asume que las secciones transversales no son idénticas, por lo que
Machine Translated by Google

Análisis de paneles apilados: 1019

que el nuevo muestreo no se realiza a través de secciones transversales, sino que se realiza sección transversal
por sección transversal.

Análisis de paneles apilados

Hay disponible una amplia gama de análisis en archivos de trabajo estructurados en panel que no se han
rediseñado específicamente para utilizar la estructura de panel de sus datos. Estas herramientas le permiten
trabajar con los datos apilados y analizarlos, mientras aprovecha el soporte para manejar retrasos y adelantos en
el archivo de trabajo estructurado del panel.

Podemos, por ejemplo, tomar nuestro archivo


de trabajo del panel de ejemplo, crear un
grupo que contenga la serie C01, F y la
expresión I+I(-1), y luego seleccionar Ver/
Estadísticas descriptivas/Muestras
individuales del menú del grupo.
EViews muestra las estadísticas descriptivas
de los datos apilados.

Tenga en cuenta que los cálculos se


realizan sobre las 200 observaciones completas.
ción de datos apilados, y que las
estadísticas para I+I(-1) usan solo 190
observaciones (200 menos 10 observaciones
correspondientes al retraso de la primera observación para cada empresa).

De manera similar, suponga que desea


realizar una prueba de hipótesis en una
sola serie. Abra la ventana para la serie F
y seleccione Ver/Estadísticas y pruebas
descriptivas/Pruebas de hipótesis
simples... Ingrese “120” en el cuadro de
edición para probar el valor medio de la
serie apilada contra un valor nulo de 120.
EViews muestra los resultados de una
prueba de hipótesis simple para la media
de los 200 datos apilados de observación.

Si bien se admite una amplia variedad de análisis apilados, varias vistas y procedimientos no están disponibles
en archivos de trabajo estructurados en panel. No puede, por ejemplo, realizar ajustes estacionales o estimar
ARCH o modelos de espacio de estados con el panel apilado.
Machine Translated by Google

1020—Capítulo 47. Estadísticas del panel

Referencias
Dumitrescu, Elena-Ivona y Christophe Hurlin (2012). “Prueba de no causalidad de Granger en Heteroge
Newous Panels”, Economic Modeling, 29, 1450-1460.
Phillips, Peter CB y Hyungsik R. Moon (1999). "Teoría del límite de regresión lineal para datos de panel no
estacionarios", Econometrica, 67, 1057-1111.
Machine Translated by Google

Parte X. Análisis Multivariante Avanzado

Los siguientes capítulos describen herramientas especializadas para el análisis multivariante:

• El Capítulo 48. “Pruebas de cointegración”, en la página 1023, documenta las pruebas de la presencia de relaciones de
cointegración entre variables no estacionarias en configuraciones de panel y sin panel.

• El Capítulo 49. "Análisis factorial", en la página 1043 , describe las herramientas para el análisis multivariante.
utilizando el análisis factorial.

Las herramientas generales para el análisis multivariante utilizando el objeto de grupo, incluidas las estadísticas de resumen,
el análisis de covarianza y los componentes principales, se analizan en el Capítulo 12. “Grupos”, a partir de la página 543 de
la Guía del usuario I.
Machine Translated by Google

1022—Parte X. Análisis multivariado avanzado


Machine Translated by Google

Capítulo 48. Pruebas de cointegración

El hallazgo de que muchas macroseries temporales pueden contener una raíz unitaria ha estimulado el desarrollo
de la teoría del análisis de series temporales no estacionarias. Engle y Granger (1987) señalaron que una combinación
lineal de dos o más series no estacionarias puede ser estacionaria. Si existe tal combinación lineal estacionaria, se
dice que las series temporales no estacionarias están cointegradas. La combinación lineal estacionaria se denomina
ecuación de cointegración y puede interpretarse como una relación de equilibrio a largo plazo entre las variables.

Este capítulo describe varias herramientas para probar la presencia de relaciones de cointegración entre variables
no estacionarias en configuraciones de panel y sin panel.

Las dos primeras partes de este capítulo se centran en las pruebas de cointegración que emplean el marco de
sistema de Johansen (1991, 1995) o las estadísticas de prueba basadas en residuos de Engle-Granger (1987) o
Phillips-Ouliaris (1990). La sección final describe las pruebas de cointegración en entornos de panel donde puede
calcular las pruebas de Pedroni (1999), Pedroni (2004) y Kao (1999), así como una prueba tipo Fisher utilizando una
metodología subyacente de Johansen (Maddala y Wu, 1999) .

Las pruebas de Johansen se pueden realizar utilizando un objeto de grupo o un objeto Var estimado. Las pruebas
residuales se pueden calcular usando un objeto de grupo o un objeto de ecuación estimado usando métodos de
regresión no estacionarios. Las pruebas del panel se pueden realizar utilizando un objeto Pool o un objeto Group en
una configuración de archivo de trabajo del panel. Tenga en cuenta que se ofrecen pruebas de cointegración
adicionales como parte del diagnóstico para una ecuación estimada mediante métodos no estacionarios.
Consulte “Pruebas de cointegración” en la página 282.

Si se detecta cointegración, se pueden utilizar métodos de corrección de errores vectoriales (VEC) o de regresión no
estacionaria para estimar la ecuación de cointegración. Consulte “Corrección de errores de vectores (VEC)
Modelos” en la página 726 y Capítulo 26. “Regresión de cointegración”, a partir de la página 267
para detalles.

Prueba de cointegración de Johansen

EViews admite pruebas de cointegración basadas en VAR utilizando la metodología desarrollada en Johan sen
(1991, 1995) realizadas con un objeto de grupo o un objeto Var estimado.

Considere un VAR de orden: pags

ÿ ÿÿ ÿ ÿ
yt A1yt –1 ÿ Izquierda p – Bxt e t (48.1)

donde esyt k de variables I(1) no estacionarias, es un -vector de variables


un -vector d
deterministas
de innovaciones. xt y es
Podemos un vector
reescribir
este VAR como, y
pag -1
ÿ
yÿ t Q - 1 ÿ ÿ Gi ÿytÿ i – Bxt e ÿ
t (48.2)
yo = 1
Machine Translated by Google

1024—Capítulo 48. Pruebas de cointegración

dónde:
pags pags


PAGS ÿ
ÿ ai yo , Soldado americano
ÿ–ÿ Sí (48.3)
yo = 1 de ÿ ÿ1

El teorema de representación de Granger afirma que si la matriz de coeficientes tiene rango reducido, entonces
PAGS

rk ÿ , existen matrices kr ÿ ab y cada una con rango tal que P ab ÿ r y es ÿ

bÿyt es I(0). b r el número de relaciones de cointegración (el rango de cointegración) y cada


a son conocidos
columna de es el vector de cointegración. Como se explica a continuación, los elementos de P
como los parámetros de ajuste en el modelo VEC. El método de Johansen consiste en estimar la matriz a
partir de un VAR sin restricciones y probar si podemos rechazar las restricciones implícitas P
por el rango reducido de .

Cómo realizar una prueba de cointegración de Johansen

Para realizar la prueba de cointegración de Johansen, seleccione Ver/Prueba de cointegración/Prueba de


cointegración del sistema de Johansen... desde una ventana de grupo o Ver/Prueba de cointegración...
desde una ventana de objeto Var. La página Especificación de prueba de cointegración le solicita información
sobre la prueba.

El cuadro de diálogo diferirá


ligeramente dependiendo de si
está utilizando un grupo o un
objeto Var estimado para realizar
su prueba. Mostramos aquí el
diálogo de grupo; el cuadro de
diálogo Var tiene una página
adicional como se describe en
“Imposición de restricciones” en la página 1030.

Tenga en cuenta que, dado que se trata de una prueba

para la cointegración, esta prueba


solo es válida cuando se trabaja
con series que se sabe que no
son estacionarias.
Es posible que desee aplicar primero

pruebas de raíces unitarias a cada serie en el VAR. Consulte “Pruebas de raíz unitaria” en la página 589 para obtener detalles
sobre cómo realizar pruebas de raíz unitaria en EViews.

Especificación de tendencia determinista

Su serie puede tener medias distintas de cero y tendencias deterministas, así como tendencias estocásticas.
De manera similar, las ecuaciones de cointegración pueden tener intersecciones y tendencias deterministas.
La distribución asintótica del estadístico de prueba LR para la cointegración no tiene la distribución habitual
2
X distribución y depende de los supuestos realizados con respecto a las tendencias deterministas.
Machine Translated by Google

Prueba de cointegración de Johansen—1025

Por lo tanto, para realizar la prueba, debe hacer una suposición con respecto a la tendencia subyacente a sus datos.

Para cada caso de fila en el cuadro de diálogo, la columna COINTEQ enumera las variables deterministas que aparecen dentro de

las relaciones de cointegración (término de corrección de error), mientras que la columna FUERA enumera las variables deterministas

que aparecen en la ecuación VEC fuera de las relaciones de cointegración. Los casos 2 y 4 no tienen el mismo conjunto de términos
deterministas en las dos columnas.

Para estos dos casos, parte del término determinista está restringido a pertenecer únicamente a la relación de cointegración. Para los

casos 3 y 5, los términos deterministas son comunes en las dos columnas y la descomposición de los efectos deterministas dentro y

fuera del espacio de cointegración no se identifica de manera única; consulte la discusión técnica a continuación.

En la práctica, los casos 1 y 5 rara vez se utilizan. Debe usar el caso 1 solo si sabe que todas las series tienen media cero. El caso

5 puede proporcionar un buen ajuste dentro de la muestra, pero producirá pronósticos poco plausibles fuera de la muestra. Como

guía aproximada, use el caso 2 si ninguna de las series parece tener una tendencia. Para series de tendencias, utilice el caso 3 si

cree que todas las tendencias son estocásticas; si cree que algunas de las series son estacionarias en tendencia, use el caso 4.

Si no está seguro de qué supuesto de tendencia usar, puede elegir la opción Resumen de los 5 supuestos de tendencia (caso 6)

para ayudarlo a determinar la elección del supuesto de tendencia. Esta opción indica el número de relaciones de cointegración bajo

cada uno de los 5 supuestos de tendencia, y podrá evaluar la sensibilidad de los resultados al supuesto de tendencia.

Podemos resumir los cinco casos de tendencias deterministas considerados por Johansen (1995, p. 80–
84) como:

1. Los datos de nivel no tienen


yt tendencias deterministas y las ecuaciones de cointegración no
tienen intersecciones:

H2ÿ ÿ r : No importa – 1 Bx ÿ t abÿy ÿ t -1

2. Los datos de nivel no tienen


yt tendencias deterministas y las ecuaciones de cointegración tienen
intercepciones:

Bx ÿ ÿ ÿ bÿyt
a – 1 r ÿ 3.
H1 *ÿ ÿ r : No importa – 1 t 0ÿ

Los datos de nivel tienen


yt tendencias lineales pero las ecuaciones de cointegración solo tienen
frito:

Bx ÿ ÿ ÿ bÿyt
a –1rÿ
H1ÿ ÿ r : No importa – 1 t 0ÿ ÿ aÿg0
4. Los datos de nivel y las ecuaciones de cointegración tienen tendencias lineales: yt

H*ÿ ÿ r : No importa – 1 Bx ÿ t ÿ ÿ bÿyt


a – 1 r0 r1
aÿg0
ÿÿÿtÿ
5. Los datos de nivel tienen
yt tendencias cuadráticas y las ecuaciones de cointegración tienen tendencias lineales.
tendencias:

H rÿ ÿ : No importa – 1 Bx ÿ ÿ

t ÿ a bÿyt – 1 r0 ÿr1t ÿ ÿ ÿ ÿ ÿ t aÿ g0 g1 ÿ
Machine Translated by Google

1026—Capítulo 48. Pruebas de cointegración

Los términos asociados con son los términos deterministas “fuera” de la relación de cointegración aÿ

ciones. Cuando un término determinista aparece tanto dentro como fuera de la relación de cointegración,
la descomposición no se identifica de manera única. Johansen (1995) identifica la parte que pertenece
dentro del término de corrección de error al proyectar ortogonalmente los términos exógenos en el
espacio deamodo que sea el espacio nulo de
de identificación tal quepara
diferente aÿaÿÿ
que 0 término de corrección de .error
a el EViews usa
tenga un media
una método

muestral de cero.
Más específicamente, identificamos la parte dentro del término de corrección de error haciendo una regresión de las relaciones
de integración de la moneda bÿyt en una tendencia constante (y lineal).

Variables exógenas
El cuadro de diálogo de prueba le permite especificar variables exógenas adicionales para incluir en la prueba xt
VAR. La tendencia constante y lineal no debe aparecer en el cuadro de edición, ya que se especifican mediante las cinco
opciones de Especificación de tendencia . Si elige incluir variables exógenas, tenga en cuenta que los valores críticos
informados por EViews no tienen en cuenta estas variables.

Los términos deterministas que se agregan con mayor frecuencia son las variables ficticias estacionales. Tenga en
cuenta, sin embargo, que si incluye variables ficticias estacionales estándar 0–1 en el VAR de prueba, esto afectará tanto
la media como la tendencia de la serie de nivel. Para manejar este problema, Johansen yt

(1995, página 84) sugiere utilizar variables ficticias estacionales centradas (ortogonalizadas), que desplazan la media sin
contribuir a la tendencia. Las variables ficticias estacionales centradas para series trimestrales y mensuales se pueden
generar con los comandos:

serie d_q = @seas(q) - 1/4


serie d_m = @seas(m) - 1/12

para el trimestre y el mes q metro , respectivamente.

Intervalos de retraso

Debe especificar los retrasos de la prueba VAR como pares de intervalos. Tenga en cuenta que los rezagos se especifican
como rezagos de los primeros términos diferenciados usados en la regresión auxiliar, no en términos de los niveles. Por
ejemplo, si escribe “1 2” en el campo de edición, el VAR de prueba retrocede yÿ yÿ y cualquier otra variable en yÿque ,
hayatexógena
especificado.
t -1
t -2 en, cuenta
Tenga que, encon
cointegración términos de la en
un retraso serie de niveles,
la serie el retraso
de niveles , yt más grande es 3. Para ejecutar una prueba de

escriba "0 0" en el campo de edición.

Valores criticos

De manera predeterminada, EViews calculará los valores críticos para la prueba utilizando los valores p de MacKinnon-
Haug Michelis (1999). En su lugar, puede optar por informar el Osterwald-Lenum (1992) en los niveles del 5 % y el 1 %
cambiando la selección del botón de opción de MHM a Osterwald-Lenum.
Machine Translated by Google

Prueba de cointegración de Johansen—1027

Interpretación de los resultados de una prueba de cointegración de Johansen

A modo de ejemplo, a continuación se muestra la parte del encabezado del resultado de la prueba de cointegración para
el sistema de cuatro variables utilizado por Johansen y Juselius (1990) para los datos daneses.

Fecha: 21/09/09 Hora: 11:12


Muestra (ajustada): 1974Q3 1987Q3
Observaciones incluidas: 53 después de ajustes
Supuesto de tendencia: sin tendencia determinista (constante restringida)
Serie: LRM LRY IBO IDE
Serie exógena: D1 D2 D3
Advertencia: los valores críticos no asumen series exógenas
Intervalo de rezagos (en primeras diferencias): 1 a 1

Como se indica en el encabezado de la salida, la prueba no asume ninguna tendencia en la serie con una intersección
restringida en la relación de cointegración (calculamos la prueba utilizando la suposición 2 en el cuadro de diálogo,
Intercepción (sin tendencia) en CE - sin intersección en VAR) , incluye tres variables ficticias estacionales
ortogonalizadas D1–D3 y utiliza un retraso en las diferencias (dos retrasos en los niveles) que se especifica como "1 1" en
el campo de edición.

Número de relaciones de cointegración

La siguiente parte de la tabla informa los resultados para probar el número de relaciones de cointegración.
Se reportan dos tipos de estadísticas de prueba. El primer bloque informa las llamadas estadísticas de seguimiento y el
segundo bloque (que no se muestra arriba) informa las estadísticas de valores propios máximos . Para cada bloque, la
primera columna es el número de relaciones de cointegración bajo la hipótesis nula, la segunda columna son los valores
propios ordenados de la matriz en (48.3), la tercera columna es el estadístico de prueba y las dos últimas columnas son
PAGS

los 5% y 1% valores críticos. Los valores críticos (distribución no estándar) se tomaron de MacKinnon-Haug-Michelis

(1999), por lo que difieren ligeramente de los informados por Johansen y Juselius (1990).
Machine Translated by Google

1028—Capítulo 48. Pruebas de cointegración

Prueba de rango de cointegración sin restricciones (traza)

Número hipotético Rastro 0,05

de CE(s) valor propio Estadística valor crítico Prob.**

Ninguna 0,433165 49.14436 54.07904 0,1282


A lo sumo 1 0,177584 19.05691 35.19275 0,7836
Como máximo 2 0,112791 8.694964 20.26184 0,7644
Como mucho 3 0,043411 2.352233 9.164546 0,7071

La prueba de seguimiento indica que no hay cointegración en el nivel


*
0,05 denota el rechazo de la hipótesis en el nivel 0,05 **Valores p de
MacKinnon-Haug-Michelis (1999)

Prueba de rango de cointegración sin restricciones (valor propio máximo)

Número hipotético Máximo propio 0,05

de CE(s) valor propio Estadística valor crítico Prob.**

*
Ninguna 0,433165 30.08745 28.58808 0,0319
A lo sumo 1 0,177584 10.36195 22.29962 0,8059
Como máximo 2 0,112791 6.342731 15.89210 0,7486
Como mucho 3 0,043411 2.352233 9.164546 0,7071

La prueba de valor propio máximo indica 1 eqn(s) de cointegración en el nivel 0.05


*
denota rechazo de la hipótesis en el nivel 0.05 **MacKinnon-Haug-
Michelis (1999) valores p

Para determinar el número de relaciones de cointegración rcondicionadas a las suposiciones hechas


sobre la tendencia, podemos proceder secuencialmente desde r ÿ a0 k rÿ – 1 hasta que no lo

rechacemos. El resultado de este procedimiento de prueba secuencial se informa en la parte inferior de cada bloque.

El estadístico de traza informado en el primer bloque prueba la hipótesis nula r de relaciones de


k k
cointegración contra la alternativa de relaciones de cointegración, donde es el número de
variables endógenas, para r ÿ 0 1,, , ÿ k – .1Lak alternativa de relaciones de cointegración
corresponde al caso en que ninguna de las series tiene raíz unitaria y se puede especificar un VAR estacionario
en función de los niveles de todas las series. El estadístico de traza para la hipótesis nula de las relaciones de
r
cointegración se calcula como:
k

LRtrÿ ÿ rk ÿ – ÿ T logÿ 1 li ÿ – (48.4)


yÿÿ1

donde escomo
el i-ésimo
p valor propio más grande de la matriz en (48.3) que se informa en la segunda columna de
la tabla de salida.

El segundo bloque de la salida informa la estadística de valores propios máximos que prueba la hipótesis nula
r
de las relaciones de cointegración r ÿ 1 Esta
frente a la alternativa de las relaciones de cointegración. prueba
estadística
se de
calcula como:

LRmáxÿ rr ÿ 1 ÿ ÿ – logÿ T 1 lr ÿ 1 ÿ
(48.5)

LRtrÿ ÿ rk LRtr ÿ r ÿ 1 k
Machine Translated by Google

Prueba de cointegración de Johansen—1029

.
para r ÿ 0 1,, , ÿ k – 1

Hay algunos otros detalles a tener en cuenta:

• Los valores críticos están disponibles para k = 10 serie. También tenga en cuenta que los valores críticos

depender de los supuestos de tendencia y pueden no ser apropiados para modelos que contienen otros
regresores deterministas. Por ejemplo, una variable ficticia de cambio en la prueba VAR implica una
tendencia lineal rota en la serie de nivel. yt

• La estadística de traza y la estadística de valores propios máximos pueden producir resultados contradictorios.
Para tales casos, le recomendamos que examine el vector de cointegración estimado y base su elección
en la interpretabilidad de las relaciones de cointegración; ver Johan sen y Juselius (1990) para un ejemplo.

• En algunos casos, las pruebas de raíces unitarias individuales mostrarán que algunas de las series son inter P
rallado, pero la prueba de cointegración indicará que la matriz tiene rango completo k ÿ
( r). Esta aparente contradicción puede ser el resultado de la baja potencia de las pruebas de cointegración,
derivada quizás de un tamaño de muestra pequeño o que sirve como indicación de error de especificación.

Relaciones de cointegración

La segunda parte del resultado proporciona estimaciones de las relaciones de cointegración y los parámetros
b de
ajuste. Como es bien sabido, ela vector de cointegración no se identifica a menos que impongamos
b alguna
normalización arbitraria. El primer bloque reporta estimaciones de y basadas en la normalización bÿS11b ÿ I bdefinida
a en Johansen (1995). Nota , dónde S11
que la transposición de se informa
b en Coeficientes de cointegración no restringidos , de modo que la primera
fila es el primer vector de cointegración, la segunda fila es el segundo vector de cointegración, y así sucesivamente.

Coeficientes de cointegración sin restricciones (normalizados por b'*S11*b=I):

MLR LRY EI VA
-21,97409 22,69811 -114,4173 92.64010 C 133.1615
14,65598 -20,05089 3,561148 100.2632 -62.59345
7,946552 -25,64080 4,277513 -44.87727 62.74888
1,024493 -1,929761 24,99712 -14.64825 -2.318655

Coeficientes de ajuste sin restricciones (alfa):

D(LRM) 0.009691 -0.000329 0.004406 0.001980


D(LRY) -0.005234 0.001348 0.006284 0.001082
D(IBO) -0.001055 -0.000723 0.000438 -0.001536
D(IDE) -0.001338 -0.002063 -0.000354 -4.65E-05

Los bloques restantes reportan estimaciones de una normalización diferente para cada número
posible de relaciones de cointegración r ÿ 0 1,, , ÿ k – 1. Esta normalización alternativa expresa
Machine Translated by Google

1030—Capítulo 48. Pruebas de cointegración

r variables como funciones de las restantes kr –


las primeras variables en el sistema. Los errores estándar
asintóticos se informan entre paréntesis para los parámetros identificados.

En nuestro ejemplo, para una ecuación de cointegración tenemos:

1 Ecuaciones de cointegración: Probabilidad de registro 669.1154

Coeficientes de cointegración normalizados (error estándar


entre paréntesis)
LRM LRY EI IDE
1.000000 -1,032949 5.206919 -4.215880 C -6.059932
(0,13897) (0.55060) (1.09082) (0.86239)

Coeficientes de ajuste (error estándar entre paréntesis)


D(LRM) -0,212955 (0,06435) 0,115022 (0,06739)
0,023177 (0,02547) 0,029411 (0,01717)
D(LRY)

D(IBO)

D(IDE)

Imposición de restricciones

b está completamente identificado, es posible que desee imponer sus


Dado que el vector de cointegración no
propias restricciones de identificación. Si está realizando su prueba de cointegración de Johansen usando un
objeto Var estimado, EViews le ofrece la oportunidad de imponer restricciones a . Restringir b b
pueden imponerse restricciones al vector cointegrador (elementos de la matriz) y/o a los coeficientes de ajuste
(elementos de la matriz) a

Para realizar la prueba de cointegración de un objeto Var, primero deberá estimar un VAR con sus variables
como se describe en “Estimación de un VAR en EViews” en la página 689. A continuación, seleccione Ver/Prueba
de cointegración... en el menú Var y especifique las opciones en la pestaña Especificación de prueba de
cointegración como se explicó anteriormente. Luego abra la pestaña Restricciones VEC . Ingresará sus
restricciones en el cuadro de edición que aparece cuando marca Imponer restricciones
caja:
Machine Translated by Google

Prueba de cointegración de Johansen—1031

Se proporciona una descripción completa de cómo ingresar sus restricciones en "Imposición de restricciones de VEC"
en la página 729.

Resultados de la prueba de cointegración restringida

Si impone restricciones en la vista Prueba de cointegración , la parte superior de la salida mostrará los resultados de la
prueba sin restricciones como se describe anteriormente. La segunda parte del resultado comienza mostrando los
resultados de la prueba LR para restricciones vinculantes.

Restricciones:

a(3,1)=0

Pruebas de restricciones de cointegración:

Número restringido hipotético de CE(s) LR grados de


Logaritmo de verosimilitud Estadística Libertad Probabilidad

668.6698 0.891088 1 0.345183


1 674.2964 NA NA QUE NA NA
23 677.4677 QUE

NA indica restricción no vinculante.

Si las restricciones no son vinculantes para un rango en particular, las filas correspondientes se llenarán con NA. Si las
restricciones son vinculantes pero el algoritmo no convergió, la fila correspondiente se llenará con un asterisco “*”.
(Debería volver a hacer la prueba aumentando el número de iteraciones o relajando el criterio de convergencia). Para el
resultado de ejemplo que se muestra arriba, vemos que la restricción única a31 ÿ 0
es vinculante sólo bajo el supuesto de que
Machine Translated by Google

1032—Capítulo 48. Pruebas de cointegración

hay una relación de cointegración. Condicional a que exista una sola relación de cointegración, la prueba
LR no rechaza la restricción impuesta a niveles convencionales.

La salida también informa las restricciones estimadas


b a impuestas. Dado que la prueba de cointegración
e
no especifica el número de relaciones de cointegración, se mostrarán los resultados de todos los rangos
que sean consistentes con las restricciones especificadas. Por ejemplo, supongamos que el
restricción es:

B(2,1) = 1

Dado que esta es una restricción en el segundo vector de cointegración, EViews mostrará resultados
para rangos r ÿ 2 3,, , ÿ k – 1 (si el VAR tiene solo k ÿ 2 variables, EViews devolverá un
mensaje de error que indica que el "rango implícito de las restricciones debe ser de orden reducido").

Para cada rango, el resultado informa si se logró la convergencia y el número de iteraciones. El resultado
también informa si las restricciones identifican todos los parámetros de cointegración bajo el rango asumido.
Si se identifican los vectores de cointegración, estándar asintótico b
los errores se informarán junto con los parámetros.

Pruebas de cointegración de una sola ecuación

Puede usar un grupo o un objeto de ecuación estimado usando cointreg para realizar pruebas de
cointegración basadas en residuos de una sola ecuación de Engle y Granger (1987) o Phillips y Ouliaris
(1990). En "Antecedentes" en la página 267 se proporciona una descripción del modelo de ecuación única
subyacente a estas pruebas . Los detalles sobre el cálculo de las pruebas y las opciones asociadas se
pueden encontrar en "Pruebas basadas en residuos", en la página 282.

Brevemente, las pruebas de cointegración basadas en residuos de Engle-Granger y Phillips-Ouliaris son


simplemente pruebas de raíz unitaria aplicadas a los residuos obtenidos de una regresión de
cointegración MCO estática. Bajo el supuesto de que las series no están cointegradas, los residuos son
raíces unitarias no estacionarias. Por lo tanto, una prueba de la hipótesis nula de no cointegración contra la
La alternativa de cointegración se puede construir calculando una prueba de raíz unitaria del valor nulo de
la no estacionariedad residual contra la alternativa de la estacionariedad residual.

Cómo realizar una prueba de cointegración basada en residuos

Ilustramos las pruebas de cointegración de una sola ecuación utilizando el ejemplo de paridad del poder
adquisitivo de Hamilton (1994) (pág. 598) para el logaritmo del nivel de precios de EE. UU. (P_T), el
logaritmo del tipo de cambio dólar-lira (S_T) y el logaritmo de el nivel de precios italiano (PSTAR_T) de
1973m1 a 1989m10. Usaremos estos datos, que se proporcionan en "Hamilton_rates.WF1", para construir
pruebas de Engle-Granger y Phillips-Ouliaris asumiendo que la constante es el único regresor determinista
en la ecuación de cointegración.

Para realizar las pruebas de cointegración de Engle-Granger o Phillips-Ouliaris, primero cree un grupo,
digamos G1, que contenga las series P_T, S_T y PSTAR_T, luego seleccione View/Cointegration Test/
Machine Translated by Google

Pruebas de cointegración de una sola ecuación: 1033

Prueba de cointegración de una sola ecuación desde la barra de herramientas del grupo o el menú principal. Se abre la
página Especificación de prueba de cointegración para solicitarle información sobre la prueba.

El menú desplegable en la parte superior le permite


elegir entre la prueba predeterminada de Engle-
Granger o la prueba de Phillips Ouliaris . Debajo
del menú desplegable están las opciones para la
estadística de prueba. La prueba de Engle-Granger
requiere una especificación para el número de
diferencias rezagadas que se incluirán en la regresión
de la prueba y si se debe ajustar la estimación del
error estándar al formar las estadísticas de la prueba
ADF. Para que coincida con el de Hamilton

Por ejemplo, especificamos una especificación


de retraso fijo (especificado por el usuario) de 12
y conservamos la corrección de df predeterminada del
estimación del error estándar.

El lado derecho del cuadro de diálogo se utiliza para especificar la forma de la ecuación de cointegración. La principal
ecuación de cointegración se describe en la sección Especificación de ecuaciones . Debe usar el menú desplegable
Especificación de tendencias para elegir de la lista de supuestos de variables de tendencias deterministas preespecificados
(Ninguno, Constante (nivel), Tendencia lineal, Tendencia cuadrática). Si desea incluir regresores deterministas que no se
ofrecen en la lista preespecificada, puede ingresar los nombres de las series o expresiones en el cuadro de edición de
regresores deterministas . Para nuestro ejemplo, dejaremos la configuración en sus valores predeterminados, con la
especificación de Tendencia establecida en Constante (Nivel) y no se especificarán regresores deterministas adicionales.

La sección de especificación de regresores debe utilizarse para especificar tendencias deterministas u otros regresores que
deben incluirse en las ecuaciones de los regresores pero no en la ecuación de cointegración. En nuestro ejemplo, Hamilton
apunta a la evidencia de una desviación distinta de cero en los regresores, por lo que seleccionaremos Tendencia lineal en el
menú desplegable Tendencias adicionales .

Haga clic en Aceptar para calcular y mostrar los resultados de la prueba.


Machine Translated by Google

1034—Capítulo 48. Pruebas de cointegración

Fecha: 11/05/09 Hora: 15:52


Serie: P_T S_T PSTAR_T
Muestra: 1973M01 1989M10
Observaciones incluidas: 202

Hipótesis nula: las series no están cointegradas


Determinística de la ecuación de cointegración: C
Deterministas de regresores adicionales: @TREND
Especificación de retraso fijo (lag=12)

Dependiente tau-estadística Prob.* estadística z Prob.*

P_T -2.730940 0,4021 -26.42791 0,0479


ST -2.069678 0,7444 -13.83563 0,4088

PSTAR_T -2.631078 0,4548 -22.75737 0,0962

*MacKinnon (1996) valores de p.

Resultados intermedios:

P_T S_T PSTAR_T -0.030478


Rho - 1 -0.030082 -0.031846 0.011160 0.014535 0.012104
Rho SE 0.114656 5.934605 0.468376 2.413438 35.14397
Varianza residual 6.695884

Varianza residual de largo plazo


Número de rezagos Número de 12 12 12
observaciones Número de 189 189 189
tendencias estocásticas** 2 2 2

**Número de tendencias estocásticas en distribución asintótica

Las dos partes superiores de la salida describen la configuración de la prueba y resumen los resultados de la prueba.
Con respecto a los resultados de la prueba, tenga en cuenta que EViews calcula tanto el estadístico tau de Engle-
Granger (estadístico t ) como el coeficiente de autocorrelación normalizado (que llamamos estadístico z) para los
residuos obtenidos usando cada serie en el grupo como la variable dependiente en un regresión de cointegración. Aquí
vemos que los resultados de la prueba son muy similares para diferentes variables dependientes, con el estadístico tau
fallando uniformemente en rechazar el valor nulo de no cointegración en niveles convencionales. Los resultados para
las estadísticas z son mixtos, con los residuos de la ecuación P_T rechazando la raíz unitaria nula al nivel del 5%. En
general, sin embargo, las estadísticas de prueba sugieren que no podemos rechazar la hipótesis nula de no cointegración.

La parte inferior de los resultados muestra cálculos intermedios para la prueba correspondiente a cada variable
dependiente. “Pruebas basadas en residuos,” en la página 282 ofrece una discusión de estas estadísticas. Notamos
que solo hay 2 tendencias estocásticas en la distribución asintótica (en lugar de las 3 correspondientes al número de
variables en el grupo) como resultado de nuestra suposición de una deriva distinta de cero en los regresores.

Alternativamente, puede calcular la estadística de prueba de Phillips-Ouliaris. Una vez más seleccione Ver/
Prueba de cointegración/Prueba de cointegración de una sola ecuación en la barra de herramientas Grupo o
en el menú principal, pero esta vez elija Phillips-Ouliaris en el menú desplegable Método de prueba .
Machine Translated by Google

Pruebas de cointegración de una sola ecuación: 1035

El lado derecho del cuadro de diálogo, que


describe la regresión de cointegración y las
especificaciones de los regresores, debe
especificarse como antes.

El lado izquierdo del cuadro de diálogo


cambia para mostrar un solo botón de Opciones
para controlar la estimación de la varianza a largo
plazo utilizada en la prueba de Phillips-Ouliaris, y
la casilla de verificación para el ajuste gl de las
estimaciones de la varianza. La configuración
predeterminada indica a EViews que calcule estas
variaciones a largo plazo utilizando un estimador
de kernel Bartlett no preblanqueado con un ancho
de banda Newey-West fijo. Coincidimos con la configuración del ejemplo de Hamilton desactivando el ajuste df y
haciendo clic en el botón Opciones y usando el menú desplegable Método de ancho de banda para especificar un
valor de ancho de banda especificado por el usuario de 13.

Haga clic en el botón Aceptar para aceptar las Opciones, luego en Aceptar nuevamente para calcular las estadísticas
de la prueba y mostrar los resultados:
Machine Translated by Google

1036—Capítulo 48. Pruebas de cointegración

Fecha: 11/05/09 Hora: 16:01


Serie: P_T S_T PSTAR_T
Muestra: 1973M01 1989M10
Observaciones incluidas: 202

Hipótesis nula: las series no están cointegradas


Determinística de la ecuación de cointegración: C
Deterministas de regresores adicionales: @TREND
Estimación de la varianza a largo plazo (núcleo de Bartlett, ancho de banda del usuario =
13.0000)
Sin ajuste de df por variaciones

Dependiente tau-estadística Prob.* estadística z Prob.*

P_T -2.023222 0,7645 -7.542281 0,8039

ST -1.723248 0,8710 -6.457868 0,8638

PSTAR_T -1.997466 0,7753 -7.474681 0,8078

*MacKinnon (1996) valores de p.

Resultados intermedios:

P_T S_T PSTAR_T Rho - 1


-0.016689 -0.014395 -0.017550 Sesgo corregido Rho - 1 (Rho* - 1) -0.037524 -0.032129 -0.037187

Rho* SE 0.018547 0.018644 0.018617 Varianza residual 0.162192 6.411674 0.619376 Varianza
residual de larga duración 0.408224 13.02214 1.419722 Autocovarianza
0.123016 residual de longitudes
3.305234 0.400173

Bandwa.00.2.2.2.2.2.2.m.2.2.2.2.

201 201
2 2

**Número de tendencias estocásticas en distribución asintótica

En contraste con las pruebas de Engle-Granger, los resultados son bastante similares para las seis pruebas y la prueba
de Phillips-Ouliaris no rechaza la hipótesis nula de que las series no están cointegradas. Como antes, la parte inferior de
la salida muestra resultados intermedios para la prueba asociada con cada variable dependiente.

Pruebas de cointegración de panel

El gran interés y la disponibilidad de los datos de panel ha llevado a enfatizar la extensión de varias pruebas estadísticas
a los datos de panel. La literatura reciente se ha centrado en las pruebas de cointegración en un entorno de panel.
EViews calculará uno de los siguientes tipos de pruebas de cointegración de panel: Pedroni (1999), Pedroni (2004), Kao
(1999) y una prueba tipo Fisher utilizando una metodología subyacente de Johansen (Maddala y Wu 1999).

Realización de pruebas de cointegración de panel en EViews

Puede realizar una prueba de cointegración utilizando un objeto Pool o un grupo en una configuración de archivo de
trabajo del panel. Nos centramos aquí en la configuración del panel; realizando una prueba de cointegración usando un Pool
Machine Translated by Google

Prueba de cointegración de panel: 1037

implica solo diferencias menores en la especificación (consulte “Realización de pruebas de cointegración”, a partir
de la página 860 para obtener una discusión sobre las pruebas en la configuración de datos agrupados).

Para realizar la prueba de cointegración del panel utilizando un objeto de grupo, primero debe asegurarse de estar en un
archivo de trabajo estructurado del panel (Capítulo 44. “Trabajar con datos del panel”, en la página 893). Si tiene un
archivo de trabajo de panel con una sola sección transversal en la muestra, puede realizar una de las pruebas estándar
de cointegración de una sola ecuación utilizando su submuestra.

A continuación, abra un grupo de


EViews que contenga la serie de
interés y seleccione Vistas/Prueba de

cointegración/Prueba de
cointegración del panel... para
mostrar el cuadro de diálogo de cointegración.

El menú desplegable en la parte


superior del cuadro de diálogo le
permite elegir entre tres tipos de
pruebas: Pedroni (basado en Engle-
Granger), Kao (basado en Engle-
Granger), Fisher (combinado Johan
sen). A medida que selecciona
diferentes tipos de pruebas, el resto
del cuadro de diálogo cambiará para
presentarle diferentes opciones. Aquí
vemos las opciones asociadas al test de Pedroni.

(Tenga en cuenta que la prueba de Pedroni solo estará disponible para grupos que contengan siete series o menos).

Las opciones personalizables asociadas con las pruebas de Pedroni y Kao son muy similares a las opciones que se
encuentran en las pruebas de raíz de unidad de panel (“Prueba de raíz de unidad de panel” en la página 617).

La parte de especificación de tendencia determinista del cuadro de diálogo especifica los regresores exógenos que se
incluirán en la regresión de segunda etapa. Debe seleccionar Intersección individual si desea incluir efectos fijos
individuales, Intersección individual y tendencia individual si desea incluir tendencias y efectos fijos individuales, o Sin
intersección o tendencia para no incluir regresores. La prueba de Kao solo permite la intercepción individual.

La sección de longitud de retraso se utiliza para determinar el número de retrasos que se incluirán en la regresión de
segunda etapa. Si selecciona Selección automática, EViews determinará el retraso óptimo utilizando el criterio de
información especificado en el menú desplegable (Akaike, Schwarz, Han nan-Quinn). Además, puede proporcionar un
retardo máximo que se utilizará en la selección automática. Un campo vacío indicará a EViews que calcule el retraso
máximo para cada sección transversal en función del número de observaciones. La longitud de retraso máxima
predeterminada para cross-sec i
ción se calcula como:
Machine Translated by Google

1038—Capítulo 48. Pruebas de cointegración

ÿ
1 4ÿ
Si ÿ ÿ ÿ 100 ÿ
Ti ( ÿ) ÿ ÿ – k ÿ 3, 12 int mín

donde es la i puede proporcionar su propio valor seleccionando


Delongitud de la sección transversal. Alternativamente,
Especificado por el usuario e ingresando un valor en el campo de edición.

La prueba de Pedroni emplea la estimación kernel tanto paramétrica como no paramétrica de la varianza a largo plazo. Puede
usar las secciones Cálculo de varianza y Longitud de retraso para controlar el cálculo de los estimadores de varianza
paramétrica. La parte de estimación espectral del cuadro de diálogo le permite especificar la configuración para la estimación
no paramétrica. Puede seleccionar entre varios tipos de kernel (Bartlett, Parzen, espectral cuadrático) y especificar cómo
se seleccionará el ancho de banda (Newey-West automático, Newey-West fijo, especificado por el usuario). El ancho de
banda fijo de Newey-West viene dado por ÿ 4 T y la parte de estimación espectral de la configuración del cuadro de diálogo
2 9ÿ
se describe a continuación. i ÿ ÿ 100 . La prueba de Kao utiliza la longitud de retraso

Aquí, vemos las opciones para la


selección de la prueba de Fisher.

Estas opciones son similares a las


opciones disponibles en la prueba de
cointegración de Johansen (“Prueba
de cointegración de Johansen”, a
partir de la página 1023).

La sección de especificación de

tendencia determinista determina


el tipo de tendencia exógena que se
utilizará.

La sección Intervalos de retraso


especifica el par de retraso que se
utilizará en la estimación.

Detalles de cointegración del panel

Aquí proporcionamos una breve descripción de las pruebas de cointegración compatibles con EViews. Las pruebas de
Pedroni y Kao se basan en las pruebas de cointegración de dos pasos (basadas en residuos) de Engle-Granger (1987). La
prueba de Fisher es una prueba combinada de Johansen.

Pruebas de cointegración de Pedroni (basadas en Engle-Granger)

La prueba de cointegración de Engle-Granger (1987) se basa en un examen de los residuos de una regresión espuria
realizada con variables I(1). Si las variables están cointegradas, los residuos deberían ser I(0). Por otro lado, si las variables
no están cointegradas, los residuos serán I(1). Pedroni (1999, 2004) y Kao (1999) extienden el marco de trabajo de Engle-
Granger a las pruebas que involucran datos de panel.
Machine Translated by Google

Prueba de cointegración de panel: 1039

Pedroni propone varias pruebas de cointegración que permiten interceptos heterogéneos y coeficientes de
tendencia a través de secciones transversales. Considere la siguiente regresión

si ÿ ÿ ÿdije b1ix1i t _ , b2ix2i ,t


ÿ ÿÿ ÿ e it ÿ bMixMi t , , (48.6)

para t ÿ 1, ,ÿ T i ÿ 1, ; ,ÿ N m ÿ 1, ; ,ÿ
Mi ;se
donde
supone
y que sonXinte di
rallado de orden uno, por ejemplo , I(1). Los parámetros comer
y son efectos individuales y de tendencia que
pueden establecerse en cero si se desea.

Bajo la hipótesis nula de no cointegración, el enfoque de residuos es , seré yo(1). El ei general


obtener residuos de la Ecuación (48.6) y luego probar si los residuos son I(1) ejecutando la regresión auxiliar,

desde rie ÿ es – 1 ÿ apagado (48.7)

o
Pi

una
ÿ

mucho – 1 ÿ ÿ
vÿ
nosotros eÿ eso j – eso
(48.8)

jÿ1

para cada sección transversal. Pedroni describe varios métodos de construcción de estadísticos para probar
la hipótesis nula de no cointegración ( ri ÿ 1 ). Hay dos hipótesis alternativas: la
alternativa homogénea, ri ÿ ÿ ÿ r ÿ 1 i para todos (que Pedroni denomina la prueba dentro de
la dimensión o prueba de estadísticas de panel), y la alternativa heterogénea, ri ÿ 1 i para todos
(también conocida como la prueba estadística entre dimensiones o de grupo).

El estadístico de cointegración del panel de Pedroni


ÿNse construye a partir de los residuos de T,
Ecuación (48.7) o Ecuación (48.8). Un total de once estadísticas con diversos grados de NT adecuado
se generan lazos (tamaño y poder para diferentes y ).

Pedroni muestra que el estadístico estandarizado se distribuye asintóticamente normalmente,

ÿN T, –mN (48.9)
-------------------------------- ÿ Nÿ ÿ 0 1,
en

donde y son los términos


metro
en de ajuste generados por Monte Carlo.

Los detalles de estos cálculos se proporcionan en los documentos originales.

Pruebas de cointegración de Kao (basadas en Engle-Granger)

La prueba de Kao sigue el mismo enfoque básico que las pruebas de Pedroni, pero especifica interceptos
específicos de la sección transversal y coeficientes homogéneos en los regresores de la primera etapa.

En el caso bivariado descrito en Kao (1999), tenemos

si ÿÿ comer bxit eÿ eso


(48.10)

por
Machine Translated by Google

1040—Capítulo 48. Pruebas de cointegración

yit y ÿ it – 1 te amo (48.11)


,

pegar
ÿ
ÿ
salir – 1 e it ,
(48.12)

para t ÿ 1, , ÿ T i;ÿ 1, , ÿ norte . En términos más generales, podemos considerar ejecutar la primera etapa
Ecuación de regresión (48.6), que requiere que el secciones
sea heterogéneo, que sea
transversales homogéneo
y establezca
bi ai enlos
todos todas las
coeficientes de tendencia gi a cero.

Luego, Kao ejecuta la regresión auxiliar agrupada,

una
ÿ

reit – 1 v it
ÿ (48.13)

o la versión aumentada de la especificación agrupada,


pags

una
ÿ

r˜ eit – 1
ÿ
ÿwj eÿ _ ÿ v
eso (48.14)
eso j –

jÿ1

Bajo el nulo de no cointegración, Kao muestra que siguiendo las estadísticas,

T Nÿ ÿ rˆ
ÿ 3– N
1
DFr
ÿ ------------------------------------------------- -
(48.15)
10.2

DFt 1.25tr ÿ ÿ 1.875N (48.16)


2 2
* NTÿ ÿ rˆ – 1 ÿ 3 , etc. jˆ ÿ en 0v
DFr
ÿ ------------------------------------------------- -------------------
(48.17)
4
4 3 36jˆ . en ÿ ÿ 5jˆ 0v ÿ

* ÿ 6Njˆ ÿ ÿ 2jˆ 0v ÿ
tr en

DFT
ÿ ------------------------------------------------- --------------------
(48.18)
2 2 2 2
jˆ 0v ÿ ÿ 2jˆ ÿ 3jˆ
ÿ ÿÿ10jˆ 0v ÿ
en en

y para p ÿ 0 (es decir , la versión aumentada),

t ÿ 6Njˆ ÿ ÿ 2jˆ 0v ÿ
r˜ en
alimentador automático de documentos
ÿ ------------------------------------------------- --------------------
(48.19)
2 2 2 2
jˆ 0v ÿ ÿ 2jˆ ÿ 3jˆ
ÿ ÿÿ10jˆ
en en 0v ÿ

2 2 2 es
Nÿ ÿ 0 1, jˆ con
asintóticamente,
la varianza estimada
donde lade varianza
largo plazo
estimada
jˆ 0v converge a 2 en
ÿ-
jˆ en jˆ tu -2
– 2 –2
2 jˆ 0u 0ue
. ÿ

jˆ j0e

La covarianza de

de
ingenio
ÿ
(48.20)
una

se estima como
Machine Translated by Google

Referencias—1041

norte T
2
jˆ en jˆ tu 1
S
ÿ

2
ÿÿNUEVO TESTAMENTO--------
ÿ wˆ itwˆ itÿ (48.21)

jˆue jˆe _ yo = 1 t = 1

y la covarianza de largo plazo se estima utilizando el estimador kernel habitual

2
ÿ
jˆ 0u jˆ 0ue

2
jˆ 0ue jˆ 0e
(48.22)
norte T ÿ T
1 1 1 ÿ

ÿ ÿ----
norte
---
T
ÿ ---
wˆ itwˆ itÿ ÿ ÿTk tÿ ÿ ÿ b
ÿ
ÿ ÿ wˆ itwˆ it – tÿ wˆ it – twˆ it
ÿ

yo = 1 t=1 t=1 tÿtÿ1

b
donde eskuna de las funciones del kernel admitidas y es el ancho de banda.

Pruebas Individuales Combinadas (Fisher/Johansen)

Fisher (1932) deriva una prueba combinada que utiliza los resultados de las pruebas independientes individuales.
Maddala y Wu (1999) utilizan el resultado de Fisher para proponer un enfoque alternativo para probar la cointegración
en datos de panel mediante la combinación de pruebas de secciones transversales individuales para obtener un
estadístico de prueba para el panel completo.

Si es
pi el valor p de una prueba de cointegración individual para la sección transversal i , luego bajo el
hipótesis nula para el panel,
norte

2
2 pi logÿ ÿ x ÿ 2N (48.23)
–ÿ
yo = 1
2
Por defecto, EViews informa la x valor basado en MacKinnon-Haug-Michelis (1999) p-val
ues para la prueba de trazas de cointegración de Johansen y la prueba de valores propios máximos.

Referencias
Boswijk, H. Peter (1995). “Identificabilidad de sistemas cointegrados”, Informe técnico, Instituto Tinbergen.
Engle, Robert F. y CWJ Granger (1987). “Cointegración y Corrección de Errores: Representación, Esti
mation, and Testing”, Econometrica, 55, 251–276.
Fischer, RA (1932). Métodos estadísticos para trabajadores de investigación, 4ª edición, Edimburgo: Oliver & Boyd.
Hamilton, James D. (1994). Análisis de series temporales, Princeton: Princeton University Press.
Johansen, Soren (1991). “Estimación y Prueba de Hipótesis de Vectores de Cointegración en Vector Gaussiano
Modelos autorregresivos”, Econometrica, 59, 1551–1580.
Johansen, Soren (1995). Inferencia basada en la probabilidad en modelos autorregresivos de vectores cointegrados, Oxford:
Prensa de la Universidad de Oxford.

Johansen, Soren y Katarina Juselius (1990). “Estimación de máxima verosimilitud e inferencias sobre la integración de
monedas, con aplicaciones a la demanda de dinero”, Oxford Bulletin of Economics and Statistics, 52, 169–210.
Machine Translated by Google

1042—Capítulo 48. Pruebas de cointegración

Kao, Chinwa D. (1999). "Regresión espuria y pruebas basadas en residuos para cointegración en datos de panel",
Revista de Econometría, 90, 1–44.
MacKinnon, James G. (1996). “Funciones de distribución numérica para pruebas de raíz unitaria y cointegración,”
Diario de Econometría Aplicada, 11, 601-618.
MacKinnon, James G., Alfred A. Haug y Leo Michelis (1999), “Numerical Distribution Functions of
Pruebas de cociente de probabilidad para la cointegración”, Journal of Applied Econometrics, 14, 563-577.
Maddala, GS y S. Wu (1999). “Un estudio comparativo de pruebas de raíces unitarias con datos de panel y un nuevo
Prueba simple”, Boletín de Economía y Estadística de Oxford, 61, 631–52.
Osterwald-Lenum, Michael (1992). “Una Nota con Cuantiles de la Distribución Asintótica de la Maxi
Estadísticas de prueba de rango de cointegración de probabilidad máxima”, Oxford Bulletin of Economics and Statistics,
54, 461–472.

Pedroni, P. (1999). “Valores críticos para las pruebas de cointegración en paneles heterogéneos con regresores múltiples”,
Boletín de economía y estadística de Oxford, 61, 653–70.
Pedroni, P. (2004). “Cointegración de Paneles; Propiedades asintóticas y de muestras finitas de las pruebas de series de tiempo
agrupadas con una aplicación a la hipótesis de PPP”, Econometric Theory, 20, 597–625.
Machine Translated by Google

Capítulo 49. Análisis factorial

El análisis factorial exploratorio es un método para explicar las relaciones de covarianza entre un número de variables
observadas en términos de un número mucho menor de variables no observadas , denominadas factores.

EViews proporciona una amplia gama de herramientas para realizar análisis factoriales, desde calcular la matriz de
covarianza a partir de datos sin procesar hasta la construcción de estimaciones de puntuación factorial.

El análisis factorial en EViews se lleva a cabo utilizando el objeto factor. El resto de este capítulo describe el uso del objeto
factor EViews para realizar un análisis factorial exploratorio.
Con el objeto de factor EViews puede:

• Calcular covarianzas, correlaciones u otras medidas de asociación.

• Especificar el número de factores.

• Obtener estimaciones iniciales de unicidad.

• Extraer (estimar) las cargas y singularidades de los factores.

• Examinar diagnósticos.

• Realizar rotación de factores.

• Calcule las puntuaciones de los factores.

EViews ofrece una amplia gama de opciones en cada una de estas áreas. Puede, por ejemplo, seleccionar de un menú de
métodos automáticos para elegir el número de factores a retener, o puede especificar un número arbitrario de factores. Puede
estimar su modelo usando factores principales, factores principales iterados, máxima verosimilitud, mínimos cuadrados no
ponderados, mínimos cuadrados generalizados y estimación de covarianza particionada no iterativa (PACE). Una vez que
obtenga las estimaciones iniciales, las rotaciones se pueden realizar utilizando cualquiera de los más de 30 métodos
ortogonales y oblicuos, y las puntuaciones de los factores se pueden estimar en más de una docena de formas.

Comenzamos con una discusión sobre el proceso de creación y especificación de un objeto de factor y el uso del objeto
para estimar el modelo, realizar la rotación de factores y estimar las puntuaciones de los factores.
Esta sección asume cierta familiaridad con el modelo de factor común y los diversos problemas asociados con la especificación,
la rotación y la puntuación. Aquellos que requieran detalles adicionales pueden consultar “Antecedentes”, a partir de la página
1074.

A continuación, proporcionamos una descripción general de las vistas, los procedimientos y los miembros de datos
proporcionados por el objeto de factor, seguido de un ejemplo ampliado que destaca las características seleccionadas.

El resto del capítulo proporciona información básica relevante sobre el modelo de factor común. Nuestra discusión es
necesariamente limitada; la literatura sobre análisis factorial es extensa,
Machine Translated by Google

1044—Capítulo 49. Análisis factorial

por decir lo menos, y no podemos intentar una visión global. Para aquellos que requieren un tratamiento detallado,
el tratamiento de la longitud del libro de Harman (1976) es una referencia estándar. Otras encuestas útiles incluyen
Gorsuch (1983) y Tucker y MacCallum (1977).

Creación de un objeto de factor

El análisis factorial en EViews se lleva a cabo usando un objeto factorial. Puede crear y especificar el objeto de factor de
varias formas. Los métodos más fáciles son:

• Seleccione Objeto/Nuevo objeto en el menú del archivo de trabajo, elija Factor e ingrese la especificación
ificación en el cuadro de diálogo Especificación de factor .

• Resalte varias series, haga clic con el botón derecho, seleccione Abrir/como factor... e ingrese la especificación
ción en el diálogo.

• Abra un objeto de grupo existente, seleccione Proc/Make Factor... e ingrese la especificación


en el diálogo.

También puede usar los comandos factor o factest para crear y especificar su objeto de factor.

Especificación del modelo


Hay dos partes distintas de una especificación de objeto de factor. La primera parte de la especificación describe qué
medida de asociación o dispersión, generalmente una matriz de correlación o covarianza, EViews debe ajustarse utilizando
el modelo factorial. La segunda parte de la especificación define las propiedades del modelo factorial.

La medida de dispersión de interés se especifica mediante la pestaña Datos del cuadro de diálogo y el modelo factorial
se define mediante la pestaña Estimación . Las siguientes secciones describen estos ajustes en detalle.

Especificación de datos

El primer elemento de la pestaña Datos es el menú desplegable Tipo , que se utiliza para especificar si desea calcular
una matriz de correlación o covarianza a partir de los datos de la serie, o proporcionar una matriz de usuario que
contenga una medida de asociación previamente calculada.
Machine Translated by Google

Creación de un objeto de factor—1045

Especificación de covarianza

Aquí vemos el diseño del cuadro de


diálogo cuando Correlación o Covarianza
es seleccionado.

La mayoría de estos campos deberían


estar familiarizados con la Covarianza

Vista de análisis de un grupo. Detalles


adicionales sobre todos estos conjuntos

Los ajustes se pueden


encontrar en “Análisis de covarianza”,
a partir de la página 568.

Método

Puede usar el menú desplegable


Método para especificar el método de
cálculo: covarianzas ordinarias de
Pearson, covarianzas no centradas,
covarianzas de orden de rango de
Spearman y medidas de asociación tau de Kendall.

Tenga en cuenta que el cálculo de las puntuaciones de los factores ("Puntuación" en la página 1084) no es compatible
con los modelos de factores que se ajustan a las medidas tau de Spearman o Kendall. Sin embargo, si desea calcular
puntajes para medidas basadas en estos métodos, puede estimar un modelo factorial que se ajuste a una matriz
especificada por el usuario.

Variables

Debe ingresar la lista de series o grupos que contienen series que desea emplear para el análisis.

(Tenga en cuenta que cuando crea su objeto de factor a partir de un objeto de grupo o un conjunto de series
resaltadas, EViews asume que desea calcular una medida de asociación de la serie especificada e inicializará el campo
de edición utilizando los nombres de las series).

Muestra

Debe especificar una muestra de observaciones e indicar si desea equilibrar la muestra. De forma predeterminada,
EViews realizará una eliminación por lista cuando encuentre valores faltantes. Esta opción se ignora cuando se realiza
un análisis parcial (que solo se puede calcular para muestras balanceadas).

parcialización

Las covarianzas o correlaciones parciales se pueden calcular para cada par de variables de análisis ingresando una
lista de variables condicionantes en el campo de edición.
Machine Translated by Google

1046—Capítulo 49. Análisis factorial

No se admite el cálculo de puntajes factoriales para modelos ajustados a correlaciones o covarianzas parciales. Sin
embargo, para calcular las puntuaciones de las medidas en esta configuración, puede estimar un modelo factorial que
se ajuste a una matriz especificada por el usuario.

Ponderación

Cuando especifique un método de ponderación, se le pedirá que ingrese el nombre de una serie de ponderación. Hay
cinco opciones de peso diferentes: frecuencia, varianza, desviación estándar, varianza escalada y desviación estándar
escalada.

Corrección de grados de libertad

Puede optar por calcular las covarianzas utilizando el estimador de máxima verosimilitud o la fórmula corregida de
grado de libertad. De forma predeterminada, EViews calcula estimaciones de ML (sin corrección de df) de las
covarianzas. Tenga en cuenta que esta elección puede ser relevante incluso si va a trabajar con una matriz de
correlación, ya que se pueden usar datos estandarizados al construir puntajes factoriales.

Especificación de matriz de usuario

User-matrix en el menú desplegable


Tipo, el cuadro de diálogo cambia y le
solicita el nombre de la matriz e
información opcional para el número de
observaciones, el ajuste de los grados de

libertad y los nombres de las columnas.

• Debe especificar el
nombre de una matriz EViews

objeto que contiene la medida de


asociación que debe ajustarse.
La matriz debe ser

cuadrado y simétrico, aunque


no es necesario que sea un
objeto de matriz simétrica.

• Puede ingresar un escalar


valor para el número de observaciones, o una matriz que contiene el número de observaciones por pares. No se
calculará una cantidad de resultados si no se proporciona una cantidad de observaciones. Si el número de
observaciones por pares no es constante, EViews utilizará el número mínimo de observaciones al calcular las
estadísticas.

• Se pueden proporcionar nombres de columna para etiquetar los resultados. Si no se proporciona, las variables se
etiquetarán como "V1", "V2", etc. No necesita proporcionar nombres para todas las columnas; los nombres
genéricos se reemplazarán con los nombres especificados en el orden en que se proporcionan.
Machine Translated by Google

Creación de un objeto de factor—1047

Especificación de estimación

La configuración de estimación principal se muestra cuando hace clic en la pestaña Estimación del cuadro de
diálogo Especificación de factor. Hay cuatro secciones en el cuadro de diálogo que le permiten controlar el método,
la cantidad de factores, las comunalidades iniciales y otras opciones. Describimos cada uno en
giro.

Método

En el menú desplegable Método , debe


seleccionar su método de estimación.
EViews admite la estimación utilizando
métodos de máxima verosimilitud,
mínimos cuadrados generalizados,
mínimos cuadrados no ponderados,
factores principales, factores
principales iterados y particionados
(PACE) .

Dependiendo del método, pueden


aparecer diferentes configuraciones en
la sección Opciones a la derecha.

Número de factores

EViews admite una variedad de


métodos para seleccionar el número
de factores. De forma predeterminada,
EViews utiliza el método parcial de promedio mínimo (MAP) de Velicer (1976). La evidencia de la simulación sugiere
que MAP (junto con el análisis paralelo) es más preciso que los métodos más comúnmente usados como Kaiser-
Guttman (Zwick y Velicer, 1986). Consulte “Número de factores”, a partir de la página 1075 para obtener un breve
resumen de los diversos métodos.

Puede cambiar el valor predeterminado seleccionando un método alternativo en el


menú desplegable. El cuadro de diálogo puede cambiar para solicitarle una entrada
adicional:

• El método de valores propios mínimos le permite emplear un


regla de Kaiser-Guttman modificada que utiliza un umbral diferente.

Simplemente ingrese su umbral en el campo de edición Cutoff .

• Si selecciona Fracción de la varianza total, EViews le pedirá que ingrese el objetivo


límite.

• Si selecciona Análisis paralelo (media) o Análisis paralelo (cuantil) en el menú desplegable, la página de
diálogo cambiará para ofrecerle varias opciones adicionales.
Machine Translated by Google

1048—Capítulo 49. Análisis factorial

En el Número de factor
secciones, EViews le
solicitará el número de
simulaciones que se ejecutarán
y, cuando corresponda, el
cuantil de la distribución
empírica que se usará para
comparación.

De forma predeterminada,
EViews compara los valores
propios de la matriz reducida
con los valores propios simulados.
Este enfoque está en el
espíritu de Humphreys e Ilgen
(1969), quienes utilizan la matriz
reducida SMC. Si

desea utilizar los valores propios


de la matriz original (no reducida), simplemente marque Usar matriz no reducida.

La sección Opciones de la página proporciona opciones para el generador de números aleatorios y la


semilla aleatoria. Si bien el menú desplegable Generador aleatorio debería explicarse por sí mismo, el
campo Semilla requiere cierta discusión.

De forma predeterminada, la primera vez que estime un modelo de factor dado, el campo de edición
Semilla estará en blanco; puede proporcionar su propio valor entero, si lo desea. Si no se proporciona
una semilla inicial, EViews seleccionará aleatoriamente un valor semilla en el momento de la estimación.
El valor de esta semilla inicial se guardará con el objeto de factor para que, por defecto, la estimación
posterior emplee la misma semilla. Si desea utilizar un valor diferente, simplemente ingrese un nuevo
valor en el campo de edición Semilla o presione el botón Borrar para que EViews dibuje un nuevo valor
semilla aleatorio.

• Para Especificado por el usuario, se le pedirá que ingrese el número real de factores que
desea emplear.

Comunidades iniciales

Se requieren estimaciones iniciales de las varianzas comunes para la mayoría de los métodos de estimación.
Para métodos iterativos como ML y GLS, las comunalidades iniciales son simplemente valores iniciales para la
estimación de singularidades. Para la estimación del factor principal, las comunalidades iniciales son fundamentales
para la construcción de las estimaciones (consulte “Factores principales”, en la página 1077).
Machine Translated by Google

Creación de un objeto de factor—1049

De forma predeterminada, EViews calculará estimaciones basadas en SMC de las


comunalidades. Puede seleccionar un método diferente utilizando el menú desplegable
Comunalidades iniciales . La mayoría de los métodos deben explicarse por sí
mismos; algunos requieren comentarios adicionales.

• Partitioned (PACE) realiza una estimación PACE no iterativa del modelo factorial y utiliza las estimaciones
ajustadas de las varianzas comunes. El número de factores utilizados es

tomado de la configuración de estimación principal.

• La configuración de fracciones diagonales aleatorias le indica a EViews que use un formato aleatorio diferente.
fracción de cada elemento diagonal de la matriz de dispersión original.

• Los valores de singularidad especificados por el usuario se restarán de las variaciones originales para formar
estimaciones de comunalidad. Deberá especificar el nombre del vector que contiene las unicidades en el campo
de edición Vector . Por defecto, EViews buscará en los primeros elementos del vector de coeficiente C los
valores de unicidad.

Para facilitar el uso de esta opción, EViews colocará los valores de unicidad estimados en el vector de
coeficientes C. Además, puede usar el miembro de datos de ecuación @unique para acceder a la unicidad
estimada de un objeto de factor con nombre.

Consulte “Estimación de la comunidad”, en la página 1078 para una discusión adicional.

Opciones de estimación

Ya hemos visto el control de iteración y las opciones de números aleatorios que están disponibles para varios métodos
de estimación y número de factores. Las opciones restantes se refieren a la escala de resultados y el manejo de casos
de Heywood.

Escalada

Algunos métodos de estimación garantizan que las sumas de las estimaciones de unicidad y las comunalidades
estimadas sean iguales a los elementos de la matriz de dispersión diagonal; por ejemplo, los modelos de factores
principales calculan las estimaciones de singularidad como el residuo después de tener en cuenta las comunalidades
estimadas.

En otros casos, tanto la unicidad como las cargas se estiman directamente. En estos entornos, es posible que la suma
de los componentes difiera sustancialmente de las varianzas originales.

Puede hacer cumplir la condición de sumar marcando la casilla Escalar estimaciones para que coincidan
con las varianzas observadas . Si se selecciona esta opción, EViews ajustará automáticamente sus estimaciones
de unicidad y cargas para que la suma de las varianzas únicas y comunes coincida con las diagonales de la matriz
de dispersión. Tenga en cuenta que cuando se ha aplicado el escalado, las unicidades y cargas informadas diferirán
de las utilizadas para calcular las estadísticas de ajuste; la salida principal de la estimación indicará la presencia de
resultados escalados.
Machine Translated by Google

1050—Capítulo 49. Análisis factorial

Manejo de casos de Heywood

En el curso de la iteración de la estimación del factor principal, uno puede encontrar comunalidades estimadas, lo que
implica que al menos una varianza única es menor que cero; estas situaciones se denominan casos Heywood.

Cuando se encuentra con un caso de Heywood en EViews, hay varios enfoques que puede tomar. De forma
predeterminada, EViews dejará de iterar e informará el conjunto final de estimaciones (Detener e informar final), junto
con una advertencia de que los resultados pueden ser inapropiados. Alternativamente, puede indicar a EViews que
informe los resultados de la iteración anterior (Detener e informar al final), establecer los resultados en cero y continuar
(Establecer en cero, continuar) o ignorar la varianza única negativa y continuar (Ignorar y continuar).

Factores rotativos
Puede realizar una rotación de factores en un objeto de factor estimado con dos o más factores retenidos. Simplemente
acceda al cuadro de diálogo Rotación de factores haciendo clic en el botón Rotar o seleccionando Proc/Rotar... en
el menú de objetos de factores y seleccione la configuración de rotación deseada.

El tipo y el método
los menús desplegables se pueden
usar para especificar el método de
rotación básico (consulte “Tipos de
rotación”, en la página 1082 para
obtener una descripción de los
métodos admitidos). Para algunos
métodos, también se le solicitará
que ingrese los valores de los
parámetros.

En el ejemplo representado,
especificamos una rotación Pro
max oblicua con un parámetro de
potencia de 3,0. El paso de pre-rotación ortogonal Promax realiza Varimax (Orthomax con un parámetro de 1).

De forma predeterminada, EViews no pesa las cargas por fila antes de la rotación. Para estandarizar los datos,
simplemente cambie el menú desplegable Peso de fila a Kaiser o Cureton-Mulaik.

Además, EViews utiliza la matriz de identidad (cargas no rotadas) como valor inicial predeterminado para las
iteraciones de rotación. La sección denominada Valores iniciales le permite realizar diferentes inicializaciones:

• Puede indicarle a EViews que utilice una rotación aleatoria inicial seleccionando Aleatorio en el menú desplegable
Valores iniciales. El cuadro de diálogo cambia para pedirle que especifique el número.
Machine Translated by Google

Estimación de puntajes: 1051

de matrices de inicio aleatorias para comparar, el generador de números aleatorios y la configuración


inicial de semillas. Si selecciona aleatorio, EViews realizará el número solicitado de rotaciones y utilizará
la rotación que minimiza la función de criterio.

Al igual que con el generador de números aleatorios que se usa en el análisis paralelo, el valor de esta
semilla inicial se guardará con el objeto de factor para que, de manera predeterminada, la rotación
posterior emplee los mismos valores aleatorios. Puede anular esta inicialización ingresando un valor en
el campo de edición Semilla o presionando el botón Borrar para que EViews dibuje un nuevo valor
semilla aleatorio.

• Puede proporcionar una rotación inicial especificada por el usuario. Simplemente seleccione Especificado por el
usuario en el menú desplegable Valores iniciales, proporcione el nombre de una matriz que se usará como T
m mÿ

el inicio .

• Por último, si anteriormente ha realizado una rotación, puede utilizar los resultados existentes como
valores iniciales para una nueva rotación. Puede, por ejemplo, realizar una rotación Quar timax oblicua a
partir de una solución Varimax ortogonal.

Una vez que haya especificado su método de rotación, puede hacer clic en Aceptar. EViews estimará la matriz
de rotación y presentará una tabla que informa las cargas rotadas, la correlación de factores, la matriz de
rotación de factores, la matriz de rotación de carga y los valores de la función objetivo de rotación.
Tenga en cuenta que la matriz de estructura factorial no está incluida en el resultado de la tabla; se puede ver
por separado seleccionando View/Structure Matrix en el menú de objetos de factores.

Además, EViews guardará los resultados de la rotación con el objeto factor. Otras rutinas que se basan en
cargas estimadas, como la puntuación de factores, le ofrecerán la opción de utilizar las cargas no rotadas o
rotadas. Puede mostrar su tabla de resultados de rotación en cualquier momento seleccionando Ver/Resultados
de rotación en el menú de factores.

Estimación de puntajes

La estimación de la puntuación del factor se puede realizar como una vista o un procedimiento del objeto del factor.

Visualización de puntuaciones

Para mostrar coeficientes de puntuación o puntuaciones, haga clic en el botón Puntuación en la barra de herramientas de
factores, o seleccione Ver/Puntuaciones... en el menú de factores.
Machine Translated by Google

1052—Capítulo 49. Análisis factorial

La vista de puntajes le permite mostrar: (1) una tabla que muestra los coeficientes de puntaje de los factores, los
índices de indeterminación y validez, y las medidas de univocidad; (2) una tabla de valores de puntuación de factores
para un conjunto de observaciones; (3) un gráfico de líneas de las puntuaciones; (4) diagramas de dispersión de
puntajes en pares de factores; (4) biplots de puntajes y cargas en pares de factores.

Debe especificar el formato de visualización haciendo clic en el cuadro de lista para elegir uno de: Resumen de
tabla, Hoja de cálculo, Gráfico de líneas, Diagrama de dispersión y Gráfico biplot.

Puntuaciones Coeficientes

Para estimar puntuaciones, primero debe especificar un método para calcular los coeficientes de puntuación. Para
una breve discusión de los métodos, consulte “Estimación de la puntuación” en la página 1085. Los detalles se
proporcionan en Gorsuch (1983), Ten Berge et. al (1999), Grice (2001), McDonald (1981), Green (1969).

Primero debe decidir si usar coeficientes refinados (Coeficientes exactos), ajustar los coeficientes refinados
(Coeficientes gruesos) o calcular coeficientes gruesos basados en las cargas factoriales (Cargas gruesas). De
forma predeterminada, EViews calculará estimaciones de puntajes utilizando coeficientes exactos.

A continuación, si los factores rotados están disponibles, se utilizarán como predeterminados. Debe marcar Usar
cargas no rotadas para usar las cargas originales.

Dependiendo de sus selecciones, se le solicitará información adicional:

• Si selecciona Coeficientes exactos o Coeficientes gruesos, EViews le solicitará un Método de Coef. Puede
elegir entre los siguientes métodos: Regresión (Thur-
Machine Translated by Google

Estimación de puntajes: 1053

regresión de Stone, variables ideales (variables idealizadas de Harmon), WLS de Bartlett (mínimos
cuadrados ponderados de Bartlett), Anderson-Rubin (Ten Berge et al. generalizaron Anderson-Rubin-
McDonald) y Green (Green, minimización de MSE).

• Si selecciona coeficientes gruesos o cargas gruesas, EViews le solicitará un


método grueso y un valor de corte.

Los coeficientes ponderados simplificados se calcularán recodificando elementos del coeficiente o matriz de
carga. En el método sin restricciones , a los valores de la matriz que son mayores (en valor absoluto) que
algún umbral se les asignan valores que conservan el signo de -1 o 1; todos los demás valores se recodifican en
0.

Los dos métodos restantes restringen los pesos de los coeficientes para que cada variable se cargue en un solo
factor. Si selecciona Único - recodificar, solo el elemento con el valor absoluto más alto en una fila se recodifica
a un valor distinto de cero; si selecciona Unique - drop, las variables con una carga superior al umbral se
establecen en cero.

Véase Grice (2001) para una discusión.

Puede indicar a EViews que guarde la matriz de coeficientes de puntuaciones en el archivo de trabajo ingresando un
nombre de objeto de EViews válido en el campo de edición Guardar matriz de coeficientes .

Datos de puntuaciones

Deberá especificar un conjunto de variables observables para usar en la puntuación y una muestra de observaciones.
Los puntajes estimados se calcularán tomando una combinación lineal de los observables estandarizados sobre las
muestras especificadas.

Si está disponible, EViews llenará el campo de edición de Observables con los nombres de las variables originales
utilizadas en el cálculo. Se le preguntará si desea estandarizar los datos especificados usando los momentos obtenidos
de la estimación o si estandarizar los datos usando los momentos recién calculados obtenidos de los datos. En el caso
típico, donde calificamos las observaciones usando los mismos datos que usamos en la estimación, estos momentos
coincidirán.
Cuando se calculan puntajes para observaciones o variables que difieren de la estimación, la elección tiene una
importancia considerable.

Si ha estimado su objeto a partir de una matriz especificada por el usuario, debe ingresar los nombres de las variables
que desea usar como observables. Dado que los momentos de los datos originales no están disponibles en esta
configuración, se calcularán a partir de las variables especificadas.

Opciones de gráfico

Cuando muestre vistas de gráficos de sus resultados, se le preguntará qué factores mostrar; por defecto, EViews graficará
todos sus factores. Los diagramas de dispersión y los biplots brindan opciones adicionales para manejar gráficos
múltiples, para centrar el gráfico alrededor de 0 y para gráficos biplot, etiquetado de obs y escalado de carga que deberían
ser familiares de nuestra discusión sobre impresión.
Machine Translated by Google

1054—Capítulo 49. Análisis factorial

componentes principales (consulte “Otros gráficos (cargas variables, puntuaciones de componentes, biplots)”, a
partir de la página 591).

Guardar puntajes

El procedimiento de puntuación le permite guardar valores de puntuación en series en el archivo de trabajo. Al guardar
partituras con Proc/Crear partituras..., EViews abre un cuadro de diálogo que difiere solo ligeramente del cuadro de
diálogo de vista. En lugar de una sección de visualización , EViews proporciona una sección de especificación de
salida en la que debe ingresar una lista de puntajes para guardar o una lista de índices para los puntajes en el campo de
edición.

Para guardar los dos primeros factores como series AA y BB, puede ingresar "AA BB" en el campo de edición. Si, en
cambio, proporciona los índices "1 2", EViews guardará los dos primeros factores usando los nombres predeterminados
"F1" y "F2", a menos que haya nombrado previamente sus factores usando Proc/
Nombre Factores....

Vistas de factores

EViews proporciona una serie de vistas de objetos de factores que le permiten examinar las propiedades de su modelo
de factores estimado.

Especificación

La vista de especificación proporciona una


representación de texto de la especificación de
estimación, así como las especificaciones de
rotación y los nombres de los factores asignados
(si corresponde).

En este ejemplo, vemos que hemos estimado un


modelo factorial ML para

siete variables, utilizando un criterio de


convergencia de 1e-07. el modelo fue

estimado utilizando las comunalidades iniciales


de los SMC predeterminados y el MAP de Velicer
criterio para seleccionar el número de factores.

Además, el objeto tiene un método de rotación válido, Quartimax oblicuo, que se estimó utilizando las 25 rotaciones
oblicuas aleatorias predeterminadas. Si no se hubieran realizado rotaciones, la especificación de rotación habría dicho
"El factor no tiene una rotación válida".

Por último, vemos que hemos proporcionado dos nombres de factores, "Verbal" y "Espacial", que se utilizarán en lugar
de los nombres predeterminados de los dos primeros factores "F1" y "F2".
Machine Translated by Google

Vistas de factores: 1055

Salida de estimación

Seleccione Ver/Resultado de estimación para mostrar el resultado de estimación principal (cargas no rotadas,
comunalidades, unicidades, varianza explicada por factores, estadísticas de bondad de ajuste seleccionadas). Como
alternativa, puede hacer clic en el botón de la barra de herramientas Estadísticas para mostrar esta vista.

Resultados de rotación

Haga clic en Ver/resultados de rotación para mostrar la tabla de salida que se genera al realizar una rotación (cargas
rotadas, correlación de factores, matriz de rotación de factores, matriz de rotación de carga y valores de la función
objetivo de rotación).

Resumen de bondad de ajuste

Seleccione Ver/Resumen de bondad de ajuste para mostrar una tabla de estadísticas de bondad de ajuste. Para
los modelos estimados por ML o GLS, EViews calcula una gran cantidad de medidas de ajuste absolutas y relativas.
Para obtener detalles sobre estas medidas, consulte “Evaluación del modelo”, a partir de la página 1079.

Vistas de matriz

Puede mostrar vistas de hojas de cálculo de varias matrices de interés. Estas vistas de matriz se dividen en cuatro
grupos: matrices basadas en la matriz de dispersión observada, matrices basadas en la matriz reducida, matrices
ajustadas y matrices residuales.

Covarianzas observadas

Puede examinar las matrices observadas seleccionando Ver/Matriz de covarianza observada/


y la submatriz deseada:

• La entrada de covarianza muestra la matriz de dispersión original, mientras que la matriz de covarianza
escalada escala la matriz original para tener diagonales unitarias. En el caso de que la matriz original sea una
correlación, estas dos matrices obviamente serán las mismas.

• Observaciones muestra una matriz del número de observaciones utilizadas en cada par
comparación.

• Si selecciona Covarianza antiimagen, EViews mostrará la covarianza antiimagen de la matriz original. La


covarianza anti-imagen se calcula escalando las filas y columnas de la inversa (o inversa generalizada) de la
matriz original por la inversa de sus diagonales:

A diag S–1 ÿ ÿ–1 S–1 diag S–1 ÿ ÿ–1


ÿ

• Las correlaciones parciales mostrarán la matriz de correlaciones parciales, donde cada elemento
ment representa la correlación parcial de las variables condicionadas a las restantes variables. Las
correlaciones parciales pueden calcularse escalando la covarianza anti-imagen a unidades diagonales y luego
realizando un ajuste de signo.
Machine Translated by Google

1056—Capítulo 49. Análisis factorial

Covarianza reducida

Puede visualizar las matrices reducidas inicial o final seleccionando Ver/Matriz de covarianza reducida/
y Usar unicidad inicial o Usar unicidad final.

Covarianzas ajustadas

Para mostrar las matrices de covarianza ajustadas, seleccione Ver/Matriz de covarianza ajustada/ y
la submatriz deseada. Covarianza total muestra la covarianza estimada utilizando las estimaciones de
varianza común y única, mientras que Covarianza común muestra la estimación de la varianza basada
únicamente en los factores comunes.

Covarianzas residuales

Las diferentes matrices residuales se basan en el total y la matriz de covarianza común.

Seleccione Ver/Matriz de covarianza residual/ y la matriz deseada, Usar covarianza total o Usar
covarianza común. La matriz residual calculada usando la covarianza total generalmente tendrá
números cercanos a cero en la diagonal principal; la matriz calculada utilizando la covarianza común
tendrá números cercanos a las unicidades en la diagonal (consulte “Escalado”, en la página 1049 para
conocer las advertencias).

Matriz de Estructura Factorial

La matriz de estructura factorial reporta las correlaciones entre las variables y los factores. La correlación
es igual a la matriz de cargas (posiblemente rotada) multiplicada por la matriz de correlación factorial,
LF ; para factores ortogonales, la matriz de estructura se simplifica para que la correlación sea
dada por la matriz de cargas, . L

Vistas de cargamentos

Puede examinar sus cargas rotadas o no rotadas en forma de hoja de cálculo o gráfica.

Puede Ver/Cargas/Matriz de cargas para mostrar la matriz de cargas actual en forma de hoja de cálculo.
Si se ha realizado una rotación, esta vista mostrará las cargas rotadas; de lo contrario, mostrará las
cargas no rotadas. Para ver las cargas sin rotar, siempre puede seleccionar Ver/Cargas/Matriz de
Cargas sin rotar.
Machine Translated by Google

Vistas de factores: 1057

Para mostrar las cargas como un gráfico, seleccione Ver/


Gráfico de Cargas/Cargas... El cuadro de diálogo le
solicitará un conjunto de índices para los factores que desea
graficar. EViews producirá gráficos por pares de los factores, con
las cargas mostradas como líneas desde el origen hasta los puntos
etiquetados con el nombre de la variable.

De forma predeterminada, EViews utilizará la solución rotada si


está disponible; para anular esta opción, haga clic en la casilla de
verificación Usar solución no rotada.

Las otras configuraciones le permiten controlar el manejo de múltiples gráficos y si los gráficos deben estar centrados
alrededor del origen.

Puntuaciones

Seleccione Ver/Puntuaciones... para calcular estimaciones de coeficientes de puntuación de factor y para calcular
valores de puntuación de factor para observaciones. Esta vista y el procedimiento correspondiente se describen en detalle
en “Estimación de puntuaciones”, en la página 1051.

Valores propios

Una clase importante de diagnóstico del modelo factorial es un examen de los valores propios de las matrices no
reducidas y reducidas. Además de ser de interés independiente, estos valores propios son fundamentales para varios
métodos para seleccionar el número de factores.

Seleccione Ver/Valores propios... para abrir el cuadro de diálogo


Visualización de valores propios. De forma predeterminada, EViews
mostrará una vista de tabla que contiene una descripción de los valores
propios de la matriz de dispersión observada.

Las opciones de diálogo le permiten controlar el formato de salida y el


método de cálculo:

• Puede cambiar el formato de salida para mostrar un gráfico de


los valores propios ordenados. De forma predeterminada,
EViews mostrará el gráfico Scree resultante junto con una línea
que representa el valor propio medio.

• Para basar los cálculos en la matriz reducida observada, inicial reducida o final escalada,

seleccione el elemento apropiado en el menú desplegable Valores propios de .

• Para la visualización de tablas, puede incluir los vectores propios y la matriz de dispersión correspondientes en
la salida haciendo clic en la casilla de verificación Salida adicional correspondiente .
Machine Translated by Google

1058—Capítulo 49. Análisis factorial

• Para la visualización de gráficos, también puede visualizar las diferencias de valores propios y la acumulación
proporción representativa de la varianza representada por cada valor propio. Los gráficos de diferencia también
muestran el valor medio de la diferencia; el gráfico de proporción acumulada muestra una línea de referencia con
pendiente igual al valor propio medio.

Vistas adicionales
Las vistas adicionales le permiten examinar:

• La matriz de máximas correlaciones absolutas (View/Maximum Absolute Correla


ción).

• Las correlaciones múltiples al cuadrado (SMC) y la covarianza anti-imagen relacionada


matriz (Vista/Correlaciones Múltiples al Cuadrado).

• El Kaiser-Meyer-Olkin (Kaiser 1970; Kaiser y Rice, 1974; Dziuban y Shirkey,


1974), medida de adecuación muestral (MSA) y matriz correspondiente de correlaciones parciales (View/Kaiser's
Measure of Sampling Adequacy).

Las dos primeras vistas corresponden a los cálculos utilizados en la formación de estimaciones iniciales de comunalidad
(ver “Estimación de comunalidad” en la página 1078). La última vista es un "índice de simplicidad factorial" que se encuentra
entre 0 y 1 e indica el grado en que los datos son adecuados para el análisis factorial común. Los valores de MSA por
encima de 0,90 se consideran “maravillosos”; los valores en los 0,80 son “meritorios”; los valores en los 0,70 son "medios";
los valores de los 60 son "mediocres", los valores de los 0,50 son "miserables" y todos los demás son "inaceptables"

(Kaiser y Rice, 1974).

Procedimientos factoriales

Se puede acceder a los procedimientos de factor haciendo clic en el botón Proc en la barra de herramientas de factor o
seleccionando Proc en el menú principal de objetos de factor y seleccionando el procedimiento deseado:

• Especificar/Estimar... es el procedimiento principal para estimar el modelo factorial. Cuando


seleccionado, EViews mostrará el cuadro de diálogo principal Especificación de factores Consulte “Especificación
del modelo” en la página 1044.

• Rotar... se utiliza para realizar la rotación de factores mediante el cuadro de diálogo Rotación de factores . Ver
“Factores de rotación” en la página 1050.

• Hacer puntajes... se usa para guardar puntajes de factores estimados como series en el archivo de trabajo. Ver

“Estimación de puntuaciones” en la página 1051.

• Los factores de nombre... se pueden utilizar para proporcionar etiquetas especificadas por el usuario para los factores. Por
de forma predeterminada, los factores se etiquetarán como "F1" y "F2" o "Factor 1" y "Factor 2", etc. Para
proporcionar sus propios nombres, seleccione Factores de proceso/nombre... e ingrese una lista de factores
Machine Translated by Google

Un ejemplo: 1059

nombres EViews utilizará los nombres especificados en lugar de las etiquetas genéricas en la salida de tablas y gráficos.

Para borrar un conjunto de nombres de factores especificados previamente, simplemente abra el cuadro de diálogo y
elimine los nombres existentes.

• Clear Rotation elimina una rotación existente del objeto.

Miembros de datos de factores

El objeto factor proporciona varias vistas para examinar los resultados de la estimación y rotación de factores. Además de estas
vistas, EViews proporciona varios miembros de datos de objetos que le permiten acceder directamente a los resultados.

Por ejemplo, si tiene un objeto de factor estimado, FACT1, puede guardar las estimaciones de varianza únicas en un vector
en el archivo de trabajo usando el comando:

vector único = fact1.@unique

Las cargas correspondientes se pueden guardar ingresando:

matriz de carga = fact1.@loadings

Se puede acceder a las cargas rotadas mediante:

matriz rload = fact1.@rloadings

Las matrices ajustada y de residuos se pueden obtener ingresando:

sym ajustado = fact1.@fitted


sym resid = fact1.@resid

Para obtener una lista completa de los miembros de datos de objetos de factores, consulte "Miembros de datos de factores" en
la página 186 en la Referencia de programación y comandos.

Un ejemplo
Ilustramos las características básicas del objeto factor mediante el análisis de un subconjunto de los datos clásicos de Holzinger
y Swineford (1939), que consta de medidas en 24 pruebas psicológicas para 145 niños del área de Chicago que asisten a la
escuela Grant-White (Gorsuch, 1983). Un gran número de autores han utilizado estos datos para ilustrar varias características
del análisis factorial. Los datos sin procesar se proporcionan en el archivo de trabajo de EViews "Holzinger24.WF1". Trabajaremos
con un subconjunto compuesto por siete de las 24 variables: VISUAL (percepción visual), CUBOS (relaciones espaciales),
PARAGRAPH (comprensión de párrafo), SENTENCE (completar oraciones), WORDM (significado de palabras), PAPEL1 (formas
de papel) y FLAGS1 (formas de rombo).

(Como señaló Gorsuch (1983, p. 12), los datos sin procesar y las correlaciones publicadas no coinciden; por ejemplo, los

datos en "Holzinger24.WF1" producen correlaciones que difieren de las reportadas en la Tabla 7.4 de Harman (1976) Aquí,
supondremos que los datos sin procesar son
Machine Translated by Google

1060—Capítulo 49. Análisis factorial

correcto; más adelante, le mostraremos cómo trabajar directamente con la matriz de correlación informada de Harman).

Especificación y Estimación
Dado que previamente hemos creado un

objeto de grupo G7 que contiene las siete


series de interés, haga doble clic en G7 para

abrir el grupo y seleccione Proc/Make Factor....

EViews abrirá el cuadro de diálogo de

especificación de análisis factorial principal.

Cuando el objeto de factor se crea de esta


manera, EViews predefinirá una especificación
basada en la serie del grupo. Puede hacer clic

en la pestaña Datos para ver la configuración


precargada. Aquí, vemos que EViews ha

ingresado los nombres

de las siete series en G7.

Las configuraciones predeterminadas


restantes le indican a EViews que calcule una correlación ordinaria (Pearson) para todas las series en el grupo utilizando

una versión balanceada de la muestra del archivo de trabajo. Puede cambiarlos como desee, pero por ahora usaremos esta
configuración.

A continuación, haga clic en la estimación

para ver la configuración del análisis factorial

principal. Los escenarios se pueden dividir


en tres categorías principales: método
(extracción), número de factores y
comunalidades iniciales. Además, la
sección Opciones a la derecha del cuadro

de diálogo se puede usar para controlar


configuraciones diversas.

De manera predeterminada, EViews estimará

la especificación de un factor utilizando la


máxima probabilidad. El número de

Los factores se seleccionarán utilizando


método parcial de promedio mínimo (MAP)
de Velicer, y el
Machine Translated by Google

Un ejemplo: 1061

los valores iniciales para las comunalidades se tomarán de las correlaciones múltiples al cuadrado (SMC).
Usaremos la configuración predeterminada para nuestro ejemplo, por lo que puede hacer clic en Aceptar para
continuar.

EViews estima el modelo y muestra la vista de resultados. Aquí, vemos la parte superior de los resultados
principales. La información de encabezado proporciona información básica sobre la configuración utilizada en
la estimación e información básica de estado. Vemos que la estimación usó las 145 observaciones en el archivo
de trabajo y convergió después de cinco iteraciones.

Método factorial: probabilidad máxima


Fecha: 11/09/06 Hora: 12:00
Análisis de covarianza: correlación ordinaria
Muestra: 1 145
Observaciones incluidas: 145
Número de factores: Mínimo promedio parcial
Comunalidades previas: Correlación múltiple al cuadrado
Convergencia lograda después de 5 iteraciones

Cargas sin rotar


F1 F2 Comunalidad Singularidad
VISUAL 0.490722 0.567542 0.562912 0.437088
CUBOS 0.295593 0.342066 0.204384 0.795616
PÁRRAFO 0.855444 -0.124213 0.747214 0.252786
FRASE 0.817094 -0.154615 0.691548 0.308452
PALABRA 0.810205 -0.162990 0.682998 0.317002
PAPEL1 0.348352 0.425868 0.302713 0.697287
BANDERAS1 0.462895 0.375375 0.355179 0.644821

Debajo del encabezado hay una sección que muestra las estimaciones de las cargas ortogonales no rotadas,
las comunalidades y las estimaciones de unicidad obtenidas de la estimación.

Primero vemos que el método MAP de Velicer ha retenido dos factores, etiquetados como "F1" y "F2". Un
breve examen de las cargas no rotadas indica que PARAGRAPH, SENTENCE y WORDM se cargan en el
primer factor, mientras que VISUAL, CUES, PAPER1 y FLAGS1 se cargan en el segundo factor. Por lo tanto,
podríamos etiquetar razonablemente el primer factor como una medida de la habilidad verbal y el segundo factor
como un indicador de la habilidad espacial. Volveremos sobre esta interpretación en breve.

A la derecha de las cargas están las estimaciones de comunalidad y unicidad que distribuyen las diagonales de
la matriz de correlación en componentes comunes (explicados) e individuales (no explicados). Las comunalidades
se obtienen calculando las normas de fila de la matriz de cargas, mientras que las unicidades se obtienen
directamente del algoritmo de estimación ML. 0.4912 0.5682 Vemos , por ejemplo, que el 56% ( 0.563 ) de la
correlación
ÿ
ÿ para la variable VISUAL y el 69% ( 0.692 )

0,8172 ÿÿ ÿ –0,155 2 ) de la correlación SENTENCE son


ÿ

explicado por los dos factores comunes.


Machine Translated by Google

1062—Capítulo 49. Análisis factorial

La siguiente sección proporciona información resumida sobre la varianza total y la proporción de la varianza
común explicada por cada uno de los factores, derivada de la adopción de normas de columna de la matriz de
cargas. Primero, notamos que la varianza explicada por los dos factores es 3.55, que está cerca del 51% ( 3.55 7.0 ÿ
) de la varianza total (suma de las diagonales de la matriz de correlación).
Además, vemos que el primer factor F1 representa el 77% ( 2.72 3.55 ÿ ) de
la varianza común y el segundo factor F2 explica el 23% restante ( 0.82 3.55 ÿ
).

Factor Varianza Acumulativo Diferencia Proporción Acumulativo


F1 2.719663 2.719663 1.892380 0.766762 0.766762
F2 0.827282 3.546945 --- 0.233238 1.000000
Total 3.546945 3.546945 1.000000

La parte inferior de la salida muestra información básica de bondad de ajuste para la especificación estimada. La
primera columna muestra la función de discrepancia, el número de parámetros y los grados de libertad (contra el
modelo saturado) para la especificación estimada. Para este método de extracción (ML), EViews también muestra la
prueba de bondad de ajuste chi-cuadrado y Versión ajustada de Bartlett de la prueba. Ambas versiones de la prueba
tienen valores de p superiores a 0,75, lo que indica que dos factores explican adecuadamente la variación de los
datos.

Modelo Independencia Saturada 0.000000


Discrepancia 0.034836 2.411261
5.016316 347.2215 ---
Chi-cuadrado estadístico
0.7558 0.0000 ---
Chi-cuadrado prob.
4.859556 339.5859 ---
Chi-cuadrado de
0.7725 0.0000 ---
Bartlett Probabilidad
de Bartlett Parámetros 20 7 28
8 21 ---
Grados de libertad

Con fines de comparación, EViews también presenta resultados para el modelo de independencia (sin factor) que
muestran que un modelo sin factores no modela adecuadamente las varianzas.

Vistas de diagnóstico básicas

Una vez que hemos estimado la especificación de nuestro factor, podemos examinar una variedad de diagnósticos.
Primero, examinaremos una variedad de estadísticas e índices de bondad de ajuste seleccionando Ver/
Resumen de bondad de ajuste del menú de factores.
Machine Translated by Google

Un ejemplo: 1063

Resumen de bondad de ajuste


Factor: FACTOR01
Fecha: 13/09/06 Hora: 15:36

Modelo Independencia Saturada 7


Parámetros 20 28
8 21 ---
Grados de libertad
0.380952 1.000000 ---
Relación de parsimonia

Índices de ajuste absolutos

Modelo Independencia Saturada 2.411261

Discrepancia 0.034836 0.000000


5.016316 347.2215 ---
Chi-cuadrado estadístico
0.7558 0.0000 ---
Chi-cuadrado probabilidad
4.859556 339.5859 ---
Bartlett chi-cuadrado estadístico
0.7725 0.0000 ---
Bartlett probabilidad Raíz media
resid. (RMSR) 0.023188 0.385771 0.000000
criterio de Akaike -0.075750 2.104976 0.000000
criterio de schwarz -0.239983 1.673863 0.000000
Criterio de Hannan-Quinn -0.142483 1.929800 0.000000

Validación cruzada esperada (ECVI) 0.312613 2.508483 0.388889

Índice de ajuste generalizado (GFI) 0.989890 0.528286 1.000000


0.964616 -0.651000 ---
GFI ajustado
-2.983684 326.2215 ---
Parámetro de no centralidad
Sombrero de rango 1.000000 0.306239 ---

1.000000 0.322158 ---


No centralización de McDonald
0.000000 0.328447 ---
Aproximación raíz MSE

Índices de ajuste incremental

Modelo

Pariente Bollen (RFI) 0.962077

Bentler-Bonnet normado (NFI) 0.985553

Tucker-Lewis no normado (NNFI) 1.024009

Incremental de Bollen (IFI) 1.008796

Bentler Comparativo (CFI) 1.000000

Como puede ver, EViews calcula una gran cantidad de medidas de ajuste absolutas y relativas. Además
de las estadísticas de discrepancia, chi-cuadrado y chi-cuadrado de Bartlett vistas anteriormente, EViews
calcula criterios de información escalados, índices de validación cruzada esperados, índices de ajuste
generalizados, así como varias medidas basadas en estimaciones de no centralidad. También se presentan
índices de ajuste incremental que comparan el ajuste del modelo estimado con el modelo de independencia
(consulte “Evaluación del modelo”, a partir de la página 1079 para obtener más información).

Además, puede examinar varias matrices asociadas con el procedimiento de estimación.


Puede examinar la matriz de correlación calculada, varias matrices reducidas y ajustadas y una variedad
de matrices residuales. Por ejemplo, puede ver la matriz de varianza residual seleccionando Ver/Matriz de
covarianza residual/Usar covarianza total.
Machine Translated by Google

1064—Capítulo 49. Análisis factorial

Tenga en cuenta que los elementos diagonales de la matriz residual son cero ya que hemos restado la
covarianza ajustada total (que incluye las unicidades). Para reemplazar las diagonales (casi) cero con las
estimaciones de unicidad, seleccione Ver/Matriz de covarianza residual/
Uso de la covarianza común.

Puede examinar los valores propios


de matrices relevantes utilizando la
vista de valores propios. EViews le
permite calcular valores propios para
una variedad de matrices y mostrar los
resultados en forma tabular o gráfica,
pero por el momento simplemente
produciremos un diagrama de
sedimentación para la matriz de
correlación observada. Seleccione
View/Eigenval ues... y cambie el
Formato de salida a Gráfico.

Haga clic en Aceptar para aceptar


la configuración. EViews mostrará
el gráfico de pantalla para los datos,
junto con una línea que indica el
valor propio promedio.

Para examinar la Medida de adecuación de muestreo de Kaiser, seleccione Ver/Medida de adecuación de


muestreo de Kaiser. La parte superior de la pantalla muestra las medidas individuales y el total de MSA (0.803)
que cae en la categoría considerada por Kaiser como "meritoria".
Machine Translated by Google

Un ejemplo: 1065

Medida de adecuación muestral de Kaiser


Factor: Sin título
Fecha: 12/09/06 Hora: 10:04

MSA
VISUAL 0.800894
CUBOS 0.825519
PÁRRAFO 0.785366
FRASE 0.802312
PALABRA 0.800434
PAPEL1 0.800218
BANDERAS1 0.839796
MSA de Kaiser 0.803024

La parte inferior de la pantalla muestra la matriz de correlaciones parciales:

Correlación parcial:

VISUALES CUBOS PARÁGRAFO ORACIÓN PALABRA PAPEL1 BANDERAS1

VISUAL 1.000000
CUBOS 0.169706 1.000000
PÁRRAFO 0.051684 0.070761 1.000000
FRASE 0.015776 -0.057423 0.424832 1.000000
PALABRA 0.070918 0.044531 0.420902 0.342159 1.000000
PAPEL1 0.239682 0.192417 0.102062 0.042837 -0.088688 1.000000
BANDERAS1 0.321404 0.047793 0.022723 0,105600 0,050006 0,102442 1.000000

Cada celda de esta matriz contiene la correlación parcial de las dos variables, controlando las variables restantes.

Rotación de factores

La rotación de factores se puede utilizar para simplificar la estructura de los factores y facilitar la interpretación de
los factores. Para este ejemplo, consideraremos una rotación ortogonal y otra oblicua. Para realizar una rotación
de factores, haga clic en el botón Rotar en la barra de herramientas de factores o seleccione Proc/
Girar... del menú principal de factores.
Machine Translated by Google

1066—Capítulo 49. Análisis factorial

El cuadro de diálogo de rotación de


factores se utiliza para especificar el

método de rotación, la ponderación de


filas, el control de iteraciones y la

elección de las cargas iniciales.


Comenzamos aceptando los
valores predeterminados que
rotan las cargas iniciales usando
Varimax ortogonal.
EViews realizará la rotación
y mostrará los resultados.

La parte superior de la salida


mostrada proporciona información sobre la rotación y muestra las cargas rotadas.

Método de rotación: Varimax ortogonal


Factor: Sin título
Fecha: 12/09/06 Hora: 10:31
Cargas iniciales: sin rotar
Convergencia lograda después de 4 iteraciones

Cargas rotadas: L * inv(T)'


F1 F2
VISUAL 0.255573 0.705404
CUBOS 0.153876 0.425095
PÁRRAFO 0.843364 0.189605
FRASE 0.818407 0.147509
PALABRA 0.814965 0.137226
PAPEL1 0.173214 0.522217
BANDERAS1 0.298237 0.515978

Al igual que con las cargas no rotadas, las variables PARAGRAPH, SENTENCE y WORDM se cargan en el
primer factor mientras que VISUAL, CUBES, PAPER1 y FLAGS1 se cargan en el segundo factor.

Las secciones restantes de la salida muestran la correlación de factores rotados, la matriz de rotación inicial,
las matrices de rotación aplicadas a los factores y las cargas, y las funciones objetivo para las rotaciones. En
este caso, las matrices de correlación de factores y de rotación inicial son matrices de identidad ya que
estamos realizando una rotación ortogonal a partir de las cargas no rotadas. Los resultados restantes se
presentan a continuación:
Machine Translated by Google

Un ejemplo: 1067

Matriz de rotación de factores: T


F1 F2
F1 0.934003 0.357265
F2 -0.357265 0.934003

Matriz de rotación de carga: inv(T)'


F1 F2
F1 0.934003 0.357265
F2 -0.357265 0.934003

Objetivo de rotación inicial: 1,226715


Objetivo de rotación final: 0,909893

Tenga en cuenta que las matrices de rotación de factores y rotación de carga son idénticas ya que
estamos realizando una rotación ortogonal.

Quizás más interesantes son


los resultados de una rotación
oblicua. Para reemplazar los
resultados Varimax con una
rotación oblicua Quartimax/
Quarti min, seleccione Proc/
Gire... y cambie el menú
desplegable Tipo a Oblicuo
y seleccione Quarti max.
Haremos algunos otros cambios
en el cuadro de diálogo.
Usaremos rotaciones
ortogonales aleatorias
como valores iniciales para
nuestra rotación, de modo que en Valores iniciales , debe seleccionar Aleatorio. Establezca las opciones
del generador aleatorio como se muestra y cambie la tolerancia de convergencia a 1e-06. De forma
predeterminada, EViews realizará 25 rotaciones oblicuas utilizando matrices de rotación ortogonales aleatorias
como valores iniciales y seleccionará los resultados con el valor de función objetivo más pequeño. Haga clic
en Aceptar para aceptar esta configuración.

La parte superior de los resultados muestra información sobre el método de rotación y las cargas iniciales.
Justo debajo del encabezado están las cargas rotadas. Tenga en cuenta que la importancia relativa de
las cargas VISUAL, CUBES, PAPER1 y FLAGS1 en el segundo factor es algo más evidente para los
factores oblicuos.
Machine Translated by Google

1068—Capítulo 49. Análisis factorial

Método de rotación: oblicuo Quartimax


Factor: FACTOR01
Fecha: 16/10/09 Hora: 11:12
Cargas iniciales: oblicua aleatoria (repeticiones = 25,
rng = kn, semilla = 1000)
Resultados obtenidos del sorteo aleatorio 1 de 25
Fracaso para mejorar después de 18 iteraciones

Cargas rotadas: L * inv(T)'


F2
VISUAL F1 -0.016856 0,759022
CUBOS -0.010310 0,457438
PÁRRAFO 0.846439 0,033230
FRASE 0.836783 -0,009926
PALABRA 0.837340 -0.021054
PAPEL1 -0.030042 0.565436
BANDERAS1 0.109927 0.530662

La correlación factorial rotada es:

Correlación factorial rotada: T'T


F1 F2
F1 1.000000
F2 0.527078 1.000000

con el gran elemento fuera de la diagonal que indica que la restricción del factor de ortogonalidad era muy
vinculante.

Las matrices de rotación y funciones objetivo vienen dadas por:

Matriz de rotación de factores: T


F1 F2
F1 0.984399 0.668380
F2 -0.175949 0.743820

Matriz de rotación de carga: inv(T)'


F2
F1 F1 0,207044
F2 0.875271 -0.786498
1,158366

Objetivo rotación inicial: 0,288147


Objetivo rotación final: 0,010096

Tenga en cuenta que, en ausencia de ortogonalidad, las matrices de rotación de factores y rotación de carga
difieren.
Machine Translated by Google

Un ejemplo: 1069

Una vez que se ha realizado una rotación, el último conjunto de cargas


rotadas estará disponible para todas las rutinas que usan cargas. Por
ejemplo, para visualizar las cargas de los factores, seleccione View/
Loadings/Loadings Graph...
para abrir el cuadro de diálogo del gráfico de cargas.

Aquí proporcionará índices para las cargas factoriales que desea


mostrar. Dado que solo hay dos factores, EViews ha rellenado
previamente el cuadro de diálogo con "1 2", lo que indica que trazará el
segundo factor contra el primer factor.

De forma predeterminada, EViews utilizará las cargas rotadas si están disponibles; tenga en cuenta la casilla de verificación
que le permite utilizar las cargas no rotadas. Marque esta casilla y haga clic en Aceptar para mostrar el gráfico de cargas sin
girar.

Como es costumbre, las cargas se


muestran como líneas desde el origen
hasta los puntos etiquetados con el nombre
de la variable. Aquí vemos evidencia visual

de nuestra interpretación previa: las


variables se agrupan naturalmente en dos
grupos (factores), con el factor 1
representando la habilidad verbal
(PARAGRAFO, ORACIÓN, PALABRA), y el
factor 2 representando la habilidad espacial
(VISUAL, PAPEL1, BANDERAS1, CUBOS ).

Antes de mostrar las cargas rotadas


oblicuas de Quartimax, aplicaremos este
etiquetado a los factores. Seleccione
Factores de proceso/nombre... e ingrese "Verbal" y "Espacial" en el cuadro de diálogo. Posteriormente, EViews etiquetará los
factores utilizando los nombres especificados en lugar de las etiquetas genéricas "Factor 1" y "Factor 2".
Machine Translated by Google

1070—Capítulo 49. Análisis factorial

Ahora, mostremos la gráfica de las cargas

rotadas. Haga clic en Ver/Gráfico de


cargas... y simplemente haga clic en Aceptar
para aceptar los valores predeterminados.

EViews muestra el gráfico de cargas rotadas.

Tenga en cuenta la clara separación entre


los conjuntos de pruebas.

Puntuaciones de factores

Los factores utilizados para explicar la


estructura de covarianza de la

los datos observados no se observan, pero

se pueden estimar a partir de las cargas

rotadas o no rotadas y los datos observables.

Haga clic en Ver/Puntuaciones... para que aparezca el cuadro de diálogo de puntuación de factores. Como puede ver, hay varias
formas de estimar los factores y varias vistas de los resultados. Por ahora, nos concentraremos en mostrar un resumen de las

estimaciones de la regresión de la puntuación factorial y en generar un gráfico bigráfico de las puntuaciones y las cargas.

El método

predeterminado

para producir partituras


es usar exacto
coeficientes de
Thur

método de regresión
de Stone, y para

aplicar estos
coeficientes
cientes a los
observables

datos utilizados en la

extracción de factores

ción

en nuestro examen

Por ejemplo,
EViews

precompletará la muestra y la información observable; todo lo que tenemos que hacer es seleccionar nuestra configuración de salida de pantalla.
Machine Translated by Google

Un ejemplo: 1071

ting, y el método para calcular los coeficientes. Al seleccionar Resumen de tabla, EViews genera una
salida que describe la estimación del coeficiente de puntuación.

La parte superior de la salida resume la configuración de estimación del coeficiente de puntaje de factor y
muestra los coeficientes de factor utilizados en el cálculo de puntajes:

Resumen de la puntuación de los factores

Factor: Sin título


Fecha: 12/09/06 Hora: 11:52
Coeficientes de puntuación exactos

Método: Regresión (basado en cargas rotadas)


Estandarizar observables usando momentos de estimación
Muestra: 1 145
Observaciones incluidas: 145

Coeficientes de los factores:

VERBAL ESPACIAL
VISUAL 0.030492 0.454344
CUBOS 0.010073 0.150424
PÁRRAFO 0.391755 0.101888
FRASE 0.314600 0.046201
PALABRA 0.305612 0.035791
PAPEL1 0.011325 0.211658
BANDERAS1 0.036384 0.219118

Vemos que la puntuación VERBAL de un individuo se calcula como una combinación lineal de los datos
centrados para VISUAL, CUBOS, etc., con pesos dados por la primera columna de coeficientes (0,03, 0,01,
etc.).

La siguiente sección contiene los índices de indeterminación factorial:

Índices de indeterminación:
Multiple-R Corr. Mínima R-cuadrada.
VERBAL 0.940103 0.883794 0.767589
ESPACIAL 0.859020 0.737916 0.475832

Los índices de indeterminación muestran que la correlación entre los factores estimados y las variables es
alta; la correlación múltiple para el primer factor está muy por encima de 0,90, mientras que la correlación
para el segundo factor es de alrededor de 0,85. Los índices de correlación mínima también son rea
sonables, lo que sugiere que las soluciones alternativas de puntuación factorial están altamente
correlacionadas. Como mínimo, la correlación entre dos medidas diferentes de los factores ESPACIALES
será de casi 0,50.

Las siguientes secciones informan los coeficientes de validez, los elementos fuera de la diagonal de la
matriz de univocidad y, para fines de comparación, la matriz de correlación factorial teórica y la correlación
de puntajes estimados:
Machine Translated by Google

1072—Capítulo 49. Análisis factorial

Coeficientes de Validez:
Validez
VERBAL 0.940103
ESPACIAL 0.859020

Univocidad: (Filas=Factores; Columnas=Puntuaciones de los factores)


VERBAL ESPACIAL

VERBAL --- 0.590135


ESPACIAL 0.539237 ---

Correlación de puntajes estimados:


VERBAL ESPACIAL

VERBAL 1.000000
ESPACIAL 0.627734 1.000000

Correlación de factores:
VERBAL ESPACIAL

VERBAL 1.000000
ESPACIAL 0.527078 1.000000

Los coeficientes de validez superan el 0,80 recomendado por Gorsuch (1983) y se acercan al objetivo más estricto de 0,90

recomendado para usar las puntuaciones estimadas como reemplazo de las variables originales.

La matriz de univocidad informa las correlaciones entre los factores y las puntuaciones de los factores, que deben ser similares

a los elementos correspondientes de la matriz de correlación de factores.


Comparando los resultados, vemos que la correlación de univocidad de 0,539 entre el factor ESPACIAL y las puntuaciones
estimadas VERBAL está cerca del valor de correlación poblacional de 0,527. La correlación entre el factor VERBAL y la puntuación
estimada ESPACIAL es algo

más alto, 0.590, pero aún cerca de la correlación poblacional.

De manera similar, la matriz de correlación de puntajes estimados debe estar cerca de la matriz de correlación de factores de

población. Los valores fuera de la diagonal generalmente coinciden, aunque como suele ser el caso, la correlación de la puntuación
del factor de 0,627 es un poco más alta que el valor de la población de 0,527.

Para mostrar un gráfico bigráfico del uso de estas puntuaciones, seleccione Ver/Puntuaciones... y seleccione Gráfico
bigráfico en el cuadro de lista Mostrar .
Machine Translated by Google

Un ejemplo: 1073

La correlación positiva entre las puntuaciones VERBAL y ESPACIAL es obvia. Los valores atípicos muestran que el
individuo 96 puntúa alto y el individuo 38 bajo tanto en la capacidad espacial como en la verbal, mientras que el individuo
52 puntúa mal en la capacidad espacial en relación con la verbal.

Para guardar puntuaciones en

el archivo de trabajo,
seleccione Proc/Make
Scores... y complete el

cuadro de diálogo. El
diálogo de procedimiento
difiere del

cuadro de diálogo de
vista solo en la sección
Especificación de salida .

Aquí, debe ingresar


una lista de puntajes para
guardar o una lista
de índices para la
puntuaciones. Desde que nosotros

Hemos nombrado previamente nuestros factores, podemos especificar los índices “1 2” y hacer clic en Aceptar.
EViews abrirá un grupo sin título que contiene los resultados guardados en las series VERBAL y ESPACIAL.
Machine Translated by Google

1074—Capítulo 49. Análisis factorial

Fondo
Comenzamos con un breve bosquejo de las características básicas del modelo de factor común. Nuestra
notación es paralela a la discusión en Johnston y Wichtern (1992).

El modelo
El modelo factorial asume que para el individuo i , el vector multivariado observable
es p xi
generado por:
ÿ
ÿ (49.1)
Xi – m LFi e i

donde es
un un vector
vector p variables
m de ÿ 1 de medias variables,
no observadas es una
matriz de, coeficientes
estandarizadas denominadas Lfactores
p mÿ , comunes,
Fi y esesun
mÿ1 pÿ1 no

vector de errores o factores únicos.

El modelo expresa las variables observables factores


pags – m en términos de com no observable
Xi mon metro

y factores únicos no observables.


Ser , número Tenga
de unobserv
pags
ei en cuenta que el
ables excede el número de observables.

La carga factorial o matriz patrón vinculaLlos factores comunes no observados con los datos
L
observados. La j-ésima fila de representa las cargas de la j-ésima variable sobre los factores
comunes. Alternativamente, podemos ver la fila como los coeficientes de los factores comunes para
la j-ésima variable.

Para proceder, debemos imponer restricciones adicionales al modelo. Empezamos


restricciones de momento y covarianza de imponiendo EyFi ÿ ÿ ÿ 0 E ei ÿ ,ÿ ÿ 0 E Fiei
ÿ 0ÿ ÿ ,
modo que E FiFi, ÿ y ÿÿ ÿ F E eiei ÿ ÿ ÿdonde
WW es una matriz diagonal de varianzas únicas.
Dados estos supuestos, podemos derivar la relación de varianza fundamental del análisis
factorial observando que la matriz de varianza de las variables observadas está dada por:
ÿ var Xÿ ÿ ÿ EXÿ i – m Xi – m
ÿ ÿEÿLFi e ÿ i eÿ ÿ ÿ LFi i ÿÿ ÿ (49.2)
ÿ LFLÿ ÿ W

Las varianzas de las variables individuales se pueden descomponer en:


2
jjj ÿ ÿ hj
wj (49.3)
2
donde
para cadarespuesta
j,se el
toman
dede. hj LFLÿ
los elementos diagonales del elemento diagonal de , y es elwj
corazón
2
Whj _ representa la porción común de la varianza de la j es
ª variable, denominada la comunalidad, wj la porción única de la varianza, también
mientras que se refiere a la unicidad.

Además, la matriz de estructura factorial que contiene las correlaciones entre las variables y
los factores puede obtenerse de:
Machine Translated by Google

Fondo—1075

donde XF
ÿ ÿ , ÿ ÿ E Xÿ ÿi –Fimÿÿ

ÿ ÿ ÿE LFi e ÿ i ÿFi ÿÿ (49.4)


ÿ LF

Inicialmente, hacemos la suposición adicional de que los factores son ortogonales, de modo que F ÿ I
(Relajaremos esta suposición en breve). Después:
var Xÿ ÿ ÿ LLÿ ÿ W
(49.5)
ÿÿ, ÿL
donde XF
2
Nótese que con factores ortogonales, las comunalidades hj están dados por los elementos diagonales
de LLÿ (las normas de fila de ). L

La tarea principal del análisis factorial es modelar la p pÿ ÿ ÿ 1 ÿ 2 varianzas observadas y


X
covarianzas de las funciones de las cargas factoriales
pm podemos
en formar L , y varianzas específicas p
Lˆ en
deWy .LˆDadas
Lˆ ÿ las estimaciones Wˆ
, estimaciones de la varianza total ajustada
Matriz Sˆ , ÿ
ÿ Wˆ
, Sˆ y la matriz de varianza común ajustada , C L Lˆ _ Si. ÿS _ es el
ˆ
matriz de dispersión observada, podemos usar estas estimaciones para definir laˆ varianza residual total
matriz Eˆ S S ÿ-
y el residuo de la varianza común MICSSÿ – C_ _ .

Número de factores
En general, se acepta que elegir el número de factores es una de las decisiones más importantes que
se toman en el análisis factorial (Preacher y MacCallum, 2003; Fabrigar, et al., 1999; Jackson, 1993;
Zwick y Velicer, 1986). En consecuencia, existe una literatura amplia y variada que describe métodos para
determinar el número de factores, de los cuales las referencias enumeradas aquí son solo un pequeño
subconjunto.

Kaiser-Guttman, valor propio mínimo

La regla de Kaiser-Guttman, comúnmente denominada "valores propios mayores que 1", es, con mucho, el
método más utilizado. En este enfoque, uno calcula los valores propios de la matriz de dispersión no
reducida y retiene tantos factores como el número de valores propios que exceden el promedio (para una
matriz de correlación, el valor propio promedio es 1, de ahí la descripción comúnmente empleada). El criterio
ha sido duramente criticado por muchos por varios motivos (p. ej., Preacher y MacCallum, 2003), pero sigue
siendo popular.

Fracción de la varianza total

Los valores propios de la matriz no reducida se pueden usar de una manera ligeramente diferente. Puede
metro
optar por conservar tantos factores como sean necesarios para que la suma de los primerospropios
valoresexceda
alguna fracción umbral de la varianza total. Este método se usa con más frecuencia en el análisis de
componentes principales, donde los investigadores suelen incluir componentes que comprenden el 95% de
la varianza total (Jackson, 1993).
Machine Translated by Google

1076—Capítulo 49. Análisis factorial

Mínimo Promedio Parcial


El método de promedio parcial mínimo (MAP) de Velicer (1976) calcula el promedio de las
correlaciones parciales cuadráticas después de que los componentes han sido parcializados
metro

(para m ÿ 0, , ÿ p – 1 ). El número de factor retenido es el número que minimiza este promedio. La intuición
aquí es que la correlación parcial cuadrática promedio se minimiza donde la matriz residual está más cerca
de ser la matriz identidad.

Zwick y Velicer (1986) proporcionan evidencia de que el método MAP supera a otros métodos en una
variedad de condiciones.

palo roto

Podemos comparar las proporciones relativas de la varianza total que explica cada valor propio con las
proporciones esperadas obtenidas al azar (Jackson, 1993). Más precisamente, el método de la barra rota
compara la proporción de la varianza dada por el j-ésimo valor propio más grande de la matriz no reducida
con el valor esperado correspondiente obtenido de la distribución de la barra rota. El número de factores
retenidos es el número de proporciones que exceden sus valores esperados.

Pantalla de error estándar

Standard Error Scree (Zoski y Jurs, 1996) es un intento de formalizar las comparaciones visuales de
pendientes utilizadas en la prueba de pantalla visual. Se basa en los errores estándar de conjuntos de
líneas de regresión que se ajustan a valores propios posteriores; cuando el error estándar de la regresión a
través de los valores propios posteriores cae por debajo del umbral especificado, se supone que los factores
restantes son insignificantes.

Análisis paralelo
El análisis paralelo (Horn, 1965; Humphreys e Ilgen, 1969; Humphreys y Montanelli, 1975) implica
comparar los valores propios de la matriz de dispersión (no reducida o reducida) con los resultados
obtenidos de la simulación utilizando datos no correlacionados.

La simulación de análisis paralelo se lleva a cabo mediante la generación de múltiples conjuntos de datos
aleatorios de variables aleatorias independientes con las mismas varianzas y el mismo número de
observaciones que los datos originales. Se calcula la matriz de correlación o covarianza de Pearson de los
datos simulados y se realiza una descomposición de valores propios para cada conjunto de datos. El número
de factores retenidos se basa entonces en el número de valores propios que exceden su contraparte
simulada. El umbral de comparación suele elegirse para que sean los valores medios de los datos simulados,
como en Horn (1965), o un cuantil específico, como recomienda Glorfeld (1995).

Métodos de estimación
Existen varios métodos para extraer (estimar) las cargas factoriales y las varianzas específicas de una
matriz de dispersión observada.
Machine Translated by Google

Fondo—1077

EViews admite la estimación mediante máxima verosimilitud (ML), mínimos cuadrados generalizados
(GLS), mínimos cuadrados no ponderados (ULS), factores principales y factores principales iterados, y
estimación de matriz de covarianza dividida (PACE).

Discrepancia mínima (ML, GLS, ULS)

Una clase de métodos de extracción implica minimizar una función de discrepancia con respecto a S
las cargas y varianzas únicas (Jöreskog, 1977). Sea la matriz de dispersión observada y la matriz ajustada
sea Sÿ ÿ L, W ÿ LLÿ ÿ W . Luego, las funciones de
discrepancia para ML, GLS y ULS están dadas por:

DMLÿ ÿ S , S
ÿ
tr S–1 S S–1
p – ln S –
2
DGLSÿ ÿ S , S ÿ ÿtrÿIP – S–1 ÿS ÿÿ2 (49.6)

2
DULSÿ ÿ S , S ÿ ÿÿtrÿ S – S ÿÿ2

Cada método de estimación implica minimizar la función de discrepancia apropiada con W


L
respecto a la matriz de cargas y varianzas únicas. Un algoritmo iterativo para esta
optimización se detalla en Jöreskog. Todas las funciones alcanzan un valor mínimo absoluto de 0 cuando,
SÿS
pero en general, este mínimo
, no se alcanzará.

Los métodos ML y GLS no varían en escala, por lo que el cambio de escala de la matriz de datos original o
la matriz de dispersión no altera los resultados básicos. Los métodos ML y GLS requieren que la matriz de
dispersión sea definida positiva.

ULS no requiere una matriz de dispersión definida positiva. La solución es equivalente a la solución iterada
del factor principal.

Factores principales

El método del factor principal (eje principal) se deriva de la noción de que los factores comunes deben
explicar la porción común de la varianza: los elementos fuera de la diagonal de la matriz de dispersión y las
porciones de comunalidad de los elementos diagonales. En consecuencia, para alguna estimación inicial de
las varianzas únicas W0 , podemos definir la dispersión reducida
juego, Gorsuch,
SR W01993).
ÿ-

ÿ ÿ S W0 matriz de , y luego ajustar esta matriz usando factores comunes (ver, por ejemplo

El método del factor principal ajusta la matriz reducida utilizando los primeros metro
Los valores propios y los
vectores. Estimaciones de carga, L1 valores propios se obtienen a partir de los vectores propios de la matriz reducida.
Dadas las estimaciones de carga, podemos formar una matriz residual de varianza
ÿ

común, E1 S L1L1 . Las estimaciones de las unicidades se obtienen a partir de los elementos diagonales.
ÿ-

de esta matriz residual.


Machine Translated by Google

1078—Capítulo 49. Análisis factorial

Estimación de comunalidad
La construcción de la matriz reducida a menudo se describe como el reemplazo de los elementos diagonales de la
matriz de dispersión con estimaciones de las comunalidades. La estimación de estas comunalidades ha recibido
considerable atención en la literatura. Entre los enfoques están (Gorsuch, 1993):

a
• Fracción de las diagonales: usa una fracción constante de los elementos diagonales originales de . Un caso
especial
S importante es utilizar vistos como aquellos de una
un solución
ÿ 1 ; lasdeestimaciones
componentesresultantes
principalespueden
truncados.
ser

• Mayor correlación: seleccione la mayor correlación absoluta de cada variable con cualquier
otra variable en la matriz.

• Correlaciones múltiples al cuadrado (SMC): con mucho, el método más popular; usa el
correlación múltiple al cuadrado entre una variable y las otras variables como una estimación de la comunalidad.
Los SMC proporcionan una estimación de comunalidad conservadora, ya que son un límite inferior para la
comunalidad en la población. Las comunalidades basadas en SMC se calculan como hi0
2 ii yo

ÿ – ÿ1 ÿ ÿ 1 r , donde es rel i-ésimo elemento diagonal de la inversa


de la matriz de dispersión observada. Cuando no se pueda calcular la inversa, podemos emplear en su lugar
la inversa generalizada.

Iteración

Habiendo obtenido estimaciones de factores principales basadas en estimaciones iniciales de las comunalidades,
podemos repetir la extracción de factores principales usando las normas de fila de L1 como estimaciones
actualizadas de las comunalidades. Este paso puede repetirse por un número fijo de iteraciones, o hasta que los
resultados sean estables.

Si bien el enfoque es popular, algunos autores se oponen firmemente a iterar los factores principales de la convergencia
(p. ej., Gorsuch, 1983, p. 107-108). Realizar un pequeño número de iteraciones parece ser menos polémico.

Covarianza Particionado (PACE)

Ihara y Kano (1986) proporcionan un estimador de forma cerrada (no iterativo) para el modelo de factor común que es
consistente, asintóticamente normal e invariante de escala. El método requiere una partición de la matriz de dispersión
en conjuntos de variables, lo que llevó a Cudeck (1991) a llamarlo estimador de matriz de covarianza dividida (PACE).

Diferentes particiones de las variables pueden conducir a diferentes estimaciones. Cudeck (1991) y Kano (1990)
proponen de forma independiente un método eficiente para determinar una partición deseable.

Dado que el estimador PACE no es iterativo, es especialmente adecuado para la estimación de modelos de factores
grandes o para proporcionar estimaciones iniciales para métodos de estimación iterativos.
Machine Translated by Google

Fondo—1079

Evaluación del modelo

Un paso importante en el análisis factorial es la evaluación del ajuste del modelo estimado. Dado que un modelo
de análisis factorial es necesariamente una aproximación, nos gustaría examinar qué tan bien se ajusta un
modelo específico a los datos, teniendo en cuenta la cantidad de parámetros (factores) empleados y el tamaño
de la muestra.

Hay dos clases generales de índices para la selección y evaluación de modelos en modelos analíticos factoriales.
La primera clase, que puede denominarse índices de ajuste absolutos, se evalúa utilizando los resultados de la
especificación estimada. Se han utilizado varios criterios para medir el ajuste absoluto, incluida la conocida
prueba de chi-cuadrado de adecuación del modelo. No existe una especificación de referencia con la que
comparar el modelo, aunque puede haber una comparación con la dispersión observada del modelo saturado.

La segunda clase, que puede denominarse índices de ajuste relativo, compara la especificación estimada con los
resultados de una especificación de referencia, normalmente el factor común cero (modelo de independencia).

Antes de describir los diversos índices, primero definimos el estadístico de prueba chi-cuadrado como una función
T Nk que
de la función de discrepancia, y notamos ÿ ÿ un
ÿD–modelo , Svariables
Sÿ ÿ qcon
pm , p
y los factores
metro tienen cargas
ÿ ÿ factoriales
ÿÿ1–m ÿ –mÿ
1 ÿÿ 2– 1 ÿ 2 m mÿ parámetros libres ( pm
y elementos de singularidad,
metro restricciones implícitas de correlación cero en el
menos factores). Como hayÿ 1pÿpÿ
2 ÿ distintos elementos de la matriz de dispersión, hay un
total de grados
gl ppdeÿ libertad
ÿ ÿ ÿ 1 restantes.
ÿ2–q

Una medida útil de la parsimonia de un modelo factorial es la relación de parsimonia:


PR df df0 ÿ ÿ , dónde df0 son los grados de libertad para el modelo de independencia.

Tenga en cuenta también que las medidas descritas a continuación no se informan para todos los métodos de estimación.

Ajuste absoluto

La mayoría de las medidas de ajuste absoluto se basan en el número de observaciones y el condicionamiento


variables, la función de discrepancia estimada, y el númeroDde grados de libertad.

Pruebas de discrepancia y chi-cuadrado

Las funciones de discrepancia para ML, GLS y ULS vienen dadas por la Ecuación (49.6). Las discrepancias del
factor principal y del factor principal iterado se calculan usando la función ULS, pero D
generalmente superan el valor mínimo de ULS de .

Bajo los supuestos de distribución normal multivariante y una especificación de factor especificada
correctamente estimada por ML o GLS, el estadístico de prueba chi-cuadrado T se distribuye como una
variable aleatoria
2x _ asintótica con gl grados de libertad (p. ej., Hu y Bentler, 1995). Un gran valor
de la estadística en relación con el df indica que el modelo se ajusta mal a los datos
(perceptiblemente peor que el modelo saturado).
Machine Translated by Google

1080—Capítulo 49. Análisis factorial

T pobre para muestras pequeñas y configuraciones


Es bien sabido que el rendimiento de la estadística es
no normales. Un ajuste popular para el tamaño de muestra pequeño consiste en aplicar una corrección
de Bartlett
prueba, de modo que el factor multiplicativo en la definición de se reemplace ÿN
5por ÿ ÿ 2p ÿ ÿ T
6Nkk––al– estadístico de
4m
(Johnston y Wichern, 1992).

Tenga en cuenta que comúnmente se realizan dos conjuntos distintos de pruebas de chi-cuadrado. El
primer conjunto compara el ajuste del modelo estimado con un modelo saturado; el segundo conjunto de
pruebas examina el ajuste del modelo de independencia. Las primeras a veces se denominan pruebas
de adecuación del modelo , ya que evalúan si el modelo estimado se ajusta adecuadamente a los datos.
Las últimas pruebas a veces se denominan pruebas de esfericidad , ya que prueban la suposición de que
no hay factores comunes en los datos.

Criterios de información

Los criterios de información estándar (IC) como Akaike (AIC), Schwarz (SC), Hannan-Quinn (HQ) pueden
adaptarse para su uso con el análisis factorial ML y GLS. Estos índices son medidas de ajuste útiles, ya
que premian la parsimonia al penalizar en función del número de parámetros.

La construcción de la medida de criterios de información del análisis factorial EViews emplea una versión
l Nk ÿ –ÿ yÿ comienza
escalada de la discrepancia como el logaritmo de verosimilitud 2
–ÿD , Siguiendo
formando el IC estándar.
a Akaike (1987),
volvemos a centrar los criterios restando el valor del modelo saturado, y siguiendo a Cudeck y Browne
(1983) y la convención de EViews, escalamos aún más por el número de observaciones para eliminar el
efecto del tamaño de la muestra. . La forma de análisis factorial resultante de los criterios de información
viene dada por:
AIC N kÿ ÿÿ – D Nÿ
– ÿ ÿ 2 ÿ N df
SC Nÿkÿÿ – D–Nÿ
ÿ ÿ lnÿ ÿ N ÿ N df (49.7)

HQ N ÿk ÿÿ – D–Nÿ
ÿ 2 lnÿ ÿ ÿ lnÿ ÿ N ÿ N df

Debe tener en cuenta que estas estadísticas a menudo se citan sin escala, a veces sin ajustar el
modelo saturado. La mayoría de las veces, si hay discrepancias, multiplicar los valores informados de
EViews por alineará los resultados. Tenga
norte
en cuenta también que la definición actual utiliza el número
ajustado de observaciones en el numerador del término principal.

Cuando utilice criterios de información para la selección del modelo, tenga en cuenta que el modelo con
el valor más pequeño se considera el más deseable.

Otras medidas

El residuo cuadrático medio (RMSR) viene dado por la raíz cuadrada de la media de los residuos de
covarianza total cuadrados únicos. El residuo cuadrático medio estandarizado (SRMSR) es una versión
estandarizada de varianza de este RMSR que escala los residuos usando las diagonales de la matriz de
dispersión original, luego calcula el RMSR de los residuos escalados (Hu y Bentler, 1999).
Machine Translated by Google

Fondo—1081

Hay una serie de otras medidas de ajuste absoluto. Lo remitimos a Hu y Bentler (1995, 1999) y Browne y Cudeck
(1993), McDonald y Marsh (1990), Marsh, Balla y McDonald (1988) para obtener detalles sobre estas medidas y
recomendaciones sobre su uso. Tenga en cuenta que donde hay pequeñas diferencias en las diversas descripciones
de las medidas debido a las correcciones del grado de libertad, hemos utilizado las fórmulas proporcionadas por
Hu y Bentler (1999).

Ajuste incremental

Los índices de ajuste incrementales miden la mejora en el ajuste del modelo sobre una especificación más
restringida. Por lo general, la especificación restringida se elige para que sea el factor cero o el modelo de
independencia.

EViews informa hasta cinco medidas de ajuste relativo: el índice de ajuste no normado de Tucker-Lewis generalizado
(NNFI), el índice de ajuste normalizado (NFI) de Bentler y Bonnet, el índice de ajuste relativo (RFI) de Bollen, el
índice de ajuste incremental (IFI) de Bollen y el índice comparativo de Bentler Índice de ajuste (CFI). Ver Hu y
Bentler (1995) para más detalles.

Tradicionalmente, la regla general era que los modelos aceptables tuvieran índices de ajuste superiores a 0,90,
pero la evidencia reciente sugiere que este criterio de corte puede ser inadecuado. Hu y Bentler (1999) brindan
algunas pautas para evaluar los valores de los índices; para la estimación de ML recomiendan el uso de dos
índices, con valores de corte cercanos a 0,95 para el NNFI, RFI, IFI, CFI.

Rotación
Las cargas y factores estimados no son únicos; podemos obtener otros que se ajusten idénticamente a la
estructura de covarianza observada. Esta observación se encuentra detrás de la noción de rotación de factores,
en la que aplicamos matrices de transformación a los factores y cargas originales con la esperanza de obtener
una estructura factorial más simple.

Para elaborar, comenzamos con el modelo factorial ortogonal de arriba:

ÿ
Xi – m LFi e ÿ
i (49.8)

dónde E FiFi ÿ ÿÿ ÿ Im . Supongamos que premultiplicamos nuestros factores por una matriz Tÿ donde TÿT m mÿ rotación
ÿF . Entonces podemos reescribir la ecuación del modelo factorial (49.1) como:

ÿ
Xi – m L T–1 ÿ ÿÿTÿFi e ÿ i
ÿ
L˜ F˜ ÿ yo y
yo
(49.9)

que es un modelo de factor común observacionalmente equivalente con cargas y factores rotados
L˜ L T–1 ÿ ÿ ÿÿ F˜ donde se da ,la correlación de los factores rotados i
ÿ TÿFi
por:

E ÿF˜ iF˜ i ÿÿ ÿ ÿ VÿV F (49.10)

Ver Browne (2001) y Bernaards y Jennrich (2005) para más detalles.


Machine Translated by Google

1082—Capítulo 49. Análisis factorial

Tipos de Rotación
Hay dos tipos básicos de rotación que implican diferentes restricciones en . F en ortogonal
rotación, imponemos F restricciones en la matriz de transformación de modo que
m mÿ ÿ – 1 ÿ 2 T
ÿI , lo que implica que los factores rotados son ortogonales. En rotación oblicua, imponemos
solamente metro
restricciones en T , requiriendo los elementos diagonales de igualF 1.

Hay un gran número de métodos de rotación. La mayoría de los métodos que involucran la minimización de
una función objetivo que miden la complejidad de la matriz factorial rotada con respecto a la elección de
T , sujeto
(2001, 2002) describen algoritmos para arealizar rotaciones
cualquier ortogonales
restricción y oblicuas
en la correlación deminimizando la complejidad
factores. Jennrich
objetivo.

Por ejemplo, supongamos que formamos el p mÿ L


matriz donde cada elemento lij es igual al lij lij lij
ÿ
2
cuadrado de una carga factorial correspondiente: . Intuitivamente, una o más medidas de simplicidad del
patrón de factores rotados se pueden expresar como una función de estas cargas al cuadrado. Una de esas
funciones define la familia de complejidades de Crawford-Ferguson:
metro metro metro
pags pags pags

ÿ ÿ ÿ ÿ
f Lÿ ÿ
ÿ
ÿ ÿ ÿ ÿÿ 1 – ÿ

ÿ ÿ lijlik ÿ ÿk ÿ

ÿ ÿ lijlpj (49.11)
k ÿÿ ÿ ÿ
yo = 1 jÿ1 kj ÿ jÿ1 yo = 1 piÿ _

para el parámetro de ponderación.


k La familia Crawford-Ferguson (CF) es notable porque abarca una gran
cantidad de métodos de rotación populares (incluidos Varimax, Quartimax, Equa max, Parsimax y Factor
Parsimony).

El primer término de suma entre paréntesis, que se basa en el producto exterior de la i-ésima fila de las
cargas al cuadrado, proporciona una medida de complejidad. Las filas que tienen pocos elementos distintos
de cero tendrán una complejidad baja en comparación con las filas con muchos elementos distintos de cero.
Por lo tanto, el primer término de la función es una medida de la complejidad de las filas (variables) de la matriz
de cargas. De manera similar, el segundo término de suma entre paréntesis es una medida de la complejidad
de la j-ésima columna de la matriz de cargas al cuadrado. El segundo término proporciona una medida de la
complejidad de la columna (factor) de la matriz de cargas. De ello se deduce que los valores más altos de
asignan mayor
k peso a la complejidad de los factores y menos peso a la complejidad de las variables.

Junto con la familia CF, EViews admite los siguientes métodos de rotación:

Método Ortogonal Oblicuo

bicuartimax • •

Crawford-Ferguson • •

entropía •

Relación de entropía

ecuamax • •
Machine Translated by Google

Fondo—1083

Parsimonia de factores
• •

Crawford-Ferguson generalizado • •

geomin • •

Harris-Kaiser (caso II) •

Infomax • •

Oblimax •

oblimin •

Ortomax • •

Parsimax • •

Simplicidad de patrón • •

promax •

Quartimax/Quartimin • •

Simplimax • •

Tándem I •

finalmente yo •

Objetivo
• •

Varimax • •

EViews emplea las variantes de Crawford-Ferguson de las funciones objetivas Biquartimax, Equamax,
Factor Parsi mony, Orthomax, Parsimax, Quartimax y Varimax. Por ejemplo, el objetivo EViews
Orthomax para el parámetro se evalúa utilizando el Crawford-Ferguson g
objetivo con factor complejidad peso kg ÿ ÿ p .

Estas formas de las funciones objetivo producen los mismos resultados que las versiones estándar en
el caso ortogonal, pero se comportan mejor (p. ej., no permiten el colapso de los factores) bajo rotación
oblicua directa (ver Browne 2001, p. 118-119). Tenga en cuenta que el oblicuo Crawford-Ferguson
Quarti max es equivalente a Quartimin.

Los dos métodos ortoblicuos, Promax y Harris-Kaiser, realizan una rotación ortogonal inicial, seguida
de un ajuste oblicuo. Para ambos métodos, EViews ofrece cierta flexibilidad en la elección de la rotación
inicial. De forma predeterminada, EViews realizará una rotación Orthomax inicial con el parámetro
predeterminado establecido en 1 (Varimax). Para realizar la rotación inicial con Quartimax, debe
establecer el parámetro Orthomax en 0. Consulte Gorsuch (1993) y Harris-Kaiser (1964) para obtener
más detalles.

Algunos métodos de rotación requieren la especificación de uno o más parámetros. A continuación se proporciona
una breve descripción y los valores predeterminados utilizados por EViews:
Machine Translated by Google

1084—Capítulo 49. Análisis factorial

Método norte Descripción de parámetros

Crawford-Ferguson 1 Peso de la complejidad del factor (predeterminado=0, Quartimax).


Crawford generalizado 4 Vector de pesos para (en orden): cuadrados totales, vari
Ferguson Complejidad capaz, complejidad factorial, cuárticas diagonales (sin valor
predeterminado).

geomin Desplazamiento de 1 épsilon (predeterminado = 0,01).

Harris-Kaiser (caso II) 2 Parámetro de potencia (predeterminado=0, solución de clúster


independiente).

oblimin 1 Desviación de la ortogonalidad (por defecto=0, Quarti


min).

Ortomax 1 Factor de ponderación de la complejidad (predeterminado=1, Varimax).

promax 1 parámetro de potencia (predeterminado=3).

Simplimax 1 Fracción de cargas cercanas a cero (predeterminado=0,75).

Objetivo 1 matriz de cargas objetivo. Valores perdidos cor p mÿ


responder a elementos no restringidos. (Sin valor predeterminado).

Estandarización

Ponderar las filas de la matriz de carga inicial antes de la rotación a veces puede mejorar la solución rotada
(Browne, 2001). La estandarización de Kaiser pondera las filas por las raíces cuadradas inversas de las
comunalidades. La estandarización de Cureton-Mulaik asigna pesos entre cero y uno a las filas de la matriz
de carga usando una función más complicada de la matriz original.

Ambos métodos de estandarización pueden generar inestabilidad en casos con pequeñas comunalidades.

Valores iniciales
Los valores iniciales para los procedimientos de minimización del objetivo de rotación se toman típicamente
como la matriz de identidad (las cargas no rotadas). La presencia de mínimos locales es una posibilidad
distinta y puede ser prudente considerar rotaciones aleatorias como valores iniciales alternativos. Las
rotaciones ortogonales aleatorias pueden usarse como valores iniciales para la rotación ortogonal; se pueden
usar rotaciones ortogonales u oblicuas aleatorias para inicializar la minimización del objetivo de rotación
oblicua.

Puntuación

Los factores utilizados para explicar la estructura de covarianza de los datos observados no se observan,
pero se pueden estimar a partir de las cargas y los datos observables. Estas estimaciones de puntaje
factorial pueden usarse en análisis de diagnóstico posteriores o como sustitutos de los datos observados de
mayor dimensión.
Machine Translated by Google

Fondo—1085

Estimación de puntuación
ˆ
Podemos calcular estimaciones de puntuación de factores como una combinación lineal de datos observados:
Soldado americano

ˆ
Soldado americano
ÿ Wˆ ÿ ÿ Zi mZ ÿ – (49.12)

Wˆ donde es una matriz de coeficientes de puntuación de factores derivada de las estimaciones de p mÿ


modelo de factores A menudo, construiremos estimaciones utilizando los datos originales de modo que Zi ÿ Xi pero

esto no es obligatorio; podemos, por ejemplo, utilizar coeficientes obtenidos de un conjunto de datos para calificar a
los individuos en un segundo conjunto de datos.

En
Se han propuesto varios métodos para estimar los coeficientes de puntuación. La primera clase W
de los métodos de puntuación de factores calcula estimaciones exactas o refinadas de los pesos de los coeficientes.
En términos generales, estos métodos optimizan alguna propiedad de las puntuaciones estimadas con respecto
a la elección de W . Por ejemplo, el enfoque de regresión de Thurstone maximiza la
correlación de las puntuaciones con los factores reales (Gorsuch, 1983). Otros métodos minimizan una
función de los errores estimados con respecto
eh En , sujeto
a las puntuaciones de los factores acoplados.
a restricciones en el estiPor ejemplo,
Anderson y Rubin (1956) y McDonald (1981) calculan estimadores de mínimos cuadrados ponderados de
las puntuaciones de los factores, sujeto a la condición de que la estructura de correlación implícita de las
puntuaciones Wˆ ÿSWˆ F , es igual a .

El segundo conjunto de métodos calcula pesos de coeficientes gruesos en los que los elementos de W
están restringidos a ser valores (-1, 0, 1). Estos pesos simplificados se determinan mediante la recodificación de
elementos de la matriz de cargas factoriales o una matriz de pesos de coeficientes exactos sobre la base de sus
magnitudes. A los valores de las matrices que son mayores que algún umbral (en valor absoluto) se les asignan
valores correspondientes al signo de -1 o 1; todos los demás valores se recodifican en 0 (Grice, 2001).

Evaluación de puntuación

Hay un número infinito de estimaciones de puntuación factorial que son consistentes con una estimación

modelo de factores Esta falta de identificación, denominada factor de indeterminación, ha recibido considerable
atención en la literatura (ver, por ejemplo, Mulaik (1996); Steiger (1979)), y es una de las principales razones de la
multiplicidad de métodos de estimación y del desarrollo de procedimientos para evaluar la calidad de un conjunto
dado de puntajes (Gorsuch, 1983, p. 272).

Ver Gorsuch (1993) y Grice (2001) para una discusión adicional de las siguientes medidas.

Índices de indeterminación

Hay dos tipos distintos de índices de indeterminación. El primer conjunto mide la correlación
2
r El P S–1 ÿ G r
múltiple entre cada factor y las variables observadas, y su cuadrado.
las correlaciones múltiples al cuadrado se obtienen a partir de las diagonales de
la matrizSdonde es la matriz de dispersión observada y G ÿ LF es la matriz de estructura factorial.
Ambos índices varían de 0 a 1, siendo deseables valores altos.
Machine Translated by Google

1086—Capítulo 49. Análisis factorial

El segundo tipo de índice de indeterminación informa la correlación mínima entre estimaciones alternativas de las
2
puntuaciones de los factores, rÿ – 1 ÿ
2r . La medida de correlación mínima oscila entre -1 y 1.
Los valores positivos altos son deseables, ya que indican que diferentes conjuntos de puntajes de factores producirán
resultados similares.

r
Grice (2001) sugiere que los valores que no excedan 0,707 en un grado significativo son problemáticos, ya que los
valores por debajo de este umbral implican que podemos generar dos conjuntos de puntajes factoriales que son
ortogonales o correlacionados negativamente (Green, 1976).

Validez, Univocidad, Precisión Correlacional

Siguiendo a Gorsuch (1983), podemos definir Rff como matriz de correlación de factores de población,
Rss como matriz de correlación de puntuación de factores y Rfs como la matriz de correlación de los factores

conocidos con las estimaciones de puntuación. En general, nos gustaría que estas matrices fueran similares.

Los elementos diagonales de Rfs se denominan coeficientes de validez . Estos coeficientes oscilan entre -1 y 1,
siendo deseables valores positivos altos. Las diferencias entre las validaciones y las correlaciones múltiples son
evidencia de que las puntuaciones factoriales calculadas tienen determinaciones más bajas que las calculadas usando

r
los valores de -. Gorsuch (1983) recomienda obtener valores de validez de al menos 0,80 y señala que pueden ser
necesarios valores superiores a 0,90 si deseamos utilizar las estimaciones de puntuación como sustitutos de los factores.

Los elementos fuera de la diagonal de Rfs nos permiten medir la univocidad, o el grado en que las puntuaciones de
los factores estimados tienen correlaciones con las de otros factores. Valores fuera de la diagonal de Rff
que difieren de los de son evidencia de sesgo de univocidad.
RFS

Por último, obviamente nos gustaría que las puntuaciones estimadas de los factores coincidieran con las correlaciones
entre los propios factores. Podemos evaluar la precisión correlacional de las estimaciones de las puntuaciones
comparando los valores de Rss con los valores de .
Rff

De nuestra discusión anterior, sabemos que la correlación de la población se puede .


Rff ÿ Wˆ ÿSWˆ Rss
obtener a partir de los momentos de las puntuaciones estimadas. Cálculo de Rfs es más común

pero sigue los pasos descritos en Gorsuch (1983).

Referencias
Akaike, H. (1987). “Análisis factorial y AIC”, Psychometika, 52(3), 317–332.
Anderson, TW y H. Rubin (1956). "Inferencia estadística en análisis factorial", en Neyman, J., editor, Actas del tercer
simposio de Berkeley sobre estadística matemática y probabilidad, Volumen V, 111-
150. Berkeley y Los Ángeles: University of California Press.
Bernaards, CA y RI Jennrich (2005). “Algoritmos de proyección de gradiente y software para criterios de rotación arbitraria
en análisis factorial”, Medición educativa y psicológica, 65(5), 676-696.
Browne, MW (2001). "Una descripción general de la rotación analítica en el análisis factorial exploratorio", Multivariante
Investigación del comportamiento, 36(1), 111–150.

Browne, MW y R. Cudeck (1993). “Formas alternativas de evaluar el ajuste del modelo”, en KA Bollen y JS
Long (eds.), Testing Structural Equation Models, Newbury Park, CA: Sage.
Machine Translated by Google

Referencias—1087

Cudeck, R. y MW Browne (1983). “Cross-validation of Covariance Structures,” Multivariate Behav ioral Research, 18,
147–167.
Dziuban, CD y EC Shirkey (1974). “¿Cuándo es adecuada una matriz de correlación para el análisis factorial?”
Boletín Psicológico, 81(6), 358–361.
Fabrigar, LR, DT Wegener, RC MacCallum y EJ Strahan (1999). “Evaluación del uso de Explor
Análisis factorial atorio en la investigación psicológica”, Psychological Methods, 4(3), 272–299.
Glorfeld, LW (1995). “Una mejora en la metodología de análisis paralelo de Horn para seleccionar el número correcto de
factores a retener”, Medición educativa y psicológica, 55(3), 377–393.
Gorsuch, RL (1983). Análisis factorial, Hillsdale, Nueva Jersey: Lawrence Erlbaum Associates, Inc.
Green, BF, Jr. (1969). "Mejores compuestos lineales con una estructura específica" , Psychometika, 34 (3), 301–
318.
Green, BF, Jr. (1976). “Sobre la controversia del puntaje factorial”, Psychometika, 41(2), 263–266.
Grice, JW (2001). "Computing and Evaluating Factor Scores", Métodos psicológicos, 6(4), 430–450.
Harman, HH (1976). Análisis factorial moderno, tercera edición revisada, Chicago: Universidad de Chicago
Prensa.

Harris, CW y HF Kaiser (1964). "Soluciones analíticas de factores oblicuos mediante transformaciones ortogonales"
Psychometrik, 29(4), 347–362.
Hendrickson, A. y P. White (1964). “Promax: un método rápido para la rotación a estructura simple oblicua
tura”, The British Journal of Statistical Psychology, 17(1), 65–70.
Cuerno, JL (1965). "Una justificación y prueba para el número de factores en el análisis factorial" , Psychometika,
30(2), 179–185.
Hu, L.-T. y PM Bentler (1995). “Evaluación del ajuste del modelo”, en RH Hoyle (Ed.), Structural Equation Mod
eling: conceptos, problemas y aplicaciones, Thousand Oaks, CA: Sage.
Hu, L.-T. y PM Bentler (1999). “Criterios de corte para índices de ajuste en análisis de estructura de covarianza: criterios
convencionales frente a nuevas alternativas”, Modelado de ecuaciones estructurales, 6(1), 1–55.
Humphreys, LG y DR Ilgen (1969). “Nota sobre un criterio para el número de factores comunes”, Edu
Medida nacional y psicológica, 29, 571–578.
Humphreys, LG y RG Montanelli, Jr. (1975). “Una investigación del criterio de análisis paralelo para determinar el número
de factores comunes”, Investigación conductual multivariante, 10, 193–206.
Ihara, M. e Y. Kano (1995). "Un nuevo estimador de la unicidad en el análisis factorial" , Psychometika,
51(4), 563-566.
Jackson, DA (1993). “Reglas de parada en el análisis de componentes principales: una comparación de análisis heurístico
and Statistical Approaches”, Ecology, 74(8), 2204–2214.
Jennrich, RI (2001). “Un procedimiento general simple para la rotación ortogonal”, Psychometika, 66(2), 289–
306.
Jennrich, RI (2002). “Un método general simple para la rotación oblicua”, Psychometika, 67(1), 7–20.
Johnson, RA y DW Wichern (1992). Análisis estadístico multivariante aplicado, tercera edición, superior
Saddle River, Nueva Jersey: Prentice-Hall, Inc.
Jöreskog, KG (1977). “Factor Analysis by Least-Squares and Maximum Likelihood Methods”, en Statisti cal Methods for
Digital Computers, K. Enslein, A. Ralston y HS Wilf, (eds.), Nueva York: John Wiley & Sons, Inc.

Kaiser, HF (1970). “A Second Generation Little Jiffy”, Psychometrik, 35(4), 401–415.


Kaiser, HF y J. Rice (1974). “Little Jiffy, Mark IV”, Medición educativa y psicológica, 34,
111–117.
Machine Translated by Google

1088—Capítulo 49. Análisis factorial

Kano, Y. (1990). “Estimación no iterativa y elección del número de factores en el análisis factorial exploratorio”, Psychometika,
55(2), 277–291.
Marsh, HW, JR Balla y RP McDonald (1988). “Índices de bondad de ajuste en el análisis factorial confirmatorio: el efecto del
tamaño de la muestra”, Psychological Bulletin, 103(3), 391–410.
McDonald, RP (1981). "Estimadores de mínimos cuadrados restringidos de factores comunes oblicuos", Psy
chometrika, 46(2), 277–291.
McDonald, RP y HW Marsh (1990). “Elección de un modelo multivariado: no centralidad y bondad de ajuste”, Psychological
Bulletin, 107(2), 247–255.
Predicador, KJ y RC MacCallum (2003). "Reparación de la máquina de análisis de factores eléctricos de Tom Swift"
Comprensión de las estadísticas, 2(1), 13–32.
Ten Berge, JMF, WP Krijnen, T. Wansbeek y A. Shapiro (1999). “Algunos resultados nuevos sobre métodos de predicción de
puntuaciones de factores que preservan la correlación”, Álgebra lineal y sus aplicaciones, 289, 311–318.
Tucker, L.R y RC MacCallum (1997). Análisis factorial exploratorio, manuscrito no publicado.
Velicer, WF (1976). “Determinación del número de componentes a partir de la matriz de correlaciones parciales”,
Psychometrik, 41(3), 321–327.
Zoski, KW y S. Jurs (1996). “Una contraparte objetiva de la prueba de pantalla visual para el análisis factorial: la pantalla de
error estándar”, Medición educativa y psicológica, 56(3), 443–451.
Zwick, WR y WF Velicer (1986). “Factores que influyen en cinco reglas para determinar el número de
Componentes para retener”, Psychological Bulletin, 99(3), 432–442.
Machine Translated by Google

Apéndice C. Estimación y opciones de solución

EViews estima los parámetros de una amplia variedad de modelos no lineales, desde ecuaciones de mínimos
cuadrados no lineales hasta modelos de máxima verosimilitud y especificaciones GMM. Estos tipos de problemas
de estimación no lineal no tienen soluciones de forma cerrada y deben estimarse utilizando métodos iterativos.
EViews también resuelve sistemas de ecuaciones no lineales. Una vez más, no hay soluciones de forma cerrada
para estos problemas, y EViews debe usar un método iterativo para
obtener una solución.

A continuación, brindamos detalles sobre los algoritmos utilizados por EViews al tratar con la estimación y la
solución no lineales, y las configuraciones opcionales que brindamos para permitirle controlar la estimación.

Nuestra discusión aquí es necesariamente breve. Para obtener detalles adicionales, lo remitimos a las
discusiones bastante legibles en Press, et al. (1992), Quandt (1983), Thisted (1988) y Amemiya (1983).

Configuración de opciones de estimación

Cuando estima una ecuación en EViews, ingresa información de especificación en la pestaña Especificación
del cuadro de diálogo Estimación de ecuación . Al hacer clic en la pestaña Opciones , se muestra un cuadro de
diálogo que le permite configurar varias opciones para controlar el procedimiento de estimación. El contenido del
cuadro de diálogo diferirá según las opciones disponibles para un procedimiento de estimación en particular.

La configuración predeterminada de las opciones se tomará de las opciones globales ("Valores


predeterminados de estimación" en la página 866) o de las opciones utilizadas anteriormente para estimar el objeto.

La pestaña Opciones para modelos binarios se muestra aquí. Para otros estimadores y técnicas de estimación
(p. ej ., sistemas), el cuadro de diálogo diferirá para reflejar las diferentes opciones de estimación disponibles.
Machine Translated by Google

1090—Apéndice C. Estimación y opciones de solución

Método de optimización
La mayoría de los estimadores no lineales de EViews le ofrecen la posibilidad de elegir el método de optimización.
Para estos estimadores, el menú desplegable Método de optimización le permite elegir entre los métodos BFGS, Gauss-
Newton, Newton-Raphson y EViews Legacy . El método predeterminado es específico del estimador.

En general, las diferencias entre las estimaciones deberían ser pequeñas para especificaciones no lineales de buen
comportamiento, pero si experimenta dificultades de optimización, es posible que desee experimentar con métodos.
Tenga en cuenta que el legado de EViews es una implementación particular de Gauss Newton con Marquardt o pasos de
búsqueda de línea, y se proporciona para la compatibilidad de estimación hacia atrás.

El método Step le permite elegir el enfoque para elegir los pasos iterativos candidatos.
El método predeterminado es Marquardt, pero en su lugar puede seleccionar Dogleg o Line Search.

Consulte “Algoritmos de optimización” en la página 1095 para obtener una discusión detallada.

Iteración y Convergencia
Hay dos reglas de parada de iteración comunes: basadas en el cambio en la función objetivo, o basadas en el cambio en
los parámetros. La regla de convergencia utilizada en EViews se basa en cambios en los valores de los parámetros. Esta
regla es generalmente conservadora, ya que el cambio en la función objetivo puede ser bastante pequeño a medida que
nos acercamos al óptimo (así es como elegimos la dirección), mientras que los parámetros aún pueden estar cambiando.

La regla exacta en EViews se basa en comparar la norma del cambio en los parámetros con la norma de los valores de
los parámetros actuales. Más específicamente, la prueba de convergencia es:
Machine Translated by Google

Configuración de opciones de estimación—1091

vÿ yo ÿ 1 ÿ 2 – vÿ ÿi
------------------------------------ peaje _ (C.1)
vÿ ÿi 2

v donde es el vector de parámetros, ance. X 2 es la norma 2 de X , y tol es el tolerante especificado

Sin embargo, antes de tomar las normas, cada parámetro se escala en función de la norma más grande
observada en las iteraciones de la derivada de los residuos de mínimos cuadrados con respecto a ese
parámetro. Este sistema de escalado automático hace que los criterios de convergencia sean más robustos a
los cambios en la escala de los datos, pero significa que reiniciar la optimización desde los valores convergentes
finales puede provocar iteraciones adicionales, debido a ligeros cambios en el valor de escalado automático
cuando se inicia. de los nuevos valores de los parámetros.

El proceso de estimación logra la convergencia si se alcanza la regla de parada usando la tolerancia especificada
en el cuadro de edición Convergencia del Diálogo de estimación o el Diálogo de opciones de estimación. Por
defecto, el cuadro se llenará con el valor de tolerancia especificado en las opciones de estimación global, o si
el objeto de estimación ha sido estimado previamente, se llenará con el valor de convergencia especificado
para el último conjunto de estimaciones.

EViews puede dejar de iterar incluso cuando no se logra la convergencia. Esto puede suceder por dos razones.
Primero, el número de iteraciones puede haber alcanzado el límite superior preespecificado. En este caso, debe
restablecer el número máximo de iteraciones a un número mayor e intentar iterar hasta lograr la convergencia.

En segundo lugar, EViews puede emitir un mensaje de error que indica "No se pudo mejorar" después de varias
iteraciones. Esto significa que aunque los parámetros continúan cambiando, EViews no pudo encontrar una
dirección o un tamaño de paso que mejore la función objetivo. Esto puede suceder cuando la función objetivo se
comporta mal; debe asegurarse de que su modelo esté identificado.
También puede probar otros valores iniciales para ver si puede acercarse al óptimo desde otras direcciones.

Por último, los EViews pueden converger, pero le advierten que existe una singularidad y que los coeficientes
no son únicos. En este caso, EViews no informará errores estándar o estadísticas t para las estimaciones de
coeficientes.

Valores iniciales del coeficiente

Los procedimientos de estimación iterativos requieren valores iniciales para los coeficientes del modelo.
No existen reglas generales para seleccionar valores iniciales para los parámetros. Obviamente, cuanto más se
acerque a los valores reales, mejor, por lo que si tiene conjeturas razonables para los valores de los parámetros,
estos pueden ser útiles. En algunos casos, puede obtener valores iniciales estimando una versión restringida
del modelo. En general, sin embargo, es posible que tenga que experimentar para encontrar buenos valores
iniciales.

EViews sigue tres reglas básicas para seleccionar valores iniciales:


Machine Translated by Google

1092—Apéndice C. Estimación y opciones de solución

• Para problemas del tipo de mínimos cuadrados no lineales, EViews utiliza los valores del vector de
coeficientes en el momento en que comienza el procedimiento de estimación como valores iniciales.

• Para los estimadores del sistema y ARCH, EViews utiliza valores iniciales basados en la estimación preliminar
OLS o TSLS de una sola ecuación. En los cuadros de diálogo de estos estimadores, no aparecerá el menú
desplegable para configurar los valores iniciales.

• Para técnicas de estimación seleccionadas (binario, ordenado, conteo, censurado y truncado), EViews tiene
algoritmos incorporados para determinar los valores iniciales utilizando información específica sobre la
función objetivo. Estos se etiquetarán en el menú desplegable Valores de coeficiente inicial como EViews
proporcionados.

En los dos últimos casos, puede cambiar este comportamiento predeterminado seleccionando un elemento del
menú desplegable Valores de coeficiente inicial . Puede elegir fracciones de los valores iniciales predeterminados,
cero o proporcionados por el usuario arbitrariamente.

Si selecciona Suministrado por el usuario, EViews utilizará los valores almacenados en el vector de coeficiente
C en el momento de la estimación como valores iniciales. Para ver los valores iniciales, haga doble clic en el vector
de coeficiente en el directorio del archivo de trabajo. Si los valores parecen ser razonables, puede cerrar la ventana
y continuar con la estimación de su modelo.

Si desea cambiar los valores iniciales, primero asegúrese de que la vista de hoja de cálculo del vector de coeficientes
esté en modo de edición, luego ingrese los valores de los coeficientes. Cuando haya terminado de establecer los
valores iniciales, cierre la ventana del vector de coeficientes y estime su modelo.

También puede establecer valores de coeficientes iniciales desde la ventana de comandos utilizando el comando
PARAM. Simplemente ingrese la palabra clave param , seguida de pares de coeficientes y sus valores deseados:

parámetro c(1) 153 c(2) .68 c(3) .15

establece C(1)=153, C(2)=.68 y C(3)=.15. Todos los demás elementos del vector de coeficientes se dejan sin
cambios.

Por último, si desea utilizar coeficientes estimados de otra ecuación, seleccione Proc/Actualizar coeficientes de
ecuación en la barra de herramientas de la ventana de ecuación.

Para problemas de mínimos cuadrados no lineales o situaciones en las que especifique los valores iniciales,
tenga en cuenta que:

• La función objetivo debe definirse en los valores iniciales. Por ejemplo, si su


función objetivo contiene la expresión 1/C(1), entonces no puede establecer C(1) en cero.
De manera similar, si la función objetivo contiene LOG(C(2)), entonces C(2) debe ser mayor que
cero.

• Una mala elección de los valores iniciales puede hacer que falle el algoritmo de mínimos cuadrados no
lineales. EViews comienza la estimación no lineal tomando derivadas de la función objetivo.
Machine Translated by Google

Configuración de opciones de estimación—1093

ción con respecto a los parámetros, evaluados en estos valores. Si estos derivados no se comportan
bien, es posible que el algoritmo no pueda continuar.

Si, por ejemplo, los valores iniciales son tales que todas las derivadas son cero, verá inmediatamente
un mensaje de error que indica que EViews ha encontrado una "matriz casi singular" y el
procedimiento de estimación se detendrá.

• A menos que la función objetivo sea globalmente cóncava, los algoritmos iterativos pueden
detenerse en un óptimo local. Por lo general, no habrá evidencia de este hecho en ninguno de los
resultados de la estimación.

Si le preocupa la posibilidad de óptimos locales, puede que desee seleccionar varios valores iniciales
y ver si las estimaciones convergen en los mismos valores. Una sugerencia común es estimar el
modelo y luego alterar aleatoriamente cada uno de los coeficientes estimados en algún porcentaje,
luego usar estos nuevos coeficientes como valores iniciales en la estimación.

Cálculo de derivadas
En muchos procedimientos de estimación de EViews, puede especificar la forma de la función para la
ecuación media o la función objetivo. Por ejemplo, al estimar un modelo de regresión, puede especificar
una expresión no lineal arbitraria en los coeficientes. En estos casos, al estimar el modelo, EViews necesita
calcular las derivadas de la función especificada por el usuario.
EViews utiliza dos técnicas para evaluar derivadas: numérica (diferencia finita) y analítica.

En la mayoría de los casos, no necesita preocuparse por la configuración del cálculo de la derivada. El
motor de estimación de EViews generalmente empleará expresiones analíticas para las derivadas, si es
posible, o calculará derivadas numéricas altas, cambiando entre un cálculo de menor precisión al principio
del procedimiento iterativo y un cálculo de mayor precisión para las iteraciones posteriores y el cálculo final.

Para el optimizador heredado, EViews puede ofrecerle la opción de calcular expresiones analíticas
para estas derivadas (si es posible) o calcular derivadas numéricas de diferencias finitas en los casos en
que la derivada no sea constante. Además, si se calculan derivadas numéricas, puede optar por favorecer
la velocidad de cálculo (menos evaluaciones de funciones) o favorecer la precisión (más evaluaciones de
funciones)

En algunos casos, EViews le ofrecerá configuraciones para controlar la toma de derivadas:

• De manera predeterminada, EViews llenará el cuadro de diálogo de opciones con la configuración


de estimación global. Si se elige la configuración Usar solo numérico , EViews solo calculará las
derivadas usando métodos de diferencias finitas. Si esta configuración no está marcada, EViews
intentará calcular derivadas analíticas y utilizará derivadas numéricas solo cuando sea necesario.

• EViews ignorará la configuración de la derivada numérica y utilizará una derivada analítica


siempre que la derivada de un coeficiente sea un valor constante.
Machine Translated by Google

1094—Apéndice C. Estimación y opciones de solución

• Para algunos procedimientos en los que el rango de especificaciones permitidas es limitado (p. ej., VAR,
pools), EViews siempre utiliza la primera y/o segunda derivada analíticas, independientemente de los valores
de estas configuraciones.

• En un número limitado de casos, EViews siempre utilizará derivadas numéricas. Por ejemplo, los modelos
GARCH seleccionados (consulte “Métodos de derivación” en la página 250) y los modelos de espacio de
estados siempre usan derivadas numéricas. Como se señaló anteriormente, las derivadas del coeficiente
MA siempre se calculan numéricamente.

• Los objetos logl siempre usan derivadas numéricas a menos que proporcione las derivadas analíticas en la
especificación.

Donde sea relevante, el cuadro de


diálogo de opciones de estimación le
permite controlar el método de tomar
derivadas. Por ejemplo, el cuadro de
diálogo de opciones para la regresión
estándar le permite anular el uso de
derivados analíticos de EViews. Si elige
usar la estimación heredada de EViews,
el cuadro de diálogo también le permitirá
elegir entre favorecer la velocidad o la
precisión en el cálculo de cualquier
derivada numérica (tenga en cuenta
que las opciones adicionales de LS y
TSLS se analizan en detalle en el
Capítulo 20). Herramientas de
regresión”, a partir de la página 23).

Calcular las derivadas numéricas más precisas requiere evaluaciones de funciones objetivas adicionales. El
legado de EView calcula derivadas numéricas mediante una diferencia finita unilateral (favorece la velocidad) o
mediante una rutina de cuatro puntos mediante la extrapolación de Richardson (favorece la precisión). Se
proporcionan detalles adicionales en Kincaid y Cheney (1996). El motor EViews más nuevo calcula las derivadas en
un método adaptativo para lograr una alta precisión.

Las derivadas analíticas a menudo serán más rápidas y precisas que las derivadas numéricas, especialmente si
las derivadas analíticas se han simplificado y optimizado cuidadosamente para eliminar las subexpresiones
comunes. En ocasiones, las derivadas numéricas implicarán menos operaciones de punto flotante que las analíticas
y, en estas circunstancias, pueden ser más rápidas.
Machine Translated by Google

Algoritmos de optimización—1095

Algoritmos de optimización
Dada la importancia de la configuración adecuada de las opciones de estimación de EViews, puede resultar útil
revisar brevemente varios algoritmos básicos de optimización utilizados en la estimación no lineal. Recuérdese
que el problema que se enfrenta en la estimación no lineal es encontrar los valores de los parámetros en
que
optimizan (maximizan o minimizan) una función objetivo Fÿ ÿ v .

Los algoritmos de optimización iterativos funcionan tomando un conjunto inicial de valores para los parámetros
decir vÿ ÿ 0 , y luego realizando cálculos basados en estos valores para obtener un mejor conjunto de parámetros.
valores eter, vÿ ÿ ,
1 . Este proceso se repite para vÿ ÿ 2 vÿ ÿ 3 y así sucesivamente hasta la función objetivo
ción yaF no mejora entre iteraciones.

Hay tres partes principales en el proceso de optimización: (1) obtener los valores iniciales de los parámetros,
(2) actualizar el vector de parámetros candidatos en cada iteración
en y (3) determinar cuándo hemos alcanzado el
valor óptimo.

Si la función objetivo es globalmente cóncava de manera que hay un único máximo, cualquier algoritmo que
mejore el vector de parámetros en cada iteración eventualmente encontrará este máximo (suponiendo que el
tamaño de los pasos dados no sea despreciable). Si la función objetivo no es globalmente cóncava, diferentes
algoritmos pueden encontrar diferentes máximos locales, pero todos los algoritmos iterativos sufrirán el mismo
problema de no poder diferenciar un máximo local y un máximo global.

Lo principal que distingue a los diferentes algoritmos es la rapidez con la que encuentran el máximo.
Desafortunadamente, no hay reglas estrictas y rápidas. Para algunos problemas, un método puede ser más
rápido, para otros problemas puede que no. EViews proporciona diferentes algoritmos y, a menudo, le permitirá
elegir qué método le gustaría usar.

Las siguientes secciones describen estos métodos. Los algoritmos utilizados en EViews se pueden
clasificar en términos generales en tres tipos: métodos de segunda derivada , métodos de primera derivada y
métodos sin derivada . Los métodos de la segunda derivada de EViews evalúan los valores de los parámetros
actuales y las derivadas primera y segunda de la función objetivo para cada observación. Los métodos de la
primera derivada utilizan solo las primeras derivadas de la función objetivo durante el proceso de iteración.
Como sugiere el nombre, los métodos libres de derivadas no calculan derivadas.

Métodos de la segunda derivada

Para modelos binarios, ordenados, censurados y de conteo, EViews puede estimar el modelo utilizando
Newton-Raphson o escalada cuadrática.

Newton-Raphson
Los valores candidatos para los parámetros se
vÿ pueden
ÿ1 obtener usando el método de Newton
Raphson linealizando las condiciones de primer orden ÿF ÿ ÿv en los valores actuales de los parámetros,
vÿ ÿi :
Machine Translated by Google

1096—Apéndice C. Estimación y opciones de solución

– vÿ ÿi ÿ ÿ0
ÿi vÿ ÿ ÿ gÿ ÿi Hÿ yo ÿ 1 ÿ

–1
(C.2)
vÿ yo ÿ 1 ÿ
ÿ

vÿ ÿi Hÿ ÿi gÿ ÿi

2
ÿ .
donde es el vector gradiente y es la matriz ÿv H, ÿ
2 ÿF ÿhessiana g F ÿv

Si la función es cuadrática, Newton-Raphson encontrará el máximo en una sola iteración. Si la función no es


cuadrática, el éxito del algoritmo dependerá de qué tan bien una aproximación cuadrática local capture la
forma de la función.

Escalada cuadrática (Goldfeld-Quandt)


Este método, que es una variación directa de Newton-Raphson, a veces se atribuye a Goldfeld y Quandt. La
escalada cuadrática modifica el algoritmo de Newton-Raphson al agregar una matriz de corrección (o factor
de cresta) a la arpillera. El algoritmo de actualización de escalada cuadrática viene dado por:

–1
vÿ yo ÿ 1 ÿ
ÿ

vÿ ÿi
– H˜ gÿ ÿi ÿ ÿi ÿ-

Hÿ ÿi ÿ aI
(C.3)
donde H˜ – ÿ ÿi

donde esyola matriz identidad y es un número


a positivo elegido por el algoritmo.

El efecto de esta modificación es empujar las estimaciones de los parámetros en la dirección del vector de
gradiente. La idea es que cuando estamos lejos del máximo, la aproximación cuadrática local a la función
puede ser una mala guía para su forma general, por lo que es mejor que simplemente sigamos el gradiente.
La corrección puede proporcionar un mejor rendimiento en lugares alejados del óptimo y permite el cálculo
del vector de dirección en los casos en que la arpillera es casi singular.

Para los modelos que se pueden estimar mediante métodos de segunda derivada, EViews utiliza la
escalada cuadrática como método predeterminado. Puede optar por utilizar el Newton-Raphson tradicional o
los métodos de la primera derivada que se describen a continuación, seleccionando el algoritmo deseado en
el menú Opciones.

Tenga en cuenta que los errores estándar asintóticos siempre se calculan a partir de la arpillera no modificada
una vez que se logra la convergencia.

Métodos de la primera derivada

Los métodos de la segunda derivada pueden ser computacionalmente costosos ya que necesitamos evaluar k kÿ ÿ ÿ 1
elementos de la matriz de la segunda derivada en cada iteración. Además, las segundas
ÿ2
derivadas calculadas pueden ser difíciles de calcular con precisión. Una alternativa es emplear métodos
que requieran solo las primeras derivadas de la función objetivo en los valores de los parámetros.

Para otros modelos no lineales seleccionados (ARCH y GARCH, GMM, State Space), EViews proporciona
dos métodos de primera derivada: Gauss-Newton/BHHH o Marquardt.
Machine Translated by Google

Algoritmos de optimización—1097

Los modelos de sistemas y ecuaciones simples no lineales se estiman utilizando el método de Marquardt.

Gauss-Newton/BHHH
Este algoritmo sigue el de Newton-Raphson, pero reemplaza el negativo de Hessian por una aproximación formada por
la suma del producto exterior de los vectores de gradiente para la contribución de cada observación a la función objetivo.
Para las funciones de mínimos cuadrados y logaritmo de verosimilitud, esta aproximación es asintóticamente equivalente
a la hessiana real cuando se evalúa en los valores de los parámetros que maximizan la función. Cuando se evalúa lejos del
máximo, esta aproximación puede ser bastante pobre.

El algoritmo se denomina Gauss-Newton para problemas generales de mínimos cuadrados no lineales y, a menudo, se
atribuye a Berndt, Hall, Hall y Hausman (BHHH) para problemas de máxima verosimilitud.

Las ventajas de aproximar el hessiano negativo por el producto exterior del gradiente son que (1) necesitamos evaluar solo
las primeras derivadas y (2) el producto exterior es necesariamente semidefinido positivo. La desventaja es que, lejos del
máximo, esta aproximación puede proporcionar una guía deficiente de la forma general de la función, por lo que es posible
que se necesiten más iteraciones para la convergencia.

Marquardt
El algoritmo de Marquardt modifica el algoritmo de Gauss-Newton exactamente de la misma manera que la escalada
cuadrática modifica el método de Newton-Raphson (agregando una matriz de corrección (o factor de cresta) a la aproximación
de Hesse).

La corrección de la cresta maneja los problemas numéricos cuando el producto exterior es casi singular y puede mejorar
la tasa de convergencia. Como arriba, el algoritmo empuja los valores de los parámetros actualizados en la dirección del
gradiente.

Para los modelos que se pueden estimar mediante métodos de primera derivada, EViews utiliza Marquardt como método
predeterminado. En muchos casos, puede optar por utilizar Gauss-Newton tradicional a través del menú Opciones.

Tenga en cuenta que los errores estándar asintóticos siempre se calculan a partir de la aproximación hessiana no
modificada (Gauss Newton) una vez que se logra la convergencia.

Elegir el tamaño del paso


En cada iteración, podemos buscar a lo largo de la dirección dada el tamaño de paso óptimo. EViews realiza una búsqueda
yo
simple de prueba y error en cada iteración para determinar un tamaño de paso que mejore la función objetivo. Este
procedimiento a veces se denomina exprimir o
extensión.

Tenga en cuenta que mientras EViews hará un intento rudimentario de encontrar un buen paso, l en realidad no está
optimizado en cada iteración ya que el cálculo del vector de dirección suele ser más importante
Machine Translated by Google

1098—Apéndice C. Estimación y opciones de solución

que la elección del tamaño del paso. Sin embargo, es posible que EViews no pueda encontrar un tamaño de paso
que mejore la función objetivo. En este caso, EViews emitirá un mensaje de error.
sabio.

EViews también realiza una búsqueda rudimentaria de prueba y error para determinar el factor de a para marzo

escala quardt y los métodos de escalada cuadrática.

Métodos libres de derivados


Otras rutinas de optimización no requieren el cálculo de derivadas. La búsqueda en cuadrícula es un ejemplo
destacado. La búsqueda en cuadrícula simplemente calcula la función objetivo en una cuadrícula de valores de
parámetros y elige los parámetros con los valores más altos. La búsqueda en cuadrícula es costosa desde el punto
de vista computacional, especialmente para los modelos multiparámetro.

EViews utiliza (una versión de) la búsqueda en cuadrícula para la rutina de suavizado exponencial.

Métodos de solución de ecuaciones no lineales


Al resolver un sistema de ecuaciones no lineales, EViews primero analiza el sistema para determinar si el sistema
se puede separar en dos o más bloques de ecuaciones que se pueden resolver secuencialmente en lugar de
simultáneamente. Técnicamente, esto se hace usando una representación gráfica del sistema de ecuaciones donde
cada variable es un vértice y cada ecuación proporciona un conjunto de aristas. Luego se usa un algoritmo bien
conocido de la teoría de grafos para encontrar los componentes fuertemente conectados del gráfico dirigido.

Una vez que se han determinado los bloques, cada bloque se resuelve a su vez. Si el bloque no contiene
simultaneidad, cada ecuación en el bloque simplemente se evalúa una vez para obtener valores para cada una de
las variables.

Si un bloque contiene simultaneidad, las ecuaciones en ese bloque se resuelven mediante un método de Gauss
Seidel o Newton, según cómo se hayan configurado las opciones del solucionador.

Gauss-Seidel
De forma predeterminada, EViews utiliza el método de Gauss-Seidel al resolver sistemas de ecuaciones no lineales.
Supongamos que el sistema de ecuaciones está dado por:

x1 ÿ ÿf1 x1ÿx2
,,,,ÿÿxN
xN Con

x2 ÿ ,,,, _ _ _ Con

(C.4)
ÿ

ÿ ÿx1 x2ÿ ÿ,,,xN


xN fN , Con

X las variables endógenas y son las variables exógenas.


donde son Con

El problema es encontrar un punto fijo tal que x fxz ÿ ÿ ÿ , . Gauss-Seidel emplea una regla de
actualización iterativa de la forma:
Machine Translated by Google

Métodos de solución de ecuaciones no lineales: 1099

ÿ yo ÿ 1 ÿ
x ÿ ÿ , f xÿ ÿi ÿ Con . (C.5)

para encontrar la solución. En cada iteración, EViews resuelve las ecuaciones en el orden en que
aparecen en el modelo. Si una variable endógena que ya se resolvió en esa iteración aparece más tarde
en alguna otra ecuación, EViews usa el valor como se resolvió en esa iteración.
Por ejemplo, la k-ésima variable en la i-ésima iteración se resuelve mediante:
ÿ ÿ ÿ ÿ yo – 1 ÿ ÿ xk yo – 1 ÿ ÿ yo – 1 ÿ
ÿi xk ÿi ÿ ÿ fk x1 , ,ÿi, x2 ÿi ÿ xk – 1 ÿ xk , ,,ÿÿ1xN , Con
ÿ . (C.6)

El rendimiento del método de Gauss-Seidel puede verse afectado por el reordenamiento de las ecuaciones.
Si el método de Gauss-Seidel converge lentamente o no lo hace, debe intentar mover las ecuaciones
con relativamente pocas variables endógenas del lado derecho y sin importancia para que aparezcan al
principio del modelo.

Método de Newton
El método de Newton para resolver un sistema de ecuaciones no lineales consiste en resolver
repetidamente una aproximación lineal local al sistema.

Considere el sistema de ecuaciones escrito en forma implícita:

Fxz ÿ ÿ , ÿ0 (C.7)

F el conjunto de ecuaciones, es
donde es X el vector de variables endógenas y es el vector de variables Con

exógenas.

En el método de Newton, hacemos una aproximación lineal al sistema alrededor de unos valores xÿ
y : zÿ

ÿ
Fxz ÿ ÿ , ÿ
F xÿ ÿ ÿ F xÿ ÿ ÿ, zÿ ÿ, zÿ ÿx 0 ÿ
(C.8)
ÿx

y luego use esta aproximación para construir un procedimiento iterativo para actualizar nuestra suposición
actual para:X
–1
ÿ
xt ÿ 1
ÿ-
xt , zÿ ÿ ÿ
F xto , zÿ ÿ (C.9)
ÿ ÿxF xt

donde elevar a la potencia de -1 denota inversión de matriz.

El procedimiento se repite hasta que los cambios entreXperíodos sean menores que una tolerancia
especificada.

Tenga en cuenta que, a diferencia de Gauss-Seidel, el orden de las ecuaciones bajo Newton no
afecta la tasa de convergencia del algoritmo.
Machine Translated by Google

1100—Apéndice C. Estimación y opciones de solución

Método de Broyden
El método de Broyden es una modificación del método de Newton que trata de disminuir el costo de
cálculo de cada iteración mediante el uso de una aproximación a las derivadas del sistema de
ecuaciones en lugar de las verdaderas derivadas del sistema de ecuaciones al calcular el paso de
Newton. Es decir, en cada iteración, el método de Broyden da un paso:
–1
xt ÿ 1 ÿ-
xt jt F ÿxto , zÿ ÿ (C.10)

donde esjt la aproximación actual a la matriz de derivadas del sistema de ecuaciones.

Además de actualizar el valor de en cada


X iteración, el método de Broyden también actualiza el Jt
Aproximación jacobiana existente, , en cada iteración basada en la diferencia entre el cambio observado
en los residuos del sistema de ecuaciones y el cambio en los residuos predicho por una aproximación
lineal al sistema de ecuaciones basada en la aproximación jacobiana actual.

En particular, el método de Broyden usa la siguiente ecuación para actualizar: j

ÿ ÿF xt ÿ 1 ÿ , ÿ zÿ F ------------------------------------------------
ÿ --------------------------------------------
xt – ÿ , ÿ zÿ J Dxÿÿ – tDx
Jt ÿ 1 jt (C.11)
DxÿDx

dónde Dx xt ÿ 1 xt . Esta
ÿ – actualización tiene una serie de propiedades deseables (ver el Capítulo 8 de
Dennis y Schnabel (1983) para más detalles).

En EViews, la aproximación jacobiana se inicializa tomando las verdaderas derivadas del sistema
de ecuaciones en los valores iniciales de . El procedimiento
X de actualización dado anteriormente se
repite hasta que losXcambios entre períodos sean menores que una tolerancia especificada. En algunos
casos, el método puede detenerse antes de llegar a una solución, en cuyo caso se toma un nuevo
X , yde
conjunto de derivadas del sistema de ecuaciones en los valores actuales laued usando estas
actualización derivadas
es continua
como la nueva aproximación jacobiana.

El método de Broyden comparte muchas de las propiedades del método de Newton, incluido el hecho
de que no depende del orden de las ecuaciones en el sistema y que, por lo general, convergerá
rápidamente en la vecindad de una solución. En comparación con el método de Newton, el método de
Broyden normalmente tardará menos en realizar cada iteración, pero puede necesitar más iteraciones
para converger en una solución. En la mayoría de los casos, el método de Broyden tardará menos
tiempo en resolver un sistema que el método de Newton, pero el rendimiento relativo dependerá de la
estructura de las derivadas del sistema de ecuaciones.

Referencias
Amemiya, Takeshi (1983). “Modelos de regresión no lineal”, Capítulo 6 en Z. Griliches y MD Intriligator
(eds.), Handbook of Econometrics, volumen 1, Ámsterdam: Elsevier Science Publishers BV
Berndt, E., Hall, B., Hall, R. y Hausman, J. (1974). Estimación e inferencia en modelos estructurales no lineales, Annals
of Economic and Social Measurement, Vol. 3, 653–665.
Machine Translated by Google

Referencias—1101

Dennis, JE y RB Schnabel (1983). “Métodos de la secante para sistemas de ecuaciones no lineales”, Numerical
Métodos de Optimización Sin Restricciones y Ecuaciones No Lineales. Prentice Hall, Londres.
Kincaid, David y Ward Cheney (1996). Análisis numérico, 2.ª edición, Pacific Grove, CA: Brooks/
Compañía Editorial Cole.
More y Sorensen (1983). “Computing a Trust Region Step”, SIAM Journal of Scientific Statistical Computing, 4, 553–572.

Press, WH, SA Teukolsky, WT Vetterling y BP Flannery (1992). Recetas Numéricas en C, 2da edi
ción, Cambridge University Press.
Quandt, Richard E. (1983). "Problemas y métodos computacionales", Capítulo 12 en Z. Griliches y MD
Intriligator (eds.), Manual de econometría, Volumen 1, Ámsterdam: Elsevier Science Publishers BV

Thisted, Ronald A. (1988). Elements of Statistical Computing, Nueva York: Chapman and Hall.
Machine Translated by Google

1102—Apéndice C. Estimación y opciones de solución


Machine Translated by Google

Apéndice D. Gradientes y derivados

Muchos objetos de estimación de EViews proporcionan rutinas integradas para examinar los gradientes y
derivados de sus especificaciones. Puede, por ejemplo, utilizar estas herramientas para examinar las derivadas
analíticas de su especificación de regresión no lineal en forma numérica o gráfica, o puede guardar los
gradientes de su rutina de estimación para pruebas de especificación.

Se puede acceder a las vistas de degradado y derivadas desde la mayoría de los objetos de estimación
seleccionando Ver/Gradientes y Derivados o, en algunos casos, Ver/Gradientes, y luego seleccionar la vista
adecuada.

Si desea guardar los valores numéricos de sus gradientes y derivados, deberá utilizar los procedimientos de
gradiente y derivados. Se puede acceder a estos procesos desde el menú principal de Procesos .

Tenga en cuenta que no todas las vistas y procesos están disponibles para todos los objetos de estimación o todas las
técnicas de estimación.

Gradientes
EViews le brinda la capacidad de examinar y trabajar con los gradientes de la función objetiva para una
variedad de objetos de estimación. Examinar estos gradientes puede proporcionar información útil para evaluar
el comportamiento de su rutina de estimación no lineal, o puede usarse como base de varias pruebas de
especificación.

Dado que EViews proporciona una variedad de métodos y técnicas de estimación, la noción de gradiente es
un poco difícil de describir en términos casuales. EViews generalmente informará los valores de las condiciones
de primer orden utilizadas en la estimación. Para tomar el ejemplo más simple, los mínimos cuadrados
ordinarios minimizan los residuos de la suma de los cuadrados:
2
Sÿ ÿ (D.1)
segundo ÿ ÿ ÿ - b ÿ yt Xt
t

Las condiciones de primer orden para esta función objetivo se obtienen derivando con b
respecto a , dando

ÿ – 2 yt Xt ÿ ÿ – ÿb Xt (D.2)
t

EViews le permite examinar tanto la suma como el promedio correspondiente, así como el valor de cada una
de las observaciones individuales. Además, puede guardar los valores individuales en serie para su posterior
análisis.

Los cálculos de gradiente individuales se resumen en la siguiente tabla:


Machine Translated by Google

1104—Apéndice D. Gradientes y derivados

mínimos cuadrados
ÿ ÿftÿ
ÿ ÿ 2bÿ yt
Xtf ,–
gt
ÿ-
tÿ b ÿ Xt , ÿ
------------------------ ÿÿ
ÿb

Mínimos cuadrados ponderados


2ÿÿftÿ ÿ Xt
ÿ 2byt f ÿ,–
gt
ÿ-
tÿ ÿ Xt , ÿ b wt ------------------------ ÿ
ÿ ÿb

Mínimos cuadrados en dos etapas


ÿ ÿftÿ bÿ Xt
ÿ 2 yt f ÿ ,–
gt
ÿ-
tÿ ÿ Xt , ÿ b Pt ------------------------ ÿ
ÿ ÿb

Mínimos cuadrados de dos etapas


ÿ ÿftÿ bÿ Xt ,twt
ÿ b wtP˜
ponderados gt
ÿ-
2 yt f tÿÿ- ÿ Xt , ÿ --------------- ÿ ÿ ÿb

Máxima verosimilitud
ÿltÿ
ÿ ------------------------
ÿ Xtb ,
gt
ÿb

P P˜las matrices de proyección correspondientes a las expresiones para los estimadores del Capítulo
donde y son
21. “Variables instrumentales y GMM”, a partir de la página 69, y es la función de contribución de verosimilitud yo

logarítmica.

Tenga en cuenta que las expresiones para los gradientes de regresión se ajustan en consecuencia en
presencia de términos de error ARMA.

Resumen de degradado

Para ver el resumen de los degradados, seleccione Ver/Gradientes y derivados/ Resumen de degradado
o Ver/Gradientes/Resumen. EViews mostrará una tabla de resumen que muestra la suma, la media y la
dirección de Newton asociada con los gradientes. Aquí hay una tabla de ejemplo de una ecuación de estimación
de mínimos cuadrados no lineales:

Gradientes de la función objetivo


Gradientes evaluados en parámetros estimados
Ecuación: EQ01
Método: mínimos cuadrados
Especificación: LOG(CS) = C(1) +C(2)*(PIB^C(3)-1)/C(3)
Calculado usando derivadas analíticas

Coeficiente Suma Dir Newton medio

C(1) 5.21E-10 2.71E-12 1.41E-14

C(2) 9.53E-09 4.96E-11 -3.11E-18

C(3) 3.81E-08 1.98E-10 2.47E-18

Hay varias cosas a tener en cuenta sobre esta tabla. La primera línea de la tabla indica que los gradientes se
han calculado en parámetros estimados. Si solicita una vista de gradiente para un
Machine Translated by Google

Gradientes: 1105

objeto de estimación que no se ha estimado con éxito, EViews calculará los gradientes en los valores de los parámetros
actuales y lo anotará en la tabla. Este comportamiento le permite diagnosticar problemas de estimación fallidos utilizando los
valores de gradiente.

En segundo lugar, notará que EViews le informa que los gradientes se calcularon utilizando derivados analíticos. EViews
también le informará si la especificación es lineal, si las derivadas se calcularon numéricamente o si EViews usó una
combinación de técnicas analíticas y numéricas. Le recordamos que todas las derivadas del coeficiente MA se calculan
numéricamente.

Por último, hay una tabla que muestra la suma y la media de los gradientes, así como una columna denominada
"Newton Dir.". La columna informa la dirección de Newton ajustada sin Marquardt utilizada en los procedimientos de
estimación iterativa de la primera derivada (consulte “Métodos de la primera derivada” en la página 1096).

En el ejemplo anterior, todos los valores están "cerca" de cero. Si bien uno podría esperar que estos valores estén siempre
cerca de cero cuando se evalúan en los parámetros estimados, hay una serie de razones por las que esto no siempre será
así. Primero, tenga en cuenta que los valores de la suma y la media tienen una gran variación de escala, por lo que los
cambios en la escala de las variables dependientes e independientes pueden conducir a cambios marcados en estos valores.
En segundo lugar, debe tener en cuenta que, si bien la dirección de Newton está relacionada con los términos utilizados en
los procedimientos de optimización, la prueba de convergencia de EViews no utiliza directamente la dirección de Newton. En
tercer lugar, algunas de las opciones de iteración para la estimación del sistema no iteran los coeficientes o las ponderaciones
por completo hasta la convergencia. Por último, debe tener en cuenta que los valores de estos gradientes son sensibles a la
precisión de cualquier diferenciación numérica.

Gráfico y tabla de gradientes

Hay una serie de situaciones en las que es posible que desee examinar las contribuciones individuales al vector gradiente.
Por ejemplo, una fuente común de singularidad en la estimación no lineal es la presencia de gradientes muy pequeños
combinados con muy grandes en un conjunto dado de valores de coeficiente.

EViews le permite examinar sus gradientes de dos maneras: como una hoja de cálculo de valores o como gráficos de líneas,
con cada conjunto de gradientes de coeficiente representados en un gráfico separado. Con estas herramientas, puede
examinar sus datos en busca de observaciones con valores atípicos para los gradientes.

Serie de degradado

Puede guardar los valores de degradado individuales en serie mediante el procedimiento Crear grupo de degradado.
EViews creará un nuevo grupo que contiene series con nombres de la forma GRAD## donde ## es el siguiente nombre
disponible.

Tenga en cuenta que cuando almacene los gradientes, EViews llenará la serie para el rango completo del archivo de trabajo.
Si ve la serie, asegúrese de establecer la muestra del archivo de trabajo en la muestra utilizada en la estimación si desea
reproducir la tabla que se muestra en las vistas de gradiente.
Machine Translated by Google

1106—Apéndice D. Gradientes y derivados

Aplicación a Pruebas LM

Las series de gradientes son quizás más útiles para realizar pruebas del multiplicador de Lagrange para
modelos no lineales ejecutando lo que se conoce como regresiones artificiales (Davidson y MacKin non 1993,
Capítulo 6). Una regresión artificial genérica para la prueba de hipótesis toma la forma de una regresión:

ÿ ÿftÿ
u˜t enb˜ÿ Xt , ÿ
------------------------ ÿ ÿ ÿb y Zt (D.3)

donde son b
tu los residuos estimados bajo el modelo restringido (nulo), y son los coeficientes estimados. Son
DEerrores de especificación" que corresponden a desviaciones de la hipótesis
un conjunto de "indicadores de
nula.

En el directorio de instalación de EViews se proporciona un programa de ejemplo (“GALLANT2.PRG”) para


realizar una prueba de regresión auxiliar de LM.

Disponibilidad de gradiente

Las vistas de degradado están actualmente disponibles para los objetos de ecuación, logl, sspace y system.
Sin embargo, las vistas no están disponibles actualmente para ecuaciones estimadas por GMM o ecuaciones
ARMA especificadas por expresión.

Derivados
EViews emplea una variedad de reglas para calcular las derivadas utilizadas por los procedimientos de
estimación iterativos. Estas reglas y las configuraciones definidas por el usuario que controlan la obtención de
derivadas se describen en detalle en “Cálculo de derivadas” en la página 1093.

Además, EViews proporciona vistas de objetos y procedimientos de objetos que le permiten examinar los
efectos de esas elecciones y los resultados de la toma de derivadas. Estas vistas y procedimientos le brindan
un acceso rápido y fácil a los derivados de sus funciones especificadas por el usuario.

Cabe señalar que estas vistas y procedimientos no están disponibles para todas las técnicas de estimación.
Por ejemplo, las vistas derivadas actualmente no están disponibles para modelos binarios ya que solo se
permite un conjunto limitado de especificaciones.

Derivado Descripción

La vista Descripción de derivados proporciona un resumen rápido de los derivados utilizados en la estimación.

Por ejemplo, considere el modelo de regresión no lineal simple:



cÿ ÿ 2 xt ÿ ÿ ÿ y t
ÿ

yt ÿ cÿ ÿ 1 1 – expÿ (D.4)
Machine Translated by Google

Derivados—1107

Después de la estimación de esta única ecuación, podemos mostrar la vista de descripción seleccionando Ver/
Gradientes y derivados.../Descripción de derivados.

Derivadas de la especificación de la ecuación


Ecuación: EQ02
Método: mínimos cuadrados
Especificación: RESID = Y - ((C(1)*(1-EXP(-C(2)*X))))
Calculado usando derivadas analíticas

Variable Derivado de Especificación

C(1) -1 + exp(-c(2) * x)
C(2) -c(1) * x * exp(-c(2) * x)

Hay tres partes en la salida de esta vista. Primero, la línea etiquetada como "Especificación:" describe la
especificación de la ecuación que estamos estimando. Notará que hemos escrito la especificación en términos
del residuo implícito de nuestra especificación.

La siguiente línea describe el método utilizado para calcular las derivadas utilizadas en la estimación.
Aquí, EViews informa que las derivadas se calcularon analíticamente.

Por último, la parte inferior de la tabla muestra las expresiones de las derivadas de la función de regresión
con respecto a cada coeficiente. Tenga en cuenta que las derivadas están en términos del residuo implícito, por
lo que los signos de las expresiones se han ajustado en consecuencia.

En este ejemplo, todas las derivadas se calcularon analíticamente. En algunos casos, sin embargo, EViews no
sabrá cómo tomar derivadas analíticas de su expresión con respecto a uno o más de los coeficientes. En esta
situación, EViews utilizará expresiones analíticas cuando sea posible y numéricas cuando sea necesario, e
informará qué tipo de derivado se utilizó.
para cada coeficiente.

Supongamos, por ejemplo, que estimamos:

yt ÿ
ÿ cÿ ÿ 1 1 – expÿ – ÿcÿf ÿ 2 xt ÿ ÿ ÿ ÿ y
t
(D.5)

donde esFla función de densidad normal estándar. La vista derivada de esta ecuación es
Machine Translated by Google

1108—Apéndice D. Gradientes y derivados

Derivadas de la especificación de la ecuación


Ecuación: EQ02
Método: mínimos cuadrados
Especificación: RESID = Y - ((C(1)*(1-EXP(-@DNORM(C(2)*X)))))
Calculado usando derivadas analíticas
Usar derivadas numéricas precisas cuando sea necesario

Variable Derivado de Especificación

C(1) -1 + exp(-@dnorm(c(2) * x)) ---


C(2) numérico exacto ---

Aquí, EViews informa que intentó usar derivadas analíticas, pero que se vio obligado a usar una
derivada numérica para C(2) (ya que aún no se le ha enseñado la derivada de la función @dnorm ).

Si configuramos la opción de estimación para que solo calculemos derivadas numéricas rápidas,
la vista cambiaría a

Derivadas de la especificación de la ecuación


Ecuación: EQ02
Método: mínimos cuadrados
Especificación: RESID = Y - ((C(1)*(1-EXP(-C(2)*X))))
Calculado usando derivadas numéricas rápidas

Variable Derivado de Especificación

C(1) --- numérico rápido ---

C(2) --- numérico rápido ---

para reflejar los diferentes métodos de tomar derivados.

Si su especificación contiene términos autorregresivos, EViews solo calculará las derivadas con
respecto a la parte de regresión de la ecuación. Sin embargo, la presencia de los componentes AR
se indica en la vista de descripción.
Machine Translated by Google

Derivados—1109

Derivadas de la especificación de la ecuación


Ecuación: EQ02
Método: mínimos cuadrados
Especificación: [AR(1)=C(3)] = Y - (C(1)-EXP(-C(2)*X))
Calculado usando derivadas analíticas

Variable Derivado de Especificación*

C(1) -1

C(2) -X * exp(-c(2) * x)

*Nota: las expresiones derivadas no tienen en cuenta los componentes de ARMA

Recuerde que las derivadas de la función objetivo con respecto a los componentes AR siempre se calculan
analíticamente utilizando las derivadas de la especificación de regresión y los retrasos de estos valores.

Una palabra de precaución sobre las expresiones derivadas. Para muchas especificaciones de ecuaciones,
las expresiones derivadas analíticas serán bastante largas. En algunos casos, las derivadas analíticas serán
más largas que el espacio asignado a ellas en el resultado de la tabla. Podrá identificar estos casos por el final
"..." en la expresión.

Para ver la expresión completa, deberá crear un objeto de tabla y luego cambiar el tamaño de la columna
correspondiente. Simplemente haga clic en el botón Congelar en la barra de herramientas para crear un objeto
de tabla y luego resalte la columna de interés. Haga clic en Ancho en la barra de herramientas de la tabla e
ingrese un número mayor.

Tabla y gráfica de derivadas


Una vez que obtengamos estimaciones de los parámetros de nuestro modelo de regresión no lineal,
podemos examinar los valores de las derivadas en los valores de los parámetros estimados. Simplemente
seleccione Ver/Gradientes y derivados... para ver una vista de hoja de cálculo o un gráfico de líneas de los
valores de los derivados para cada coeficiente:
Machine Translated by Google

1110—Apéndice D. Gradientes y derivados

Esta vista de hoja de cálculo muestra el valor de las derivadas de cada observación en el formato de
hoja de cálculo estándar. La vista de gráfico traza el valor de cada una de estas derivadas para cada
coeficiente.

Serie Derivada
Puede guardar los valores derivados en serie para su uso posterior. Simplemente seleccione Proc/
Make Derivative Group y EViews creará un objeto de grupo sin título que contiene la nueva serie.
La serie se llamará DERIV##, donde ## es un número asociado con el próximo nombre libre
disponible. Por ejemplo, si tiene los objetos DERIV01 y DERIV02, pero no DERIV03 en el archivo de
trabajo, EViews guardará el siguiente derivado en la serie DERIV03.

Referencias
Davidson, Russell y James G. MacKinnon (1993). Estimación e Inferencia en Econometría, Oxford:
Prensa de la Universidad de Oxford.
Machine Translated by Google

Apéndice E. Criterios de información

Como parte del resultado de la mayoría de los procedimientos de regresión, EViews informa varios criterios de
información. Los criterios de información se utilizan a menudo como guía en la selección de modelos (ver, por
ejemplo, Grasa 1989).

La cantidad de información de Kullback-Leibler contenida en un modelo es la distancia desde el modelo "verdadero"


y se mide mediante la función de probabilidad logarítmica. La noción de un criterio de información es proporcionar
una medida de información que logre un equilibrio entre esta medida de bondad de ajuste y la especificación
parsimoniosa del modelo. Los diversos criterios de información difieren en la forma de lograr este equilibrio.

Definiciones
Los criterios básicos de información vienen dados por:

Criterio de información de Akaike (AIC) – 2ÿ ÿTÿl ÿ 2ÿ ÿ k Tÿ


Criterio de Schwarz (CS) – 2ÿ ÿÿl kTÿT logÿ ÿ ÿ T

Criterio de Hannan-Quinn (HQ) – 2ÿ ÿl Tÿ ÿ 2k T logÿÿ ÿÿ logÿ


T

yo k
Sea el valor del logaritmo de la función de verosimilitud con los parámetros estimados mediante observaciones.
T
Los diversos criterios de información se basan todos en -2 veces la función de probabilidad logarítmica promedio,
ajustada por una función de penalización.

Para los modelos de análisis factorial, EViews sigue la convención (Akaike, 1987), volviendo a centrar los criterios
restando el valor del modelo saturado. La forma de análisis factorial resultante de los criterios de información viene
dada por:

Criterio de información de Akaike (AIC) ÿ ÿ T k – D Tÿ – ÿ ÿ 2 ÿ T df

Criterio de Schwarz (CS) ÿ ÿ T k – D Tÿ – ÿ ÿ logÿ ÿ T ÿ T df

Criterio de Hannan-Quinn (HQ) ÿ ÿ T k – D Tÿ – ÿ 2 lnÿ ÿ ÿ logÿ ÿ T ÿ T df

donde esDla función de discrepancia y es el número ded.f.


grados de libertad en la matriz de dispersión estimada.
Tenga en cuenta que EViews escala la forma de Akaike de la estadística por T
dividiendo por .

Además de los criterios de información descritos anteriormente, existen criterios de información especializados
que EViews utiliza al calcular las pruebas de raíz unitaria:

AIC modificado (MAIC) – 2ÿ ÿÿl 2ÿ


Tÿ ÿ ÿ k ÿ t ÿ T ÿ
Machine Translated by Google

1112—Apéndice E. Criterios de información

SIC modificado (MSIC) – 2ÿ ÿÿ lÿTÿ


ÿ k ÿ t logÿ ÿ T ÿ T
Hannan-Quinn modificado (MHQ) – 2ÿ ÿÿ l2ÿ
Tÿÿ k ÿ t logÿ ÿ logÿ ÿ T ÿ T

t como:
donde el factor de modificación se calcula
2 ÿ 2
ta2 _ÿ
(E.1)
ÿj _y˜t – 1
t
para como se define en y˜t y ÿ y˜t
t al calcular la ecuación de prueba ADF (38.7), y para
(“Estimador de densidad espectral autorregresiva”, a partir de la página 599) al estimar el espectro de frecuencia cero
(ver Ng y Perron, 2001, para una discusión de los criterios de información modificados).

Tenga en cuenta también que:

• Las definiciones utilizadas por EViews pueden diferir ligeramente de las utilizadas por algunos autores.
T
Por ejemplo, Grasa (1989, ecuación 3.21) no divide el AIC por . Otros autores omiten las constantes no
esenciales del logaritmo de verosimilitud gaussiana (generalmente, los términos que implican 2p
).

Si bien las primeras versiones de EViews informaron criterios de información que omitieron términos
constantes esenciales, la versión actual de EViews siempre usa el valor de la función de probabilidad total.
Todos sus objetos de ecuación estimados en versiones anteriores de EViews se actualizarán automáticamente
para reflejar este cambio. Sin embargo, debe tener este hecho en cuenta al comparar resultados de objetos de
tabla congelados o resultados impresos de versiones anteriores.

• Para los sistemas de ecuaciones, cuando corresponda, los criterios de información se calculan
utilizando la probabilidad de registro del sistema completo. El valor logarítmico de verosimilitud se calcula
suponiendo una distribución normal multivariante (gaussiana) como:

ÿ
TM T
yo
– ---------ÿ 1 2 ÿ registro p ÿ – ---log Qˆ (E.2)
2 2
dónde


ÿ
ÿT ÿ
ÿ
ÿ it eˆeˆÿ
ÿÿ (E.3)

METRO es el número de ecuaciones. Tenga en cuenta que estas expresiones solo son estrictamente válidas
cuando hay un número igual de observaciones para cada ecuación. Cuando su sistema está desequilibrado,
EViews reemplaza estas expresiones con la suma apropiada
ciones.

• Las formas de análisis factorial de las estadísticas a menudo se citan en forma no escalada, algunas veces
sin ajustar por el modelo saturado. La mayoría de las veces, si hay discrepancias, multiplicar los valores
informados de EViews por alineará los resultados. T
Machine Translated by Google

Referencias—1113

• Muchos métodos de estimación, incluida la regresión de mínimos cuadrados, no tratan el error


término de varianza, sigma, como un coeficiente estimado, y como tal omitir este término de la k
calculo de .

Uso de los criterios de información como guía para la selección de modelos

Como usuario de estos criterios de información como guía de selección de modelos, selecciona el modelo
con el criterio de información más pequeño.

El criterio de información se ha utilizado ampliamente en el análisis de series de tiempo para determinar


la longitud adecuada del retraso distribuido. Lütkepohl (1991, capítulo 4) presenta una serie de resultados
con respecto a la selección de orden de retardo consistente en modelos VAR.

Sin embargo, debe tener en cuenta que los criterios dependen de la unidad de medida de la variable
dependiente. Pory ejemplo, no puede usar criterios de información para seleccionar entre un modelo con
variable dependiente y uno cony log(). y

Referencias

Grasa, Antonio Aznar (1989). Selección del modelo econométrico: un nuevo enfoque, Dordrecht: Kluwer Aca
Editores démicos.
Akaike, H. (1987). “Análisis factorial y AIC”, Psychometika, 52(3), 317–332.
Lütkepohl, Helmut (1991). Introducción al análisis de series temporales múltiples, Nueva York: Springer-Verlag.
Ng, Serena y Pierre Perron (2001). “Selección de longitud de retardo y construcción de pruebas de raíces unitarias con
Buen tamaño y potencia”, Econometrica, 69(6), 1519-1554.
Machine Translated by Google

1114—Apéndice E. Criterios de información


Machine Translated by Google

Apéndice F. Estimación de la covarianza a largo plazo

La matriz de covarianza (varianza) a largo plazo (LRCOV) ocupa un papel importante en el análisis
econométrico moderno. Esta matriz es, por ejemplo, fundamental para el cálculo de matrices de ponderación
GMM eficientes (Hansen 1982), errores estándar robustos heterocedásticos y de autocorrelación (HAC)
(Newey y West 1987), y se emplea en raíces unitarias (Phillips y Perron 1988) y análisis de cointegración
(Phillips y Hansen 1990, Hansen 1992b).

EViews ofrece herramientas para calcular el LRCOV simétrico y el LRCOV unilateral utilizando métodos de
núcleo no paramétrico (Newey-West 1987, Andrews 1991), VARHAC paramétrico (Den Haan y Levin 1997) y
núcleo preblanqueado (Andrews y Monahan 1992). Además, EViews es compatible con los métodos de
selección automática de ancho de banda de Andrews (1991) y Newey-West (1994) para estimadores de
kernel y métodos de selección de longitud de retardo basados en criterios de información para VARHAC y
estimación previa al blanqueamiento.

Discusión Técnica
Nuestra discusión y notación básica sigue el marco de Andrews (1991) y Hansen (1992a).

Considere una secuencia de vectores aleatorios de media cero que pueden Vt


pags depender
ÿ ÿ ÿ ÿ vde un vector K v de parámetros
y sea Vt Vt v0 ÿ ÿ ÿ v0 v donde es el verdadero valor de . somos q
interesado en estimar la matriz LRCOV ,
ÿ

q Gÿ ÿj (F.1)
ÿÿ
j ÿ –ÿ

dónde

Gÿ ÿj EÿVtVt
ÿ j- _ÿÿ jÿ0
(F.2)
Gÿ ÿj ÿ Gÿ ÿÿ –j jÿ0

es la matriz de autocovarianza de j 2pCuando


Vt en retraso. Vtestacionario de segundo orden, es qigual a
veces la
es
matriz de densidad espectral de Vt evaluado en frecuencia cero (Hansen 1982,
Andrews 1991, Hamilton 1994).

q
Estrechamente relacionado con hay dos medidas de la matriz LRCOV unilateral :

L1 ÿ ÿ Gÿ ÿj
jÿ1
ÿ
(F.3)

ÿ ÿ Gÿ
Gÿÿjÿ 0 ÿ L1
ÿ
L0

jÿ0
Machine Translated by Google

1116—Apéndice F. Estimación de covarianza a largo plazo

La matriz L1 , que llamamos LRCOV unilateral estricto, es la suma de las covarianzas de


retraso, mientras que L0 también incluye la covarianza contemporánea Gÿ ÿ 0 . Los dos lados Q
q
La matriz LRCOV está relacionada con las matrices unilaterales a través de Gÿ ÿ 0 L1 L1 ÿ ÿ ÿ y ÿ

– Gÿ ÿ 0 .
ÿ
ÿ
ÿ
Q L0 L0

A pesar del importante papel que juega la matriz LRCOV unilateral en la literatura, nos centraremos
nuestra atención en q , ya que los resultados son generalmente aplicables a las tres medidas; excepción
se hará para temas específicos que requieren comentarios adicionales.

vˆ ÿ ÿ ÿ vˆ
En la literatura econométrica, los métodos para usar un estimador consistente y el Vˆ t Vt
correspondiente para formar una estimación consistente de
seQrefieren a menudo como heteroske
Estimadores de matrices de covarianza consistentes en dasticidad y autocorrelación (HAC).

Ha habido tres enfoques principales para la estimación: q

1. El enfoque del núcleo no paramétrico (Andrews 1991, Newey-West 1987) forma esti
compañerosqde tomando una suma ponderada de las autocovarianzas de la muestra de los datos
observados.

2. El enfoque paramétrico VARHAC (Den Haan y Levin 1997) especifica y ajusta un


modelo de serie de tiempo paramétrico a los datos, luego usa el modelo estimado para obtener el
autocovarianzas implícitas y correspondientes. Q
3. El enfoque de kernel preblanqueado (Andrews y Monahan 1992) es un método híbrido que
combina los dos primeros enfoques, utilizando un modelo paramétrico para obtener residuos
que “blanquean” los datos y un estimador kernel no paramétrico para obtener una estimación
del LRCOV de los datos blanqueados. La estimación de Qse obtiene “recoloreando” el
LRCOV preblanqueado para deshacer los efectos de la transformación blanqueadora.

A continuación, ofrecemos una breve descripción de cada uno de estos enfoques, prestando especial atención a los
problemas de elección del kernel, selección del ancho de banda y selección del retraso.

Núcleo no paramétrico
La clase de estimadores de matriz de covarianza HAC kernel en Andrews (1991) se puede escribir como:
ÿ

T

--------------- kj bT ÿ ÿ ÿ Sol ÿ ÿ ÿj (F.4)
ÿ ÿ TK– j ÿ
–ÿ
ˆ
donde las autocovarianzas muestrales estánÿdadas
ÿj por
GRAMO

T
1
---
Sol ÿ ÿj ÿ ÿ Vˆ ÿ
jÿ0
T t Vˆ tj –
(F.5)
t jÿÿ1

Gˆ ÿ ÿj Gˆ ÿ ÿ ÿÿ –j jÿ0
k es una función kernel (o ventana de retardo) simétrica que, entre otras condiciones, es continua en el origen
y satisface para todos con k ÿ ÿ 0k ÿxÿ1 ÿbTÿ ÿ1 0 x ,y es un ancho de banda
Machine Translated by Google

Discusión técnica—1117

parámetro. El término principal


TTK ÿes
ÿ ÿuna
– corrección opcional para los grados de libertad K asociados
con la estimación de los
. parámetros en v

La elección de una función kernel y un valor para el parámetro de ancho de banda caracteriza
completamente el estimador HAC kernel.

Funciones del núcleo

Hay una gran cantidad de funciones del kernel que satisfacen las condiciones requeridas. EViews
admite el uso de las siguientes formas de kernel:

uniforme truncado
ÿ
ÿ 1 si x ÿ 1.0
k xÿ ÿ ÿ

ÿ0 de lo contrario

Bartlett
ÿ
ÿ1–x si x ÿ 1.0
k xÿ ÿ ÿ

ÿ0 de lo contrario

bohman
ÿ
pecadoÿ ÿ px
ÿ
ÿ

ÿ cosÿ
ÿ 1 – ÿx px ÿ ÿ ------------------------ si x ÿ 1.0
k xÿ ÿ pags

de lo contrario
0ÿ

Daniell
k xÿ ÿ ÿ senÿ ÿ px ÿ ÿ ÿ px

Parzen
ÿ
2 1– 6x
ÿ1–x ÿ si 0.0 ÿ ÿ x 0.5
ÿ

ÿ 3
k xÿ ÿ ÿ si 0.5 ÿ x ÿ 1.0
2 1ÿ ÿ – x ÿ
de lo contrario
ÿ0

Parzen-Riesz
– _
ÿ 2 1x si x ÿ 1.0
ÿ

k xÿ ÿ ÿ

ÿ0 de lo contrario

Parzen-Geométrica
ÿ ÿ11ÿÿÿÿx si x ÿ 1.0
k xÿ ÿ ÿ

ÿ0 de lo contrario

Parzen-Cauchy
ÿ
ÿ
2 ÿ1 ÿ
1x ÿÿ si x ÿ 1.0
k xÿ ÿ ÿ

ÿ0 de lo contrario

espectral cuadrático 25
ÿ
----------------- ÿ pecadoÿ ÿ 6px ÿ 5
k xÿ ÿ 2 ÿ ------------------------------- – cosÿ
5 ÿ ÿÿ6px
6pxÿÿ5
12p2 x
Machine Translated by Google

1118—Apéndice F. Estimación de covarianza a largo plazo

Tukey Hamming
ÿ
ÿ 0,54
cosÿ0,46
ÿ px ÿ ÿ si x ÿ 1.0
k xÿ ÿ
ÿ0 de lo contrario

Tukey-Hanning
ÿ 0.50 0.50 ÿ cosÿ ÿ px si x ÿ 1.0
ÿ
k xÿ ÿ ÿ

ÿ0 de lo contrario

Tukey-Parzen
ÿ 0.436 0.564 ÿ cosÿ ÿ px si x ÿ 1.0
ÿ
k xÿ ÿ ÿ

ÿ0 de lo contrario

Tenga en cuenta
k xÿ ÿque
ÿ 0para ×ÿ1 para todos los núcleos con la excepción del Daniell y el
Quadratic Spectral. El kernel de Daniell se presenta en forma truncada en Neave (1972), pero EViews usa la
forma no truncada más común. El kernel de Bartlett a veces se denomina kernel de Fejer (Neave 1972).

Se ha empleado una amplia gama de kernels en la estimación de HAC. Hansen (1982) y White (1984) utilizan
el uniforme truncado, Newey y West (1987) utilizan el kernel de Bartlett y Gallant (1987) utiliza el Parzen.
Andrews (1991) introdujo Tukey-Hanning y Quadratic Spec tral en la literatura econométrica, quien muestra
que este último es óptimo en el sentido de minimizar el MSE asintótico truncado del estimador (dentro de una
clase particular de núcleos). Los núcleos restantes se analizan en Parzen (1958, 1961, 1967).

Banda ancha

el ancho de banda bT opera en conjunto con la función kernel para determinar los pesos de las diversas
autocovarianzas de muestra en la Ecuación (F.4). Mientras que algunos autores restringen los valores de ancho
de banda a números enteros, seguimos a Andrews (1991) quien argumenta a favor de permitir anchos de banda
de valor real.

Para construir un estimador kernel no paramétrico operativo, debemos elegir un valor para bT
banda ancha . Bajo condiciones generales (Andrews 1991), la consistencia de la estimación kernel bT tor
se elige
requiere quepara que
Kiefer y Vogelsang bT ÿ yT propongan
bT ÿ ÿ (2002) ÿ 0 T ÿ ÿ establecer
como
.
en un contexto
Alternativamente, bT ÿ T de prueba.

la gran mayoría de kernels soportados, j width actúa indirectamente


kj bTÿÿPara
ÿ como por
ÿ 0 un b ÿ para
T que la banda
parámetro de truncamiento de retraso. Relacionando bT Sin embargo, al correspondiente
número de rezagos enteros de rezagos
metro ÿ
incluidos
j bT ÿ ÿ 1
seÿrequiere
. Para funciones
examinarkernel
las propiedades
donde k ÿ ÿdel
1 ÿkernel
0 en los extremos
(p. ej., Truncado,
bT
Parzen-Geometric, Tukey-Hanning), es simplemente un retardo de truncamiento de valor real, con como máximo
ÿ

m piso bT ( ) autocovarianzas con peso distinto de cero. Alternativamente, para las funciones del núcleo
Machine Translated by Google

Discusión técnica—1119

donde (p. ej.,


kÿ Bartlett,
ÿ 1 ÿ 0 Bohman, Parzen), la relación es un poco más compleja, con ( m ceil bT ) – 1

autocovarianzas que ingresan al estimador con pesos distintos de cero.

La relación variable entre el ancho de banda y el parámetro de truncamiento de retraso implica que se debe examinar la función del kernel

al elegir los valores de ancho de banda para que coincidan con los cálculos que se cotizan en forma de truncamiento de retraso. Por

ejemplo, para hacer coincidir el estimador kernel de Bartlett de Newey-West (1987), que usa retrasos de autocovarianza ponderados, se
metro
requiere establecer bT ÿ m ÿ 1
. En cambio, los estimadores de Hansen (1982) o White (1984), que suman las
Las primeras
metro autocovarianzas no ponderadas deben implementarse utilizando el kernel truncado con bT ÿ
m .

Selección automática de ancho de banda

Los resultados teóricos sobre la relación entre los anchos de banda y el MSE asintótico truncado del
estimador kernel proporcionan una discriminación más fina en las tasas a las que deberían aumentar los
anchos de banda. Los anchos de banda óptimos se pueden escribir en la forma:
12ÿÿqÿ1
ÿ bT gT (F.6)

donde es una constante, y es un parámetro q


gramo que depende de la función kernel que usted ÿ ÿ q ÿ 1
seleccione (Parzen 1958, Andrews 1991). Para los núcleos geométricos de Bartlett y Parzen, b
1 3ÿ
debería crecer (como máximo) a la tasa t _ El núcleo truncado no tiene teoría.

cal tasa óptima, pero Andrews (1991) reporta simulaciones de Monte Carlo que sugieren que 1 5ÿ T funciona bien. Los núcleos
restantes compatibles con EViews tienen ÿ q ÿ 2
ÿ por lo que sus
1 5ÿ
T a un condiciones
anchos de banda óptimos crecen ritmo (aunque
para
señalamos
los teoremas
que eldekernel
anchodedeDaniell
bandanoóptimo).
satisface las

Si bien es teóricamente útil, el conocimiento de la tasa a la que los anchos de banda deberían aumentar
como T ÿ ÿno nos dice el ancho de banda óptimo para un tamaño de muestra dado, ya que la constante

gramo
permanece sin especificar.

Andrews (1991) y Newey y West (1994) ofrecen dos enfoques para estimar . Podemos denominar a estas gramo

técnicas métodos de selección automática de ancho de banda, ya que implican estimar el ancho de banda
óptimo a partir de los datos, en lugar de especificar un valor a priori. Los estimadores de Andrews y Newey-
West para pueden escribirse como: gramo

12ÿÿÿqÿ1
gˆ ÿ ÿ q ck aˆ ÿ ÿ q (F.7)

donde y la constante dependen de las propiedades


ck del kernel seleccionado y q aÿ ÿ q aˆ ÿ ÿ q es un
El estimador , una medida de la suavidad de la densidad espectral a la frecuencia cero Gÿ ÿj
de que depende del estimador complementario . Sustituyendo en la Ecuación (F.6), la resultante
de autocovarianzas para el ancho de banda automático óptimo está dado por:
12ÿÿÿqÿ1
bˆ Tÿ (F.8)
Machine Translated by Google

1120—Apéndice F. Estimación de covarianza a largo plazo

El quequno usa depende de las propiedades de la función kernel seleccionada. El Bartlett y q ÿ 1 aˆ ÿ ÿ 2


Se deben usar núcleos geométricos de Parzen. aˆ ÿ ÿ 1 ya que tienen para .
los otros núcleos compatibles con EViews que tienen q ÿ 2 . El kernel truncado no aˆ ÿ ÿ 2
tiene una elección teóricamente proscrita, pero Andrews recomienda usar . El kernel de Daniell tiene q ÿ 2
, aunque te recordamos que no cumple las condiciones de los teoremas de
Andrews. “Propiedades de funciones del kernel” en la página 1125 resume los valores de y para las diversas
funciones
q del kernel.
ck

Cabe señalar que los estimadores de Andrews y Newey-West requieren una estimación de aÿ ÿ q
q
eso requiere formar estimaciones preliminares de y la suavidad q ofrecen
de . Andrews y Newey-West
métodos alternativos para formar estas estimaciones.

Selección automática de Andrews

El método de Andrews (1991) estima paramétricamente:


aÿ ÿq ajustando un modelo de serie de tiempo paramétrico
simple a los datos originales, luego derivando las autocovarianzas Gÿ ÿj y correspondiente aÿ
ÿq implícita en el modelo estimado.

Andrews deriva fórmulas


aˆ ÿ ÿpara
q varios modelos paramétricos, señalando que la elección entre
especificaciones depende de un compromiso entre simplicidad y parsimonia por un lado y flexibilidad por
el otro. EViews emplea el enfoque parsimonius utilizado por Andrews en sus simulaciones de Monte
Carlo, estimando modelos AR(1) univariados (uno para cada elemento de ), luego combinando los
pags

Vˆ en un estimador para aÿ ÿ q
coeficientes estimados .
t

Para el enfoque AR(1) univariado, tenemos:

ÿ pags

2ÿ ÿ pags

ÿÿ 2ÿ
ÿ ÿÿ
aˆ ÿ ÿ q ÿ

s
ˆf ÿ q ÿ ws
ÿÿ ÿ
ˆf ÿ 0 ÿ ws
s (F.9)
ÿÿ ÿ ÿÿ ÿÿ
s=1 s=1

ÿÿq
donde ˆf s son estimadores paramétricos de la suavidad de la densidad espectral para el -ésimo s
q
variable (parzen's (1957) -th derivadas espectrales generalizadas) en la frecuencia cero. Las estimaciones de
ÿÿq
tores
s para están dadas por:
ÿ

1 q G˜
ÿÿq ------
pm s ÿ ÿ 2p j ÿ s ÿ ÿj (F.10)

j ÿ –ÿ

para s ÿ 1, son, las y q ÿ 012


ÿ p autocovarianzas , , G˜ en
,estimadas donde s ÿ ÿj
el desfase j
s
implícita en la especificación univariada AR(1) para la -ésima variable.

rˆ s estándar
Sustituyendo los coeficientes estimados AR(1) univariados y los errores s en el
s
G˜ expresiones teóricas para s ÿ ÿj , tenemos:
Machine Translated by Google

Discusión técnica—1121

4 2 4
ÿ ÿ ÿ
pags pags

4sˆ s rˆ s sˆ
s
ÿ
ÿ
-------------------------------------------- ÿ ÿ ---------------------
aˆ ÿ ÿ 1 ÿ

ws
ÿ

ws
ÿÿ ÿ1 r- rˆ ÿ s ÿ2ÿ ÿÿ ÿ 1 rˆ - s ÿ ÿ4ÿ
s=1 s ÿ6 1 ÿ s=1
(F.11)
4 2 4
4sˆ s rˆ s ÿ
pags pags

ÿ ÿ ss ÿ
ÿ
ÿ --------------------- ÿ ÿ ÿ ---------------------
aˆ ÿ ÿ 2 ws ws
ÿÿ ÿ 1 rˆ - s ÿ8 ÿ
ÿÿ ÿ 1 rˆ - s ÿ ÿ4ÿ
s=1 s=1

que puede insertarse en la Ecuación (F.8) para obtener expresiones para los anchos de banda óptimos.

Por último, notamos que las expresiones para ÿ ÿ q aˆ ÿ ÿ q dependen del vector de ponderación que en
se convierte en
erns cómo combinamos el individuo fs una sola medida de suavidad relativa. para todos o s ws ÿ 1
Andrews sugiere utilizar ws ÿ 1 para responder al para todos menos el instrumento cor

intercepto en entornos de regresión. EViews adopta la primera sugerencia, estableciendo ws ÿ 1


s.
para todos

Selección automática de Newey-West

Newey-West (1994) emplea un enfoque no paramétrico para estimar aÿ ÿ q . En contraste con


ÿÿq
Andrews que calcula estimaciones paramétricas del individuo f , Newey-West usa un
s ÿÿq
Estimador kernel truncado para estimar la f correspondiente a los datos agregados.

Primero, Newey y West definen, para varios rezagos, los estimadores de autocovarianza escalar :
T
1
jˆj
ÿ
---
T
ÿ wÿVˆ tVˆ tj –
ÿw ÿ
wÿGˆ ÿ ÿjw (F.12)
t jÿÿ1

Puedejˆjverse como la autocovarianza de la muestra de una combinación lineal ponderada de los datos mediante
en ponderada de la autocovarianza de la muestra.
ponderaciones, o como una combinación
ances

A continuación, Newey y West utilizan para


jˆj calcular estimadores kernel truncados no paramétricos de las medidas
de suavidad de Parzen:
norte

ÿÿ 1 q
------
q ˆf ÿ ÿ 2p j jj_ _ (F.13)

j nÿ–

para q = 012 ., Estos


, estimadores no paramétricos son sumas ponderadas del autoco escalar jˆj j que Newey y
varianzas obtenidas anteriormente
West denominan ÿ ÿ q para de a –nn , dónde norte
,
el parámetro de selección de retraso, puede verse como el ancho de banda de un estimador kernel para pm .

El estimador de Newey y West para puede escribirse


aˆ ÿ ÿ q entonces como:

ÿ ÿ q ÿ ÿ 0 ÿ ˆf
2
aˆ ÿ ÿ q
ÿ
ÿ pm
ÿ (F.14)

para q ÿ 1 2, . Esta expresión se puede insertar en la Ecuación (F.8) para obtener la expresión del estimador
de ancho de banda óptimo del complemento.
Machine Translated by Google

1122—Apéndice F. Estimación de covarianza a largo plazo

Al comparar la Ecuación del estimador de Andrews (F.11) con la Ecuación del estimador de
Newey-West (F.14) , vemos dos métodos muy diferentes para destilar los resultados de la p-dimensión
siones de los datos originales en una medida escalar. aÿ
Andrews
ÿq calcula estimaciones paramétricas
de las derivadas generalizadas para los elementos individuales, luego agrega la p
estimaciones en una sola medida. Por el contrario, Newey y West agregan temprano, formando
combinaciones lineales de las matrices de autocovarianza, luego usan los resultados escalares para
calcular estimadores no paramétricos de las medidas de suavidad de Parzen.

Para implementar el método de selección de ancho de banda óptimo de Newey-West, necesitamos un valor
norte , para el parámetro de selección de retraso, que determina cuántas autocovarianzas usar para formar ÿ ÿ
q las estimaciones no paramétricas de f
. Newey y West muestran que debería aumentar a (menos de) norte

una tasa que depende de las propiedades del kernel. Para los núcleos geométricos de Bartlett y Parzen,
2 9ÿ 2 25 ÿ
la tasa es . Para el núcleo espectral
T cuadrático, la tasa
excepción es núcleos
de los Para los truncado
núcleos restantes, la tasa
y de Daniell, paraes que.la
Tlos(con
4 25 ÿ
no se aplican los teoremas de Newey-West).
T

Además, se debe elegir un vector de peso. Newey-West


en (1987) deja abierta la elección de w
, pero siga la sugerencia de Andrew (1991) de ws ÿ 1 para todo menos la intercepción en
sus simulaciones de Monte Carlo. EViews difiere ligeramente de esta elección, configurando ws ÿ 1 para
todos. s

VARHAC paramétrico

Den Haan y Levin (1997) abogan por el uso de métodos paramétricos, especialmente VAR, para
la estimación de LRCOV. El estimador de densidad espectral VAR, al que denominan VARHAC,
consiste en estimar un modelo VAR paramétrico para filtrar
Vˆt deellos
, calcular
datos filtrados
la covarianza
y luegocontemporánea
usar las
estimaciones del modelo VAR para obtener las autocovarianzas implícitas y la matriz LRCOV
correspondiente de los datos filtrados. datos originales.

q modelo VAR( ) al . Sea


Supongamos que ajustamos un Vˆ ÿ la
ÿt matriz

coeficientes
de (filtrados)
AR estimados
y podemos
, ÿ q -th pp
definir
ÿ j orden,
los datos
j ÿ 1, j
de. Entonces
innovación

matriz de covarianza de innovación estimada como:


q
ÿ
Vˆt
Aˆ jVˆ tj –
(F.15)
Vermont
ÿ–ÿ
jÿ1

y
T
1
sol ÿÿ ÿ 0
ÿ -------------

Tq- _
ÿ Vt ÿVt
ÿÿ
(F 16)
t qÿÿ1

Dada una estimación de la matriz de varianza contemporánea de la innovación sol ÿÿ ÿ 0


y el var
, podemos
coeficientes j al combinar
Vaya calcular las autocovarianzas
las autocovarianzas teóricas
se obtiene un estimador implícitaspara
paramétrico Gÿ ÿj de Vˆt . Suma
q , dada por:

Tq- _ ÿ
Qˆ ÿ
------------------------ Dˆ Gˆ ÿ ÿ 0 Dˆ (F.17)
Tq––K
Machine Translated by Google

Discusión técnica—1123

dónde
q –1
ÿ ÿ
D ÿ
ÿ Aj (F.18)
IP – ÿ ÿ
ÿÿ
jÿ1

La implementación de VARHAC requiere una especificación para q , la orden del VAR. Den Haan y T1
3ÿ
Levin utiliza criterios de selección de modelos (AIC o BIC-Schwarz) utilizando un retraso máximo para a
determinar el orden de retraso y proporciona simulaciones del rendimiento del estimador utilizando el orden de
retraso dependiente de los datos.

Los estimadores VARHAC correspondientes para las matrices unilaterales L1 y L0 no tiene Gˆ ÿÿ

Aˆ expresiones simples en términos de yj de


. Sin ÿ0
losembargo,
VARHAC podemos obtener información
LRCOV unilaterales sobre
examinando loslaresultados
construcción
para el caso VAR(1).
Dada la estimación de una especificación VAR(1), los estimadores para las varianzas unilaterales de largo
plazo pueden escribirse como:
Tq- _
------------------------ Tq- _
L 1 ÿ
Aˆ 1 ÿj Gˆ ÿ ÿ 0 ÿ
------------------------ Un ÿ
ÿÿ 1 Ip Aˆ – 1 ÿ–1Gˆ ÿ ÿ 0
Tq – – Kj ÿ 1 Tq––K

ÿ
(F.19)
Tq- _
------------------------ Tq- _
L 0 ÿ
Aˆ 1 ÿj Gˆ ÿ ÿ 0 ÿ
ÿ Ip Aˆ – 1 ÿ–1 Gˆ ÿ ÿ 0
ÿÿ -----------------------
Tq – – Kj ÿ 0 Tq––K

Ambos estimadores requieren estimaciones del coeficiente VAR(1) estimaciones 1 Vaya


, así como un esti
compañero de Gÿ ÿ 0 , Vˆ la matriz de covarianza contemporánea de t .

Uno podría, como en Park y Ogaki (1991) y Hansen (1992b), usar la matriz de covarianza de la muestra ÿ 1 ÿ T Vˆ
Gˆ ÿ ÿ 0 tVˆ t ÿ ÿ ÿ ÿ para que las estimaciones de L1 y L0 emplean una combinación
de estimaciones de autocovarianza paramétricas y no paramétricas. Alternativamente, de acuerdo con el espíritu G˜ ÿ

de la metodología paramétrica, EViews construye un estimador paramétrico utilizando los ÿcoeficientes


0
VAR(1)
1 estimados
sol ÿÿ ÿ 0 Aˆ
. y

Núcleo preblanqueado

Andrews y Monahan (1992) proponen una modificación simple del estimador kernel que realiza un paso de
blanqueamiento previo VAR paramétrico para reducir la autocorrelación en los datos seguido de la estimación
kernel realizada en los datos blanqueados. La estimación LRVAR preblanqueada resultante se vuelve a
colorear para deshacer los efectos de la transformación. Los Andrews y Mona
El enfoque de han es un híbrido que combina las técnicas de núcleo no paramétrico y VARHAC paramétrico.

Existe evidencia (Andrews y Monahan 1992, Newey-West 1994) de que este enfoque de preblanqueamiento
tiene propiedades deseables, reduce el sesgo, mejora las probabilidades de cobertura del intervalo de
confianza y mejora los tamaños de las estadísticas de prueba construidas utilizando la estimación kernel HAC
tores
Machine Translated by Google

1124—Apéndice F. Estimación de covarianza a largo plazo

El estimador de Andrews y Monahan se deriva directamente de nuestra discusión anterior. Como en un Vˆ


obtenemos los datos blanqueados (residuales):
q VARHAC, primero ajustamos un modelo VAR( ) al y
t
q
Vˆ ÿ Vˆ (F.20)
t ÿ–ÿ t Aˆ jVˆ tj –

jÿ1

A diferencia de la especificación VAR en el estimador VARHAC, no se cree necesariamente que la especificación


VAR previa al blanqueamiento sea el verdadero modelo de serie temporal, sino que es simplemente una herramienta
ÿ
para obtener Vt valores más cercanos al ruido blanco. (Además, Andrews y Monahan ajustan sus estimaciones
de VAR(1) para evitar la singularidad cuando el VAR es casi inestable, pero EViews no realiza este ajuste de
valores propios).

A continuación, obtenemos una estimación del LRCOV de los datos blanqueados aplicando un estimador kernel tor
a los residuos:
ÿ

ÿ ˆÿ
Qˆ ÿ ÿj (F.21)
ÿÿ
kj bT ÿ ÿ ÿ ÿ
GRAMO

j ÿ –ÿ

donde las autocovarianzas muestrales están Sol


dadas
ÿÿ ÿjpor
T
1
-------------
Sol ÿÿ ÿj ÿ

Tq–t
ÿ Vˆ ÿVˆ ÿ ÿ
t tj- _
jÿ0
(F.22)
jq ÿ ÿ ÿ 1
ÿ
Sol ÿÿ ÿj Gˆ ÿ ÿ ÿÿ –j jÿ0

Por último, cambiamos el color del estimador para obtener el estimador LRCOV del núcleo preblanqueado VAR:

Tq- _
Qˆ ÿ ----------------------- Dˆ Qˆ ÿDˆ (F.23)
Tq––K

El procedimiento de núcleo preblanqueado difiere de VARHAC solo en el cálculo del LRCOV de los residuos.
El estimador VARHAC en la Ecuación (F.17) asume que los residuos son ruido blanco, de modo que el LRCOV
puede estimarse
ÿ usando
Ecuación lospermite
(F.21) contemporáneos, mientras que
la heteroscedasticidad el estimador
residual kernel de preblanqueamiento
y la dependencia enuso
serial a través de su la . del
Vermont

matriz de varianza sol ÿÿ ÿ 0 , estimador HAC Qˆ . En consecuencia, puede ser útil ver el procedimiento VARHAC

como un caso especial del kÿ ÿ 0 ÿ 1 k xÿ ÿ ÿ 0 grano preblanqueado con y


ÿ

para x ÿ 0 .

El paso de cambio de color para los estimadores de kernel preblanqueados unilaterales se complica cuando Lˆ
ÿ
permite
configuración de VARHAC, las expresiones la estimación
para los LRCOV
especificación de unilaterales
HAC se
VAR(1) (Park yson
puede Ogaki, 1991).
bastante
usar para Al igual
complejas,
brindar que enlala
pero
información.
1
Suponga que los estimadores VARHAC de las matrices LRCOV unilaterales L1 definidas en la Ecuación (F.19)
vienen dados por y L0 es el estimador kernel unilateral estricto calculado utilizando los datos preblanqueados:
, y let Lˆ ÿ
1
Machine Translated by Google

Propiedades de la función del núcleo: 1125

ÿ ÿ
L 1 kjbT ÿ ÿ ÿ
ÿ

Vamos
ÿ ÿj (F.24)
ÿÿ
jÿ1

Luego, los estimadores LRCOV unilaterales del núcleo preblanqueado están dados por:

1 L1 Tq- _ ÿ
L ÿ
ÿ ------------------------ Dˆ Lˆ 1 D
Tq––K
(F.25)
0 L0 Tq- _ ÿ
L ÿ
ÿ ------------------------ Dˆ Lˆ 1 D
Tq––K

Propiedades de la función del núcleo

q ck rB rn
uniforme truncado ---
0 0.6611 1 5ÿ

Bartlett
1 1.1447 1 3ÿ 2 9ÿ

bohman
2 2.4201 1 5ÿ 4 25 ÿ

Daniell ---
2 0.4462 1 5ÿ

Parzen
2 2.6614 1 5ÿ 4 25 ÿ

Parzen-Riesz
2 1.1340 1 5ÿ 4 25 ÿ

Parzen-Geométrica
1 1.0000 1 3ÿ 2 9ÿ

Parzen-Cauchy 2 1.0924 1 5ÿ 4 25 ÿ

espectral cuadrático 2 1.3221 1 5ÿ 2 25 ÿ

Tukey Hamming 2 1.6694 1 5ÿ 4 25 ÿ

Tukey-Hanning 2 1.7462 1 5ÿ 4 25 ÿ

Tukey-Parzen 2 1.8576 1 5ÿ 4 25 ÿ

Notas: ÿ es la tasa óptima de aumento para el ancho de banda del núcleo LRCOV. es
rB ÿ 1 2 ÿ ÿ q ÿ 1
la tasa óptima de aumento para el parámetro de selección de retraso en Newey-West (1987) rn
Procedimiento automático de selección de ancho de banda. El kernel uniforme truncado no tiene valores
proscritos teóricamente para y rB ck , pero Andrews (1991) reporta simulaciones de Monte Carlo
ciones que sugieren que estos valores funcionan bien. El valor del kernel de Daniell para rB no es
se sigue de la teoría ya que el kernel no satisface las condiciones del ancho de banda óptimo
teoremas
Machine Translated by Google

1126—Apéndice F. Estimación de covarianza a largo plazo

Referencias
Andrews, Donald W. K y J. Christopher Monahan (1992). “Un estimador de matriz de covarianza consistente de
heterocedasticidad y autocorrelación mejorado”, Econometrica, 60, 953-966.
Andrews, Donald WK (1991). “Matriz de Covarianza Consistente de Heteroscedaticidad y Autocorrelación Esti
mación”, Econometrica, 59, 817-858.
den Haan, Wouter J. y Andrew Levin (1997). “Guía del profesional para la estimación robusta de la matriz de covarianza”,
Capítulo 12 en Maddala, GS y CR Rao (eds.), Handbook of Statistics vol. 15, Robust Inference, North-Holland:
Amsterdam, 291-341.
Gallant, A. Ronald (1987). Modelos estadísticos no lineales. Nueva York: John Wiley & Sons.
Hamilton, James D. (1994). Análisis de series temporales, Princeton University Press.
Hansen, Bruce E. (1992a). “Estimación de matriz de covarianza consistente para dependiente heterogéneo Pro
procesos”, Econometrica, 60, 967-972.
Hansen, Bruce E. (1992b). “Pruebas de inestabilidad de parámetros en regresiones con procesos I(1)”, Journal of
Estadísticas Económicas y Empresariales, 10, 321-335.
Hansen, Lars Peter (1982). "Propiedades de muestras grandes del método generalizado de estimadores de momentos"
Econométrica, 50, 1029-1054.
Kiefer, Nicholas M. y Timothy J. Vogelsang (2002). “Heteroscedasticidad-Autocorrelación Robusta Stan
Dard Errors usando el kernel de Bartlett sin truncamiento”, Econometrica, 70, 2093-2095.
Neave, Henry R. (1972). “Una comparación de generadores de ventanas de retardo”, Journal of the American Statistical
Asociación, 67, 152-158.
Newey, Whitney K. y Kenneth D. West (1987). “Una matriz de covarianza consistente simple, positiva, semidefinida,
heterocedasticidad y autocorrelación”, Econometrica, 55, 703-708.
Newey, Whitney K. y Kenneth D. West (1994). “Selección automática de longitud de retraso en la matriz de covarianza
Estimación”, Review of Economic Studies, 61, 631-653.
Park, Joon Y. y Masao Ogaki (1991). “Inferencias en modelos cointegrados que utilizan el preblanqueo VAR para estimar la
dinámica de corto plazo”, documento de trabajo n.° 281 del Centro de Investigación Económica de Rochester.
Parzen, Emanual (1957). “Estimaciones consistentes del espectro de una serie temporal estacionaria”, The Annals of
Mathematical Statistics, 28, 329-348.
Parzen, Emanuel (1958). “Sobre estimaciones consistentes asintóticamente eficientes de la función de densidad espectral de
una serie temporal estacionaria”, Journal of the Royal Statistical Society, B, 20, 303-322.

Parzen, Emanual (1961). “Consideraciones matemáticas en la estimación de espectros”, Technometrics, 3,


167-190.

Parzen, Emanual (1967). “Sobre el análisis empírico de series temporales múltiples”, en Lucien M. Le Cam y Jerzy
Neyman (eds.), Actas del Quinto Simposio de Berkely sobre Estadística Matemática y Probabilidad, 1, 305-340.

Blanco, Halbert (1984). Teoría asintótica para econometristas. Orlando: Prensa Académica.
Machine Translated by Google

Índice

(Clave: I = Guía del usuario I; II = Guía del usuario II) diagnóstico UI:92 instrumentos

caídos UI:92 en sistemas UI:647 prueba de

simbolos ortogonalidad del instrumento UI:93 resumen

del instrumento UI:92


?

identificador de sección transversal de piscina UI:848


J-estadística IU: 72 IU no
.DB? archivos UI: 322
lineal : 76
Interfaz de usuario del archivo .EDB : 318
no lineal con especificación AR UI:77 condición de pedido UI:71
Interfaz de usuario del archivo .RTF : 795 paneles UI:920 condición de rango UI:71

Interfaz de usuario del archivo .WF1 : 76

@todas las IU: 138

@células UI: 899 prueba de endogeneidad del regresor UI:93 residuos


UI:72 estimación del sistema UI:677 instrumentos
@limpiar interfaz de usuario: 206

débiles UI:94
@ contar interfaz de usuario: 199

interfaz de usuario @crossid : 898


ponderado en sistemas UI:647, UI:677 ponderado no lineal
interfaz de usuario @elem : 182
UI:77, UI:88 con especificación AR UI:73, UI:139 con
@eqnq UI:188 @expand
especificación MA UI:75 con datos agrupados UI:886
UI:200, UI:28

@primera interfaz de usuario: 138

@firstmax interfaz de usuario: 904


3sls (Mínimos cuadrados de tres etapas) UI:647, UI:678 Versión de 64 bits UI:873
@firstmin interfaz de usuario: 904

Interfaz de usuario @ingrp :848

Interfaz de usuario @isna :188 A


Interfaz de usuario @last :138
IU de tecla de cancelación: 14
@lastmax interfaz de usuario: 904
Entre factores UI:733
@lastmin interfaz de usuario: 904
Interfaz de usuario de ventana activa : 113

@mapa UI:228
Añadir factor UI:781, UI:794
@neqna UI:188
Añadir texto al gráfico UI:753
@obsid interfaz de usuario: 900
Adición de datos IU: 291
@obsnum
Complementos I:819
panel observación numeración UI:901 @ranks UI:186 alimentador automático de documentos

Véase también Pruebas de raíz unitaria.


@nombre de la serie IU: 199
R-cuadrado ajustado
@unmap UI:229
para regresión UI: 13
@unmaptxt UI:229 ~, en el
Interfaz de usuario de consulta de base de datos avanzada : 335

nombre del archivo de copia de seguridad UI:76, UI:867 AIC UII: 1111
Véase también criterio de Akaike.
numericos Criterio Akaike UI:15, UII:1111 para ecuación UI:15

Ecuación simple Alias UI:783 Base de datos UI:332 Archivo

GMM de 1 paso UI:85, UI:90 OBALIAS.INI UI:343

2sls (Mínimos cuadrados de dos etapas) UI:69, UI:76


Machine Translated by Google

1128—Índice

IU de objeto : 341 prueba de correlograma UI: 194


Almon lag UI: 24 Prueba LM UI:198
multivariante UI:648 sistema
Pesos de almendra UI:315
Serie Alpha UI:208 vistas UI:648

adicionales UI:215 IU de prueba de ARCO : 198

declarando y creando UI:209 ARCO-M UI: 245

longitud máxima UI:210, UI:861 vista ARDL


de hoja de cálculo UI:215 truncamiento pruebas de límites UI:297
UI:210, UI:861 relaciones de cointegración UI:297 relaciones a
Análisis de varianza UI:408 por rangos largo plazo UI:296 panel UI:924 estimación de
UI:410 grupo medio agrupado UI:924

Derivados analíticos UII:1106 logl UI:570


Gráfico de banda de área UI: 668

Gráficos analíticos UI:681 Gráfico de área UI: 666


Y operador UI:139, UI:183 Prueba de correlación serial Arellano-Bond UI:964

Prueba de Anderson-Darling UI: 413 Datos AREMOS UI:348 Bancos

Ancho de banda automático de Andrew UII: 1120 de datos UI:347


Interfaz de usuario de ARFIMA : 105, interfaz de usuario: 116
regresión de cointegración UI:279
Estimación de GMM UI:90 Modelos ARFIMA UI:104

estimación de covarianza a largo plazo UI:603 regresión Interfaz de usuario de ARIMA : 104

de cointegración de panel UI:979 sistema GMM UI:681 Modelos ARIMA UI: 104
pronóstico automático UI:491
Interfaz de usuario de la función Andrews : 422 selección automática UI:491
Prueba de Andrews UI:342, UI:388 selección automática usando X-13 UI:447, UI:450
Prueba de punto de interrupción Andrews-Quandt UI: 208 Enfoque de Box-Jenkins UI: 106
Interfaz de usuario de ANOVA : 408 correlograma UI: 129 verificación
por rangos UI:410
de diagnóstico UI: 127 operador
de diferencia UI: 115 espectro de
Anexando datos UI:291
frecuencia UI: 131 identificación
Raíces AR
UI: 106 respuesta de impulso UI:
invertidas UI: 126
130 raíces UI: 128 especificación
Raíces AR (VAR) UI: 702
UI: 112 valores iniciales UI: 118,
Pronóstico de
UI :124 estructura UI:128
especificación AR UI:
162 en 2SLS UI: 73
en modelos ARIMA UI:100, UI:112 en
IU X-13 : 446
2SLS no lineal UI:77 en mínimos
Interfaz de usuario de ARIMAX : 111
cuadrados no lineales UI:58 en pool
Términos ARMA
UI:866 en sistemas UI:650
en modelos UI:821
estacional UI:102
AR(1)
probando UI: 195
coeficiente UI:100
usando modelos de espacios de estado para UI: 764
Durbin-Watson estadística UI:107 estimación
Interfaz de usuario de ARMAX : 764
UI:112
Expresiones de matriz 1:879
AR(p) UI:101
flechas
estimación UI:113
ARCO UI:243 agregar a un gráfico UI: 755

Véase también GARCH. Regresión artificial UI:199, UI:236


Machine Translated by Google

B-1129

archivo ASCII Interfaz de usuario del eje : 647

importar UI: 150 abrir asignación UI:648


como archivo de trabajo UI: 48 características UI:650, UI:653
Prueba asintótica UI:175 etiquetas obs personalizadas UI:769
Atributos UI: 62 marcas y líneas de datos UI:651
etiquetas de fecha UI:657 marcas
agregando UI:65
de fecha UI:657
reemplazando UI:67
viendo UI:62 Prueba de duplicar UI:652
formato UI:652
Dickey-Fuller aumentada UI:594 Consulte también
Pruebas de raíz unitaria. etiquetas UI:650, UI:651, UI:652
eliminar etiquetas de fecha personalizadas UI:771
Regresión aumentada UI: 224 Sangría de
escala IU: 653
tabulación automática UI: 867

Autocorrelación UI:417, UI:14


errores estándar robustos UI:32
B
Prueba de autocorrelación Ver Prueba de correlación en serie Backcast en
modelos GARCH UI:249
Selección automática de ancho de banda
Términos MA UI: 120
regresión de cointegración UI:279
Interfaz de usuario de estimación de GMM : 90 Copia de seguridad de archivos UI:76, UI:867

estimación de covarianza a largo plazo UI:603 regresión Prueba de punto de interrupción de Bai Perron

de cointegración de panel UI:979 errores estándar robustos UI:210 computación en EViews UI:213 ejemplos
UI:45 UI:215
detalles técnicos UII:1119 Estimación del punto de corte
Pronóstico automático secuencial de Bai con UI:442

IU ARIMA : 491 interfaz de usuario de prueba : 212

Suavizado de ETS UI:521, UI:523 Interfaz de usuario de datos equilibrados : 854

usando X-13 UI:451 Interfaz de usuario de muestra equilibrada : 865

Selección automática de variables UI:60 Prueba Baltagi, Fend y Kao UI:958, UI:1018
Modelos autorregresivos de rezagos distribuidos Ver Filtro de paso de banda UI: 534
ARDL. Banda ancha

Estimador autorregresivo de densidad espectral UI:599 Andrews UI:682, UII:1120


Auto búsqueda selección automática Consulte Horquillado de
interfaz de usuario de la base de datos : 333 selección automática de ancho de banda UI:689,
Interfaz de usuario de serie automática: 193 UI:705, UI:706 regresión de cointegración UI:279
previsión UI:168
Estimación GMM UI:90 kernel -
generar nueva serie UI:193, UI:330 en
estimación UI:197 en grupos UI:197 en detalles técnicos UII:1118

regresión UI:330 con base de datos UI:329 gráfico kernel UI: 689, UI: 704
regresión local UI: 706 estimación
de covarianza a largo plazo UI: 603
Gráfico de actualización automática UI: 748 Newey-West (automático) UI: 682, UII: 1121
Newey-West (fijo) UI: 681 regresión de
Actualización automática de la serie UI:203
y las bases de datos UI:207 que se cointegración de panel UI: 979 errores estándar robustos
UI: 45
convierten a la serie normal UI:206
selección en sistema GMM UI:655, UI:681
Gráficos auxiliares UI:700
Gráfico de barras UI: 666
Regresión auxiliar UI:195, UI:198
Interfaz de usuario del núcleo de Bartlett : 681
Probabilidad de registro promedio UI: 336
regresión de cointegración UI:279
Histograma desplazado promedio UI: 686
Machine Translated by Google

1130—Índice

Interfaz de usuario de estimación de GMM : 90 Interfaz de usuario de BMP : 783

estimación de covarianza a largo plazo UI:603 regresión de Núcleo de Bowman

cointegración de panel UI:979 errores estándar robustos UI:45 regresión de cointegración UI:279
Interfaz de usuario de estimación de GMM : 90

detalles técnicos UII:1117


estimación de covarianza a largo plazo UI:603 regresión de
Prueba de Bartlett IU: 412 cointegración de panel UI:979 errores estándar robustos UI:45

Filtro de paso de banda Baxter-King UI: 534


detalles técnicos UII:1117
Modelo bayesiano promediando UI:502
Interfaz de usuario de Bonferroni : 575
VAR bayesiano Ver BVAR

Prueba de BDS UI: 420, UI: 636 Interfaz de usuario de arranque : 435

Errores estándar de Bekker UI: 79 en regresión cuantil UI:543, UI:544, UI:559


Prueba de límites (modelos ARDL) UI:297
Berndt-Hall-Hall-Hausman (BHHH). Consulte Algoritmos de optimización.
Transformación Box-Cox UI:701

Interfaz de usuario de Box-Jenkins : 106


Proporción de sesgo UI:158 BIC
UII:1111 Véase también el criterio de Interfaz de usuario de gráfico de caja: 697

Schwarz. como eje UI:621


Romper interfaz de usuario: 14
Ancho del contenedor

histogramas UI:682 Estimación de punto de corte UI:441 etiquetado

Véase también Agrupación de coeficiente UI:450 salida de estimación

Variable dependiente binaria UI:331 UI:447 ejemplo UI:453 en EViews UI:443

regresores categóricos estadísticas UI:339 mensajes de vista de especificación UI:449

error UI:338 estimación UI:333 estadísticas de estimación


UI:336

Prueba de punto de ruptura

tabla de predicción de expectativas UI:340 índice ajustado Véase también Estimación del punto de ruptura
UI:345 pronóstico UI:345 bondad de ajuste UI:342 Bai y Perron IU: 210

Chow interfaz de usuario: 206


interpretación del coeficiente UI:335 log-verosimilitud UI:332
estimación después de UI:441 factor
probabilidades predichas UI:346 residuos UI:345
UI:191 para raíces unitarias UI:601

Interfaz de usuario de GMM : 96

interfaz de usuario múltiple : 210

curva de respuesta UI:346 vistas Quandt-Andrews UI:208 varianza

UI:339 desigual UI:234 desconocido UI:208

Frecuencias de variables

dependientes de estimación binaria UI:339 predictor perfecto Interfaz de usuario Breitung : 622

UI:338 Prueba Breusch-Godfrey UI:108, UI:195, UI:704


Interfaz de usuario de archivo binario : 48 Prueba de Breusch-Pagan UI:197
Binning UI:689, UI:703, UI:705 gráficos Dependencia de sección transversal UI:958, UI:1018
categóricos UI:731 clasificaciones Prueba Brown-Forsythe UI:412
UI:402, UI:581 Método de Broyden UI:828, UII:1100
Prueba de signo binomial UI:406 Gráfica de burbujas UI:673

Interfaz de usuario de función bicuadrada : 422 BVAR UI:732

Interfaz de usuario de Blom : 692


estimación en EViews UI:732 ejemplo UI:737

Interfaz de usuario de datos de Bloomberg : 348

BLS MoveReg IU: 467 Litterman/Minnesota anterior UI:734, UI:747 normal-


Interfaz de usuario de BMA : 502 Wishart anterior UI:735, UI:749
Machine Translated by Google

C-1131

anteriores UI:733, UI:747 residuales UI:362 factor

Sims-Zha anterior UI: 735, UI: 750 de escala UI:362

Estadísticas por grupo UI:401, UI:906, UI:914 especificando el punto de censura UI:359 vistas UI:362

C Censo X-11

utilizando X-12 interfaz de usuario: 478


C
Censo X-12 UI:476
interfaz de usuario de vector coef: 6

opciones de ajuste estacional UI:477


constante en regresión UI:6
Censo X-13 UI: 440
Interfaz de usuario de caché : 390

Interfaz de usuario de CGARCH : 259


Cancelar pulsación de tecla IU:14
Cambiar la interfaz de usuario del directorio predeterminado: 95
Regresión de cointegración canónica UI:269,
interfaz de usuario: 276 Prueba de
independencia de chi-cuadrado en tabulación UI:583
Gráficos categóricos UI:713 Véase
estadístico para prueba de Wald UI:184
también Gráficos. analítica IU:722
prueba de independencia en tabla n-way UI:584 prueba de
agrupamiento IU:731 resúmenes
mediana UI:410
de categoría IU:714 estadísticas
descriptivas IU:714 configuración de Factor de Cholesky

visualización de factores IU:733 en respuestas de impulso VAR UI:709 en prueba

etiquetado de factores IU:742 ordenación de normalidad VAR UI:705


prueba de comida
de factores IU:734 factores IU:730
categorías de identificación IU:725 línea punto de interrupción UI:
IU:718 206 pronóstico UI: 222

pronóstico de n pasos UI: 228


pronóstico de un paso UI: 228

especificando factores UI:730 Método de


resúmenes UI:714 conversión de frecuencia Chow-Lin UI:172, UI:175
Estadísticas del regresor categórico UI:339, UI:362 Filtro de paso de banda Christiano-Fitzgerald UI: 534

Interfaz de usuario de la función Cauchy : 422 Clasificación de la


serie UI:431
Causalidad
Dumitrescu-Hurlin UI:1011 Tabla de clasificación

Prueba de Granger UI:606 modelos binarios UI:340


datos del panel UI:1010 modelos ordenados UI:354

Prueba de CD UI: 958, UI: 1018 sensibilidad UI:341 especificidad


Interfaz de usuario CEIC : 352 UI:341

IU de submuestreo de Cleveland : 708


Anotación de celda UI: 792 Cerca
Interfaz de usuario de EViews : 14
formato UI: 790 fusión UI:
793 selección UI: 785 interfaz de usuario del objeto : 857

Interfaz de usuario de la unidad en la nube : 96

Variable dependiente censurada UI:357 Grupo


estimación UI:358 variable errores estándar robustos UI:39

dependiente esperada UI:363 índice ajustado UI:363 Agrupamiento


por sección transversal UI:886, UI:889, UI:890 por
pronóstico UI:363 pruebas período UI:885, UI:889, UI:890
de bondad de ajuste UI:365 interpretación Cochrane-Orcutt UI:74, UI:143
del coeficiente UI:362 logaritmo de probabilidad Coef (vector de coeficiente) interfaz de
UI:358 usuario predeterminada: 6
Machine Translated by Google

1132—Índice

actualización de la ecuación UI: 19 Aplicación EViews UI:856 marco


Coeficiente gráfico UI:645 impresión en UI:782
común (pool) UI:866 matriz de tablas UI:791
covarianza UI:17
matriz de covarianza de estimaciones UI:19 sección IU de ancho de columna : 790

transversal específica (grupo) UI:866 diagnósticos Prueba de combinación UI: 422


UI:176 elasticidad en las medias UI:176 estimado a Interfaz de usuario de la ventana de comandos : 7

partir de regresión UI:11 covarianzas consistentes historia de la interfaz de usuario: 8

con heteroscedasticidad Historial de

comandos de UI:8
UI: 36
Comentarios UI:116
número máximo por defecto UI: 354 estimaciones
spool UI: 802
recursivas UI: 229 regresión UI: 11 restricciones
tablas UI: 792
UI: 8 escalado UI: 176 estableciendo valores
Interfaz de usuario de muestra común : 187
iniciales UI: 57, UII: 1091 error estándar UI: 12
Comunidades UI:1048
estandarizado UI: 176 pruebas UI: 176 , UI:182
Comparación de archivos de trabajo y páginas UI:92
descomposición de la varianza UI:180 vectores
de UI:20 Operadores de comparación UI:182 con
valores faltantes UI:188
Componente GARCH UI:259
Gráficos de componentes UI:591
Independencia condicional UI:584
Restricciones de coeficiente UI:580 Desviación estándar condicional

ecuación cruzada UI:650 Coeficiente gráfico de visualización de UI: 253


de incertidumbre UI:801, UI:815, UI:826 Regresión de cointegración Variación condicional UI:241, UI:243, UI:244
UI:267 especificación de ecuación UI:270 panel Consulte Panel de pronosticar UI:255 en

regresión de cointegración. la ecuación media UI:245 hacer series de


ARCH UI:256

Regresores de cointegración UI:271 panel Puntos suspensivos de confianza UI:709, UI:176


UI:976 Cointegración UI:1023 Véase Intervalo de confianza UI:176 puntos

también Regresión de cointegración. suspensivos UI:176 para pronóstico


UI:157 para solución de modelo
Modelos ARDL UI: 297 estocástico UI:824

Prueba de inestabilidad de Hansen UI: Constante


287 Prueba de panel UI: 1016, UI: 1036 en ecuación UI:6, UI:12 en
Prueba de variables agregadas de Park UI: modelos ordenados UI:352
290 Prueba de datos agrupados UI: 860 Covarianza contemporánea (en paneles) UI:999
Regresión UI: 267 Pruebas residuales UI: Coeficiente de contingencia UI:584
282, UI: 1032 Restricciones UI: 729 ,
Actualización continua de GMM
UI:1030 prueba UI:282, UI:1032 prueba
ecuación simple UI:85, UI:90
valores críticos UI:1026, UI:1041 VAR
Datos de contratación UI:294
UI:1023
Criterio de convergencia UII:1090, UII:1103
configuración predeterminada
Colinealidad UI:23
UI: 866 en mínimos cuadrados no lineales UI: 55, UI:
descomposición de la varianza del coeficiente UI:180
60 en estimación de grupo UI: 869
prueba de UI:179, UI:180 factores de inflación de la
Convertir
varianza UI:179
panel a piscina UI:301
Color
Machine Translated by Google

D-1133

pool al panel UI:307 Copie interfaz de usuario del enlace : 247

UI:294 y pegue UI:118, UI:794, objetos UI:105


1:823 y pegue Consulte también OLE. por enlace página UI:83
UI:295 por valor UI:296 comando UI:171 serie UI:124, UI:190
carrete UI:797 tabla
UI:785 objeto de texto
UI:796 archivo de trabajo
interfaz de usuario de UI:42
datos : 162 interfaz de usuario de cortar y pegar datos : 148 Interfaz de usuario de correlación cruzada : 599

interfaz de usuario de base de datos: 343


Correlograma cruzado UI:599
objetos UI:117 pool Sección transversal
objetos UI:846 tabla a identificadores de grupos UI:845
portapapeles UI:794 hacia y desde series específicas UI:847
base de datos UI:325 resúmenes UI:908
para poner en cola UI:799 EN IU: 885
Copia especial 1:850 Prueba de dependencia de la sección transversal UI:958, UI:1018
Correlograma UI:416, UI:419, UI:108 Restricción de
Modelos ARMA UI:129 función coeficiente de ecuación cruzada UI:646,
de autocorrelación UI:417 UI:650 correlación UI:647, UI:648
cruz UI:599 función
ponderación UI:646
de autocorrelación parcial UI:418 Interfaz de usuario CSV : 795

Estadística Q UI: Interfaz de usuario de prueba C : 93

418 residuos cuadrados UI: 194, UI: 253 Método


IU VAR :703
de conversión de frecuencia cúbica UI:172, UI:173
Contar modelos UI:377
CUE (actualización continua de GMM) Ver Actualización continua de
estimación UI:378
GMM
pronóstico UI:382 binomial
Distribución acumulativa UI:692
negativo (ML) UI:379
interfaz de usuario de cálculo : 692
Pescado UI:378
Funciones estadísticas
QML UI:380
acumulativas UI:185
residuos UI:382
personalización
Matriz de

covarianza, de coeficientes estimados UI:17 matriz, gráficos UI: 644


Suma
sistemas UI:661
CUSUM de prueba de residuos recursivos UI:226
Análisis de covarianza UI:568 detalles
UI:576 panel UI:999 prueba de suma de residuos cuadrados recursivos UI:227

Proporción de covarianza UI:159


D
Regresión de
Interfaz de usuario de Cragg-Donald : 94

V de Cramer UI:584 cointegración del kernel de Daniell UI: 279


Interfaz de usuario de estimación de GMM : 90
Prueba Cramer-von Mises UI:413

Crear estimación de covarianza a largo plazo UI:603 regresión

base de datos UI:319 de cointegración de panel UI:979 errores estándar


robustos UI:45
tabla de datos con fecha UI:551
detalles técnicos UII:1117
factor IU: 1044
Datos
gráfico UI:747
grupo UI:133, UI:198 agregando más UI:291
cortar y pegar UI:150, UI:162
Machine Translated by Google

1134—Índice

ingresar desde el teclado UI: 146, 1: 879 exportar almacenar objetos UI:322 probar
UI: 161, UI: 163 integridad UI:345 usando series
Datos económicos de la Reserva Federal UI:369 de actualización automática con UI:207 ventana UI:319
FRED IU: 369

importar UI:150 Registro de base de datos UI:331, UI:874


importar como matriz UI:161 Interfaz de usuario de flujo de datos: 353

importar como tabla UI:161, UI:796 irregular


Pares de fechas UI:137
UI:263 entrada de teclado UI:148 pool UI:850 Fecha serie UI:216
normal UI:263 eliminar UI:294
Tabla de datos con fecha UI:550

crear UI:551
personalizar UI:563
personalizar UI:551 formato
estructura IU: 263
de datos UI:555 ejemplo UI:564
Base de datos
fuentes UI:559
alias UI:332

búsqueda automática UI:333


opciones de formato UI:558 conversión de
serie automática UI:331
frecuencia UI:557 encabezados UI:561 opciones
interfaz de usuario de caché : 390
de tabla UI:552 plantillas UI:563 métodos de
copiar UI:343 copiar
transformación UI:556
objetos UI:325 crear UI:319

precisión de almacenamiento de datos UI: 865


IU de importación con fecha : 152
predeterminado UI: 322 predeterminado en el
Fechas
orden de búsqueda UI: 333
formato de visualización predeterminado UI:866
eliminar interfaz de usuario: 343

formato de visualización UI:216 formato en una


eliminar objetos UI:327 mostrar
hoja de cálculo Consulte Opciones globales de formato de
todos los objetos UI:320 exportar
visualización UI:859 combinación de coincidencias usando UI:239
UI:325 recuperar objetos UI:323
campo UI:336 formatos extranjeros
Base de
UI:345 frecuencia en consulta UI:338
datos predeterminada UI:9,
opciones de almacenamiento de
UI:322 base de datos en orden de búsqueda UI:333
grupo UI:865 enlace UI:324, UI:325,
directorio UI:9, UI:872 configurar
UI:389 opciones de enlace UI:392
directorio UI:95 configurar
mantenimiento UI:343 operador de
opciones globales UI:855 actualizar
coincidencia en consulta UI:337 abrir
UI:319 empaquetar UI:344 vista previa de directorio UI:95 apariencia de ventana
UI:856
contenido UI:107 consultas UI:333 reconstruir
Eliminar interfaz de usuario: 119
UI:345 registro UI:874 cambiar nombre UI:343
interfaz de usuario de la base de datos : 343

elemento gráfico UI:763 objetos de

la base de datos UI:327 observación en serie


UI:132

página UI: serie

91 usando pool UI: 862 objetos de

spool UI: 806


renombrar objeto UI:327 reparar
Demostración
UI:345 compartir infracción UI:320
estimación UI:27 examen
estadísticas UI:344
de datos UI:20 pronóstico UI:34
Machine Translated by Google

D-1135

obtener datos en EViews UI:17 prueba de UI fraccionario : 105

especificación UI:30 Mostrar filtro UI:61, UI:263


Den Haan y Levin UII:1122 Formato de pantalla UI:125 grupo
Dentón UI:134
método de conversión de frecuencia UI:172, UI:174 Modo de visualización
Variable dependiente carretes UI: 811
sin variación en modelos binarios UI:338 Mostrar campo de
Derivados UII:1093, UII:1106 nombre en consulta de base de datos UI:339
comprobando UI:577 métodos interfaz de usuario de datos distantes: 538

predeterminados UI:866 Distribución


descripción UII:1106 en ecuación función de distribución empírica pruebas UI:413 pruebas UI:413
UI:19 en logl UI:570 en sistema

UI:661 guardando en serie Diagrama de distribución UI:691


UII:1110 guardar datos UI:538

DUELO See Dynamic OLS (DUELO)


Campo de Matriz de factorización de Tournai y Hansen UI:705
descripción en consulta de base de datos UI:339
Gráfico de puntos UI: 671
Estadísticas descriptivas UI:183
Arrastre y suelte el
muestra balanceada (pool) UI:858 por clasificación
archivo existente en un nuevo archivo de trabajo UI:89 el
UI:401 por grupo UI:401 gráficos categóricos de
archivo existente en un archivo de trabajo existente UI:89 en un
UI:714 muestra común (grupo) UI:568 muestra
modelo UI:786
común (pool) UI:858 sección transversal
serie en un grupo UI:135 dentro del
específica UI:859 para una serie UI:403 gráficos
mismo archivo de trabajo UI:171
de UI:714 grupo UI:568 muestras individuales
Arrastrar (ging)
(grupo) UI:568 muestras individuales (grupo)
texto en el gráfico UI: 754
UI:858 agrupadas UI:858 series UI:398 datos
base de datos DRI
apilados UI:859 pruebas UI:404
DRIpro UI:389
frecuencia UI:392 nombres

ilegales UI:392 alias de objeto


UI:341 consultas UI:393
sombreado de nombres de

objetos UI:342 resolución de problemas UI:394

Interfaz de usuario de la base de datos DRIBase : 353


período de tiempo específico UI: 859
Interfaz de usuario de enlace DRIPro : 353
Deseleccionar todo UI:106
Interfaz de usuario de Dropbox : 96
Regresores deterministas UI:271 panel UI:975
Interfaz de usuario de doble procesador : 873

Interfaz de usuario de DFBetas : 231 Prueba Dumitrescu-Hurlin UI:1011

Interfaz de usuario de DFGLS : 595 Variables ficticias UI:200 como variable

Prueba de Dickey-Fuller UI:594 Véase dependiente binaria UI:331 como punto de censura en la

también Pruebas de raíces unitarias. estimación UI:360 creación automática UI:28 generación de
dummies de series de pools UI :857 pools UI:857 usando
Prueba Diebold-Mariano UI:422
@GROUP para crear dummies de pools
Diferencia de la interfaz de usuario promedio móvil: 490
Operador de diferencia UI:184, UI:115
estacional UI:185, UI:115
interfaz de usuario: 857

diferenciando
Dunn-Sidak UI: 575
Machine Translated by Google

1136—Índice

Estadística de Durbin-Watson IU: 107 IU:353, IU:354, IU:368, IU:375, IU:379


demostración UI:30 para Interfaz de usuario del kernel de Epanechnikov : 688

regresión UI:14 variable Pruebas de igualdad UI:407


dependiente rezagada UI:108 grupos UI:585 media UI:408
Prueba Durbin-Wu-Hausman UI:93 mediana UI:410 varianza

Interfaz de usuario de previsión dinámica : 160 UI:412

Dynamic OLS (DOLS) UI:269, UI:278 panel


UI:978, UI:990 Ecuación UI:5 añadir

Interfaz de usuario de datos de panel dinámico : 921


al modelo UI:786 variables

Modelos de conmutación dinámica UI: 511 ficticias automáticas en UI:28 matriz de covarianza de
coeficiente UI:17 escalar de covarianza de coeficiente
Interfaz de usuario de regresión de conmutación dinámica : 510
UI:16 vector de valores p de coeficiente UI:17 vector de

error estándar de coeficiente UI:17


Y
Interfaz de usuario de consulta fácil : 334
coeficiente t-estadística escalar UI:17
BCE SDMX UI: 363
coeficiente t-estadística vector UI:17
Economy.com UI:379 Base de vector coeficiente UI:17, UI:20 cadena
datos EcoWin UI:354
de comando UI:17 crear UI:5 derivadas
UI:19 estimación en modelos UI:785
Editar grupo UI:135 gradientes UI:19 procedimientos UI :19
serie UI:131, UI:545 tabla coeficientes de regresión UI:11
UI:787 estadísticas de resumen de regresión
Interfaz de usuario de EGARCH : 257 UI:13 residuos UI:20 resultados UI:11
Véase también GARCH

EGLS (GLS estimado) UI:867, UI:885, UI:919


Interfaz de usuario de la prueba de EHS : 93

Datos de EIA (Administración de energía de EE. UU.) UI: 358 Análisis


recuperar IU estimado previamente : 20 IU r-cuadrado :
factorial de valores propios UI: 1057 Gráficos UI: 590 Elasticidad en los
13 cadena de muestra IU: 17 resultados guardados IU:
medios UI: 176 Prueba óptima de Elliot, Rothenberg y punto de stock
16

resultados escalares UI:16

especificación UI:6
UI:597
especificación por lista UI:6 especificar
Véase también Pruebas de raíz unitaria.
por fórmula UI:7 especificar con
Carretes integrados UI: 800 coeficientes no predeterminados UI:9 especificar con
Gráfico CDF empírico restricciones UI:8 especificar sin variable dependiente
UI:692 UI:8 especificar una constante UI:6 almacenar UI:20

Pruebas empíricas de distribución UI:413 representación de texto UI:18 t-statistic UI:12 tiempo de
actualización UI:17 resultados de vectores y matrices UI:17
Gráfico cuantil empírico UI:694

Gráfico de superviviente empírico UI:693

Finalizar campo UI:64, UI:338


Endogeneidad UI:235 prueba
de UI:93
vistas UI: 18
Variables endógenas UI:69 en modelos
UI:781 Probabilidades ergódicas UI:510, UI:516
Gráfico de barras de error IU: 672
Prueba de cointegración Engle-Granger UI:1032
Error-tendencia-suavizado estacional
Interfaz de usuario de la edición empresarial : 348, interfaz de usuario: 349, interfaz de usuario: 352,
Machine Translated by Google

E-1137

Ver suavizado ETS salida UI:524


Estimación UI:9 como parámetros UI:518, UI:523
parte del modelo UI:785 serie automática desempeño en EViews UI:521
UI:197 especificación UI:522 detalles
comportamiento UII:1103 técnicos UI:512

variable dependiente binaria UI:333 modelos censurados Interfaz de usuario Eurostat SDMX : 363

UI:358
Evaluación de pronósticos UI:420
colinealidad UI:22 Orden de evaluación UI: 180
convergencia UII:1103 IU de registro : 569
problemas de convergencia UII:1091, UII:1092 Vistas electrónicas

modelos de conteo UI:378


actualización automática IU: 15, IU: 875
demostración UI:27 opciones de
Interfaz de usuario de bases de datos de EViews : 317

cálculo de derivadas UII:1093 derivadas UII:1106


EViews Enterprise Edition Interfaz de usuario: 354, interfaz de usuario: 368,

UI:374, UI:379
falla al mejorar UII:1091 para pool UI:864
Interfaz de usuario del foro EViews : 15

IU GLM : 393 Examinando la interfaz de


usuario de demostración de datos : 20
Interfaz de usuario de GMM : 81

Sobresalir
probabilidad de registro UI:
Complemento UI:
572 logl UI: 572 datos
faltantes UI: 10 164 leyendo datos de EViews en UI: 164, 1: 823
archivo Excel
multiecuación UI : 646
problemas de matriz casi singular UII: 1093 importar datos en la matriz UI:161 importar
mínimos cuadrados no lineales UI: 51 opciones datos en la tabla UI:161, UI:796 importar datos en
UII: 1089 modelos ordenados UI: 351 salida UI: 11 el archivo de trabajo UI:150 vincular datos desde
panel UI: 917 residuos de la ecuación UI:20 UI:55 abrir como archivo de trabajo UI:48 abrir como
regresión robusta UI:429 muestra UI:9 ajuste de archivo de trabajo demo UI:17 guardar como UI:161
muestra UI:10 métodos de ecuación simple UI:9
valores iniciales UII:1091 espacio de estado
UI:759, UI:770 sistemas UI:646, UI:654 modelos Variable exógena UI:69 en
truncados interfaz de usuario: 367 modelos UI:781 incertidumbre
UI:815, UI:826
Modelos binarios de tabla de predicción-

expectativa UI:340 modelos ordenados


UI:354

Coherencia de expectativas en modelos UI:817

Modelos censurados de variable dependiente


mínimos cuadrados de dos etapas UI:69 definido esperada UI:363
por el usuario I:819 modelos truncados UI:369
VAR IU: 689, IU: 695
Variable latente esperada
IU DE CASO : 726
modelos censurados UI:363 modelos
Interfaz de usuario de suavizado de ETS : 512 truncados UI:369
AMSE basado en UI:519
GARCH exponencial (EGARCH) UI:257
ejemplo UI:525 detalles Véase también GARCH
de pronóstico UI:521, UI:523 estados
Regresión exponencial UI:392 Suavizado
iniciales UI:518
exponencial UI:506, UI:512 Véase también Suavizado ETS
Interfaz de usuario basada en MLE : 519
Véase también Suavizado.
modelo de selección UI:520, UI:523
Machine Translated by Google

1138—Índice

interfaz de usuario doble : 508 Interfaz de usuario del conjunto de datos: 368

Aditivo Holt-Winters UI:509 Interfaz de usuario de función justa : 422

IU multiplicativa de Holt-Winters : 509 Solución modelo Fair-Taylor UI:817


Holt-Winters sin interfaz de usuario estacional: 510
Interfaz de usuario de la base de datos FAME : 368

interfaz de usuario única : 508


Datos económicos de la Reserva Federal UI:369
Exportar UI:163, UI:315 Obtener UI:120 de la
base de datos UI:325
base de datos UI:323
interfaz de usuario de datos del grupo : 862
desde el grupo UI: 862
Expresión UI:179 para campos obtener UI: 171
de base de datos UI:337 paréntesis UI:180
Campos en la base de datos UI:336
Ampliación de EViews Consulte
descripción UI:339
Complementos.
mostrar_nombre UI:339 final UI:338
expresiones UI:337 frecuencia
Valor extremo
UI:338 historial UI:339 última
modelo binario UI:334 modelos de
actualización UI:339 última escritura
variables dependientes censurados UI:359
UI:339 nombre UI:337 comentarios

UI:339 fuente UI:339


F
Análisis factorial UI:1043 fondo UI:1074

comunalidades UI:1048 creación


UI:1044 miembros de datos UI:1059
interfaz de usuario de inicio : 338

tipo UI:337 unidades

detalles IU: 1074 UI:339

valores propios UI:1057


ejemplo UI:1059 bondad Ubicaciones predeterminadas de archivos

de ajuste UI:1055, UI:1079 puntuaciones UI: 872 sesión abierta al hacer doble clic UI: 858 abrir/guardar

gráficas UI:1053 en una ubicación en la nube UI: 96

Medida de Kaiser de la adecuación del muestreo Filtrar


interfaz de usuario: 1058 Hodrick-Prescott UI: 533

cargando vistas UI:1056 Interfaz de usuario de conmutación de


método UI:1045, UI:1047 Markov : 508 modelos de espacio de estado
detalles del método UI:1076 IU: 756 interfaz de usuario de regresión de
evaluación del modelo UI: 1079 conmutación : 507 objetos de archivo de trabajo UI: 73
PACE UI:1047 Interfaz de usuario de FIML : 648

procedimientos UI:1058 interfaz de usuario del sistema : 678

covarianza reducida UI:1056 Métodos de la primera derivada UII:1096


rotación UI:1050 rotación
Interfaz de usuario Fisher-ADF : 625
(teoría) UI:1081 escalado UI:1049
Interfaz de usuario de Fisher-Johansen : 1041
estimación de puntaje UI:1051
Interfaz de usuario Fisher-PP : 625
especificación UI:1044 teoría de UI:1074
Ajustar líneas (gráfico) UI:636
vistas UI:1054
Modelos binarios

de índice ajustado UI: 345 modelos


censurados UI: 363
Opciones de diseño de factor y gráfico UI:737
modelos truncados UI:369
Factor de prueba de punto de ruptura UI: 191
Modelos binarios de
Configuración de visualización de factores UI: 733
probabilidad ajustada UI:345
Machine Translated by Google

F-1139

Valores ajustados Especificación MA UI: 163


de la ecuación UI:18 Cambio de Markov UI: 524 valores
Estimación del perdidos UI: 155 modelos UI: 790
panel de efectos fijos UI: 919 grupo
UI: 867 descripción del grupo UI: modelos no lineales UI:173 n-paso

882 prueba UI: 947 adelante UI:758 prueba de n-paso


UI:228 prueba de un paso UI:228

Parámetro de varianza fijo negativo modelos ordenados UI:356 fuera de


la muestra UI:154
binomial QML UI:381 normal QML UI:381

IU de PDL : 173
aplanar
interfaz de usuario suavizada : 759
carretes UI: 807
error estándar interfaz de usuario: 156, interfaz de usuario: 170
FMOLS Véase OLS totalmente modificado (FMOLS)
espacio de estado interfaz de usuario: 758 interfaz de usuario
fuentes
estática : 161 interfaz de usuario estructural : 162 regresión de
valores
conmutación interfaz de usuario: 524 interfaz de usuario del
predeterminados
sistema : 662 modelos truncados interfaz de usuario: 369
UI:859 tablas UI:791 texto en gráfico UI:753, UI:778
Pronóstico

UI de especificación AR : 162
VAR/VEC UI:712, UI:728 varianza
IU ARIMA : 491
UI:155
ARIMA usando X-13 UI:451 automático con errores AR UI: 163
con modelos ARIMA UI:491
Importación de datos
automático con suavizado ETS UI:521, UI:523 serie automática
externos en la interfaz de usuario del archivo de trabajo: 150
UI:168
abrir como interfaz de usuario del archivo de trabajo: 17
promediando UI:500
Formato
backcasting UI:163 modelos
tablas IU: 790
binarios UI:345 por suavizado
Previsión
exponencial UI:512 modelos censurados UI:363
de fórmula UI:167

Prueba de comida IU: 222 asignación implícita UI:191 normalizar


UI:192
prueba de combinación UI:422
especificar ecuación por UI:7
combinación de UI:500 varianza
condicional UI:255 modelos de conteo Solución directa para modelos UI:816

UI:382 diferencia fraccionaria


demostración UI:34 Interfaz de usuario de especificación : 116

dinámica UI:160, UI:758 Interfaz de usuario de integración fraccionaria : 105

ecuaciones con fórmula UI:167 error Interfaz de usuario del marco : 645

UI:155 tamaño de interfaz de usuario: 646

Suavizado ETS UI:521, UI:523 evaluación FRED IU: 369


UI:420, UI:157 ejemplo UI:150 expresiones Liberto-Diácono UI:682
y serie de actualización automática UI:167 Congelar interfaz de usuario: 119

valores ajustados UI:154 de ecuación estimada UI:147


crear gráfico desde la vista UI:747
Campo

de frecuencia en la consulta de la base de datos UI: 338


GLM UI:406
Filtro de frecuencia (paso de banda) UI: 534
innovación inicialización en modelos UI:818 intervalo UI:157
Conversión de frecuencia UI: 118, UI: 170, UI: 859
Chow Lin UI:172, UI:175
variables dependientes rezagadas UI:160
Machine Translated by Google

1140—Índice

coincidencia constante UI: 172 prueba para UI:198


UI cúbica : 172, UI: 173 tabla umbral (TARCH) UI:256 ecuación
de datos con fecha UI: 557 de varianza UI:247
configuración predeterminada UI: 176 Interfaz de usuario del archivo Gauss : 48

Interfaz de usuario de Denton : 172


Gauss-Newton UII:1097
Base de datos DRI UI: 392
Algoritmo Gauss-Seidel UI:828, UII:1098
UI lineal : 172, UI: 173 enlaces
Distribución generalizada de errores UI:257
UI: 254
Mínimos cuadrados generalizados Ver GLS
Litterman UI:172, UI:175 métodos
Ejemplo de modelos lineales
UI:171 paneles UI:245 punto UI:172,
generalizados UI:397 pronóstico
UI:174 propagar NAs UI :172
UI:406 función de enlace UI:394,
cuadrático UI:173 cuadrático UI :172
UI:411 descripción general UI:391
serie sin fecha UI:176 usando
desempeño en EViews UI:393 prueba
enlaces UI:243
de relación de cuasi-verosimilitud UI:382
residuos UI:405 errores estándar robustos
UI:396

Espectro de frecuencia UI: 131


especificación UI:393
Pesos de frecuencia UI:395 detalles técnicos UI:409 prueba
Estimación de espectro de frecuencia cero UI: 598
UI:407 factor de variación UI:388
Estadística F UI:184, UI:189 para
regresión UI:15 Método generalizado de momentos, Ver GMM.
Prueba Residual generalizado
F para igualdad de varianza UI:412 modelos binarios UI: 345
Información completa Máxima probabilidad UI: 678 modelos censurados UI: 363
Información completa máxima probabilidad UI:648 modelos de conteo UI: 382
OLS completamente modificado (FMOLS) UI:269, UI:271 IU GLM : 405
interfaz de usuario del panel : 976, interfaz de usuario: 987 modelos pedidos UI:356
vector de puntuación
GRAMO
UI:346 modelos truncados UI:369
Generar serie UI:190
Interfaz de usuario de GARCH : 243

Modelo ARCH-M UI:245 modelo por comando UI:192


asignación dinámica UI:191 para
de componentes asimétricos UI:260 backcasting
grupo UI:856 asignación implícita
UI:249 modelos de componentes (CGARCH) UI:259
UI:191 fórmula implícita UI:191 usando
estimación en EViews UI:246
muestras UI:190

ejemplos UI:251
exponencial GARCH (EGARCH) UI:257 Media móvil geométrica UI:197
Interfaz de usuario de datos de GiveWin : 374
GARCH(1,1) modelo UI:243
GARCH(p,q) modelo UI:245 Prueba de heteroscedasticidad de Glejser UI:198
inicialización UI:249 GLM
GARCH integrado (IGARCH) UI:256 ecuación Consulte Modelos lineales generalizados.
media UI:247 multivariado UI:586 ARCH de Estimación de punto de
potencia (PARCH) UI:258 procedimientos UI:254 ruptura global con UI:442
errores estándar robustos UI:250 pruebas IU: 210

UII óptimo global : 1093


GLS
Machine Translated by Google

G-1141

detrending UI:595 detalles Interfaz de usuario de Google Drive : 96

de estimación de grupo UI:883 pesos Gradientes UII:1103


UI:919 detalles UII:1103
Interfaz de usuario de GMM : 81, interfaz de usuario: 679 en ecuación UI:19, UI:661 en
selección de ancho de banda (ecuación única) UI:90 selección logl UI:576 guardado en serie
de ancho de banda (sistema) UI:655 prueba de punto de UII:1105 resumen UII:1104
interrupción UI:96 actualización continua (ecuación única)
UI:85, Prueba de causalidad de Granger UI:606
UI:90
panel UI:1010
diagnósticos UI:92 IU VAR :702
instrumentos descartados UI:92 Gráfico
estimación de ecuación simple por UI:81 alinear múltiples UI:780
sistema de estimación por UI:648 gráficos analíticos UI:681 banda
Matriz de ponderación HAC (ecuación única) UI:90 de área UI:668
Matriz de ponderación HAC (sistema) UI:680 Prueba gráfico de área UI: 666
de ortogonalidad del instrumento UI:93 Resumen del flechas UI: 755
instrumento UI:92 Iterar hasta la convergencia automatización UI: 784
(ecuación única) UI:85, actualización automática UI:
interfaz de usuario: 90

748 gráficos auxiliares UI: 700


Estadística J (ecuación única) UI: 82 opciones histograma desplazado promedio UI: 686
de kernel (ecuación única) UI: 90 opciones de kernel bordes de eje UI: 621
(sistema) UI: 655 multiecuación UI: 648 control de eje UI:768
formato de etiqueta de eje
N-paso (ecuación única) UI:85, UI:90 un paso UI:652 eje Véase también Eje.
(ecuación única) UI:85, UI:90 paneles UI:921 color de fondo UI:767 impresión de
opción de preblanqueamiento (ecuación única) fondo UI:767 gráfico de barras UI:666
UI:90 opción de preblanqueamiento (sistema) UI:656, personalización básica UI:644 borde
UI:682 prueba de endogeneidad del regresor UI:93 UI:767 gráfico de caja UI:697 gráfico
errores estándar robustos UI:86 sistema UI:679 de burbujas UI:673 categórico UI:767
pruebas UI:92
categórico Consulte también Gráficos
categóricos. configuración de color
UI:767 combinación UI:752 combinación
matriz de peso especificada por el usuario UI:90 de gráficos UI:752 elipse de confianza UI:709
instrumentos débiles UI:94
coordenadas para posicionar elementos UI:753
Matriz de ponderación blanca (ecuación única) creación UI:747, UI:748 etiquetas obs personalizadas
interfaz de usuario: 90

UI:769 personalización UI:752


Matriz de ponderación blanca (sistema) UI:680
Errores estándar de Windmeijer UI:87
Prueba de heteroscedasticidad de Godfrey UI:197
Goldfeld-Quandt UII:1096
Gompit modelos UI:334
UI ajustada por personalizar etiquetas de eje UI:652

bondad de ajuste R-cuadrado : 13 personalización de líneas y símbolos UI:772 opción


Prueba de Andrews UI:342, UI:388 de datos UI:619 formato de etiqueta de fecha UI:654
análisis factorial UI:1055 pronóstico frecuencia de etiqueta de fecha UI:653 posicionamiento
UI:157 de etiqueta de fecha UI:656 gráfico de puntos UI:671
Prueba de Hosmer-Lemeshow UI:342, UI:388
R-cuadrado IU: 13
Machine Translated by Google

1142—Índice

líneas de dibujo y áreas sombreadas UI: 754 CDF empírico UI: gráficos de observación UI: 665
692 sobreviviente de registro empírico UI: 693 cuantil empírico observaciones para etiquetar UI:
UI: 694 sobreviviente empírico UI: 693 barra de error UI: 672 653 orientación UI: 620 regresión
áreas de relleno UI: 663 ortogonal UI: 708 datos por pares
UI: 632 datos de panel UI: 993
opciones de datos de panel UI:
623 pastel UI: 679 colocar texto
primero frente a todos IU:633 en UI: 753 posición UI: 647 ,
líneas de ajuste IU:636 fuente UI:780 imprimir en color UI:782
IU:753 opciones de fuente imprimir UI:782 cuantil-cuantil
IU:778 marco IU:645 borde del UI:695, UI:696, UI:697 datos sin
marco IU:646 color del marco procesar UI:619
IU:645

interfaz de usuario de línea de regresión UI:700 eliminar


relleno de cuadro :767 etiquetas de fecha personalizadas UI:771 eliminar

congelar interfaz de elementos UI:763

usuario:747 congelar IU girada : 620

interfaz de usuario:748 rotación UI: 653 opciones

frecuencia interfaz de de trazado de corte de muestra UI: 767 guardar UI: 783

usuario:621 líneas de cuadrícula interfaz de escala UI: 653

usuario:767 grupos interfaz de usuario:626

alto-bajo-abrir-cerrar interfaz de usuario:672 dispersión UI:673

histograma interfaz de usuario:681 histograma matriz de diagrama de dispersión UI:634

borde polígono interfaz de usuario:685 histograma puntajes UI:1053 estacional UI:679 serie

polígono interfaz de usuario: 684 puntos de UI:617

identificación UI:615 sangría UI:767 densidad del

kernel UI:687 regresión del kernel UI:703 leyenda vista de serie UI:398

UI:659 fuente de leyenda UI:661 opciones de configuración para gráficos múltiples UI:779 opciones de

leyenda UI:771 ubicación de leyenda UI:660 sombra UI:778 tamaño UI:646

configuración de leyenda UI:771 texto de leyenda

UI:661 línea formatos de interfaz de usuario: 661 barra deslizante (pegar con) 1: 830 clasificación

UI: 762 clasificación observaciones UI: 762 pico

UI: 669 apilado UI: 633 gráfico de símbolos UI:


665 símbolos UI: 661 plantillas UI: 774 justificación

gráfico de líneas UI:665 de texto UI: 753 opciones de texto UI: 778 teórico

líneas UI:755 interfaz de usuario de distribución : 691


enlace frecuencia UI:621 ubicación
UI:647

significa UI:619 fusión

de múltiples UI:106 datos de frecuencia


mixta UI:630 línea mixta UI:669 modificación
de UI:764 opciones de gráficos múltiples UI:780 escriba UI:618, UI:627, UI:665, UI:765
opción de series múltiples UI:628 regresión de actualice la configuración UI:749
Interfaz de usuario del área XY : 677
vecino más cercano UI:705 observaciones no
Interfaz de usuario de la barra XY : 678
consecutivas UI:767
Interfaz de usuario de línea XY : 676

XY pares IU: 633


Machine Translated by Google

H-1143

Líneas de cuadrícula UI: 657 Modelo HeckitVer selección Heckman

interfaz de usuario de la tabla : 790 Selección Heckman UI:371 ejemplo UI:374

Búsqueda de cuadrícula UII: 1098


Estimación de aprendizaje automático IU: 372
Grupo UI: 198, UI: 543
agregar miembro UI: 543 actuando en EViews UI:373 modelo de dos

agregando serie UI:544 agregando pasos UI:371

a UI:135 serie automática UI:197 Interfaz de usuario de dos pasos de Heckman : 371

Interfaz de usuario de ayuda : 14

crear UI:133, UI:198 formato Interfaz de usuario del foro de EViews : 15

de visualización UI:134 tipo interfaz de usuario del sistema de ayuda : 14

de visualización UI:125 Interfaz de usuario de la World Wide Web : 15

modo de edición UI Modelos binarios de


predeterminado :863 editar heteroscedasticidad UI:349 Detalles
serie UI:545 editar UI:135 transversales UI:884
elemento UI:199
groupwise UI:585 de forma
vista de gráfico UI: 568 gráficos conocida UI:47 detalles del período

UI: 626 crear sistema de UI:884 errores estándar robustos


ecuaciones UI: 608 número de serie UI: 199 grupo UI: UI:32 pruebas de UI:197
848 reorganización de series UI: 544 funciones de fila

UI: 199 vista de hoja de cálculo UI: 544 valores Prueba de White UI: 199

predeterminados de vista de hoja de cálculo UI: 863 asistente UI: 200


resúmenes UI: 550
Covarianzas consistentes con heteroscedasticidad UI:36

Casos Heywood UI:1050


Ocultar

objetos en spool UI:803


Agrupar en bins opción UI:402, UI:581
Interfaz de usuario de datos de alta frecuencia : 45
Media de grupo DOLS UI:991
Estimación de alto desglose UI: 426
FMOLS medio de grupo UI:989
Gráfico alto-bajo-apertura-cierre UI: 672
Heterocedasticidad grupal UI:585
Hildreth-Lu UI:143
Interfaz de usuario de Gumbel : 692
Histograma UI:398 como eje
UI:621
H gráfico desplazado promedio UI: 686 ancho de
ESTE bin UI: 682 gráfico de polígono de borde UI:

regresión de cointegración UI:279 685 gráfico UI: 681 prueba de normalidad UI:
Estimación de GMM UI: 90 194 gráfico de polígono UI: 684 guardar datos

regresión de cointegración de panel UI: 979 UI: 538 ancho variable UI: 678
errores estándar robustos UI: 32, UI: 45
sistema GMM UI: 681
Asistencia de interfaz de usuario : 623

Criterio de Hannan-Quinn UII:1111 para la ecuación Descomposición histórica UI:711

UI:15 Interfaz de

usuario de la ventana de comandos de historial :


Prueba de inestabilidad Hansen UI:287

Prueba de heteroscedasticidad de Harvey UI:198 campo 8 en la interfaz de usuario de consulta de la base de datos : 339

Interfaz de usuario de matriz de sombrero : 231 Filtro Hodrick-Prescott UI:533, UI:534


Aditivo Holt-Winters
Estimador de dos pasos de Hatanaka UI: 143
UI:509
Prueba de Hausman UI:235, UI:949
ETS framework UI:515
Interfaz de usuario de la base de datos de Haver Analytics : 374
Machine Translated by Google

1144—Índice

UI basado en probabilidad : 515 interfaz de usuario de punto de interrupción desconocido : 208

IU multiplicativo : 509 IU no Prueba de Van der Waerden UI:406, UI:411


estacional : 510 varianza UI:405
Prueba de efectos aleatorios de Honda UI: 951 Prueba de restricción del coeficiente de Wald UI:182

Prueba de Hosmer-Lemeshow UI:342, UI:388 Heterocedasticidad blanca UI:199


Prueba de suma de rangos de Wilcoxon UI:410
Interfaz de usuario HTML : 795

Prueba de rangos firmados de Wilcoxon UI: 406


abrir página como archivo de trabajo
UI:48 guardar tabla como página web UI:795
yo

Covarianza Huber UI:428


Interfaz de usuario de la función Huber : 423 IU de icono : 103

Estimador Huber M UI:421, UI:422 Identificación

Errores estándar de Huber/White UI:387, UI:396 Interfaz de usuario de Box-Jenkins : 106

Interfaz de usuario de GMM : 82


Prueba de hipótesis
modelos no lineales UI:59
de estabilidad UII:489
Pruebas de hipótesis Identidad
Ver también Prueba. en el modelo UI:782

IU DE ARCO : 198 en la interfaz de usuario del sistema: 651

Prueba de Bartlett IU: 412 Si la condición en las muestras UI: 138


Independencia de BDS UI: 420, UI: 636 Interfaz de usuario de IGARCH : 256

prueba de signo binomial UI: 406 Datos de IHS Global Insight UI:375, UI:376
Brown-Forsythe UI: 412 prueba Datos de IHS Magellan UI: 376
de chi-cuadrado UI: 410 Im, Pesaran y Shin UI:624
Chow breakpoint UI:206 coeficiente Importar datos UI:146
basado UI:176
agregar al final UI:157
coeficiente p-valor UI:12 como matriz UI:161 como
IU CLIENTE : 226
tabla UI:161, UI:796 lectura
CUSUM de cuadrados UI:227 con fecha UI:152
demostración UI:30 pruebas
para objetos de grupo UI:850 de
estadísticas descriptivas UI:404 distribución ASCII UI:150
UI:413
de la IU de la hoja de cálculo : 150
Interfaz de usuario de prueba F : 412
de la IU del archivo de trabajo : 150
Prueba de Hausman UI:235
IU de lectura coincidente : 155
heterocedasticidad UI:197 variable conflictos de nombre IU: 161
irrelevante o redundante UI:190
opciones UI:159
Prueba Kruskal-Wallis UI:410
Véase también Datos
Prueba de Levene UI: 412
extranjeros. lectura secuencial
IU media : 404
UI:157 usando un objeto de grupo UI:854
mediana UI:406
Respuesta de impulso UI:707 Ver
igualdad de múltiples muestras UI:407 no
también VAR.
anidado UI:237 normalidad UI:194 variables
ARMA models UI:130
omitidas UI:189
impulsos generalizados UI:709 errores
estándar UI:708 descomposición
Ramsey RESET UI: 224 UI
estructural UI:709 transformación de impulsos
basado en residuos : 193
UI:709 impulsos especificados por el usuario
Prueba Siegel-Tukey UI:412
UI:709
muestra única UI:404 prueba
Forma funcional incorrecta UI:199, UI:224
de estabilidad UI:205 raíz
Sangría
unitaria UI:419, UI:420, UI:589
Machine Translated by Google

K—1145

carretes UI: 806 error al mejorar el mensaje UII:1091 en modelos


Prueba de independencia UI:420, UI:636 UI:831 en mínimos cuadrados no lineales UI:55

Índice método de optimización UII:1090

ajustado a partir de modelos binarios UI:345


ajustado a partir de modelos censurados UI:363
ajustado a partir de modelos truncados UI:369 j

UI de muestra individual : 187 Jarque-Bera statistic UI:400, UI:194, UI:254


Estadísticas de influencia UI:231 en VAR UI:704
Criterio de información Interfaz de usuario JPEG : 783

Resumen UI:15, UII:1111 J-estadística


Hannan-Quinn UII:1111 2sls UI:72
Interfaz de usuario negra : 15, interfaz de usuario : 1111 Interfaz de usuario de GMM : 82

Interfaz de usuario de innovación : 100


ecuación de panel UI:941
Insertar Interfaz de usuario de prueba J : 237

IU de observación : 132

Interfaz de usuario del punto de inserción : 7


k
Variable instrumental UI:69
Medida de Kaiser de la adecuación del muestreo UI:1058
instrumentos descartados UI:92 para Interfaz de usuario de Kaiser-Guttman : 1075
2SLS con especificación AR UI:74 para 2SLS no
Filtro Kalman UI:757
lineal UI:77 identificación (ecuación única) UI:71
Prueba de cointegración del panel Kao UI: 1039
identificación (sistemas) UI:653 en sistemas UI:651
IU de clase K : 77
condición de pedido UI:71
estimación de IU: 79
Número de Kendall UI:568

rango UI:72 teoría UI:577


Núcleo
resumen de UI:92
pruebas UI:92 regresión de cointegración UI:279 funciones
UII:1117
usando especificaciones PDL UI:25 débil
UI:78 instrumentos débiles UI:94 Interfaz de usuario de estimación de GMM : 90

gráfico UI:704
con datos agrupados UI: 886 estimación de covarianza a largo plazo UI:602, UI:603
panel de regresión de cointegración UI:979 errores
Variable dependiente entera UI:377
estándar robustos UI:45
Serie integrada UI: 589
sistema GMM HAC UI:655, UI:681
Integridad (base de datos) UI:345
detalles técnicos UII:1117
Intersección en la ecuación UI:6, UI:12
Gráfico de densidad del kernel UI: 687
Interpolar interfaz de usuario: 437
guardar datos UI: 538
Datos intradía UI:45 en
Funciones del kernel UI: 688
muestras UI:140
Regresión del kernel UI: 703
Identificadores de fecha no válidos UI:287
guardar datos UI: 538
Raíces AR invertidas UI: 126
Entrada de
Raíces MA invertidas UI: 126
datos del teclado UI: 146
Irregular data UI:263 Opción de enfoque UI: 858
Prueba de variable irrelevante UI: 190
Interfaz de usuario de enfoque de teclado : 858

Iterar a la convergencia GMM modelo pequeño


ecuación simple UI:85, UI:90 Interfaz de usuario de GMM : 90

Iteración UII: 1090 Interfaz de usuario LIML : 80


Machine Translated by Google

1146—Índice

Prueba de Kolmogorov-Smirnov UI: 413 guardar gráfico como UI:783


Prueba de raíz de unidad KPSS UI: 597 Serie
Prueba Kruskal-Wallis UI:410 de plomo UI: 184
Kullback-Leibler UII:1111 Estimación de desviaciones mínimas absolutas Ver LAD

Curtosis IU: 400 Paneles de mínimos

Prueba de Kwiatkowski, Phillips, Schmidt y Shin cuadrados UI:918


interfaz de usuario: 597 Véase también Ecuación.
Véase también MCO.

L Prueba de Levene UI: 412

Parcelas de apalancamiento UI:230


Etiqueta
Aprovecha la
Ver Objeto de etiqueta
estimación en presencia de un alto UI: 421
Objeto de etiqueta UI:116
Levin, Lin y Chu UI:621
opción de actualización automática UI:860
IU de probabilidad : 14
mayúsculas UI:116
LET UI: 541 Especificación de probabilidad UI: 575
Prueba de Lilliefors UI: 413
interfaz de usuario
de salida : 544 actuando en EViews UI: 541 Puntos límite UI:353 variables
vistas de proceso de cuantiles UI: 547 dependientes censuradas UI:359 hacer matriz de
covarianza UI:356 hacer vector UI:356
Lag
asignación dinámica UI:191 prueba de
exclusión UI:702 pronóstico UI:160 panel interfaz de usuario no ascendente : 354

de datos UI:901 serie UI:184 Variable dependiente limitada UI:331


Máxima verosimilitud de información limitada (LIML)
Ver LIML

Longitud de retraso Interfaz de usuario LIML : 77

IU VAR :703 Errores estándar de Bekker UI:79

Estructura de rezagos instrumentos descartados UI:92 estimación


IU VAR :702 de UI:79

Variable dependiente rezagada resumen del instrumento


y la interfaz de usuario de correlación en serie : 99 UI:92 objetivo lineal UI:78
Estadística de Durbin-Watson IU: 108 valor propio mínimo UI:78, UI:81
Modelos de variables dependientes rezagadas
objetivo no lineal UI:78 instrumentos
Ver ARD
débiles UI:94

Serie rezagada en la ecuación UI:7 IU de dibujo lineal : 754

Prueba del multiplicador de Gráfico de líneas UI: 665


Lagrange para correlación serial UI:108 Método

Prueba de muestra grande UI: 175


de conversión de frecuencia lineal UI:172, UI:173
Campo Last_update en
Pruebas de linealidad
transición suave UII:489
la interfaz de usuario de la consulta de la base de datos: 339
Interfaz de usuario de enlace : 233
campo
Last_write en consulta de base de datos UI:339 conceptos básicos UI:233 romper

Variable latente UI:260 crear por comando UI:255


crear copiando y pegando UI:118
modelo binario UI:332 modelos
censurados UI:357 modelos creación UI:247

ordenados UI:350

Látex
datos de formatos extranjeros UI:48, UI:55,
IU: 150, IU: 154
Machine Translated by Google

M-1147

conversión de frecuencia UI:243, UI:254 Modelos de registro UI: 334


combinación de combinación UI:234 Logl UI:565
modificación de UI:259 a bases de datos derivadas analíticas UI:570 convergencia
UI:324, UI:325 trabajo con UI:257 Función UI:577 derivadas UI:570
de enlace UI:394, UI:411 Ecuaciones
enlazadas en modelos UI:800 Enlace de errores UI:578

objetos desde Excel y otros formatos de estimación UI:572

archivo UI:48, UI:55, UI:150, UI:154 Vincular objetos a ejemplos UI:580


Excel, Word Ver OLE. gradientes UI:576
limitaciones UI:579
orden de evaluación UI:569
Lista
parámetros UI:568
especificando ecuación por UI:6
especificación UI:567 valores
Método de
iniciales UI:573 tamaño de paso
conversión de frecuencia de Litterman UI:172, UI:175
UI:571 resolución de problemas
Litterman v. Minnesota anterior UI:734, UI:747
UI:578 vistas UI:575
Ljung-Box Q-estadística UI: 418
prueba de correlación serial UI:108
Nombre largo UI:115 para
prueba LM
serie UI:427
ARCH UI:198
Covarianza a largo plazo UII:1115
regresión auxiliar UI:195, UII:1106
regresión de cointegración UI:279
correlación serial UI:108, UI:195
Interfaz de usuario de estimación de GMM : 90
Prueba LMMP para efectos aleatorios UI:951
grupo UI:600
Prueba de razón de varianza de Lo y MacKinlay UI:627
regresión de cointegración de panel UI:979 serie
Carga UI:419 discusión técnica UII:1115
archivo de trabajo de interfaz de usuario : 82

Cargas UI:1056 Óptimo Relaciones a largo plazo


local UII:1093 Regresión local UI:706 Modelos ARDL UI: 296

Opción de ponderación local UI:707 Varianza a largo plazoVer Covarianza a largo plazo
LOESS UI:706, UI:707 Probabilidad de IU BAJA : 706, IU: 707
registro Ver también Logl. promedio UI:336 Estadística LR UI:189, UI:336, UI:365, UI:367,
interfaz de usuario: 382
modelos censurados UI:358
QLR interfaz de usuario: 385

METRO

exponencial UI:381 para Raíces MA


modelos binarios UI:332 para interfaz de usuario invertida : 126

regresión (errores normales) UI:14 binomial negativa


Retrospectiva de
UI:379 normal UI:381 modelos ordenados UI:351
especificación MA
UI:120 pronóstico
UI:163 en modelos ARIMA UI:101,
Poisson modelo UI: 379
UI:114 en solución modelo UI:818
restringido UI:336
en mínimos cuadrados de dos etapas UI:75
modelos truncados UI:367
Definición de
Expresión lógica UI:182 en consulta
MADMED UI:424
fácil UI:335
LOS CAMINOS
Función logística UI:423
definición IU: 424
Regresión logística UI:392
Machine Translated by Google

1148—Índice

IU MAE : 421 Error absoluto medio UI:421, UI:158


Prueba de Mann-Whitney IU: 410 Error porcentual absoluto medio UI:421, UI:158
Interfaz de usuario del mapa : 421 Ecuación media (GARCH) UI:247
Nivel de significancia marginal UI:12, UI:175 Error cuadrático medio UI:501, UI:521, UI:158
Cambio de Markov UI: 505, UI: 507 Ecuación de medición UI:756
AR UI:511, UI:512 Error de medición UI:69, UI:224
modelos autorregresivos UI:511, UI:512 IU mediana : 399
regresión dinámica UI:511 estimación en prueba de igualdad UI:410
EViews UI:513 ejemplo UI:525 duraciones
prueba de hipótesis de UI:406
esperadas UI:521 filtrado UI:508 pronóstico Interfaz de usuario de la función mediana : 423
UI:524 probabilidades iniciales UI:510 ,
Asignación de memoria UI:872
UI:516 modelos medios UI:511
Memoria, agotándose UI:872 Menú UI:114
objetos UI:115 Fusionar UI:118 Ver Match

merge. gráficos UI:106 en archivos de

probabilidades de régimen UI:508, UI:523, UI:525 trabajo del panel UI:913 opción de

suavizado UI:509 probabilidades de transición almacenamiento UI:323 Mensajes UI:855

UI:521 resultados de transición UI:521, UI:525 vistas M-estimación UI:421

disponibles UI:521

Marquardt UII:1097
Combinación de coincidencias
actuando en EViews UI:429 constantes
UI:234 por fecha UI:239
de ajuste UI:422 funciones de peso UI:422
muchos a muchos UI:237
muchos a uno UI:236 uno a
Metafecha
muchos UI:235 paneles UI:241
Ver Atributos
usando enlaces UI:234
metarchivo

Operador de coincidencia en consulta de base de datos UI:337 guardar gráfico como metarchivo de Windows. UI:783
Micro TSP abriendo archivos de trabajo UI:315 Microsoft
Match-merge
como IU de importación: 155 Excel

Matlab I: 819
Véase Excel.
Maximización Consulte Optimización (definida por el usuario).
Microsoft PowerPoint pegando
Máximo
número de observaciones UI:873 gráficos y datos en 1:823
Microsoft Word
Máxima probabilidad Véase
pegar gráficos y datos en 1:823
también Logl.
MIDAS
Consulte también Optimización (definida
por el usuario). información completa UI: Almon ponderación UI:315
648 probabilidad pseudo máxima casi generalizada beta ponderación UI:316, UI:317
UI: 385, UI: 403 probabilidad casi máxima UI: 380, ejemplo UI:323 exponencial Almon
UI: 391 usuario especificado UI: 565 McFadden R- ponderación UI:316
squared UI: 336 Media UI: 399 IU de ponderación de PDL :
315 IU de regresión : 313 IU de
ponderación de pasos : 315
Minimización Consulte Optimización (definida por el usuario).
prueba de igualdad UI:408
prueba de hipótesis de UI:404 Discrepancia mínima UI: 1077
Machine Translated by Google

m-1149

Valores faltantes UI:187 resolución dinámica UI:789


pronóstico UI:155 manejo escenarios de edición UI:810
en estimación UI:10 en conversión de variables endógenas UI:781 vista de
frecuencia UI:172 en modelos UI:831 ecuaciones UI:801 estimación de
ecuaciones UI:785 exclusión de
en gráficos de observación UI:622 variables UI:809 variable exógena
interpolar UI:437 recodificar UI:189 UI:781 incertidumbre de variable
comparaciones relacionales que exógena UI:815, UI:826
involucran UI:188 probar UI:188 Solución Fair-Taylor UI:817 opción de
ajuste para la solución UI:821 pronóstico
Regresión de muestreo de con UI:790 valores futuros UI:816
datos mixtos UI:313
Solución Gauss-Seidel UII:1098
Gráfico de frecuencia mixta UI: 630
Solucionador de Gauss-Seidel UI: 828
Gráfico de línea mixta UI: 669
MLE manejo de términos ARMA UI:821 identidades
UI:782 inicializar variables excluidas UI:829
Ver registro
IU de estimación de MM : 428
ecuaciones en línea UI:800 factor
actuando en EViews UI: 429
de adición de cambio de intercepción UI:812
Modelo
ecuaciones vinculadas UI:800
excluyendo variables UI:811 anulando Términos de error MA UI: 818
variables UI:810
manejo de valor faltante UI:831
Modelo promedio IU: 500 Solución de Newton UII: 1099
Modelar expectativas consistentes UI:817 Método de Newton UI:828
Selección de modelo
variables anuladas UI:783, UI:809, UI:815 propiedades
ARDL modelos UI: 302
de las ecuaciones UI:802 redondeo de la solución UI:832
Modelos ARIMA UI: 491

ARIMA usando X-13 UI:447, UI:450 escenarios UI:347, UI:797, UI:808


Suavizado ETS UI:520, UI:523 escenarios (ejemplo) UI:347 bloques
Estimación de TAR UI:468 simultáneos y recursivos UI:804
Los métodos de solución UI: 828
modelos agregan factores UI:781, UI:794, resolver (dinámico) UI: 789
UI:812 agregan ecuaciones UI:786 aliasing resolver (estático) UI: 787 resolver
UI:783, UI:810 vinculan variables UI:783 UI: 815 resolver para que coincida
estructura de bloques UI:804 límites UI:827 con el objetivo UI: 832 valores iniciales UI:
830 solución estática UI: 821

Solución de Broyden UII:1100 solución estática UI:787


Broyden solver UI:828 ecuaciones estocásticas UI:782
coeficiente de incertidumbre UI:801, UI:815, UI:826 simulación estocástica UI:821 solución

comparando soluciones UI:837 prueba de convergencia estocástica UI:823

UI:831 creando UI:799 definición UI:645 demostración descripción de texto de UI:805, UI:806
UI:347 palabras clave de texto UI:805, UI:806
variables de seguimiento UI:827 enlaces
de actualización UI:801 dependencias de
derivados UI:830 variables UI:804 cambio de variable agregar
mensajes de diagnóstico e historial de iteraciones factor UI:812
interfaz de usuario: 827 interfaz de usuario de vista variable : 803

solución dinámica UI: 821


Machine Translated by Google

1150—Índice

Condición de momento UI: 82 interfaz de usuario de GMM del sistema : 681

Criterios de selección de momento UI:95 Regresión de cointegración de covarianza consistente

Moody's Economy.com UI:379 Descomposición de Newey-West UI:279


Estimación GLM UI:396
MoveReg UI:467 Funciones de estadísticas
Interfaz de usuario de estimación de GMM : 90
móviles UI:185 media geométrica UI:197
panel de regresión de cointegración UI: 979 errores
estándar robustos UI: 45

interfaz de usuario de GMM del sistema : 681


Interfaz de usuario de la RAE de Macao : 511, interfaz de usuario: 512

Método de Newton UI:828, UII:1099


Interfaz de usuario de MSE : 501, interfaz de usuario: 521, interfaz de usuario: 158

Interfaz de usuario de MSI : 511 Newton-Raphson UII:1095, UII:1097


MSMUI :511 Proceso MA no invertible UI:126, UI:138
Restricción de coeficiente no lineal
Multicolinealidad UI:22
Interfaz de usuario de prueba de Wald : 187
Descomposición de la varianza del coeficiente
Mínimos cuadrados no lineales UI:51
UI:180 Prueba de UI:179, UI:180
coeficiente covarianza UI:54
Múltiples procesadores UI: 873
criterio de convergencia UI:55 errores
Interfaz de usuario de ARCO multivariable : 648
estándar de pronóstico UI:157

norte
opción de iteración UI:55
opción de método de optimización UI:55
NA Consulte NA y datos faltantes. especificación UI:53 valores iniciales
Nadaraya-Watson UI:704 Objeto de UI:56 dos etapas UI:76 dos etapas con
nombre UI:115 reservado UI:115 especificación AR UI:77 ponderada
UI:58 ponderada de dos etapas UI:77, UI:88
con especificación AR IU: 58, IU: 139
Campo de nombre en consulta de base de datos UI:337

Nombrar objetos spool


UI de prueba no anidada : 237
UI:802
NA IU: 187 Detalles técnicos del núcleo no
paramétrico UII:1116
pronóstico UI:155
comparación de desigualdad UI:188 Identificadores no únicos UI:287

Véase también Prueba de datos Prueba de normalidad UI:400, UI:413, UI:194, UI:254,
faltantes UI:188 interfaz de usuario: 704

IU VAR :704
Matriz casi singular UI:22
modelos binarios UI:339 logl Normalizar la fórmula UI:192

UI:569, UI:577, UI:579 modelos Normal-Wishart anterior UI:735, UI:749


no lineales UI:59, UII:1093 retraso Interfaz de usuario de pronóstico inmediato: 313

polinómico distribuido UI:24 Prueba de pronóstico de N pasos UI: 228


RESTABLECER prueba IU: 225
Ecuación
Regresión de vecino más cercano UI:705, UI:706 simple GMM de N pasos UI:85, UI:90
Modelo de conteo binomial negativo UI:379 Hipótesis nula UI:175
Interfaz de usuario del servidor proxy de red : 871 Formato numérico
Regresión de cointegración de ancho de banda Ver formato de visualización
automático de Newey-West UI: 279 Comparación
Interfaz de usuario de estimación de GMM : 90
relacional de números UI:182
estimación de covarianza a largo plazo UI:603,
Tabla N-way UI:584 pruebas
UII:1121
chi-cuadrado UI:583
panel de regresión de cointegración UI:979
Machine Translated by Google

O—1151

O coeficiente estadístico t UI:12


coeficientes UI:11 error estándar
Objeto UI: 101
de regresión UI:14 suma de residuos
permitir múltiples sin título UI: 857
cuadrados UI:14 estimación del sistema
conceptos básicos UI: 102 cerrar sin
UI:646, UI:675
título UI: 857 copiar UI: 117 crear UI:
Prueba de variables omitidas UI:189, UI:224
105 datos UI: 102, UI: 123 eliminar
UI: 119 congelar UI: 119 icono UI: panel UI:943
Interfaz de usuario de OneDrive : 96
103
Prueba de pronóstico de un paso UI: 228
Ecuación simple
GMM de un paso UI:85, UI:90
etiqueta Consulte Nombre de Tabla de frecuencia unidireccional UI:415
objeto de etiqueta UI: 116 Interfaz de

abrir UI: 106 vista previa UI: usuario de base de datos abierta : 319

107, UI: 325 imprimir UI: 119 datos externos como matriz UI:161
procedimiento UI: 103 muestra datos externos como tabla UI:161, UI:796
UI: 145 mostrar UI: 107 objetos múltiples UI:106 objeto UI:106
opciones UI:315 archivo de trabajo UI:82

interfaz de usuario de la tienda : 120

escriba UI: 104 Operador UI:179


ventana UI: 112 aritmética UI:179
Vinculación e incrustación de objetos Ver conjunción (y, o) UI:183 diferencia UI:184
OLE.

Menú de objetos UI: 115 lag UI:184 lead


Ecuación de observación UI:756, UI:761 UI:184 paréntesis

Gráficos de observación UI:622, UI:665 UI:180 relacional UI:182

valores perdidos UI:622


Identificadores de observación UI:304 Métodos de
optimización UII:1090
Número de observación UI:128
Escala de observación UI:653 Algoritmos de optimización
BHHH UII:1097
Observaciones, número de
métodos de la primera derivada UII:1096
interfaz de usuario máxima : 872
Gauss-Newton UII:1097
Interfaz de usuario de ODBC : 48

Goldfeld-Quandt UII:1096 búsqueda


SER 1:823
de cuadrícula UII:1098
copiar especial 1:850
Marquardt UII:1097
incrustación (definición) 1:824 vinculación
Newton-Raphson UII:1095 métodos
(definición) 1:824 pegar objeto EViews de la segunda derivada UII:1095 valores iniciales
1:828 pegar gráficos 1:825 pegar datos
UII:1091 tamaño de paso UII:1097
numéricos 1:839 pegar con el archivo de
trabajo muestra 1:846 usando 1:824 OLS
La configuración de
( mínimos cuadrados ordinarios)
opciones permite solo una UI sin título: 857
archivos de trabajo de copia de seguridad UI: 78,
UI: 865 notación de fecha UI: 859 fuentes
Véase también Ecuación. predeterminadas UI: 859
R-cuadrado ajustado UI:13
Sesiones de EViews en interfaz de usuario
coeficiente error estándar UI:12
abierta : 858 interfaz de programa externo UI: 870
Machine Translated by Google

1152—Índice

fuentes IU: 859 PAGS

conversión de frecuencia UI: 859 foco de


Interfaz de usuario de ritmo: 1047
teclado UI: 858 mensajes UI: 855 servidor
detalles IU: 1078
proxy de red UI: 871 configuración de
Interfaz de usuario de la base de datos del paquete : 344
impresión UI: 875 modo de ejecución de
Espacio empacable UI:320, UI:344
programa UI: 867 etiqueta automática de
serie UI: 860 visualización de datos de hoja de Página
cálculo UI: 863 vista de hoja de cálculo crear nueva UI:83

predeterminada UI: 862 inicio página UI:855 eliminar página UI:91


renombrar UI:91
advertir al cerrar UI:857 apariencia de ventana
reordenar UI:91
UI:856
Saltos de página UI:815
Gráficos por pares UI:632
Optimización (definida por el usuario) I:819 Prueba

O operador UI:139, UI:183 de componentes aleatorios del panel UI:951


Condición de orden Prueba de dependencia de la sección transversal residual UI:958,
interfaz de usuario: 1018
2sls UI:71
Interfaz de usuario de GMM : 82 Panel de regresión de cointegración UI:973
Orden de evaluación logl especificación de ecuación UI:975 ejemplos UI:981

UI:569 desempeño en EViews UI:974

Orden de datos apilados UI:853


Modelos PMG UI: 924
Variable dependiente ordenada UI:350 mensajes
detalles técnicos UI:973, UI:987
de error UI:354 estimación UI:351
Datos del panel UI:893

análisis UI:914
tablas de predicción de expectativas UI: 354
equilibrado UI:270
pronóstico UI: 356 puntos límite UI: 356 probabilidad
identificador de celda UI:899
de registro UI: 351 frecuencias variables UI: 354
prueba de cointegración UI:1016, UI:1036
vistas UI: 354
convertir a grupo UI:301 análisis de covarianza
UI:999 crear archivo de trabajo de UI:46
identificadores de sección transversal UI:898
Modelos binarios
residuales ordinarios UI:345
resúmenes de secciones transversales UI:908
modelos censurados UI:363
con fecha UI:269
modelos de conteo UI:382
GLM UI:405 identificadores duplicados UI:268, UI:285 datos de

modelos truncados UI:368 panel dinámico UI:921 estimación Ver estimación


de panel. prueba de efectos fijos UI: 947 conversión
Interfaz de usuario de orientación : 620
de frecuencia UI: 245 GMM estimación UI: 921
Regresión ortogonal UI:708
Condición de ortogonalidad UI:82, UI:680
Detección
gráficos UI:993
de valores atípicos de UI:230,
identificador de grupo UI:898
UI:231 detección de en X-13 Prueba de Hausman
UI:445 estimación robusta en presencia de UI:421 UI:949 identificadores
Sobreidentificación UI:82 UI:266 estimación de variables instrumentales
Sobredispersión UI:380, UI:387, UI:417 prueba UI:920 irregular UI:270 retrasos UI:267, UI:901
de especificación UI:383 retrasos y adelantos UI:901
Machine Translated by Google

P-1153

estimación de mínimos cuadrados UI:918 Núcleo de parzen

fusión de datos en UI:913 anidado UI:272 regresión de cointegración UI:279


resúmenes de período UI:908 comparación Estimación GMM UI:90 estimación

de grupos UI:843 regular UI:270 muestras en de covarianza a largo plazo UI:603 panel de regresión
archivos de trabajo de panel UI:902 Consulte de cointegración UI:979 errores estándar robustos UI:45
también archivo de trabajo de panel. detalles técnicos UII:1117

Regresión de cointegración del


estadísticas UI:906 kernel de Parzen-Cauchy UI: 279
pruebas UI:943 Interfaz de usuario de estimación de GMM : 90

tendencia temporal UI:906 estimación de covarianza a largo plazo UI:603 panel de


tendencias UI:906 regresión de cointegración UI:979 errores estándar
desequilibrado UI:270 sin robustos UI:45 detalles técnicos UII:1117
fecha UI:269
prueba de raíz unitaria UI:617, UI:1014 Núcleo geométrico de Parzen
identificador dentro del grupo UI:900 regresión de cointegración UI:279
estructura de archivo de trabajo UI:266 Interfaz de usuario de estimación de GMM : 90

Estimación de panel UI:917 estimación de covarianza a largo plazo UI:603 regresión


ejemplos UI:927 de cointegración de panel UI:979 errores estándar
Pesos GLS UI:919 robustos UI:45
Interfaz de usuario de GMM : 921 detalles técnicos UII:1117
GMM (ejemplo) UI:936 Núcleo de Parzen-Riesz
Detalles de GMM UI:967
regresión de cointegración UI:279
mínimos cuadrados UI:918 Interfaz de usuario de estimación de GMM : 90

Interfaz de usuario de PMG : 924


estimación de covarianza a largo plazo UI:603 regresión
Interfaz de usuario de TSLS : 920
de cointegración de panel UI:979 errores estándar
Raíz unitaria del panel Consulte Datos del panel: pruebas de raíz unitaria. robustos UI:45

Interfaz de usuario del panel frente al grupo : detalles técnicos UII:1117


843 Archivo de trabajo del panel Consulte Pegue UI:118
también Datos del panel. crear interfaz datos como nuevo archivo de trabajo
de usuario: 893 UI:47 serie existente UI:149 en Excel,
interfaz de usuario con fecha : Word Consulte OLE. nueva serie UI:148
280 interfaz de usuario de Pegado especial Ver también OLE.
visualización : 896 interfaz de usuario anidada : 272

estructura UI:893, UI:897


sin fecha UI:285 sin fecha
Objeto EViews 1:828 gráficos
con ID UI:284
1:826 hojas de cálculo 1:831
Análisis paralelo UI:1047 tablas 1:831 Pegado especial
Param (comando) UI:57, UI:654, UII:1092 Ver OLE.

Parámetros

IU de registro : 568 UI de datos de PcGive : 374


RESPETO IU: 258 PDF

Park agregó prueba variable UI: 290 guardar gráfico como UI:783
Estimador de parques UI:885 PDL

Análisis parcial UI:573 frecuencias mixtas UI:315

Autocorrelación parcial UI:418, UI:106 PDL (retraso distribuido polinomial) UI:23, UI:157
restricción de extremo lejano UI: 24
Análisis de covarianza parcial UI:573
errores estándar de previsión UI:157
Machine Translated by Google

1154—Índice

variables instrumentales UI:25


grupo UI:848
restricción de extremo cercano UI:24 importar UI:850
especificación UI:24 importar datos UI:850
Covarianza de Pearson UI:568 importar datos apilados UI:854
Prueba de cointegración del panel de Pedroni UI: 1017, variables instrumentales UI:869, UI:886 hacer
interfaz de usuario: 1038 grupo UI:861 hacer sistema UI:861 serie de
Período nombres UI:847 objeto UI:844 opciones UI: 868
resúmenes UI:908 pedido IU: 853
EN IU: 886

Prueba de raíz unitaria de Perron UI: 601

Prueba LM a escala de Pesaran UI:958, UI:1018


coeficientes específicos del período UI:866
Pesaran, Shin y Smith UI:924
series de pool UI:848 procedimientos
Prueba de cointegración Phillips-Ouliaris UI:1032
UI:878 efectos aleatorios UI:867, UI:883
Interfaz de usuario de prueba de Phillips-Perron : 596
residuos UI:879
Gráfico circular UI: 679
Interfaz de usuario de PMG : 924 reestructurar interfaz de usuario: 852

Interfaz de usuario PNG : 783 serie UI: 848

Método configuración

de conversión de frecuencia puntual UI:172, UI:174 Modelo de UI:849 serie de identidad de grupo especial UI:848
conteo de Poisson UI:378 Retrasos polinómicos distribuidos, Ver PDL. especificación UI:845 datos apilados UI:851

pruebas UI: 878


Interfaz de
datos no apilados UI: 850
usuario del grupo: 843 ?
interfaz de usuario del archivo de trabajo : 843

marcador de posición UI:848 y serie específica


Comparación
de sección transversal UI:847 especificación AR
de panel de datos de grupo UI: 843
UI:866 datos equilibrados UI:854, UI:858 muestra
Grupo frente a panel UI: 843 Estimación
equilibrada UI:865 nombre base UI:847 prueba
de coeficiente UI:878 cointegración UI:860 de grupo medio agrupado UI: 924
coeficientes comunes UI: 866 Prueba de baúl de viaje
IU VAR :704

Interfaz de usuario de PostScript : 783

criterio de convergencia UI:869 convertir a guardar gráfico como archivo PostScript UI:783
panel UI:307 copiar UI:846 crear UI:849 PowerPoint
sección transversal UI:845 coeficientes pegar gráficos y datos en 1:823
específicos de sección transversal UI:866 Ganancias de elogios UI: 143
definir UI:845 definir grupos de
Precedencia de evaluación UI:180
identificadores UI:846 estadísticas descriptivas UI:858
Variable predeterminada UI: 69
dummy variable UI:857 definiciones de edición UI:846
Tabla de predicción de
estimación UI:864 detalles de estimación UI:879
modelos binarios UI:340 modelos
ordenados UI:354

Vista previa de objetos UI:107, UI:325


Regresión de
cointegración de preblanqueamiento UI:279
Interfaz de usuario de estimación de GMM : 90
exportar datos UI:862
estimación de covarianza a largo plazo UII:1123 panel de
efectos fijos UI:867, UI:882 generar
regresión de cointegración UI:979
serie UI:856
Machine Translated by Google

R-1155

errores estándar robustos UI: 45 detalles técnicos UII:1117


sistema GMM UI:656, UI:682 detalles Variable dependiente cualitativa UI:331
técnicos UII:1123
Cuando la prueba de punto de interrupción UI: 208
Componentes principales UI:586 Método de cuantiles UI: 692
Principales factores UI:1077 Coeficientes de proceso cuantiles UI:548 detalles
técnicos UI:562
Imprimir gráficos Vistas de procesos cuantiles UI:547
UI:782 modo UI:815 detalles técnicos UI:562
objetos UI:119
Regresión de cuantiles UI:541
configuraciones
ejemplo UI:544 salida UI:544
UI:875 opciones de
rendimiento en EViews UI:541
configuración UI:875 spool
coeficientes de proceso UI:548 vistas
UI:815, UI:876 tablas UI:794 a
de procesos cuantiles UI:547 prueba
un spool UI:798
de igualdad de pendientes UI:550 prueba
Curva de respuesta de probabilidad UI:346 de cuantiles simétricos UI:551 detalles
Probit modelos UI:334 técnicos UI:553
Trámites UI:103

Gráficos de proceso (regresión por cuantiles) UI:548 Cuantiles de


Procesadores la serie UI:431, UI:432

múltiples UI:873 Verosimilitud pseudo-máxima cuasi-generalizada


interfaz de usuario: 385
Sangría
automática del programa Prueba de relación de cuasi-verosimilitud UI:382, UI:385
UI:867 archivos de copia de Verosimilitud casi máxima UI:380 errores
seguridad UI:867 opción de ejecución UI:867, UI:870, estándar robustos UI:387
UI:871 coloreado de sintaxis UI:867 configuración de Consultas en base de datos UI:333
pestañas UI:867 consulta avanzada UI:335
Interfaz de usuario del servidor proxy : 871 Interfaz de usuario DRI : 393

IU de valor P : 175 consulta fácil UI:334


para coeficiente t-estadístico UI:12 ejemplos UI:340
expresiones lógicas UI:335
q caracteres comodín UI:334

Interfaz de usuario de modo silencioso : 868


Interfaz de usuario de QML : 380, interfaz de usuario: 391, interfaz de usuario: 413

Gráfico QQ UI: 695, UI: 696, UI: 697


guardar datos IU: 538
R
Q-estadística R I: 819

Ljung-Box UI:418 prueba R proyecto I: 819


de correlación serial residual UI:704 prueba de Prueba de reinicio de Ramsey interfaz de usuario: 224
correlación serial UI:108
Prueba de componentes aleatorios UI: 951
Método de Efectos aleatorios
conversión de frecuencia cuadrática UI:172, UI:173 Prueba LM para UI:951
Escalada cuadrática UII:1096 estimación de panel UI:919 pool
Núcleo espectral cuadrático UI:681 UI:867 descripciones de pool
regresión de cointegración UI:279 UI:883 prueba para efectos
Interfaz de usuario de estimación de GMM : 90 correlacionados (Hausman) UI:949
estimación de covarianza a largo plazo UI:603 Paseo aleatorio UI: 589
regresión de cointegración de panel UI:979 errores Condición de rango para identificación UI:71
estándar robustos UI:45
Machine Translated by Google

1156—Índice

Rangos Fecha normal UI:263


observaciones en serie o vector UI:186 Operadores relacionales y
Relación con la media móvil UI: 490 valores faltantes UI:188
datos de ratas Observaciones

4.x formato nativo UI:379 formato campo en consulta de base de datos UI:339
portátil UI:380 Eliminación de datos UI: 294
Leer interfaz de usuario: 850 Cambiar nombre de interfaz de usuario: 115

datos del archivo externo como matriz UI:161 datos interfaz de usuario de la base de datos : 343

del archivo externo como tabla UI:161, UI:796 objetos en la base de datos UI:327
Lectura de datos de EViews (en otras aplicaciones) página UI:91 página del archivo de
interfaz de usuario: 164 trabajo UI:91
Reconstruir la interfaz de usuario de la base de datos: 345 Reordenar
Coeficiente recursivo UI:229 interfaz de usuario de la página : 91

guardar como serie UI:229 Reparar base de datos UI:345


Estimación recursiva Representaciones ver ecuación
mínimos cuadrados UI:225 UI:18
utilizando espacio de estado UI:764 IU de remuestreo : 435
Mínimos cuadrados recursivos UI:225 Nombres reservados UI:115

Residual recursivo UI:225, UI:226 RESTABLECER prueba de interfaz de usuario: 224

IU CLIENTE : 226
Remodelación de una interfaz de usuario de archivo de trabajo: 298

CUSUM de cuadrados UI:227 prueba Derechos residuales de autor

de pronóstico de n pasos UI:228


modelos binarios UI: 345
prueba de pronóstico de un paso UI:228
modelos de variables dependientes censurados UI: 362 modelos
guardar como serie UI:229
de conteo UI: 382
Covarianza reducida UI:1056
serie predeterminada RESID UI:20
Prueba de variables redundantes UI:190 panel
visualización de en ecuación UI:20
UI:945 estimación en presencia de gran UI:421 de ecuación
Probabilidades de régimen UI:523 salida estimada UI:20 de mínimos cuadrados de dos
UI:525 Cambio de régimen UI:506 etapas UI:72 generalizado UI:345, UI:363, UI:369,
Registro UI:331 Regresión Ver también UI: 382
IU GLM : 405
Ecuación. R-cuadrado ajustado UI:13
estimación de punto de corte UI:441 crear series o grupos que contengan UI:19 de la
error estándar de coeficiente UI:12 ecuación UI:18 ordinaria UI:345, UI:363, UI:368,

coeficientes UI:11 UI:382 plot UI:18 gráficos de UI:230 pool UI:879 recursivo
UI:225, UI:226 interfaz de usuario estandarizada : 18,
interfaz de usuario: 345, interfaz de usuario: 363, interfaz
de usuario: 368,
colinealidad UI:22
pronóstico UI:147
Estadística F UI:15 UI:382
estudiante UI:231
línea en el gráfico UI:700
suma de cuadrados UI:14
probabilidad de registro UI:14
recortada simétricamente UI:365 sistema
cuantil UI:541 residuos de
UI:20 UI:663 pruebas de UI:193 variable
dependiente truncada UI:368 incondicional
error estándar de UI:14 suma de
UI:125
residuos cuadrados UI:14 estadístico t para
coeficiente UI:12
Machine Translated by Google

S-1157

Redimensionar Interfaz de usuario de McFadden : 336

spools UI:805 UI negativa : 252


tablas de columnas y filas UI:790 UI no centrada : 195, UI: 199
archivo de trabajo UI:275, UI:288 con especificación AR UI: 125
Interfaz de usuario de estimación restringida : 8 Interfaz de usuario RTF : 795

crear UI:876 redirigir la


Probabilidad de registro restringida UI:336

Reestructuración UI:852 impresión a UI:876

Resultados Definición de estadística Rw-


squared UI:425
mostrar o recuperar la interfaz de usuario: 16

Interfaz de usuario de formato de texto enriquecido : 795

Interfaz de usuario de RMSE : 421, interfaz de usuario: 158


S
Interfaz de usuario SAIC : 502
Definición estadística Rn-
cuadrada UI:425 Muestra

Mínimos cuadrados robustos UI:421 @todas las UI:138

Interfaz de usuario de la función Andrews : 422 @first UI:138 ajuste en

Interfaz de usuario de función bicuadrada : 422 estimación UI:10 todas las observaciones UI:138

Función Cauchy UI:422 ejemplo UI:434 equilibrado UI:865 rupturas UI:622

Interfaz de usuario de función justa : 422

Interfaz de usuario de la función Huber : 423 cambiar UI: 137 comando

Función logística UI:423 UI: 139

Interfaz de usuario de la función mediana : 423 interfaz de usuario común : 187

IU de calificación M : 421 interfaz de usuario actual : 61

Interfaz de usuario de la función Talworth : 423 pares de fechas UI:137


Función galesa UI: 423 primera observación UI:138 si condición

UI:138
Regresión robusta Consulte Mínimos cuadrados robustos.
Errores estándar robustos UI:32 individual UI:187 datos intradía

UI:140 última observación UI:138


Bollerslev-Wooldridge para GARCH UI:250 clúster UI:39 agrupado
UI:919

pares de rango UI:137 selección

GLM IU: 387, IU: 396 y valores perdidos UI:139 especificando objeto de muestra

Interfaz de usuario de GMM : 86 UI:145 especificando muestras en archivos de trabajo de

Huber-Blanco (QML) UI:387, UI:396 panel UI:902 usado en estimación UI:9

Iteraciones de robustez UI:702, UI:707


usando objetos de muestra en expresiones UI:145 con expresiones UI:140
Error cuadrático medio de la raíz UI:421, UI:158
archivo de trabajo UI:136
Rotar
factores UI:1050, UI:1081
Especificación SAR UI:102, UI:106
gráficos UI:620
Estimación
Rotación de factores UI:1050 detalles UI:1081
SAR(p) UI:113

Interfaz de usuario de SARMA : 102

Interfaz de usuario del archivo SAS : 48


Funciones de fila UI: 199 altura
Ahorrar
UI: 790
copia de seguridad del archivo de
R-cuadrado
trabajo UI:76 gráficos UI:783 opciones
ajustado UI:13 para
UI:315 guardar como nuevo archivo
regresión UI:13 de mínimos
de trabajo UI:76
cuadrados de dos etapas UI:73
Machine Translated by Google

1158—Índice

Spool UI: 816 Punto de interrupción secuencial


tablas UI: 795 estimación con UI:442
archivo de trabajo pruebas IU: 212
UI: 75 archivo de trabajo como archivo Correlación en serie
externo UI: 161 archivo de trabajo precisión y compresión UI: 77 Modelos ARIMA UI: 104
Interfaz de usuario escalar : 202 Estadística Durbin-Watson UI:14, UI:107 primer
Factor de escala UI:362 orden UI:100

Coeficientes escalados UI:176 orden superior UI:101


modelos no lineales UI:139
Análisis
de factor de escala UI: 1049 modelos de conmutación UI:511
teoría UI:99 regresión en dos
Diagrama de dispersión UI: 673
etapas UI:139
categórica UI:725 matriz
Ecuaciones de prueba de
de UI:634 con elipse de
correlación en serie UI:107,
confianza UI:709 con ajuste de regresión
UI:195 paneles UI:964
del kernel UI:703 con ajuste de vecino más
VAR UI: 704
cercano UI:705 con línea de regresión
Serie UI:397
ortogonal UI:708 con línea de regresión UI:700
ajustar valores UI:429 serie
Escenarios UI:797 automática UI:193

ejemplo simple UI:347 actualización automática


criterio de Schwarz UII:1111 UI:203 actualización automática y bases de
datos UI:207 actualización automática y previsión
para la ecuación UI:15
Coeficientes de puntuación UI:1052 UI:167 binning UI:431 clasificación UI:431

Puntuar vector UI:346


comparación UI:429
Puntuaciones IU: 1051
crear UI:124, UI:190 sección
Interfaz de usuario en línea de SDMX : 363
específica UI:847 eliminar
Estacional observación UI:132 descripción de
Términos ARMA UI:102 UI:123 estadísticas descriptivas
diferencia UI:185, UI:115 gráficos UI:398 diferencia UI:184
UI:679
Ajuste estacional UI:440 aditivo UI:490 formato de visualización
UI:125 tipo de visualización
Censo X-11 (histórico) UI:485 UI:125 asignación dinámica UI:191
Censo X-12 UI:476 editar en diferencias UI:545 modo
Censo X-13 UI: 440 de edición predeterminado UI:863
Descomposición MoveReg UI:467 edición UI:131, 1:879 valores de
multiplicativo UI:490 relleno UI:429 funciones UI:181
Interfaz de usuario de descomposición STL : 458 generar por comando UI:192
Tramo / Asientos UI: 485 gráfico UI:398, UI:617 asignación
UI semanal : 467 implícita UI:191 en objetos de grupo
Métodos de la segunda derivada UII:1095 UI:848 insertar observación UI:132
Regresión aparentemente no relacionada UI:647, UI:676

Seleccionar todo IU: 106 interpolar UI:437 retraso

interfaz de usuario del objeto : 105


UI:184 adelanto UI:184
Modelo de selección Ver selección de Heckman
Partes UI: 848
Sensibilidad de predicción binaria UI:341
Machine Translated by Google

S—1159

vista previa de contenido UI:107 procs métodos IU: 506

UI:430 propiedades UI:428 clasificación parámetros UI:507 espacio


UI:186 remuestreo UI:435 configuración de estado UI:757
del eje del gráfico UI:648 smpl+/- UI:128 Interfaz de usuario del comando Smpl : 139

vista de hoja de cálculo UI:398 valores Muestreo+/- UI:128


predeterminados de vista de hoja de Resolver
cálculo UI:862 uso de expresiones en
Interfaz de usuario de Broyden : 828

lugar de UI :193 Gauss-Seidel UII:1098

Newton-Raphson UII: 1095


Clasificar

IU de calificación S : 426
mostrar UI:547
actuando en EViews UI:429 constantes observaciones en un gráfico UI:621, UI:762 hoja
de ajuste UI:427 función de peso UI:426 de cálculo mostrar UI:547 valmaps UI:223
archivo de trabajo UI:315
SETAR IU: 461

Región sombreada del gráfico UI:754 Fuente


Sombreado de nombres de objetos UI:342 campo en consulta de base de datos UI:339
Compartir infracción UI: 320 Opción de etiqueta dispersa UI:402, UI:582
Mostrar vista de objeto UI:106 Correlación de rango de Spearman UI: 568
Cociente de diferencia de Siddiqui UI:543, UI:556 Teoría del orden de rango de
Prueba de Siegel-Tukey UI: 412 Spearman UI:577

Firmar prueba UI: 406 Especificación por

Ecuación de señal UI:761 fórmula UI:7 por lista

Vistas de variables de UI:6 de ecuación UI:6


señal UI:774 de ecuación no lineal

Silverman ancho de banda UI:689 Sims- UI:53 de sistemas UI:650

Zha anterior UI:735, UI:750 Ecuaciones


Prueba de especificación
simultáneas Ver sistemas.
para modelos binarios UI:349 para
Error de matriz
sobredispersión UI:383 para tobit
singular en estimación binaria UI:339
UI:365
error en estimación UI:22, UI:59, UII:1093 error en
de la ecuación UI:175
logl UI:569, UI:577, UI:579 error en estimación PDL
UI:24 error en prueba RESET UI: 225 RESTABLECER (Ramsey) IU: 224
Interfaz de usuario blanca : 199

Especificidad de predicción binaria UI:341


Interfaz de usuario asimétrica: 399
Estimación de espectro UI: 598, UI: 599
Prueba de igualdad de pendientes (regresión por cuantiles) UI:550
detalles técnicos UI:562 Gráfico de picos UI: 669

Especificación SMA UI: 102, UI: 106 Spool UI: 797


agregar a UI: 798
Autorregresión de umbral suave UII:477
agregar UI: 799
Regresión de transición suave comentarios UI: 802
funciones de transición UII:478
copiando a UI:799 crear
Pesos AIC suavizados UI:502 UI:797 personalización
Suavizado UI:809
ETS modelo UI:512
eliminar objetos UI:806 modo
UI basado en probabilidad : 512
de visualización UI:811
Interfaz de usuario de cambio de Markov : 509
incrustar UI:800
Machine Translated by Google

1160—Índice

extraer interfaz de usuario: 806 Véase también Errores estándar robustos.

aplanar la jerarquía del árbol UI: 807 objetos IU VAR :708

ocultos UI: 803 sangría UI: 806 Interfaz de usuario robusta

en clúster de errores estándar : 39

interfaz de usuario de gestión : 798 Coeficientes estandarizados UI:176

nombrando objetos IU: 802 interfaz de UI residual estandarizado : 18 modelos binarios


usuario de orden : 806
UI: 345 modelos censurados UI: 363
imprimir UI: 876 modelos de conteo UI: 382
tamaño de impresión UI: 816

imprimir en UI: 798 imprimir GLM UI:405 modelos


UI: 815 propiedades UI: 809 truncados UI:368
reorganizar UI: 806 redirigir ESTRELLA UII: 477
imprimir a UI: 876 cambiar el
Campo
tamaño de UI: 805
de inicio en consulta de base de datos UI:338 campo
en detalles de archivo de trabajo UI:64
guardando interfaz de usuario: 816
Página de inicio IU: 855
Importación de
Valores iniciales
archivo de hoja de cálculo
(G)ARCH modelos UI:249
UI: 150 importación de archivo como
modelos binarios UI:337 para
matriz UI: 161 importación de archivo como tabla
estimación ARMA UI:118, UI:124 para coeficientes
UI: 161, UI: serie 796 UI: 398
UI:57, UII:1091 para mínimos cuadrados no
ordenar visualización predeterminada
lineales UI:54, UI:56 para sistemas UI:654 logl UI :573
UI: 863 ordenar visualización orden
sentencia de parámetro UI:57, UII:1092 espacio de
UI: 547 ver opción UI: 862, UI: 863
estado UI:765 proporcionado por el usuario UI:119,
Vista de hoja de cálculo alfa
UI:124
UI:215 tipo de pantalla

UI:125 grupo UI:544

Estado del archivo de interfaz de usuario : 48


Interfaz de usuario del archivo SPSS : 48

Ecuación de estado UI:756, UI:760


Interfaz de usuario SSAR : 513

Espacio de estado UI:755


Interfaz de usuario de SSCP : 570

@mprior UI:765 @vprior


Prueba de estabilidad UI: 205
UI:765 estimación
Bai Perron prueba IU: 210
UI:759, UI:770 filtrado UI:756
Interfaz de usuario del punto de interrupción de Chow : 206
pronóstico UI:758 interpretación
Chow pronóstico UI: 222
UI:771 ecuación de observación
RESET UI:224 transición
UI:756 representación UI:755
suave UII:494
especificación UI:755, UI :760
con varianza desigual UI:234
especificación (automática) UI:768
Interfaz de usuario de datos apilados : 851
valores iniciales UI:765 ecuación de
interfaz de usuario equilibrada : 854
estado UI:756 vistas UI:773
estadísticas descriptivas UI:859 orden UI:853

IU de datos de apilamiento : 307


Desviación estándar IU: 399 Variables de estado UI:755
Error estándar para Vistas de estado UI:774
coeficiente estimado UI:12 pronóstico Pronóstico estático UI: 161
UI:156, UI:170 de la regresión UI:14
OLS estático UI:268, UI:269
Machine Translated by Google

T-1161

Serie temporal estacionaria UI:589 probabilidades de transición UI:521


Línea de estado IU: 9 resultados de transición UI:521, UI:525
vistas disponibles UI:521
Tamaño de paso UII: 1097

logl UI: 571 Símbolo gráfico UI:665

Pesos de paso UI:315 Prueba de cuantiles simétricos UI:551 detalles


técnicos UI:563
Interfaz de usuario paso a

paso:60 Interfaz de usuario Residuos recortados simétricamente UI:365


intercambiable:65 Interfaz de usuario unidireccional :64 Coloreado de sintaxis UI:867

Interfaz de usuario de descomposición STL : 458 Interfaz de usuario del sistema : 645

Ecuaciones estocásticas en el ARCH UI:648 matriz

modelo UI:782 de covarianza UI:661

Interfaz de usuario de la tienda : 120


crear UI:648, UI:649
como .DB? archivo UI: 323 ponderación de ecuación cruzada
UI:646 definición UI:645
del grupo UI: 862 en la base
de datos UI: 322 derivados UI:661
estimación UI:646, UI:654
fusionar objetos UI:323
métodos de estimación (técnicos) UI:674
Cambio estructural
FIML UI:678
estimación en presencia de UI:441 pruebas
de UI:205, UI:210 pronóstico UI:662
información completa máxima probabilidad UI:648
Pronóstico estructural UI:162
Interfaz de usuario de GMM : 679
Solución estructural de modelos UI:821
gradientes UI: 661
VAR estructural UI:714 estimación
Instrumentos UI:651 hacer
UI:723 matriz de factorización
sistema del grupo UI:608
UI:705
OLS UI:646, UI:675
Estructuración de un archivo de trabajo UI:263 opciones UI:658
IU residual estudentizada : 231 residuales UI:663
Subtitular
especificación UI:650 especificar
Prueba Breusch-Pagan LM UI:960 desde VAR UI:713
Suma de residuos cuadrados para SUR UI:647, UI:676
regresión UI:14 mínimos cuadrados de tres etapas UI:647,
Resumen de datos UI: 550 UI:678 mínimos cuadrados de dos etapas UI:647,
UI:677 vistas UI:661 mínimos cuadrados
Estadísticas resumidas para

variables de regresión UI:13 ponderados UI:647, UI:675


EN IU: 647, IU: 676 Opciones del sistema UI: 872

Función de sobreviviente UI: 693

registro UI: 693


T
guardar datos UI: 538
Configuración de pestañas IU: 867
Interfaz de usuario intercambiable: 65 Interfaz de usuario de la tabla : 785

Cambio de regresión UI:505 modelos anotación de celda UI: 792 formato

dinámicos UI:510 estimación en EViews de celda UI: 790 fusión de celda


UI:513
UI: 793 color UI: 791
duraciones esperadas UI:521 filtrado

UI:507 pronóstico UI:524 cambio de tamaño de columna


UI:790 ancho de columna Consulte Ancho de
probabilidades iniciales UI:516 columna. comentarios IU: 792
probabilidades de régimen UI:506, UI:523, UI:525 copiar interfaz de usuario: 794
correlación serial UI:511
Machine Translated by Google

1162—Índice

Interfaz de usuario de texto : 796


copiar a otros programas de Windows UI:794 personalizar
UI:789 editar UI:787 editar UI:787 fuente UI:791 Importar
archivo de texto como matriz
UI:161 importar como tabla UI:161, UI:796
abrir como archivo de trabajo UI:48
formatear UI:790 líneas de Coeficiente de desigualdad de Theil UI:421, UI:158
cuadrícula UI:790 fusionar Interfaz de usuario de temas : 856

UI:793 pegar como texto sin


Gráfico de distribución teórica UI:691 guardar datos UI:538
formato UI:795 imprimir UI:794 leer datos de fuente
externa UI:796 redimensionar fila UI:790 guardar en
Mínimos cuadrados de tres etapas Ver 3sls (Mínimos cuadrados de tres etapas)
disco UI:795 seleccionar celdas UI:785 ordenar filas UI
mínimos cuadrados)
:788 título IU:790
Umbral de autorregresión UI:461

Umbral GARCH (TARCH) UI:256

Umbral de regresión UI:461 suave UII:477

Pestañas
Funciones de serie temporal UI:184

Barra de título UI:6, UI:61, UI:113


Ver página
Tabulación n- Hasta (rango de retraso) UI:7

way UI:581 Tobit UI: 357

unidireccional UI:415 Interfaz de usuario de la barra de herramientas : 61, interfaz de usuario: 113

Interfaz de usuario de la función Talworth : 423 Seguimiento de variables de modelo UI:827


TAR UI: 461 TRAMO / ASIENTOS
TARCH UI: 256 en X-13 UI: 450, UI: 454

Tablas de Tramo/Seats UI:485


datos con fecha de plantilla UI: 563 Ecuación de transición UI:756
gráficos UI: 774 Resultados de la transición
Prueba IU de cambio de Markov : 521 IU de
Ver también Pruebas de hipótesis, Prueba de especificación y salida : 525 IU de regresión de cambio :
Bondad de ajuste 521
IU DE ARCO : 198
Transponer interfaz de usuario: 544
Arrelano-Bond serial correlation UI:964 breakpoint
Tendencia
UI:206, UI:208, UI:210 coefficient UI:176
datos del panel UI:906 Véase
también @trend.
dependencia de la sección transversal UI:958, UI:1018
Variable dependiente truncada UI:367
Interfaz de usuario de Durbin-Wu-Hausman : 93
estimación UI:367 índice
Granger causalidad UI:606, UI:1010 ajustado UI:369 pronóstico
Inestabilidad de Hansen UI: 287
UI:369 probabilidad de registro
heteroscedasticidad UI: 197 punto de
UI:367 residuos UI:368
ruptura múltiple UI: 210
Park agregó la variable UI: 290
Punto de truncamiento UI:368
Partes UI: 878
Formato de datos TSD UI: 348
RESTABLECER IU:
TSP formato de datos portátiles UI:382 Estadísticas
224 IU residual : 193
t recuperadas de la ecuación UI:12
pruebas de estabilidad UI:205
raíz unitaria con ruptura UI:601 relación de
varianza UI:627 Tukey interfaz de usuario: 692

Interfaz de usuario blanca : 199 Núcleo de Tukey-Hamming


Machine Translated by Google

V—1163

regresión de cointegración UI:279 Interfaz de usuario de datos desapilados : 850

Estimación GMM UI:90 estimación


Desapilar datos UI: 301
de covarianza a largo plazo UI:603 panel de regresión Desapilar identificadores UI:303
de cointegración UI:979 errores estándar robustos UI:45 Sin título UI:115, UI:116
detalles técnicos UII:1118
Actualizar
automáticamente UI:
Regresión de cointegración del 203 vector de coeficiente UI: 19, UII: 1092
núcleo Tukey-Hanning UI: 279 de la base de datos UI: 120
Estimación GMM UI:90 estimación
gráficos UI:749 grupo
de covarianza a largo plazo UI:603 panel de regresión
UI:544 Actualización
de cointegración UI:979 errores estándar robustos UI:45
de gráficos UI:748 Matriz de
detalles técnicos UII:1118
factorización Urzua UI:705 Menús definidos por el

usuario Ver Complementos.


Regresión de cointegración
del núcleo Tukey-Parzen UI: 279
Estimación GMM UI:90 estimación Objetos de usuario I:819

Matriz de ponderación GMM especificada por el usuario


de covarianza a largo plazo UI:603 panel de regresión
de cointegración UI:979 errores estándar robustos UI:45 UI:90 Valores iniciales proporcionados por el usuario UI:119,
detalles técnicos UII:1118 UI:124 Optimización definida por el usuario Consulte Optimización
(definida por el usuario).

Constantes de afinación
IU de calificación M : 422 EN

IU de clasificación S : 427
Valmap UI:219
Escriba advertencias UI:230
el campo en la consulta de la base de datos UI: 337 buscar etiqueta para valor UI:228
buscar valor numérico para etiqueta UI:229 buscar
EN valor de cadena para etiqueta UI:229 funciones
UI:228
Datos de la Administración de Información de Energía de EE. UU.
interfaz de usuario: 358
propiedades UI:224

Prueba de efectos aleatorios de UMP UI: 951 clasificación UI:223 Mapa


de valores Ver Valmap.
Una interfaz de usuario SDMX : 363
Van der Waerden UI:692
UI residual incondicional : 125
Prueba de Van der Waerden UI:406, UI:411
Deshacer interfaz de usuario: 429

ESTABA
Interfaz de usuario unidireccional : 64
AR raíces UI:702
Prueba de raíz unitaria UI:419, UI:420, UI:589
autocorrelación LM prueba UI:704
aumentada Dickey-Fuller UI:594 autocorrelación prueba UI:704
Dickey-Fuller UI: 594
coeficientes UI:728
Dickey-Fuller GLS sin tendencia UI: 595
cointegración UI:1023
Elliot, Rothenberg y Stock UI: 597
correlogramas UI:703
KPSS UI:597
estimación UI:689, UI:695 salida
fecha del panel UI:617, UI:1014
de estimación UI:691, UI:699 matriz de
Phillips-Perron UI: 596, UI: 597 datos
factorización en prueba de normalidad UI:705 pronóstico
agrupados UI: 859 suposición de
UI:712, UI:728
tendencia UI: 595 con puntos de
Prueba de causalidad de Granger UI:702
interrupción UI: 601
descomposición histórica UI:711 respuesta de
Unidades
impulso UI:707
campo en consulta de base de datos UI:339
Prueba de normalidad de Jarque-Bera UI:704
Machine Translated by Google

1164—Índice

prueba de exclusión de retraso UI: Funciones de peso


702 longitud de retraso UI: 703 IU de calificación M : 422

elección de longitud de retraso UI: IU de calificación S : 426

703 estructura de retraso UI: 702 Mínimos cuadrados ponderados UI:47


restricciones lineales UI: 693 modelo
ponderación de ecuaciones cruzadas
matemático UI: 687 errores estándar de UI:646 no lineal UI:58 no lineal de dos
respuesta UI: 708 Consulte también Respuesta etapas UI:77, UI:88 grupo UI:867
de impulso, VAR estructural. descomposición de la varianza estimación del sistema UI:675 dos
UI:710 etapas en sistemas UI:647, UI:677
Interfaz de usuario de VARHAC : 600
escala de peso UI:49 tipo de peso UI: 49
detalles técnicos UII:1122

Prueba de

igualdad de varianza UI:412 Matriz de ponderación


Prueba de hipótesis de UI:405 GMM UI:83, UI:90
Descomposición de varianza UI:180, UI:710 Ecuación de coherencia de heterocedasticidad y autocorrelación
varianza Ver ARCH y GARCH. (HAC) en el sistema GMM UI:680 errores
Factor de varianza UI:388 estándar robustos de coherencia de
Factor de inflación de la varianza (VIF) UI:179
heterocedasticidad y autocorrelación (HAC) UI:45
opciones del núcleo (sistema) UI:681 sistema GMM
Proporción de varianza UI: 158
Prueba de relación de varianza UI: 627
UI:680
Blanco (regresión de cointegración) UI:279
ejemplo UI:629 detalles
Interfaz de usuario blanca (GMM) : 90
técnicos UI:633
Blanco (regresión de cointegración de panel) UI: 979
VEC UI:726
Blanco (errores estándar robustos) UI:33
estimando UI:726 Vector
Blanco (sistema GMM) UI:680
de autorregresión Ver VAR. Función galesa UI: 423
Covarianza consistente de heteroscedasticidad blanca
Modelo de corrección de errores de vector Ver VEC y VAR.
matriz
Interfaz de usuario de modo detallado : 868
regresión de cointegración UI:279
Ver interfaz GMM UI: 90 panel
de usuario predeterminada : 106
de regresión cointegrada UI: 979 errores estándar
Pruebas de raíz unitaria de Vogelsang-Perron UI:601 robustos UI: 33

IU de volatilidad : 244 interfaz de usuario GMM del sistema : 680

Prueba de heteroscedasticidad blanca UI:199


En IU VAR :706

Prueba de Wald UI:182 Blanqueamiento UI:602, UI:609


coeficiente de restricción UI:182 Ancho de la columna de la tabla UI: 790

demostración UI:30 fórmula Suma de rango de

UI:187 prueba de Wilcoxon UI:

Interfaz de usuario de estadística F : 188 410 rangos firmados UI: 406

restricción conjunta UI:184 Caracteres comodín UI:73


restricción no lineal UI:187 cambio en consulta fácil UI:334
estructural con varianza desigual Errores estándar de Windmeijer UI:87
interfaz de usuario: 234
Ventana

Advertencia sobre la opción de cierre UI: 857 interfaz de usuario activa : 113

Interfaz de usuario de prueba de Watson : 413 interfaz de usuario de base de datos : 319

Interfaz de usuario principal de EViews : 5


Instrumentos débiles UI:78, UI:94
Machine Translated by Google

Z-1165

interfaz de usuario del objeto : 115 X


Dentro de las desviaciones UI:906, UI:914
IU X-11 : 485
Dentro de factores UI:733
usando X-12 UI: 478
identificación IU: 737
usando X-13 UI: 447
Palabra
IU X-12 : 476
pegar gráficos y datos en 1:823 IU X-13 : 440
Interfaz de usuario del área de trabajo : 10
Estimación ARIMA UI:451
Archivo de
ARIMA forcasting UI:451 modelos
trabajo anexado a UI:291 arima UI:446 valores atípicos
aplicando estructura a UI:273 atributos automáticos UI:445 ejemplo UI:456
UI:62
manual ARIMA UI:446
copia de seguridad automática UI:78,
UI:865 errores de estructura comunes
opciones de salida UI:454
UI:286 comparando UI:92 contrato
método de ajuste estacional UI:452
UI:294 copiar de UI:294 crear UI:42
TRAMO based ARIMA UI:450
transformaciones UI:442

regresores definidos por el usuario UI:443


descripción de UI:41
opciones variables UI:441
visualización de detalles Interfaz de usuario ARIMA basada en X-11 : 447
UI:62 directorio UI:61
Gráfico XY (área) UI:677
exportación UI:315 filtrado
Gráfico XY (barra) UI:678
de objetos UI:73 carga
Gráfico XY (línea) UI:676
existente desde disco UI:82
multipágina UI:82 números de
Y
observación UI:128 panel UI:893
pool UI:843, UI: 852 eliminar Corrección de continuidad de Yates UI:410
estructura UI: 288 remodelar UI:
298 cambiar el tamaño UI: 275, UI: DE

288 muestra UI: 136 guardar UI: 75


Prueba de raíz de unidad Zivot-Andrews UI: 601

clasificación UI: 315


apilamiento UI: 307
estadísticas UI: 75

valores predeterminados de
almacenamiento UI:864 precisión y compresión de
almacenamiento UI:864 configuración de estructura UI:274
estructuración UI:263 vista de resumen UI:75 sin fecha
UI:265

desapilar UI: 301 ventana


UI: 60
Datos del Banco Mundial UI:383
Escribir interfaz de usuario: 862
Machine Translated by Google

1166—Índice

También podría gustarte