Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Análisis de Series. Modelos Heterocedásticos PDF
Análisis de Series. Modelos Heterocedásticos PDF
ÍNDICE
1.INTRODUCCIÓN ..................................................................................................................... 3
2.MODELOS SARIMA ................................................................................................................ 7
2.1.FORMULACIÓN GENERAL MODELOS ARIMA ......................................................... 7
2.2.PASOS EN LA CONSTRUCCIÓN DE LOS MODELOS ARIMA .................................. 9
PASO 1: Identificación de los términos del Modelo. ............................................................ 9
PASO 2: Estimación de los parámetros del Modelo. .......................................................... 12
PASO 3: Validación de Modelo. ......................................................................................... 17
PASO 4: Predicción. ........................................................................................................... 18
2.3.EJEMPLO DE MODELIZACIÓN ................................................................................... 19
PASO 1: Identificación del modelo..................................................................................... 20
PASO 2 y 3: Estimación de los parámetros y validación del modelo. ................................ 22
PASO 4: Predicción. ........................................................................................................... 28
3.MODELOS ARCH Y GARCH................................................................................................ 31
3.1.MODELO ARCH.............................................................................................................. 31
3.1.1.MODELO ARCH(1) .................................................................................................. 32
3.1.2.MODELO ARCH(r)................................................................................................... 33
3.2.MODELO GARCH ........................................................................................................... 34
3.2.1.MODELO GARCH(1,1) ............................................................................................ 35
3.2.2.MODELO IGARCH .................................................................................................. 36
3.2.3.MODELO EGARCH ................................................................................................. 37
3.3.CONSTRUCCIÓN DE LOS MODELOS......................................................................... 38
PASO 1: Identificación de los términos del Modelo ........................................................... 38
PASO 2: Estimación de los parámetros del Modelo ........................................................... 38
PASO 3: Diagnosis.............................................................................................................. 40
3.4.EJEMPLO MODELO GARCH ....................................................................................... 41
4.MODELOS SV ........................................................................................................................ 48
4.1.MODELO SV(1) ............................................................................................................... 48
5.CONTRASTES DE AUTOCORRELACIÓN. ........................................................................ 50
5.1.CONTRASTE DE DURBIN-WATSON (1951)............................................................... 50
5.2.CONTRASTE DE WALLIS (1972) ................................................................................. 54
5.3.CONTRASTE DE DURBIN (1970) ................................................................................. 54
5.4.CONTRASTE DE BREUSCH-GODFREY (1978) .......................................................... 56
5.5.CONTRASTE DE BOX-PIERCE-LJUNG....................................................................... 58
5.6.SOLUCIONES PARA LA AUTOCORRELACIÓN........................................................ 59
5.6.1.MÉTODO DE MÍNIMOS CUADRADOS GENERALIZADOS .............................. 59
MÉTODO ITERATIVO DE COCHRANE-ORCUTT ....................................................... 62
MÉTODO DE PRAIS-WINSTEN ..................................................................................... 63
MÉTODO DE DURBIN .................................................................................................... 63
6.HETEROCEDASTICIDAD CONDICIONAL.CONTRASTES. ............................................ 65
6.1.CONTRASTES DE WHITE ............................................................................................. 65
6.2.CONTRASTES DE BREUSH-PAGAN/GODFREY ....................................................... 67
6.3.CONTRASTES DE GOLDFELD-QUANDT................................................................... 69
6.4.CONTRASTES DE GLESJER ........................................................................................ 70
6.5.CONTRASTES DE RESET RAMSEY ........................................................................... 71
6.6.CONTRASTE ARCH ....................................................................................................... 71
6.7.SOLUCIONES PARA LA HETEROCEDASTICIDAD CONDICIONAL ..................... 72
6.7.1.HETEROCEDASTICIDAD CONOCIDA................................................................. 72
6.7.2.HETEROCEDASTICIDAD DESCONOCIDA ......................................................... 74
7.MULTICOLINEALIDAD CON SERIES DE TIEMPO. ........................................................ 76
7.1.DETECCIÓN DE LA MULTICOLINEALIDAD ............................................................ 76
7.2.SOLUCIONES AL PROBLEMA DE MULTICOLINEALIDAD ................................... 78
8.HIPÓTESIS DE NORMALIDAD. .......................................................................................... 80
ANEXO ....................................................................................................................................... 81
ANEXO A ................................................................................................................................... 84
BIBLIOGRAFÍA......................................................................................................................... 86
1.INTRODUCCIÓN
Los objetivos que se persiguen con el estudio de las series temporales son los
siguientes:
2. En segundo lugar, Engle expone la validez de estos modelos para determinar los
criterios de mantenimiento o venta de activos financieros. Los agentes
económicos deciden esta cuestión en función de la información proveniente del
pasado respecto al valor medio de su rentabilidad y la volatilidad que ésta ha
tenido. Con los modelos ARCH se tendrían en cuenta estos dos condicionantes.
Esta series tienen poca estructura en la media y siguen paseos aleatorios o procesos AR
de orden bajo y coeficiente pequeño. Además puede ocurrir que aunque la serie de
rendimientos parezca un ruido blanco, su distribución no sea normal, y muestre colas
pesadas y alta curtosis; y que los datos estén casi incorrelados, pero al calcular las
autocorrelaciones de los cuadrados se observa una fuerte estructura de dependencia.
Otra propiedad es que la varianza de los residuos no es constante y aparecen rachas de
mayor variabilidad seguida de rachas de menor variabilidad. Por eso se plantean este
tipo de modelos, es decir, van a ser modelos con varianza marginal constate, y varianza
condicionada a los valores del pasado de la serie no constante, ya que depende de estos
valores previos.
Estos modelos fueron generalizados por Bollerslev (1986) para dar lugar a los
modelos GARCH que incorporan a esta dependencia términos de media móvil.
Proporcionan buenos ajustes con p y q pequeños (la mayoría de las series temporales
financieras pueden modelizarse correctamente con un GARCH(l,l)). Bollerslev(1986)
proporciona la justificación teórica de esta última afirmación expresando los procesos
GARCH(p,q) como un ARCH(∞). Otra propiedad importante de los modelos GARCH,
de interés en el área financiera, es que son una aproximación a procesos de difusión.
Así, Nelson(1990) prueba la convergencia del modelo GARCH(l,l) con errores
condicionales normales a un proceso de difusión continuo con distribuciones
estacionarias no condicionadas t.
Otra clase de modelos más flexible son los modelos de volatilidades estocásticas
(SV) introducidos por Harvey, Ruiz y Shephard (1994) y Jacquier y Polson y Rossi.
Estos modelos reproducen algunas de las propiedades típicas de las series financieras,
tales como exceso de curtosis, agrupamiento de los periodos de la volatilidad,
correlación en los cuadrados de la serie,…Se difiere de los anteriores en que la
2.MODELOS SARIMA
Vamos a describir los modelos ARIMA como uno de los métodos de predicción
basados en series temporales.
La metodología que seguiremos es la propuesta por Box-Jenkins, que consta de
cuatro etapas:
1. Identificación
Consiste en elegir uno o más modelos ARIMA, SARIMA como candidatos
que pueden representar adecuadamente el comportamiento de la serie. En
ésta etapa deben determinarse las transformaciones necesarias para conseguir
estacionariedad, contraste de inclusión de un término de tendencia
determinística (θ0) y elegir los órdenes p y q para cada uno de los modelos
competitivos.
2. Estimación
Consiste en estimar los parámetros de cada uno de los modelos identificados
en la fase anterior.
3. Diagnosis (Validación)
Trata de determinar si los modelos identificados y estimados son adecuados
para representar a los datos. Las deficiencias encontradas en ésta etapa
pueden utilizarse cómo información para reformular los modelos.
4. Predicción
Con los modelos que han sido diagnosticados favorablemente, se pueden
realizar predicciones. Esta etapa también puede poner de manifiesto qué
modelos poseen deficiencias a la hora de predecir, y puede utilizarse como
herramienta de validación de los modelos.
1
(1)
.
1 ∑ (2)
donde
y donde
1, … ,
son los coeficientes del polinomio . p es el número de términos del polinomio
y el orden correspondiente a la parte AR del modelo ARIMA.
1 ∑
(3)
donde
y donde
1, … , ! son
los coeficientes del polinomio
. q es el número de términos del polinomio
y
el orden correspondiente a la parte MA del modelo ARIMA.
Los residuos , $
%&'(, !) * 1, … , + se obtiene de la ecuación anterior:
"1 #1 "
#
En conclusión, el modelo ARIMA está compuesto de tres partes: una parte AR de orden
El número de términos para los polinomios y
, es decir, los órdenes de la
p, una parte I de orden d y una parte MA de orden q.
Nota: el modelo definido (1) relaciona la variable $ con sus pasados a través del
polinomio , y el error presente con los errores pasados a través del polinomio
.
•
,-
1 -
- $
. 1, … , +
Para estabilizar la media se toman diferenciaciones del tipo:
Existe estacionalidad en los datos cuando los datos que componen la serie presentan un
comportamiento cíclico o periódico. Por ejemplo, para la serie de precios de la energía
eléctrica existe estacionalidad diaria, un día suele ser parecido al día anterior; es decir,
los martes tienden a ser similares a los lunes, los miércoles similares a los martes, y así
sucesivamente. La serie de precios también presenta estacionalidad semanal, un día
suele ser parecido al mismo día pero de la semana anterior; es decir, los lunes tienden a
ser similares a los lunes, los martes similares a los martes, y así sucesivamente.
1 >2
∑ < =2 <
;2
+
1 > <
∑
+
?
$ @A 1 $1 @A 2 $2 @A 42 $42
A $41 $
4 1, … , +, donde @C , @C , … , @C2 , @C2 son los valores estimados
@
Considerando la serie
41
de los parámetros que componen el modelo de regresión entre la serie y cada una de
las series , , … , 2= , 2= . Además ? es la serie que recoge la parte
de no explicada por cada una de las series , , … , 2= , 2= . Y la serie
E
$4 FG 1 $1 FG 2 $2 FG 42 $42 FG 41 $41 $
4
1, … , + donde FG , FG , … , FG2 , FG2 son los valores estimados de los parámetros que
componen el modelo de regresión entre la serie 2 y cada una de las series
, , … , 2= , 2= . Además E es la serie que recoge la parte de 2 no
explicada por cada una de las series , , … , 2= , 2= .
1
∑> 2=? ?< E EL
IJ,K
+ 4
M 1 ∑> 2=? ?< M 1 ∑> 2=E EL
+4 +4
Los patrones que deben seguir la FAC y la FACP para la identificación de los órdenes
del modelo ARIMA. El patrón que deben seguir la FAC y la FACP para la
identificación del orden de un modelo puro AR(p) es el siguiente: la FACP presenta los
p primeros valores distintos de cero y el resto de valores son cero o muy próximos a
cero con un comportamiento sinusoidal, y la FAC presenta un decrecimiento
exponencial y/o un comportamiento sinusoidal.
El patrón que deben seguir la FAC y la FACP para la identificación del orden de un
modelo puro MA(q) es el siguiente: la FAC presenta los q primeros valores distintos de
cero y el resto de valores son cero o muy próximos a cero con un comportamiento
sinusoidal, y la FACP presenta un decrecimiento exponencial y/o un comportamiento
sinusoidal.
El patrón que deben seguir la FAC y la FACP para la identificación de los órdenes p y q
de un modelo ARMA(p,q) es una superposición de los patrones que presentan estas
funciones para un modelo AR y MA: en la FAC, q – p + 1 valores iniciales distintos de
cero y a continuación un decrecimiento exponencial y/o un comportamiento sinusoidal
debido a la parte AR; y en la FACP, q – p + 1 valores iniciales distintos de cero
seguidos de un decrecimiento exponencial y/o un comportamiento sinusoidal debido a
la parte MA.
Con todo esto queda establecido cómo identificar los órdenes p y q correspondientes a
la parte no estacional del modelo ARIMA.
FAC FACP
Decrece exponencialmente
AR (p) o cómo una sinusoide Corta tras el retardo p
amortiguada
Decrece exponencialmente
MA (q) Corta tras el retardo q o cómo una sinusoide
amortiguada
Una vez identificados los términos que contiene el modelo se estiman los
parámetros que lo constituyen.
La estimación de los parámetros del modelo se puede hacer a través de por
medio de diferentes métodos. El método más utilizado es el método de verosimilitud,
aunque en los modelos autorregresivos, la estimación utilizada es el método de los
momentos.
La maximización de la función de verosimilitud es no lineal en el sentido de que
la función a maximizar no es una función cuadrática de los parámetros desconocidos.
Esta maximización es por tanto realizada numéricamente. Por ello, la convergencia al
máximo será más rápida si se parte de un valor inicial de los parámetros próximo al
valor de convergencia. Hay distintos métodos para el cálculo de estos valores iniciales,
dos de ellos para el caso autorregresivo (método de Yule-Walker y algoritmo de Burg) y
otros dos para un caso general (algoritmo de las innovaciones y algoritmo de Hannan-
Rissanen).
Alumno: Manuel Quesada Pegalajar
12
Master en Estadística Aplicada.
Trabajo Fin de Master. Análisis de Series Temporales. Modelos Heterocedásticos.
,
F2
1 F2 F2
O P Q
;2
1 ;2 ;2
los valores de las covarianzas o correlaciones teóricas por sus estimaciones muestrales.
F
T U … V
FR S
F
ecuación para k = 0.
Las covarianzas del modelo teórico así obtenido coinciden con las muestrales para los
valores k = 0,1,…,p.
Para tamaños muestrales grandes, la distribución del estimador así obtenido es:
G
[ \]⁄ _
Y
G
"A #SΓ "A # ` b,]
√Y
Por tanto este método proporciona la estimación de los parámetros bajo la hipótesis de
que la FAC estimada coincida con la teórica para los primeros retardos.
Ac
Acc c ,
Sea 4,
ef , g, entonces
ER
41,1
2
h,h2
E2 i4Y 1, Y 1 1
2,2
h,h E j , 0 ` 4 ` Y
R
h
Eh
4Y 1, Y 1 1
h,h
E
R
ER W , E W , , E W kk , k k , Ek W
1
"
Ac
, … ,
Ac2
2 #S
√Y
ch(,)
&
1
t
t
t
Hay que observar que " A , … , A #S no es estimador consistente de los parámetros sino
1 /
R
donde los coeficientes satisfacen
cíh(,)
/
1 / 1,
0,1, …
R
con
R
1 y
0 para j > q.
Así podemos estimar los coeficientes / , … , /= por el algoritmo de las innovaciones
"
Ac , … ,
Ac,= #S. Reemplazar estos valores en la ecuación anterior y calcular las
estimaciones de y
.
cíh(,)
Ac 1 A
Ac, ,
1, … , !
Finalmente: G
EGc .
~̂
Ac Acc c , $
% 1, … , Y
@
1 "
~̂
~̂ #
c=
@C
S S>
>
c= , … , h
c c … c= ~̂c ~̂c … ~̂c=
c= c … c= ~̂c= ~̂c … ~̂c=
… … … … … … … …
h h … h ~̂h ~̂h … ~̂h
"@C #
G
Y%
Consiste en minimizar:
>
1 "1 #1 "
#
c7(,)==
1
1, … ,
Sujeto a:
1
1, … , !
̂
"1 A A #1 ̂ "
A
A #̂ (4)
Para comprobar que los residuos estimados obtenidos según (4) son ruido blanco:
1S96 1S96
,
√+ √+
valores de la serie .
Estas son bandas asintóticas al 95 % de confianza, donde T es el número de
• Test de Ljung-Box: este test indica si existe dependencia entre los m primeros
residuos estimados (4), es decir, si estos residuos presentan correlación no nula.
El estadístico de Ljung-Box se define como:
c
;G
6
++ 2 1
+
PASO 4: Predicción.
Por lo tanto:
A> 4
en>=2 |> , … , p
̂> 4
en>=2 |> , … , p
>=2
A >=2 A ">=2 # ̂ >=2
A1 >=2
A! >=2
> 4
A A> 4 1
A A> 4
̂ ̂> 4
A1 ̂> 4 1
A! ̂> 4 !
Donde
A>
>= . ` 0 es el valor de la serie en el tiempo T+j.
A>
A>= . 0 es la predicción obtenida para la serie en el tiempo T+j.
̂>
̂>= . ` 0 es el valor de la serie ̂ en el tiempo T+j.
̂>
0 . 0
2.3.EJEMPLO DE MODELIZACIÓN
Realizaremos un ejemplo para ilustra los pasos a seguir en la construcción de un
modelo ARIMA.
Anexo A). En primer lugar, se analiza esta serie de datos y se estudia el comportamiento
que presenta.
Después de diferenciada la serie, para poder identificar los términos del modelo
ARIMA, es necesaria la representación de la FAC y de la FACP.
FAC con
c diferenciación de orden 1 de
1 1 '
forma:
'
1
1 1 '
1
1 1 '
1
y
y la constante c:
Para el modelo ARIMA(1,1,1), obtendremos los valores estimados para los parámetros
Obtenemos por tanto que el valor estimado para es 0.837,, el valor estimado para
es 0.606 y el valor estimado
imado para la constante c es 0.391.
0.391 Si nos fijamos en la
significación, parece ser que la constante no es necesaria para explicar el modelo. Por lo
tanto, estimamos el modelo sin constante, obteniendo:
Obtenemos por tanto que el valor estimado para es 0.877,, el valor estimado para
es 0.636. Por tanto el modelo tiene la siguiente forma:
Los residuos estimados son ruido blanco, ya que tanto la FAC como la FACP no
presentan ningún valor significativo. Todos los valores se encuentran dentro de las
bandas de confianza. Por lo tanto, se puede
pued concluir que el modelo es adecuado para
predecir.
Diagnóstico residual
Número de residuos 147
Número de parámetros 2
GL residuales 145
Suma de cuadrados
264,795
residual corregida
Suma de cuadrados
275,157
residual
Varianza residual 1,822
Error típico del modelo 1,350
Log-verosimilitud -251,845
Criterio de información
507,690
de Akaike (AIC)
Criterio bayesiano de
513,671
Schwarz (BIC)
Obtenemos por tanto que el valor estimado para es 0.250,, el valor estimado para
es 0.202 y el valor estimado
imado para la constante c es 0.403.
0. Si nos fijamos en la
significación, parece ser que todos los parámetros son necesarios para explicar el
modelo. Por tanto el modelo tiene la siguiente forma:
Los residuos estimados son ruido blanco, ya que tanto la FAC como la FACP no
presentan ningún valor significativo. Todos los valores se encuentran dentro de las
bandas de confianza. Por lo tanto, se puede concluir que el modelo es adecuado para
predecir.
Diagnóstico residual
Número de residuos 147
Número de parámetros 2
GL residuales 144
Suma de cuadrados
267,147
residual corregida
Suma de cuadrados
267,147
residual
Varianza residual 1,853
Error típico del modelo 1,361
Log-verosimilitud -252,504
Criterio de información
511,008
de Akaike (AIC)
Criterio bayesiano de
519,979
Schwarz (BIC)
,
y la constante c:
Para el modelo ARIMA(0,1,2), obtendremos los valores estimados para los parámetros
Obtenemos por tanto que el valor estimado para
es -0.241, el valor estimado para
es -0.170 y el valor estimado para la constante c es 0.413. Si nos fijamos en la
significación, parece ser que todos los parámetros son necesarios para explicar el
modelo. Por tanto el modelo tiene la siguiente forma:
'
0.413 1 0.241 0.170
Los residuos estimados no son ruido blanco, ya que para los primeros retardos se
observa que se salen de las bandas de confianza. Por lo tanto, no se puede concluir que
el modelo es adecuado para predecir.
Diagnóstico residual
Número de residuos 147
Número de parámetros 2
GL residuales 144
Suma de cuadrados
276,366
residual corregida
Suma de cuadrados
284,989
residual
Varianza residual 1,918
Error típico del modelo 1,385
Log-verosimilitud -254,999
Criterio de información
515,997
de Akaike (AIC)
Criterio bayesiano de
524,969
Schwarz (BIC)
, ,
y la constante c:
Para el modelo ARIMA(2,1,1), obtendremos los valores estimados para los parámetros
Obtenemos por tanto que el valor estimado para es -0.241, el valor estimado para
es 0.046, el valor de
es de 0.558 y el valor estimado para la constante c es 0.390. Si
nos fijamos en la significación, parece ser que el parámetro y la constantes no son
necesarios para explicar el modelo. Por lo tanto este modelo no es bueno para explicar
este conjunto de datos.
Para determinar cuál de los tres modelos es mejor, nos vamos a basar en la comparación
del criterio de Akaike. Para el modelo ARIMA(1,1,1) el valor AIC es de 507.609. Para
el modelo ARIMA(2,1,0) el valor AIC es de 511,008. Para el modelo ARIMA(0,1,2) el
valor AIC es de 515,997. Por tanto, el mejor modelo para estimar la serie es el modelo
ARIMA(1,1,1) ya que tiene un valor AIC menor al de los otros modelos.
PASO 4: Predicción.
'G> 4
0.313 "'G> 4 1 'G> 4 2# 'G> 4 1 0.296 0.122
̂> 4 1 ̂> 4
predecir el valor de la serie ' para t = 149 y para t = 150, es decir, 'G> 1
'G>= y
Se dispone de datos hasta el tiempo T y se quieren realizar dos predicciones. Se quiere
'G> 2
'G>=. Para el cálculo de las predicciones basta con sustituir k = 1 y k = 2 en la
fórmula de predicción.
'G> 1
0.313 "'G> 0 'G> 1# 'G> 0 0.296 0.122 ̂> 0 ̂> 1
Donde
'G> 0
'>
261.8 es el valor real de la serie ' en el tiempo T.
'G> 1
'>
262.8 es el valor real de la serie ' en el tiempo T-1.
̂> 0
̂>
1.0358 es el valor de la serie de residuos ̂ en el tiempo T.
̂> 1
̂>=
0 es el valor de la serie de residuos de ̂ en el tiempo T+1.
Sustituyen cada uno de los valores se calcula la predicción para t = 149, 'G> 1. El valor
obtenido para la predicción es 'G> 1
261.66.
'G> 2
0.313 "'G> 1 'G> 0# 'G> 1 0.296 0.122 ̂> 1 ̂> 2
Donde
'G> 1
'G>=
261.66 es el valor predicho de la serie ' en el tiempo T+1.
'G> 0
'>
262.8 es el valor real de la serie ' en el tiempo T.
̂> 1
̂>=
0 es el valor de la serie de residuos ̂ en el tiempo T+1.
̂> 2
̂>=
0 es el valor de la serie de residuos de ̂ en el tiempo T+2.
Sustituyen cada uno de los valores se calcula la predicción para t = 150, 'G> 2. El valor
obtenido para la predicción es 'G> 2
261.91.
Calculamos los errores obtenidos al realizar cada una de las predicciones. El error se
calcula a través de la siguiente expresión:
|'G>=2 '>=2 |
~>=2
'>=2
∑2|'G>=2 '>=2 |
~
∑2 '>=2
3.1.MODELO ARCH
En la práctica los modelos del tipo lineal de series de tiempo tales como
ARIMA(p,d,q) o los modelos causales de regresión lineal, no siempre resultan los más
adecuados para analizar y predecir adecuadamente un proceso real. Por tal motivo se
han propuestos modelos no lineales con la consecuencia de desarrollar métodos de
estimación apropiados para estos casos así como los test que permitan validar los
resultados.
~
e~
e
e e
0
e~ |~
e |~ e
0
La varianza marginal de ~ tiene que ser constante, . Esta varianza se calcula como:
e~
e
e e
1
&~ |~
e |~ e
siendo
e |~
e
1
3.1.1.MODELO ARCH(1)
Para el modelo ARCH(1), su varianza condicional tiene una estructura
similar a un AR(1), y por tanto solo depende del último valor observado:
e~ |~
R ~
debe de ser mayor que R y será tanto mayor cuanto mayor sea el coeficiente que
La varianza marginal de la serie es el promedio de las varianzas condicionadas, que
ene~ |~ p
R en~
p 5
Siendo e~
e~
y sustituyendo en 5 obtenemos:
R
0 ` q 1
1
Además, el modelo ARCH(1), establece dependencia de tipo AR(1) entre los cuadrados
de las observaciones, por tanto:
~
R ~ E
(Nota: E
~ es un proceso de ruido blanco, formado por variables estacionarias
incorreladas de media cero y varianza marginal constante).
; 4
; 4 1
3R 1 6R 1
F
R 1 3
Como 0, este coeficiente de curtosis es siempre mayor que 3, y puede ser mucho
mayor. Por lo tanto, la distribución marginal tendrá colas pesadas.
En resumen:
3.1.2.MODELO ARCH(r)
la varianza condicional
R ~
t ~ t
&~
e~
ene~ |~ p
R 1 e~
Por tanto:
R
&~
1 t
siendo ∑t q 1.
Si introducimos E
~ , como en el caso del proceso ARCH(1), será un proceso
de ruido blanco, formado por variables estacionarias incorreladas de media cero y
varianza marginal constante, podemos expresar la dependencia de los cuadrados de las
observaciones como un proceso AR(r):
~
R ~
t ~ t
E
de ~ exige que:
Estas variables no son independientes entre sí ni de los regresores, ya que la positividad
E R ~ t ~ t
3.2.MODELO GARCH
Un rasgo común a muchas de las primeras aplicaciones empíricas de los
modelos ARCH es que requieren un gran número de parámetros autorregresivos y, para
representar adecuadamente el comportamiento dinámico de la varianza, se imponía una
estructura fija de retardos. Con el fin de flexibilizar estas restricciones Bollerslev (1986)
propuso el modelo ARCH generalizado o GARCH.
La generalización del modelo ARCH al modelo GARCH tiene gran similitud con la
extensión de los procesos autorregresivos, AR, a los autorregresivos de medias móviles,
como:
t
R 1 ~
1 @
6
una representación ARCH∞, es suficiente exigir que los coeficientes del polinomio
de retardos en dicha representación sean todos positivos. El nuevo modelo se denomina
e~
0, &~
∑¤ ] ∑¡ H ¥PE~ , ~-
0 && . ¦ $, §
]
¢£ ¢£
∑t ∑ @ q 1.
definimos E
~ será un proceso de ruido blanco formado por variables
Es importante la relación que existe entre los modelos GARCH y ARMA ya que, si
c7,t
~
R 1 @ ~
E 1 @ E
3.2.1.MODELO GARCH(1,1)
Muchos trabajos con series financieras, muestran que el más sencillo de los
modelos GARCH, el GARCH(1,1), es suficiente para modelizar con éxito los cambios
temporales en la varianza condicional, incluso sobre periodos muestrales largos. El
modelo GARCH(1,1) se obtiene cuando p = r = 1, de forma que la varianza
condicionada queda:
R ~
@
R
&~
1 @
~
R @ ~
E @ E
1 1 1 @1 @21
; 1
1 21 @1 @1
2
Mientras que
; 4
@ 2 ; 1, 41
3.2.2.MODELO IGARCH
(1992) con índices de bolsa, y otros trabajos encuentran siempre valores de G @C
series de tipos de cambio, Chou (1988), Baillie y DeGEnnaro (1990) y Poon y Taylor
R
~
∆~
R E @E
forma:
MA(1) estacionario para las primeras diferencias de ~ , lo que indica cierta analogía del
La ecuación anterior permite interpretar el modelo IGARCH(1,1) como un proceso
3.2.3.MODELO EGARCH
Nelson (1991) observó ciertas limitaciones en los modelos GARCH:
- Las condiciones impuestas sobre los parámetros para asegurar que no sea
negativo son violadas en algunas aplicaciones empíricas.
- El modelo GARCH es incapaz de modelizar una respuesta asimétrica de la
volatilidad ante las subidas y bajadas de la serie.
Con el fin de solventar estas deficiencias, Nelson propuso un nuevo modelo GARCH
exponencial o EGARCH.
©Y
ª 1 0 ©Y"
# « 1 Ψ « 7
Donde «
| | e| |. A través de esta función g, que depende del
signo y de la magnitud de , el modelo EGARCH puede capturar una respuesta
asimétrica de la volatilidad ante innovaciones de distinto signo, permitiendo así
modelizar un efecto contrastado empíricamente en muchas series financieras: las malas
noticias (rendimientos negativos) provocan mayor aumento de la volatilidad que las
buenas noticias (rendimientos positivos).
¹ ¹ ¹
T 1 1 e´
función de verosimilitud resulta ser:
ln Lθ
1 ln fe´ ; θ|e´
ln 2π 1 ln σ´ 1
2 2 2 σ´
´ ´ ´
ºe , … , e¹ |R ,
ºe · ºe |e ºe¹ |e¹
Le , … , e¹ |αR , α
¹ ¹
T1 1
1 e´
ln 2½ 1 lnR ~ 1
2 2 2 αR α e´
´ ´
 1 e´
1 1
À ¾σó σ
¾´ Q
Á e´ e´ e´
À1
1
¿ ¾σ´ σ
¾ó
 1 e´ e´
À GR 1
G 1
1
¾σó ¾σó ¾σó Q
ºª , … , ª |
ºªh |Ãh ºªh |Ãh … ºªt= |Ãt ºª , … , ªt |
"ª eª |Ã #
h
1
Ä ~' Æ Ç ºª , … , ªt |
Å2½σ´ 2σ´
t=
"ª eª |Ã #
h h
1 1
Ȫt= , … , ªh |, Ãt
1 ln σ´ 1
2 2 σ´
t= t=
Por tanto, la estimación puede realizarse en dos etapas ya que la correlación entre los
parámetros ARMA y la de los GARCH suele ser pequeña.
~
ª eª |Ã
PASO 3: Diagnosis.
En la diagnosis de los modelos, hay que tener en cuenta la posible confusión entre
valores atípicos y heterocedasticidad condicional. Los valores atípicos pueden
interpretarse como un aumento de la varianza en ese instante y especialmente si
aparecen en rachas, puede confundirse con efectos de heterocedasticidad condicional.
Por otro lado, la serie que sigue un modelo ARCH puede mostrar muchos valores
atípicos si se analiza como si tuviese varianza constante y siguiese un modelo ARMA.
Por lo tanto, es importante
tante diferenciar ambos fenómenos.
Observando estas funciones, nos damos cuenta que para los primeros retardos, más
concretamente para el primero y el tercero se salen fuera de las bandas de confianza.
confianza
Presentamos
entamos a continuación la FACP de :
Y el modelo quedaría:
Siendo .
k k &
0.089 0.024 0.123 k 0.006 &
Siendo G
0.003
&
R @
&
0.0078 0.032 0.029 0.008 k &
0.000084 0.1213&
0.8523
0.0076 & ,
0.000086 0.121&
0.8511
É. ÉÉÉÉÊË
É. ÉÉÏÌÐ
Ì É. ÊÍÌÌ É. ÌÎÌË
Teníamos que
4.MODELOS SV
En estos modelos, σ´ no depende de las observaciones pasadas de la serie, sino de una
través de los modelos de volatilidades estocásticas SV introducidos por Taylor (1986).
4.1.MODELO SV(1)
GARCH, ~
, donde los errores (proceso de ruido blanco formado por
La ecuación estructural de estos modelos es idéntica a la de los modelos
©Y σ´
R ©Y σ´ Ñ
4
3~ ÖÛ
Ø
que será siempre mayor que 3, que al igual que en los modelos ARCH, tienen un
comportamiento leptocúrtico. Este modelo tiene también la capacidad de generar
Por tanto, al ser el modelo SV una martingala en diferencias, trae como consecuencia
que:
e~
0 H ¥PE~t , ~-
0 && ¦ .
5.CONTRASTES DE AUTOCORRELACIÓN.
Los contrastes de hipótesis, por su parte, permiten, a través de una regla de decisión,
considerar si con los datos de la muestra y con un nivel de significación (α) concreto se
debe o no rechazar la hipótesis nula.
HR : No existe autocorrelaciónQ
Ü
H : Existe autocorrelación
'
'
HR :
0 Q
Ü
H : 0 q | | q 1
∑h ~ ~
d
∑h ~
Para establecer los límites de variación del estadístico d la fórmula anterior se puede
∑h ~ ∑h ~
∑ ~ ∑ ~ 2 ∑h ~ ~
h h
∑h ~
∑h ~ 2 ∑h ~ ~
dì ,
∑h ~
∑h ~ ~
;G
,
∑h ~
d ì 21 ;G,
Por tanto,, se aprecia que el estadístico experimental tomará valores entre 0 y 4 de tal
modo que cuánto más próximo a cero (a cuatro) sea el valor del estadístico d mayor es
la evidencia de autocorrelación positiva (negativa). Si el valor del estadístico
experimental d es dos, entonces la correlación muestral será nula y por tanto no se
detectará un problema de autocorrelación entre las perturbaciones.
No obstante, estos valores (0, 2 y 4) son límites extremos que deben matizarse
estableciendo regiones más amplias en las que pueda considerarse si existe o no
autocorrelación y, en caso de detectarse, si ésta es positiva o negativa.
negativa. En este sentido es
necesario precisar que la distribución teórica de este estadístico no es sencilla y depende
de los valores concretos de la matriz de regresores; por tanto, no existe un valor crítico
único que permita establecer una regla de decisión.
decisión. Para solucionar esta dificultad
Durbin y Watson hallaron unos límites superior (du) e inferior (dL) que permiten tomar
decisiones acerca de la presencia o ausencia de autocorrelación.
Por lo tanto:
0 < d < dL se rechaza H0, existe entonces autocorrelación positiva con un esquema AR(1)
4- dL < d < 4 se rechaza H0, existe autocorrelación negativa con un esquema AR(1)
Estos límites dependen del tamaño de la muestra (n) y del número de regresores del
modelo (k). Las tablas originales sirven para muestras entre 15 y 100 observaciones y
un máximo de 5 regresores. Años más tarde, Savin y White (1977) publicaron unas
tablas más completas que incluyen tamaños de muestra superiores, 5 < n < 200, y hasta
20 regresores.
Un inconveniente que presenta este contraste es que a veces puede no ser concluyente,
por lo que hay que considerar, utilizando otros criterios, si existe o no autocorrelación.
En este sentido una solución clásica consiste en ampliar las regiones de rechazo
considerando así que existe autocorrelación positiva para valores de d inferiores a du y
autocorrelación negativa si los valores del estadístico experimental son superiores a 4-
du.
- En primer lugar hay que señalar que el diseño original del contraste se basó en el
análisis de un modelo de regresión que incluía término independiente. No
obstante, este requisito exigible al modelo fue posteriormente resuelto. En 1980,
Farebrother calculó los valores críticos del contraste para los modelos en los que
no existe término independiente.
HR :
0 No existe autocorrelación Q
Ü
H : 0 q || q 1 e'.$~ &?$PP~©&óY
∑h í~ ~ o
do
∑h ~
Este estadístico también fue tabulado por Wallis bajo el supuesto de modelo de
regresión con un único término independiente y también para el caso de regresiones que
incluyan término independiente y variables ficticias estacionales (trimestrales). Al igual
que el contraste de Durbin-Watson, el estadístico d4 se ha tabulado suponiendo que la
matriz de regresores es no aleatoria y suponiendo también que el modelo tiene término
independiente.
Además de este contraste, King (1983) desarrolló otra modificación del estadístico de
Durbin-Watson. En este caso se obtuvieron los valores de los límites superiores (du) e
inferiores (dL) de autocorrelación para definir las regiones de rechazo, indecisión y no
rechazo cuando se trabaja con datos mensuales.
La formulación de las hipótesis nula continúa siendo la misma ya que sigue siendo un
contraste para la autocorrelación de orden uno bajo un esquema autorregresivo AR(1),
'
'
HR :
0
H :
0Q H :
0 Q
Ü R Ü R
H : q 1 H : 1
Y
El estadístico de contraste es:
Ò
;G_
1 Y&"A #
que se distribuye asintóticamente según una distribución N(0 ,1) lo que, con un nivel de
significación del 5%, supone no rechazar la hipótesis nula para los valores de h
pertenecientes al intervalo (-1.645; 1.645) ya que se trabaja con un contraste de una sola
cola.
)), es decir:
∑h ~ ~
;G
∑h ~
Otra posibilidad consiste en calcular esta correlación muestral a partir del valor
*
del estadístico de prueba del contraste de Durbin-Watson:
;G ì 1
2
El procedimiento de contraste requiere de la realización de las siguientes fases:
esto es [n· Var(A ) > 1], entonces el test falla. Para estos casos Durbin propuso un
El principal inconveniente que tiene este contraste es que si el radicando es negativo,
'
' ' '
HR :
0
Este contraste, al igual que los estudiados hasta el momento, se basa en los residuos
MCO y se define como una prueba de significación conjunta de las primeras p
autocorrelaciones de los residuos. Para su aplicación empírica es necesario desarrollar
las siguientes etapas:
En segundo lugar se puede señalar que este contraste permite especificar en la hipótesis
alternativa cualquier esquema de autocorrelación ya sea a través de un proceso
autorregresivo, de medias móviles o mixto.
A pesar de estas ventajas que lo pueden hacer preferible al contraste de Durbin Watson,
no hay que olvidar que para la aplicación de este contraste es necesario especificar una
longitud del retardo y que ésta se determinará por un procedimiento de experimentación
basado en el análisis de significación individual de los retardos de los residuos, lo que
en principio podría dificultar la tarea de selección del orden de autocorrelación.
5.5.CONTRASTE DE BOX-PIERCE-LJUNG
Box y Pierce desarrollaron un estadístico que, basado en los cuadrados de los
primeros coeficientes de autocorrelación de los residuos, permite analizar si existe o no
autocorrelación.
6
Y 1 ;G
Siendo
∑h = ~ ~
;G
∑h ~
;G
6S
YY 2 1
Y
ï
@ @ @2 2 ? , $
1, … +
?
?
1 >
z 1 > }
ó
e??
1 y ô
1 >k |
Ω
õ
ô ô ô
…
x
> >
>k
1 {
1 0 0 ... 0 0 0
1 0 0 0
z 0 …
1 0 0 0 }
Ω
y …
y … … … … … … ||
0 0 0 1
x 0 … 0 1 {
0 0
@C÷øù
SΩ SΩ H
1 0 0 0 0
ú
z 1 0 0 0 }
5
y 1 0 0
0 |
0 1
x 0 0
{
@C÷øù
SPSP SPSPH
en donde
5H
5@ 5?
Y como:
M1 ï
@ M1 @ M1 @2 M1 2
ï ï
@ 1 @ @2 2 2
@C÷øù
"SΩ
T # SΩ
T H
estimación de , que se utiliza en la segunda etapa para transformar las variables con
las que estimar una ecuación en diferencias generalizada (método que coincide
básicamente con la aplicación de los mínimos cuadrados generalizados). Estos métodos
se conocen con el nombre de mínimos cuadrados generalizados factibles (MCGF).
ï
@ @ @k k ? 8
?
? 9
ruido blanco
? ? . Dada la relación entre ï y ? , podemos definir
La idea es transformar el modelo de regresión en un modelo cuyo término de error sea
ï ü
ï ï H ü
y especificar la relación
ï ü
@
ü
@
ü
@k k
ü
10
en donde
ü
1 .
ï ü
@
ü
@
ü
@k k
ü
ý@ @ ý q 10í .
2. La estimación de cada parámetro β en dos iteraciones consecutivas no cambia,
.
modelo transformado se obtiene multiplicando el modelo de interés por el polinomio
MÉTODO DE PRAIS-WINSTEN
MÉTODO DE DURBIN
Durbin (1960) propone una primera estimación del modelo en cuasi diferencias
expresado a partir de la igualdad,
ï
1 @ @ ï
estimación consistente de .
coeficiente de la variable endógena desplazada, ya que, aunque sesgada, se trata de una
Esta primera estimación del coeficiente de autocorrelación puede servir de base para la
aplicación de cualquiera de los otros dos métodos presentados con anterioridad. En
concreto, Griliches y Rao muestran, a partir de un estudio de Monte Carlo que el
estimador obtenido a partir de una primera estimación con el método de Durbin y
seguido del procedimiento de Prais-Wisten para las variables transformadas es mejor
otras alternativas. En este sentido Greene (1998) (citando a Harvey y McAvinchey
(1981)) afirma que “es bastante peor omitir la primera observación que mantenerla”.
6.HETEROCEDASTICIDAD CONDICIONAL.CONTRASTES.
En el modelo lineal ï
@ ?, suponíamos una serie de hipótesis entre las que
þ . Es decir, que para todo t, la variable ut, tiene media cero y varianza no
dependiente de t, y además ¥PE"? , ? #
0 para todo i y para todo j distintos entre sí,
pudiendo escribir &?
þ .
El hecho de que la varianza de ut sea constante para todo t (que no dependa de t),
se denomina hipótesis de homocedasticidad. Por tanto el caso contrario, en el que la
varianza ut no es constante estamos ante la presencia de heterocedasticidad. La
importancia del incumplimiento de la hipótesis de homocedasticidad radica, entre otras
cosas, en que los estimadores obtenidos por mínimos cuadrados no son de varianza
mínima aunque sigan siendo insesgados. Además, para cada variable del modelo se
estimará una varianza del error.
6.1.CONTRASTES DE WHITE
Para simplificar la exposición, vamos a describir el contraste en una ecuación de
regresión con término constante y dos variables explicativas. La extensión del contraste
al modelo lineal general es trivial.
H
@ @ @k k ? ,
1, … , Y
R : e?
J P%P~*&.$*&* Q
: e?
~$~P~*&.$*&*
H
@ @ @k k ? ,
1, … , Y
?G
k k o
í k
k ~
Suele decirse que el test de White es general porque no necesitamos conocer las
variables que causan la heterocedasticidad. Sin embargo, de la ecuación de regresión
auxiliar vemos que la forma de heterocedasticidad implícita es:
1 2 2 3 3 4 22 5 23 6 2 3
R : 2
3
0 Q
Ü
: ¦ 0 && &©«úY
2, … ,
G
G 1 G 2 2 G 3 3 G 4 22 G 5 23 G 6 2 3
regresión. Por ejemplo, si es una variable ficticia tomando los valores 0 y 1,
tales variables no sean redundantes, es decir, no aparezcan ya en la ecuación de
entonces
y se dice que
es redundante.
1. Es un test general,
2. Es un test constructivo, nos sugiere una forma de heterocedasticidad si se
rechaza H0,
3. Es muy simple de aplicar.
y como inconvenientes
6.2.CONTRASTES DE BREUSH-PAGAN/GODFREY
Godfrey (1978) considera el modelo de regresión múltiple:
H
@ @ @k k @2 2 ? ,
1, … , Y
~"1 2 2…#
con heterocedasticidad del tipo:
Esta ecuación indica que la varianza es función exponencial de una combinación
lineal de variables conocidas. En la práctica, las variables Zj (j = 2, . . . , p) coinciden
con las variables explicativas Xj (j = 1, . . . , k).
Ò"1 2 2 #
R : 2
3
0 ÒP%P~*&.$*&* Q
Ü
: ¦ 0 && &©«úY
2, … , Ò~$~P~*&.$*&*
?G
2. Estimar por mínimos cuadrados la ecuación de regresión auxiliar
~
GJ
y calcular la suma de cuadros explicada, SCE.
residuos ?G .
1. Estimar por mínimos cuadrados la ecuación de regresión de interés obtener los
?G
~
rechaza R ,
3. Es un test constructivo, nos sugiere una forma de heterocedasticidad si se
y como inconvenientes
Godfrey. Recordemos que en el primer caso nos interesa la dependencia del residuo ?G
Nota: no se debe de confundir el tests de autocorrelación y heterocedasticidad de
de su pasado ?G 2 .
6.3.CONTRASTES DE GOLDFELD-QUANDT
El contraste de Goldfeld-Quandt (1965) se aplica cuando sospechamos que la
varianza del error aumenta con los valores de una variable conocida Z:
J
El problema a contrastar:
R :
J P%P~*&.$*&* Q
:
J && &©«úY
2, … , ~$~P~*&.$*&*
£
(n−m)/2 grados de libertad en el numerador y denominador.
cuadrados de los residuos SCR1 y SCR2 y más probable será rechazar R si es falsa. El
contraste. Cuanto mayor sea m, tanto mayor será la diferencia entre las sumas de
cual el valor crítico c aumenta y menos probable es rechazar R si es falsa. Por ejemplo,
problema es que disminuyen los grados de libertad de cada regresión estimada, con lo
el valor crítico para Prob(F4,4 > c) = 0,95 es c = 6,388 y Prob(F8,8 > c) = 0,95 es c =
3,438. En la práctica, m suele elegirse igual a n/3.
6.4.CONTRASTES DE GLESJER
Los estadísticos anteriores son capaces de darnos información sobre el grado de
igualdad de las varianzas de una serie de submuestras. Sin embargo, no hacen ningún
intento de modelizar el patrón heterocedástico que sigue la varianza de la perturbación.
En ese sentido, los estadísticos anteriores son no constructivos. Debemos tener en
cuenta que para aplicar mínimos cuadrados generalizados resulta indispensable conocer
qué tipo de heterocedasticidad sigue la varianza de la perturbación. Desde este punto de
vista, parece conveniente utilizar métodos que nos den alguna ayuda en este sentido.
propone estimar la relación que existe que vincula a estas dos variables.
|?G |
R \ ~
donde h puede tomar valores (1,0,1,2). El siguiente paso es determinar qué forma
funcional es la que mejor se adecúa a nuestro caso. Esto se puede realizar comparando,
Alumno: Manuel Quesada Pegalajar
70
Master en Estadística Aplicada.
Trabajo Fin de Master. Análisis de Series Temporales. Modelos Heterocedásticos.
estadístico $]£ . Si aceptamos esta hipótesis nula, es tanto como decir que no existe
relación entre la desviación típica del modelo ï
@ ? y la variable z, lo que
6.6.CONTRASTE ARCH
&? |?
R ?
.
~
R ~
.
3. Forma del contraste: contrastar la significatividad de los parámetros del
modelo anterior. El contraste de multiplicadores de Lagrange, TR2, se distribuye
como una Chi-2 con un grado de libertad y es equivalente asintóticamente al F
habitual.
6.7.1.HETEROCEDASTICIDAD CONOCIDA
El modelo lineal general con heterocedasticidad:
H
@ @ @k k @2 2 ? ,
1, … , Y 11
en donde e?
0, e?
J ª y e"? ? #
0 ð ¦ , es un caso especial del
modelo con perturbaciones no esféricas. En este marco, el estimador lineal, insesgado,
consistente y óptimo es el estimador de mínimos cuadrados generalizados:
@C÷øù
SΩ SΩ H
&"@C÷øù #
J SΩ
en donde Ω
*&«ª , … , ªh es una matriz diagonal, cuya inversa es simplemente
Ω
*&« , ,
. El cálculo directo de @C÷øù y &"@C÷øù # requiere crear la
£
matriz Ω de orden Y Y. En la práctica, podemos evitar la creación de esta matriz
?
?ü
Ū
1. Media cero:
? 1
e?ü
e
e?
0
Ū Ū
2. Varianza constante
? ? e"? ? #
e"?ü ?ü #
e U V
0 ð ¦
Ū Ū ª ª
O bien:
Hü
@
ü
@
ü
@2 2
ü
?ü ,
1, … , Y 12
Primera etapa, se transforman las variables dividiendo los datos por la cuasi-
desviación típica de los errores.
En una segunda etapa, se estiman los parámetros por mínimos cuadrados
ordinarios.
@C÷øù
S5S5 S5S5H
en donde
1ú 0 0
û
z 1ú }
0 0
y û |
5
y |
ô
y ô ô õ 1 |
Ū
0 0 h
x {
2
1ú ª
H ª √
ú ª z √ª √ }
√ y |
z H } 2
y1 ª |
y ú√ª |
5H
y H 5
y ú√ª ª
√
√ |
ô | y |
yHh |
Ū y ô ô ô |
h y1 h õ 2h |
x { Ū
h Ūh Ūh
x {
se corresponden con los datos de las variables divididos por las cuasi-desviaciones
típicas de los errores correspondientes.
6.7.2.HETEROCEDASTICIDAD DESCONOCIDA
En este caso, usamos el método de mínimos cuadrados generalizados factibles.
H
@ @ @k k @2 2 ? ,
1, … , Y 13
Ahora bien, como no conocemos las varianzas , tendremos que estimarlas utilizando
los valores ajustados obtenidos en la estimación de la regresión auxiliar:
?G
~
esto es:
G
G G G
"@C÷øù #
J S SΩS
.
*&«?G , … , ?Gh
ó @C÷ø
Sï
Todas las variables independientes están relacionadas.
7.1.DETECCIÓN DE LA MULTICOLINEALIDAD
Es necesario tener en cuenta que la multicolinealidad es un problema de grado,
es decir, lo importante no es distinguir sobre la presencia o ausencia de
multicolinealidad, sino del grado de la misma. Además la multicolinealidad es un
problema muestral, por lo que no existen métodos únicos y definitivos para detectarla,
sino de reglas generales que deben ser interpretadas conjuntamente para decidir el grado
de la misma. Entre estas reglas se distinguen las siguientes:
î
Q ¥P~º~Y$~. ~«~.óY .«Yº&$EP. Indicios
¥P~º~Y$~. *~ ~«~.. Y*E*?&©~. YP .«Yº&$EP.
- de
multicolinealidad.
Es no quiere decir que sea un problema, sobre todo si estamos en el caso de que
haya algunos coeficientes de regresión significativos. Se considera un problema
cuando se dan las tres condiciones a la vez.
problema. Existen casos en donde q 0,5 y en los cuales hay problemas de
necesario que dichos coeficientes sean altos para que la multicolinealidad sea un
multicolinealidad.
- Puesto que la multicolinealidad surge debido a que uno o mas regresores son
combinaciones lineales del resto, entonces la realización de una regresión por
cada variable explicativa de la siguiente forma:
, … , , , … ,
1, … , 4
= 2
puede ser muy informativo para detectar este problema. A estas se les llama
&"@C # depende de ∑ , þ y de . Por tanto, aun teniendo un þ muy
No obstante este criterio también tiene crítica, ya que según sabemos, la varianza
donde Λ
diag , … , 2 N N 2 N 0, y U matriz ortogonal con
columnas de autovectores de R. Además se sabe que î
Λ S. La
ordenación de los autovalores de mayor a menor nos indica si existen problemas
de multicolinealidad. Dado que el rango de R es igual al número de autovalores
no nulos de R, claramente si un autovalor o más son nulos entonces el rango de
R no será completo, indicando dependencia lineal. Sin llegar a este extremo,
autovalores muy pequeños pueden proporcionarnos información sobre
problemas de multicolinealidad.
+
e Se ú
ú
donde E es matriz diagonal cuyos elementos son los elementos de la diagonal de S.
Esto hace que dispongamos de un autovalor más que con la matriz R
o Regresión Ridge.
o Regresión basada en Componentes Principales.
8.HIPÓTESIS DE NORMALIDAD.
máxima verosimilitud, y por tanto los estimadores "@C # se hacen ineficientes. De esta
estimación por mínimos cuadrados es diferente de a la estimación de los parámetros por
b -Pearson
- Kolmogorov-Smirnov (Lilliefors)
-
- Shapiro-Wilks
- D’Agostino
- Asimetría y kurtosis (Bera-Jarke)
Las causas más frecuentes de que unos datos no sean normales es por problemas
de asimetría y curtosis (por excesiva concentración de observaciones cerca de la media
o presencia de observaciones atípicas).
ANEXO
Conceptos y definiciones.
Serie Estacionaria.
- Su media es constante.
- Su varianza es constante.
>2
1
2
1' 'L ' =2 'L
+
Ruido blanco.
- Su media es cero
- Su varianza es constante
Transformaciones de Box-Cox.
Uno de los procedimientos más usados para resolver los problemas de falta de
normalidad y de heterocedasticidad es el transforma la serie es la utilización la familia
de transformaciones BOX-COX:
H 1
O ¦ 0 H 0Q
©YH
0
H 1
¦0
O H H 0Q
H ©YH
0
C÷
R ⁄ÈR N È ð
Si
1 los datos no se transforman.
Si
2 se realiza una transformación cuadrática.
Si
1 se realiza una transformación inversa.
Si
0 se realiza una transformación logarítmica.
2. Se dibuja el gráfico de los pares de puntos media y desviación típica H<. , .̂ y
se ajusta una curva del tipo:
.̂
4 · H
.
©« .̂
©«4 ©«H<.
3. Conclusión:
-Si
0 los residuos son homocedásticos.
-Si
1 hay heterocedasticidad y la transformación a realizar es tomar
logaritmos.
La tabla siguiente muestra los datos correspondientes a la serie de datos ' , para
ANEXO A
el modelo ARIMA. Hemos utilizado estos datos para realizar el ejemplo del modelo
ARIMA.
t ' t '
1 200,1 36 220,6
2 199,5 37 218,9
3 199,4 38 217,8
4 198,9 39 217,7
5 199 40 215
6 200,2 41 215,3
7 198,6 42 215,9
8 200 43 216,7
9 200,3 44 216,7
10 201,2 45 217,7
11 201,6 46 218,7
12 201,5 47 222,9
13 201,5 48 224,9
14 203,5 49 222,2
15 204,9 50 220,7
16 207,1 51 220
17 210,5 52 218,7
18 210,5 53 217
19 209,8 54 215,9
20 208,8 55 215,8
21 209,5 56 214,1
22 213,2 57 212,3
23 213,7 58 213,9
24 215,1 59 214,6
25 218,7 60 213,6
26 219,8 61 212,1
27 220,5 62 211,4
28 223,8 63 213,1
29 222,8 64 212,9
30 223,8 65 213,3
31 221,7 66 211,5
32 222,3 67 212,3
33 220,8 68 213
34 219,4 69 211
35 220,1 70 210,7
t ' t '
71 210,1 110 250,7
72 211,4 111 253
73 210 112 253,7
74 209,7 113 255
75 208,8 114 256,2
76 208,8 115 256
77 208,8 116 257,4
78 210,6 117 260,4
79 211,9 118 260
80 212,8 119 261,3
81 212,5 120 260,4
82 214,8 121 261,6
83 215,3 122 260,8
84 217,5 123 259,8
85 218,8 124 259
86 220,7 125 258,9
87 222,2 126 257,4
88 226,7 127 257,7
89 228,4 128 257,9
90 233,2 129 257,4
91 235,7 130 257,3
92 237,1 131 257,6
93 240,6 132 258,9
94 243,8 133 257,8
95 245,3 134 257,7
96 246 135 257,2
97 246,3 136 257,5
98 247,7 137 256,8
99 247,6 138 257,5
100 247,8 139 257
101 249,4 140 257,6
102 249 141 257,3
103 249,9 142 257,5
104 250,5 143 259,6
105 251,5 144 261,1
106 249 145 262,9
107 247,6 146 263,3
108 248,8 147 262,8
109 250,4 148 261,8
BIBLIOGRAFÍA
Robret F. Engle (1942) desarrolló con Granger el concept de cointegración e inventó los
procesos ARCH.
Página Web:
http://www.stat.ucl.ac.be/ISdidactique/Rhelp/library/tseries/html/garch.html)