Está en la página 1de 201

UNIVERSIDAD COMPLUTENSE DE MADRID

FACULTAD DE CIENCIAS MATEMÁTICAS


Departamento de Estadística e Investigación Operativa

TEORÍA DE CÓPULAS Y CONTROL DE RIESGO


FINANCIERO

MEMORIA PARA OPTAR AL GRADO DE DOCTOR


PRESENTADA POR

Rosario Cintas del Río

Bajo la dirección del doctor:


Vicente Quesada Paloma

Madrid, 2007

ISBN: 978-84-669-3132-8
UNIVERSIDAD COMPLUTENSE DE MADRID

FACULTAD DE CIENCIAS MATEMÁTICAS


DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA

TEORÍA DE CÓPULAS
Y
CONTROL DE RIESGO FINANCIERO

Rosario Cintas del Río

Memoria para optar al grado de


Doctor en Ciencias Matemáticas
realizada bajo la dirección del
Dr.D. Vicente Quesada Paloma.
Diciembre 2006.
Agradecimientos

En primer lugar quiero expresar mi agradecimiento al director de esta tesis y


tutor de mis estudios de doctorado, el profesor Dr. D. Vicente Quesada Paloma,
cuya dedicación y dirección ha sido fundamental en todo momento. Sus acertadas
directrices, orientaciones y consejos, ası́ como el excelente trato personal que me
ha dispensado a lo largo de estos años resultan impagables por mi parte.

Tampoco puedo olvidar a mis compañeros Inés y José Luis. A la primera


le agradezco el tiempo que ha dedicado a nuestras interesantes discusiones y al
segundo sus excelentes sugerencias informáticas.

Por último, me gustarı́a mencionar a Benito, Alberto y Pablo, sin cuyo apoyo
y cariño no hubiera sido posible concluir este trabajo.
Indice

Introducción 1

1 Cópulas y Variables Aleatorias 1

1.1. Conceptos Básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Teorema de Sklar. Interpretación probabilı́stica de las cópulas . . . 4

1.3. Cotas de Fréchet-Hoeffding . . . . . . . . . . . . . . . . . . . . . . 6

1.4. Gráficos y diagramas de contorno de una cópula . . . . . . . . . . 9

1.5. Propiedades de las cópulas . . . . . . . . . . . . . . . . . . . . . . . 11

1.6. Cópula de supervivencia y función de supervivencia conjunta . . . 16

1.7. Limitaciones del coeficiente de correlación lineal. Medidas de con-


cordancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.8. Coeficiente de dependencia en colas (TDC) . . . . . . . . . . . . . 23

1.9. Cópula empı́rica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

1.10. Familias de cópulas más usuales en el entorno financiero . . . . . . 27

1.10.1. Cópulas elı́pticas . . . . . . . . . . . . . . . . . . . . . . . . 27

1.10.2. Cópulas Arquimedianas . . . . . . . . . . . . . . . . . . . . 30

1.10.3. Cópulas de valores extremos . . . . . . . . . . . . . . . . . . 36


ii Teorı́a de Cópulas y Control de Riesgo Financiero

2 Ajuste de Cópulas a Series Financieras Bivariantes 39

2.1. Aproximación no paramétrica . . . . . . . . . . . . . . . . . . . . . 40

2.2. Aproximación semiparamétrica . . . . . . . . . . . . . . . . . . . . 44

2.3. Aproximación paramétrica . . . . . . . . . . . . . . . . . . . . . . . 48

2.4. Bondad de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

2.5. Ajuste de cópulas a series diarias de retornos de Índices financieros 54

2.5.1. Descripción de las series . . . . . . . . . . . . . . . . . . . . 54

2.5.2. Ajuste no paramétrico de la cópula bivariante DowJones &


Ibex35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

2.5.3. Ajuste paramétrico de la cópula bivariante DowJones &


Ibex35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

2.5.4. Evaluación de la bondad de ajuste . . . . . . . . . . . . . . 68

2.5.5. Modelos alternativos de cópulas mixtas . . . . . . . . . . . 73

3 Filtrado de la Dependencia Temporal Marginal 79

3.1. Modelos de volatilidad . . . . . . . . . . . . . . . . . . . . . . . . . 83

3.1.1. Caracterı́sticas de las Series Financieras . . . . . . . . . . . 84

3.1.2. Formulación del Modelo ARCH . . . . . . . . . . . . . . . . 86

3.1.3. Formulación del Modelo GARCH . . . . . . . . . . . . . . . 89

3.1.4. Extensiones del modelo GARCH . . . . . . . . . . . . . . . 94

3.2. Ajuste de procesos GARCH a los retornos diarios DowJones e Ibex35 97

3.2.1. Selección y diagnóstico de los modelos . . . . . . . . . . . . 97

3.2.2. Ajuste de cópulas bidimensionales a los retornos filtrados


DowJones e Ibex35 . . . . . . . . . . . . . . . . . . . . . . . 108

4 Dependencia en Colas 111


4.1. Métodos gráficos para detectar la dependencia bivariante: Chi-plot
y K-plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

4.1.1. Chi-plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

4.1.2. K-plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

4.2. Modelos de Extremos . . . . . . . . . . . . . . . . . . . . . . . . . 121

4.2.1. Distribución de máximos . . . . . . . . . . . . . . . . . . . 123

4.2.2. Distribución de excesos . . . . . . . . . . . . . . . . . . . . 126

4.2.3. Selección del umbral . . . . . . . . . . . . . . . . . . . . . . 132

4.2.4. Estimación de las colas de las distribuciones de pérdidas


DowJones e Ibex35 . . . . . . . . . . . . . . . . . . . . . . . 133

4.2.5. Medidas de riesgo para las distribuciones de pérdidas uni-


variantes DowJones e Ibex35 . . . . . . . . . . . . . . . . . 141

4.3. Medidas de Riesgo para una Cartera de Inversión . . . . . . . . . . 145

4.3.1. Medidas de riesgo calculadas sobre la cartera DowJones e


Ibex35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

5 Cópulas con Estructura Dinámica 159

5.1. Modelo de cópula dinámica DowJones&Ibex35 . . . . . . . . . . . 165

6 Conclusiones y Problemas abiertos 171

Bibliografı́a 175
Introducción

La gestión del riesgo operacional representa para las entidades financieras


una de las tareas de mayor importancia en sus diferentes etapas de identificación,
medida y control. Por otra parte, el nuevo Acuerdo de Capital de Basilea (Basilea
II), proporciona un estándar internacional de supervisión que las instituciones
financieras están obligadas a cumplir (BIS, 1996). Estas nuevas reglas marcan
patrones a seguir en el análisis de las tres componentes esenciales del riesgo:
riesgo de mercado, riesgo de crédito y riesgo operacional. De esta forma, se
confirma la gestión del riesgo como una de las piezas clave para la determinación
de las provisiones dinámicas de niveles mı́nimos de capital fı́sico que las entidades
deben mantener con el fin de cubrir las pérdidas esperadas. Por esta razón,
resulta de interés establecer modelos de riesgo que sirvan a una doble finalidad:
la de proponer controles internos que mejoren la propia gestión y la de presentar
informes precisos a este respecto a las instituciones supervisoras externas.

Es en este entorno donde surge el problema de la modelización de series de


retornos financieros, como ayuda para predecir la volatilidad en periodos futuros
y probabilidades asociadas a ella. Una simple inspección gráfica de la distribución
empı́rica de este tipo de series permite apreciar algunos rasgos comunes a todas
ellas, como son la asimetrı́a y las colas pesadas, es decir, la presencia de más
realizaciones en las colas que las esperables en una distribución normal. Esta
última observación resulta de vital importancia en el control de riesgos y, en par-
ticular, en el análisis y medida del riesgo potencial de pérdidas económicas, como
explicaremos a continuación. Tradicionalmente las instituciones financieras cuan-
tifican la posibilidad de que se produzca una pérdida más grande que una cierta
cantidad fijada, sobre un horizonte temporal dado, mediante el llamado Valor en
Riesgo (VaR) (Smith, 2002, Danielsson y otros 2000); por ejemplo, el VaR puede
decirnos que más allá de 20 dı́as se puede esperar una pérdida de al menos el
2 Teorı́a de Cópulas y Control de Riesgo Financiero

2%. De forma sencilla y en este contexto, una cartera puede considerarse como
la combinación lineal de un conjunto de precios de activos individuales. Si la
composición de la cartera se mantiene fija, es posible evaluar el riesgo mediante
alguna técnica univariante (por ejemplo, mediante Teorı́a de Valores Extremos),
tratando simplemente el precio de la cartera como variable de interés. Sin em-
bargo, lo habitual es diseñar la cartera de forma que se maximice el rendimiento
esperado sujeto a alguna restricción sobre el VaR de la misma. Para resolver
un problema de esta naturaleza, en el que es necesario determinar los pesos de
los diferentes activos, resulta esencial considerar la distribución conjunta de los
precios. Las técnicas convencionales aplicadas en el cálculo del VaR se basan
en la hipótesis de normalidad multivariante para la distribución conjunta de los
retornos, pero esta hipótesis es cuestionable en la mayorı́a de los casos dado que,
como ya hemos comentado, tratamos con series con colas más pesadas que las que
proporcionarı́a la situación de normalidad, lo que complica la determinación de
las probabilidades en las colas. Concretamente, en el caso de la dependencia entre
mercados financieros, los trabajos de Ang y Chen (2002), Login y Solnik (2001)
y Ang y Bekaert (2002), ponen en evidencia la hipótesis de normalidad aplicada
a observaciones procedentes de mercados tanto domésticos como internacionales.

Los métodos tradicionales de simulación histórica (Crouhy, Galai y Mark


2001; Marshall 2001; Vilariño 2001), aunque pueden contemplar los fenómenos de
asimetrı́a y colas pesadas ya comentados, presentes en las distribuciones empı́ricas,
tienen el inconveniente de no permitir predecir pérdidas fuera de la muestra y,
por tanto, resultan pobres a la hora de estimar el VaR: las pérdidas pasadas re-
sultan no ser buenos estimadores de las pérdidas futuras. Además las medidas de
riesgo obtenidas a partir de las series históricas, con frecuencia son sensibles al
tamaño de la ventana temporal empleada y dificultan los análisis de sensibilidad
de determinados parámetros a pequeñas variaciones. De todo lo anterior, surge
la necesidad de modelizar las distribuciones empı́ricas mediante modelos multi-
variantes suficientemente flexibles. Paralelamente a este desarrollo, surge el de
los métodos inferenciales necesarios para determinar los modelos más apropiados
a cada situación práctica.

Es en esta situación donde demuestran su utilidad las funciones cópulas, como


una herramienta para describir la estructura de dependencia subyacente entre un
grupo de variables aleatorias, de las cuales se conoce el comportamiento indi-
vidual, y determinar el efecto de dicha estructura sobre el VaR bajo un modelo
de probabilidad concreto, es decir, medimos y comparamos riesgos a partir de
3

los cuantiles de la distribución conjunta. Las funciones cópulas tienen una larga
historia en Teorı́a de la Probabilidad aunque han sido estudiadas bajo diferentes
nombres: t-normas, funciones de dependencia, operadores de Markov o medidas
doblemente estocásticas. Para una introducción a la Teorı́a de cópulas pueden
consultarse los textos de Joe (1997) y Nelsen (1999), o el trabajo de Frees y
Valdez (1998). La idea de una función que caracterice la estructura de depen-
dencia entre diferentes variables aleatorias proviene de los trabajos de Hoeffding
(1940, 1948), aunque fue Sklar (1959) quién definió y estableció la denominación
de cópula para una función que obtiene la distribución multivariante como función
de las distribuciones marginales univariantes. Sin embargo, su aplicación en el
marco financiero es muy reciente: la primera idea aparece en torno al estudio de
las limitaciones del coeficiente de correlación lineal como medida de dependencia
(Embretchs, McNeil y Straumann, 1999). El texto de Cherubini, Luciano y Vec-
chiato (2004) resulta bastante interesante en cuanto a aplicaciones en el campo
financiero y actuarial y el trabajo de Embretchs, Lindskog y McNeil (2001) cons-
tituye un buen resumen desde el punto de vista teórico.

Las cópulas permiten representar funciones de distribución conjuntas ası́ como


distinguir el comportamiento de las marginales, a partir del patrón de dependen-
cia capturado por la cópula misma. Esto resulta muy útil no sólo en la fase de
modelización, sino también en las de estimación o simulación. Esencialmente,
nos proporcionan una manera relativamente sencilla de extender los modelos fi-
nancieros tradicionales, que partı́an de la hipótesis de normalidad conjunta, a
situaciones más generales incluyendo aquellas en las que se supone normalidad
únicamente en las marginales.

Actualmente, la Teorı́a de Cópulas está bastante consolidada, aunque las


propuestas inferenciales aún resultan escasas. Las aportaciones de Genest y
Rivest (1993), Genest, Ghoudi y Rivest (1995) y Joe (1997) resultan esenciales
en este contexto, y Genest y Favre (2006) realizan una interesante recopilación
de este tipo de técnicas. El interés, por tanto, se concentra en el desarrollo de
modelos de cópulas multivariantes, capaces de capturar rasgos relevantes de series
financieras y sobre los métodos inferenciales aplicables a dichos modelos, que re-
sultan esenciales en la consecución de los siguientes fines: estimación de funciones
de riesgo dependientes, predicción de series temporales financieras y evaluación
de medidas de riesgo.
4 Teorı́a de Cópulas y Control de Riesgo Financiero

Objetivos y Resultados

Esta tesis tiene un doble objetivo. En primer lugar, introduce modelos tanto
estáticos como dinámicos basados en funciones cópulas, capaces de capturar ras-
gos relevantes de series financieras bivariantes, con el fin de ser útiles en el control
y valoración de riesgos potenciales de mercados financieros. En segundo lugar,
analiza el comportamiento conjunto de dos mercados consolidados: el americano,
representado por el ı́ndice Dow Jones, y el europeo, a través del ı́ndice Ibex35,
razón por la cual, la teorı́a y la práctica van de la mano a lo largo de los diferentes
desarrollos.

Fundamentalmente, nuestro análisis se ha referido al comportamiento de pérdi-


das extremas, reflejado en las colas inferiores, tanto de las distribuciones mar-
ginales como del modelo bivariante. La metodologı́a que se presenta resulta
aplicable a una gran variedad de situaciones reales de control de riesgo.

La tesis se ha estructurado a lo largo de cinco capı́tulos en los que se exponen


los diferentes métodos y resultados, y un último capı́tulo dedicado a las conclu-
siones más relevantes, en el que además se describen los problemas abiertos a
futuras investigaciones.

El Capı́tulo 1 está dedicado a las nociones básicas, propiedades y herramien-


tas utilizados en los capı́tulos posteriores. En él se establece la definición de
cópula, relacionada con la de variable aleatoria, junto con las propiedades más
relevantes de las mismas incluyendo el resultado fundamental, conocido como
Teorema de Sklar (Sklar 1959), que permite la aplicación de la aproximación
basada en cópulas en la modelización de estructuras de dependencia multivari-
antes. Incluimos un análisis detallado de las limitaciones del uso del coeficiente
de correlación lineal como medida de dependencia, lo que justifica la necesidad de
considerar otras medidas de concordancia, tales como la tau de Kendall o la rho de
Spearman. A continuación, se plantea el concepto de dependencia en colas como
una propiedad de la cópula, y no de las distribuciones marginales. Seguidamente
se define la cópula empı́rica, para finalizar con una descripción de los modelos
paramétricos de cópula más utilizados en el ámbito financiero, prestando especial
atención a la familia de las arquimedianas y la de valores extremos, debido a las
buenas propiedades que presentan.

El Capı́tulo 2 aborda la cuestión relativa a la elección del modelo de cópula


que representa de forma más adecuada la estructura de dependencia entre series
5

bivariantes de retornos de ı́ndices financieros. En este capı́tulo nos centramos ex-


clusivamente en la elección del modelo estático de cópula, ya sea de tipo empı́rico
o parámetrico, basado en la información proporcionada por las distribuciones
empı́ricas continuas marginales; esto es, no se supone un modelo paramétrico
para el comportamiento marginal, con el fin de evitar errores procedentes de
malas especificaciones. Puesto que la función de distribución empı́rica es de na-
turaleza discreta, lo que puede originar problemas en un proceso posterior de
ajuste de tipo paramétrico si optamos por el método de la maxima verosimilitud,
ha sido necesario utilizar un procedimiento que dote a la función de distribución
empı́rica de soporte continuo.

A continuación, en una primera aproximación, se obtiene la cópula empı́rica,


que extrae de forma directa la estructura de dependencia de las series brutas de
datos y permite estimar de forma consistente la cópula real que los representa.
Dicha cópula empı́rica se dedica a diferentes cometidos, como son la identifi-
cación del signo de la dependencia bivariante, la cuantificación de la dependencia
conjunta y de la dependencia en colas, esta última mediante un gráfico especı́fico
que permite detectar posibles convergencias en los valores de los coeficientes con-
cretos. También servirá para calibrar diferentes familias de cópulas candidatas a
utilizar en un ulterior ajuste paramétrico.

Si los modelos de cópulas candidatas al ajuste pertenecen a la familia de las


arquimedianas, se utiliza un método alternativo no paramétrico (Genest y Rivest
1993) de estimación del parámetro θ ∈ Θ identificativo de la cópula, basado en la
τ de Kendall. Se calculan los correspondientes errores e intervalos de confianza.
En este contexto, también es posible realizar una estimación de tipo paramétrico
basada en el generador especı́fico de cada modelo arquimediano, que se comparará
con la anterior.

Posteriormente, en un planteamiento de naturaleza paramétrica (para el cual


lo expuesto anteriormente no resulta excluyente sino complementario e incluso
recomendable como tratamiento previo) supondremos que la cópula verdadera
pertenece a una familia paramétrica {Cθ , θ ∈ Θ}, con Θ el espacio de posibles
valores del parámetro. Mediante un método de máxima pseudo-verosimilitud se
obtendrán estimadores de θ ∈ Θ, consistentes y asintóticamente normales. En un
paso siguiente, evaluamos la bondad del ajuste realizado, para lo que se proponen
métodos de tipo gráfico y analı́tico.

Por último, se lleva a la práctica todo lo anteriormente expuesto, realizando el


6 Teorı́a de Cópulas y Control de Riesgo Financiero

análisis de la serie bivariante formada por los retornos logarı́tmicos diarios de los
ı́ndices financieros Dow Jones e Ibex35. En esta implementación práctica, parti-
mos de algunos de los modelos estáticos planteados inicialmente como candidatos
al ajuste, para crear dos modelos alternativos de cópulas que operan de una ma-
nera más eficiente, y que se obtienen como combinaciones lineales convexas de
los primeros. Estos modelos están identificados por un parámetro de dependen-
cia tridimensional, cuya estimación se realiza por el método de máxima pseudo-
verosimilitud antes indicado. Para ellos se obtiene, como resultado teórico, la
relación funcional entre los coeficientes de dependencia en colas y los parámetros
de dependencia. Esta situación ilustra de forma evidente la realimentación exis-
tente entre teorı́a y práctica, presente a lo largo de esta tesis, puesto que estos
nuevos modelos de tipo mixto adquieren un carácter relevante en los desarro-
llos teóricos de capı́tulos posteriores, dado que capturan una amplia variedad
de situaciones reales de dependencia bivariante. El capı́tulo, contemplado en
su totalidad, constituye una propuesta metodológica de inferencia para cópulas
bivariantes estáticas.

Dedicamos el Capı́tulo 3 a la elección de los modelos marginales más ade-


cuados a cada serie de retornos de los ı́ndices considerados. La realidad es que las
observaciones de las series univariantes no son necesariamente independientes en
el tiempo, por lo que el planteamiento básico de que partimos es que cada una de
ellas sigue un modelo de serie temporal estacionario con estructura de volatilidad
estocástica.

Abordamos, entonces, la representación del comportamiento de las distribu-


ciones marginales de los retornos en dos fases: una primera en la que utilizare-
mos modelos tipo GARCH (modelos dinámicos de varianza condicionada; Engle
1982, Bollerslev, Chow y Kroner 1992) y máxima verosimilitud para obtener es-
timaciones de la volatilidad condicionada, para proceder, en una segunda fase, a
confirmar mediante el análisis de datos exploratorio y los contrastes estadı́sticos
pertinentes, que los residuos constituyen, al menos de forma aproximada, una
serie i.i.d. con colas pesadas. Esta aproximación, que estima la distribución
condicionada de los retornos a partir de la de los residuos y las estimaciones
de la volatilidad y de la media condicionada, refleja dos rasgos presentes en la
mayorı́a de las series de retornos financieros: la volatilidad estocástica y las colas
pesadas de las distribuciones condicionadas de los retornos sobre horizontes tem-
porales cortos. A lo largo del capı́tulo se establecen una serie de procedimientos
de selección y diagnóstico de este tipo de modelos.
7

Los planteamientos teóricos previos se llevan a la práctica sobre cada una


de las series de retornos logarı́tmicos diarios de los ı́ndices Dow Jones e Ibex35,
para a continuación realizar la selección del modelo bidimensional de cópula que
mejor se ajusta a la serie bivariante de residuos filtrados mediante los procesos
tipo GARCH elegidos como modelos marginales. El modelo de cópula obtenido
de esta forma es invariante en el tiempo, pero asume comportamientos marginales
dinámicos.

Una vez resuelta la dificultad que suponı́a la presencia de dependencia tem-


poral en las series marginales de retornos, mediante el filtrado de las mismas a
través de procesos tipo GARCH, dedicamos el Capı́tulo 4 al tratamiento deta-
llado de la dependencia local en colas entre las series de retornos filtrados. En
primer lugar, adaptamos herramientas gráficas (Chi-plot, K-plot) para detectar la
presencia de la dependencia, no solo de tipo general, sino también en las colas de
la distribución bivariante. A continuación, modelizamos las colas de las distribu-
ciones marginales de los retornos filtrados. Para ello, nos servimos de métodos
umbral (POT) que permiten el ajuste de distribuciones de Pareto generalizadas
(GPD) a las muestras univariantes de residuos que superen un umbral dado. Se
propone una metodologı́a de selección del umbral más adecuado para el ajuste.

En un siguiente paso, se cuantifica el riesgo de la pérdida conjunta, concre-


tada a través de una cartera de inversión con unos pesos de localización especifi-
cados. Se utilizan como modelos de pérdidas marginales los obtenidos mediante
Distribuciones de Pareto Generalizadas (GPD) univariantes que representan los
comportamientos de las colas de pérdidas de los ı́ndices financieros implicados.
Nuestra aportación consiste en ligar estas distribuciones marginales mediante los
dos modelos mixtos de cópulas obtenidos en el capı́tulo 2, y utilizar esta estruc-
tura de dependencia conjunta para simular retornos de la cartera lineal. Con este
fin, se ha desarrollado un algoritmo de simulación de muestras de retornos de la
cartera basado en dichos modelos de cópula y en los modelos univariantes propor-
cionados por las GPD ajustadas, en lugar de utilizar la aproximación cuantı́lica
para cada distribución univariante. Al igual que en los Capı́tulos 2 y 3, las
técnicas propuestas se aplican al caso Dow Jones e Ibex35.

Hasta el momento, se ha supuesto que el parámetro de dependencia del mo-


delo o modelos de cópula seleccionados tiene un valor constante (o dos valores
constantes en el caso de los modelos mixtos) lo que presupone que la dependen-
cia bivariante permanece estática a lo largo del periodo muestral considerado.
8 Teorı́a de Cópulas y Control de Riesgo Financiero

Resulta más realista contemplar la posibilidad de que dicha dependencia posea


una estructura que cambie a lo largo del tiempo, dado que en el caso concreto
de los mercados financieros existe una clara componente dinámica que afecta a
su evolución. El Capı́tulo 5 plantea una propuesta original que permite dotar al
modelo de cópula de una estructura dinámica, basada en la evolución de la depen-
dencia bivariante localizada en las colas, cuantificada a través de los coeficientes
de dependencia (TDC). Una vez obtenida la serie de valores de dichos coeficientes
a partir de la llamada cópula cola empı́rica, se propone para ella un modelo de
serie temporal en el cual la influencia de valores cercanos al instante considerado
sea mayor que la de los más alejados en el tiempo (alisado exponencial doble de
Holt).

A partir de las predicciones de los TDC y de sus expresiones en función de


los parámetros de dependencia de los modelos de cópula, es posible obtener la
evolución dinámica de la dependencia ajustando el modelo de cópula bidimen-
sional en cada instante. De esta forma, somos capaces de generar retornos de la
cartera en base a la cópula dinámica y efectuar valoraciones del riesgo a lo largo
de un horizonte temporal fijado previamente. El capı́tulo acaba con la obtención
de los resultados correspondientes para el caso Dow Jones e Ibex35.

Esta tesis finaliza con un último capı́tulo, en el que se resumen las conclusiones
más importantes de nuestro trabajo, ası́ como las cuestiones abiertas que puedan
considerarse como puntos de partida para futuras investigaciones.

Los resultados y metodologı́as expuestos a lo largo de los capı́tulos 2, 3 , 4 y 5


detallados anteriormente, se han automatizado mediante diversos procedimientos
informáticos realizados en lenguaje Splus 6.1 en su versión para Windows, de
forma que permitan realizar un análisis similar al expuesto sobre cualquier mues-
tra bivariante de retornos financieros. Al final de esta memoria se adjunta un
anexo en el que se relacionan los diferentes procedimientos y funciones desarro-
llados para la implementación de las distintas técnicas introducidas.

Es nuestro deseo que este trabajo constituya un resultado útil, tanto desde el
punto de vista teórico como práctico, y pueda ser considerado como una modesta
aportación dentro del conjunto de metodologı́as estadı́sticas orientadas al control
cuantitativo del riesgo operacional, inherente a los mercados financieros.
1

Cópulas y Variables Aleatorias

1.1. Conceptos Básicos

En términos generales, una cópula es una función de distribución multivari-


ante definida sobre el cubo unidad [0, 1]n con marginales distribuidas uniforme-
mente. Esta definición resulta natural si la cópula se obtiene a partir de una
función de distribución multivariante continua, en cuyo caso la cópula es sim-
plemente la función de distribución multivariante original con marginales uni-
variantes transformadas; sin embargo, enmascara alguno de los problemas que
aparecen cuando la cópula se construye utilizando otras técnicas, es decir, es
necesario establecer el significado del término “función de distribución multi-
variante”. Por esta razón, debemos comenzar con una definición más abstracta
y, posteriormente, establecer la definición operacional de cópula en términos de
variables aleatorias y función de distribución.

Sean S1 , ..., Sn subconjuntos no vacı́os de R = [−∞, +∞]. Sea H una función


real de n variables tales que DomH = S1 × ... × Sn y para a ≤ b (ak ≤ bk ∀k) sea
B = [a, b] = [a1 , b1 ] × ... × [an , bn ] cuyos vértices están en el domH.

Definición 1.1
Llamamos H-volumen de B a
X
VH (B) = sign(c)H(c)
2 Teorı́a de Cópulas y Control de Riesgo Financiero

donde la suma se toma sobre todos los vértices c de B y


(
1 si ck = ak para un no par de k0 s
sign(c) =
−1 si ck = ak para un no impar de k0 s

Definición 1.2
Una función real H de n variables es n-creciente si VH (B) ≥ 0 ∀B cuyos
vértices están en el DomH.

Sea H la función de variable real n-dimensional con DomH = S1 × ... × Sn


donde cada Sk tiene un elemento más pequeño ak . Supongamos que H verifica
la siguiente propiedad:

Propiedad 1.1 H(t) = 0 ∀t ∈ domH tal que tk = ak para al menos un k.

Si cada Sk es no vacı́o y tiene un elemento más grande bk , entonces H tiene


marginales, siendo las marginales unidimensionales de H las funciones Hk con
DomH = Sk y con Hk (x) = H(b1 , ..., bk−1 , x, bk+1 , ...bn ) ∀x ∈ Sk que son las
denominadas simplemente marginales. Las marginales de dimensión superior se
definen de manera análoga.

Lema 1.1
Sean S1 , ..., Sn subconjuntos no vacı́os de R y sea H la definida anterior-
mente, n-creciente y verificando la propiedad 1.1. con DomH = S1 × ... × Sn .
Entonces H es creciente en cada argumento, es decir, si (t1 , ..., tk−1 , x, tk+1 , ...tn )
y (t1 , ..., tk−1 , y, tk+1 , ...tn ) están en DomH y x ≤ y, entonces

H(t1 , ..., tk−1 , x, tk+1 , ...tn ) ≤ H(t1 , ..., tk−1 , y, tk+1 , ...tn )

Lema 1.2
Sean S1 , ..., Sn subconjuntos no vacı́os de R y sea H la definida anteriormente,
n-creciente y verificando la propiedad 1.1., con marginales y DomH = S1 × ... ×
Sn , entonces si x = (x1 , ...xn ) e y = (y1 , ...yn ) son puntos en el DomH se verifica
que
X n
|H(x) − H(y)| ≤ |Hk (x) − Hk (y)|
k=1

(La demostración de ambos Lemas puede verse en Sklar y Schweizer,1983).


Cópulas y Variables Aleatorias 3

Definición 1.3
n
Una función de distribución n-dimensional es una función H con dominio R
tal que H es n-creciente, verifica la propiedad 1.1. y H(∞, ..., ∞) = 1.

Del Lema 1.1 se sigue que las marginales de una función de distribución n-
dimensional son funciones de distribución que denotaremos F1 , ..., Fn .

Definición 1.4
Una Cópula n-dimensional es una función C con dominio [0, 1]n tal que:

(i) C es n-creciente y verifica la propiedad 1.1.

(ii) C tiene marginales Ck , k = 1, 2, ..., n, que satisfacen Ck (u) = u ∀u ∈ [0, 1].

Obsérvese que para cualquier cópula n-dimensional C, n ≥ 3, las marginales


k-dimensionales de C son cópulas k-dimensionales. De forma equivalente, una
cópula n-dimensional C es una función con las siguientes propiedades:

1. Para cada u∈ [0, 1]n , C(u) = 0 si al menos una coordenada de u es 0, y


C(u) = uk si todas las coordenadas de u son iguales a 1 excepto uk .

2. Para cada a y b en [0, 1]n tales que ai ≤ bi ∀i = 1...n se verifica que


VC [a, b] ≥ 0.

Puesto que las cópulas son funciones de distribución conjuntas (sobre [0, 1]n ),
una cópula C induce una medida de probabilidad sobre [0, 1]n a través de

VC ([0, u1 ] × ... × [0, un ]) = C(u1 , ..., un )

y una extensión estándar a subconjuntos de Borel arbitrarios de [0, 1]n . A partir


de resultados conocidos de la teorı́a de la medida, podemos asegurar que existe
una única medida de probabilidad sobre subconjuntos de Borel de [0, 1]n que co-
incide con VC sobre el conjunto de elementos de [0, 1]n . Denotaremos esta medida
de probabilidad por VC . A partir de la definición se sigue que una cópula C es una
función de distribución sobre [0, 1]n con marginales distribuidas uniformemente
en [0, 1].

El siguiente Teorema se sigue directamente del Lema 1.2:


4 Teorı́a de Cópulas y Control de Riesgo Financiero

Teorema 1.1
Sea C una cópula n-dimensional. Entonces para cada u, v∈ [0, 1]n
n
X
|C(v) − C(u)| ≤ |vk − uk |
k=1

Por tanto, C es uniformemente continua en [0, 1]n .

1.2. Teorema de Sklar. Interpretación probabilı́stica


de las cópulas

El punto de partida para la aplicación financiera de las cópulas es su inter-


pretación probabilistica, es decir, la relación entre cópulas y funciones de dis-
tribución de variables aleatorias. Esta relación está esencialmente establecida en
el Teorema de Sklar que asegura no solamente que las cópulas son funciones de
distribución conjuntas, sino que el recı́proco también es cierto: las funciones de
distribución conjuntas se pueden reescribir en términos de las marginales y una
única subcópula, que a su vez puede extenderse (en general, no de forma única) a
una cópula. Es más, la mayorı́a del estudio de funciones de distribución conjuntas
puede reducirse al estudio de cópulas.

Teorema 1.2 (Sklar 1959)


Sea H una función de distribución n-dimensional con marginales F1 , ..., Fn .
n
Entonces existe una cópula n-dimensional C tal que ∀x∈ R

H(x1 , ..., xn ) = C(F1 (x1 ), ..., Fn (xn )) (1.1)

Si F1 , ..., Fn son todas continuas, entonces C es única, por tanto, está unı́vocamente
determinada sobre RanF1 × ... × RanFn .

Inversamente, si C es una cópula n-dimensional y F1 , ..., Fn son funciones


de distribución, entonces la función H definida anteriormente es una función de
distribución n-dimensional con marginales F1 , ..., Fn .

(La demostración puede verse en Sklar 1959).

De acuerdo con este resultado, cuando escribimos por ejemplo para el caso
Cópulas y Variables Aleatorias 5

bidimensional:
F (x, y) = C(F1 (x), F2 (y))

repartimos la probabilidad conjunta entre las marginales y una cópula, de forma


que esta última solamente representa la asociación entre X e Y . Las cópulas
separan el comportamiento marginal (representado por las Fi ) del conjunto, en
contra de lo que ocurre en la representación usual de probabilidades conjuntas vı́a
función de distribución. Por esta razón, las cópulas son denominadas funciones
de dependencia (Deheuvels 1978).

Observaciones: (Consecuencias del Teorema de Sklar)

P (X ≤ x, Y > y) = F1 (x) − C(F1 (x), F2 (y))

P (X > x, Y ≤ y) = F2 (y) − C(F1 (x), F2 (y))


C(F1 (x),F2 (y))
P (X ≤ xÁY ≤ y) = F2 (y)

F1 (x)−C(F1 (x),F2 (y))


P (X ≤ xÁY > y) = 1−F2 (y)
h i
∂C(u,v)
P (X ≤ xÁY = y) = C1/2 (F1 (x), F2 (y)) = ∂v u=F1 (x),v=F2 (y)

Definición 1.5
Sea F una función de distribución univariante. Llamamos inversa genera-
lizada de F a

F −1 (t) = inf {x ∈ R : F(x) ≥ t} ∀t ∈ [0, 1]

(Consideramos inf ∅ = −∞).

Corolario 1.1
Sea H una función distribución n-dimensional con marginales continuas F1 , ..., Fn
y cópula C ( C satisface (1.1)). Entonces para cualquier u∈ [0, 1]n

C(u1 , ..., un ) = H(F1 (u1 ), ..., Fn (un ))

La separación entre comportamientos marginales y dependencia conjunta ex-


plica la flexibilidad de las cópulas para establecer modelos de dependencia con
numerosas aplicaciones prácticas y teóricas. La primera parte del teorema de
Sklar permite construir distribuciones bivariantes de forma sencilla y flexible:
6 Teorı́a de Cópulas y Control de Riesgo Financiero

uniendo una pareja de distribuciones marginales univariantes en una función que


satisface la definición de cópula. Esto difiere de la manera tradicional de cons-
truir distribuciones multivariantes, que tiene la restricción de que las marginales
son usualmente del mismo tipo, es decir, las correspondientes variables aleatorias
son transformaciones lineales afines la una de la otra mientras que las cópulas
admiten marginales de diferentes tipos. Esta peculiaridad sugiere que cualquier
problema de estimación deberı́a descomponerse en dos etapas: la primera relativa
a las marginales y la segunda a la cópula misma.

1.3. Cotas de Fréchet-Hoeffding

Consideremos las funciones

M n (u) = mı́n(u1 , ..., un )


Πn (u) = u1 × ... × un
W n (u) = máx(u1 + ... + un − n + 1, 0)

Las funciones M n y Πn son n-cópulas ∀n ≥ 2 , mientras que W n en general


no es una cópula para cualquier n ≥ 3.

Teorema 1.3
(Desigualdad de las cotas de Fréchet-Hoeffding)

Sea C una n-cópula , entonces para cada u∈ [0, 1]n

W n (u) ≤ C(u) ≤ M n (u)

(La demostración puede verse en Fréchet 1957).

A la vista de esta desigualdad podemos preguntarnos qué representa el he-


cho de que la cópula que une las variables aleatorias coincida con alguna de las
dos cotas (nos referiremos al caso bidimensional, ya que para n > 2 , W n no
es una cópula). El hecho de que la distribución conjunta de las dos v.a. esté
caracterizada por la cota superior de Fréchet, M 2 , indica una situación de de-
pendencia perfecta positiva, también conocida como comonotonicidad. Por el
Cópulas y Variables Aleatorias 7

contrario, si la cópula que las liga es la cota inferior de Fréchet, W 2 , se dice que
son contramonotónicas.
Independencia Máxima

0.8
0.8

0.6
0.6

Density Density
0.4
0.4

0.2
0.2

0.8
0.8
0.8
0.8
0.6
0.6
0.6
0.6
0.4
0.4
0.4
y 0.4 y
x 0.2 x
0.2 0.2
0.2

Mínima

0.8

0.6

Density
0.4

0.2

0.8

0.8
0.6
0.6
0.4
0.4
y
0.2 x
0.2

Figura 1.1: Distribuciones de las Cópulas Independencia, Máxima y Mı́nima


A pesar de que W n no es una cópula para n > 2 , es la mejor cota inferior
posible en el sentido siguiente:

Teorema 1.4
Para cualquier n > 2 y u ∈ [0, 1]n , existe una n-cópula C (que depende de u)
tal que

C(u) = W n (u)

(La demostración puede verse en Nelsen 1999, pág..42)

Una consecuencia del Teorema de Sklar, es que la desigualdad que relaciona


las cópulas máxima y mı́nima, W 2 y M 2 , puede escribirse como

máx(F1 (x) + F2 (y) − 1, 0) ≤ F (x, y) ≤ mı́n(F1 (x), F2 (y))


8 Teorı́a de Cópulas y Control de Riesgo Financiero

que es la conocida desigualdad de Fréchet-Hoeffding para funciones de distribución.

La existencia de cotas superior e inferior sugiere la posibilidad de establecer


un orden entre las cópulas:

Definición 1.6
Sean C1 y C2 cópulas. Decimos que C1 es más pequeña que C2 (o C2 más
grande que C1 ) y lo denotamos

C1 ≺ C2 (C2 Â C1 )

si
C1 (u, v) ≤ C2 (u, v) (o C2 (u, v) ≥ C1 (u, v)) ∀(u, v) ∈ [0, 1]2

Este orden se denomina orden de concordancia.

Decimos que una familia paramétrica de cópulas {Cθ , θ ∈ Θ} está ordenada


positivamente respecto al parámetro θ, si

θ1 ≤ θ2 ⇒ Cθ1 ≺ Cθ2 ∀θ1 , θ2 ∈ Θ

Por el contrario, estará ordenada negativamente si

θ1 ≤ θ2 ⇒ Cθ1 Â Cθ2 ∀θ1 , θ2 ∈ Θ

El orden ası́ definido es solamente parcial, puesto que no todas las cópulas
pueden compararse a través de él. Por ejemplo, si consideramos
1 2
C= W+ M
3 3

(es inmediato comprobar que C es una cópula a partir de la definición 1.4 y


del hecho de que W y M son cópulas) es posible encontrar puntos de [0, 1]2 en
los que C ≥ Π y otros en los que C < Π, en concreto
1 2 1
máx(u + v − 1, 0) + mı́n(u, v) > uv si u = v =
3 3 2
1 2 1 3
máx(u + v − 1, 0) + mı́n(u, v) < uv si u = , v =
3 3 4 4

con lo cual C y Π no son comparables.


Cópulas y Variables Aleatorias 9

1.4. Gráficos y diagramas de contorno de una cópula

El gráfico de una cópula, z = C(u, v), es una superficie continua en el cubo


unidad [0, 1]3 , acotada por el cuadrilátero de vértices (0,0,0), (1,0,0), (1,1,1) y
(0,1,0).

Como sabemos, dada cualquier cópula C se verifica que:

W (u, v) ≤ C(u, v) ≤ M (u, v)

por lo que el gráfico de C permanece entre los gráficos de las cotas de Fréchet-
Hoeffding, es decir, las superficies z = W (u, v) y z = M (u, v).

Una manera sencilla de presentar y comparar el gráfico de una cópula, es a


través de su diagrama de contorno que no es más que la representación gráfica de
sus curvas de nivel. Éstas últimas son conjuntos en [0, 1]n dados por C(u, v) = k
con k constante. Obsérvese que los puntos (k, 1) y (1, k) pertenecen a la curva
de nivel correspondiente a la constante k.

También se verifica
n que para cualquier cópula Co y un k ∈ [0, 1] dado, el gráfico
de la curva de nivel (u, v) ∈ [0, 1]2 : C(u, v) = k debe permanecer dentro del
triángulo determinado por W (u, v) = k y M (u, v) = k.
10 Teorı́a de Cópulas y Control de Riesgo Financiero

Funci n de distribuci n de BIV1

2 0.005 2
0.9
0.010

0.8
0.0200.015
0.0300.025 0.7
0.035
0.040 0.6
y

y
0 0 0.5
0.4
0.3

0.2

0.1

-2 -2

-5 0 5 10 -5 0 5 10
x x

0.04

0.03

Density
0.02

0.01

2 10

0 5

-1
y 0
-2
x
-3
-5

Figura 1.2: Densidad de la Cópula de Gumbel bivariante de parámetro 1.4 con


marginales N(3,4) y t(3) (abajo) y diagramas de contorno de su densidad y su
distribución (arriba)
Cópulas y Variables Aleatorias 11

1.5. Propiedades de las cópulas

Puesto que n v.a. X1 , ..., Xn son independientes sii

H(x1 , ..., xn ) = F1 (x1 ) × ... × Fn (xn ) ∀x1 , ..., xn ∈ R

se puede establecer el siguiente resultado a partir del Teorema 1.2:

Teorema 1.5
Sea (X1 , ..., Xn )T un vector de v.a. continuas con cópula C. Entonces X1 , ..., Xn
son independientes sii C = Πn .

Una buena propiedad de las cópulas es que son invariantes bajo transfor-
maciones estrictamente monótonas de las variables aleatorias, o en su caso se
transforman de manera sencilla. Obsérvese que si la función de distribución de
una v.a. X es continua y α es una función estrictamente monótona cuyo dominio
contiene el RanX, entonces la función de distribución de la v.a. α(X) también
es continua.

Proposición 1.1
Sea (X1 , ..., Xn )T un vector de v.a. continuas con cópula C. Si α1 , ..., αn
son estrictamente crecientes sobre RanX1 , ..., RanXn , respectivamente, entonces
(α1 (X1 ), ..., αn (Xn ))T también tiene cópula C.

Dem:

Sea Fi la función de distribución de Xi , i = 1...n. Sea α−1


i la inversa de αi .

La variable transformada αi (Xi ) tiene función de distribución continua Fe =


Fi ◦ αi−1 . Recordemos que Fi−1 (U) v Fi y Fi−1 (ui ) = xi .

Por tanto
£ ¤
C(u1 , ..., un ) = P X1 ≤ F1−1 (u1 ), ..., Xn ≤ Fn−1 (un )
£ ¤
= P α1 (X1 ) ≤ α1 ◦ F1−1 (u1 ), ..., αn (Xn ) ≤ αn ◦ Fn−1 (un )
h i
= P α1 (X1 ) ≤ Fe1−1 (u1 ), ..., αn (Xn ) ≤ Fen−1 (un )

De este resultado se siguen algunas consecuencias teóricas y prácticas de in-


terés. Desde el punto de vista teórico, permite asegurar que cualquier funcional
12 Teorı́a de Cópulas y Control de Riesgo Financiero

o propiedad de la función de distribución conjunta que sea invariante bajo trans-


formaciones estrictamente crecientes de las v.a., es un funcional o propiedad de
su cópula (independientemente de sus funciones de distribución de probabilidad
individuales), por tanto, resulta natural utilizar cualquier medida de dependencia
para pares de v.a.: este es el núcleo de la definición de concordancia entre v.a.
que se tratará con detalle en el punto 1.7.

Proposición 1.2
X e Y v.a. son comonotónicas sii

(X, Y ) =d (α1 (Z), α2 (Z)

para alguna variable Z y α1 y α2 funciones monótonas crecientes.

(Si X e Y son continuas se tiene el caso más simple de comonotonicidad


Y = α(X) c.s. para alguna transformación creciente α).

Dem:

Sea U ∼ U (0, 1) y sea F la función de distribución conjunta de (X, Y ) con


marginales F1 (x) y F2 (y).

F (x, y) = P {U ≤ mı́n(F1 (x), F2 (y))} = P {U ≤ F1 (x), U ≤ F2 (y)}

por tanto

(X, Y ) =d (F1−1 (u), F2−1 (u)) (1.2)

F1−1 y F2−1 son transformaciones monótonas crecientes.

Inversamente, a partir de (1.2)

F (x, y) = P {α1 (Z) ≤ x, α2 (Z) ≤ y} = P {Z ∈ A, z ∈ B}

donde A y B son intervalos de la forma (−∞, k] o (−∞, k) , por lo que A ⊂ B


o B ⊂ A . Es más

F (x, y) = mı́n {P (Z ∈ A), P (Z ∈ B)} = mı́n(F1 (x), F2 (y))

¤
Cópulas y Variables Aleatorias 13

Proposición 1.3
X e Y v.a. son contramonotónicas sii

(X, Y ) =d (α1 (Z), α2 (Z)

para alguna variable Z y α1 función monótona creciente y α2 función monótona


decreciente o viceversa.

Si X e Y son continuas se tiene el caso más simple de comonotonicidad Y =


α(X) c.s. para alguna transformación decreciente α.

Demostración:

Sea U ∼ U (0, 1)

(X, Y ) =d (F1−1 (u), F2−1 (1 − u)) = (X, Y ) =d (F1−1 (u), F2−1 ◦ g(u))

donde Fi−1 (q) es la función cuantı́lica de Fi y g(x) = 1 − x.

Entonces u = F1−1 es creciente y v = F2−1 ◦ g es decreciente.

Para el inverso
(X, Y ) = (u(z), v(z))

con u creciente y v decreciente.

Definimos
© ª
A = Z ∈ u−1 ((−∞, x])
© ª
B = Z ∈ v −1 ((−∞, y])

Si A ∩ B 6= ∅, la monotonicidad de u y v implica que

P (A ∪ B) = P (Ω) = 1 = P (A) + P (B) − P (A ∩ B)

y, por tanto

P (A ∪ B) = P {u(Z) ≤ x, v(Z) ≤ y} = F1 (x) + F2 (y) − 1

Si A ∩ B = ∅, entonces

F1 (x) + F2 (y) − 1 = 0
14 Teorı́a de Cópulas y Control de Riesgo Financiero

En cualquier caso

P (A ∪ B) = P {u(Z) ≤ x, v(Z) ≤ y} = máx {F1 (x) + F2 (y) − 1, 0}

Desde el punto de vista aplicado, la propiedad de comonotonicidad junto con


la invarianza, convierte a las cópulas en una potente herramienta para representar
modelos de dependencia conjunta que permiten caracterizar de manera sencilla
las situaciones extremas de independencia y dependencia perfecta (positiva o
negativa).

Finalizaremos este punto con el siguiente resultado relativo a las derivadas


parciales de una cópula:

Teorema 1.6
Sea C una cópula n-dimensional. Las derivadas parciales de orden k de C,
∂k n
∂u1 ...∂uk C(u), existen para casi todo u ∈ [0, 1] .

∂k
Análogamente, para cada u ∈ [0, 1]n 0≤ ∂u1 ...∂uk C(u) ≤ 1.

(El término casi todo se utiliza en el sentido de la medida de Lebesgue).

(Demostración y detalles en Nelsen 1999, pág.11)

Teniendo en cuenta lo anterior, dada una cópula :

C(u1 , ..., un ) = AC (u1 , ..., un ) + SC (u1 , ..., un )

con

Z u1 Z un
∂n
AC (u1 , ..., un ) = ... C(s1 , ..., sn )ds1 , ..., dsn
0 0 ∂s1 ...∂sn
SC (u1 , ..., un ) = C(u1 , ..., un ) − AC (u1 , ..., un )

Si C = AC en [0, 1]n , se dice que C es absolutamente continua. En este caso


C tiene densidad:

∂n
c(u1 , ..., un ) = C(u1 , ..., un )
∂u1 ...∂un
Cópulas y Variables Aleatorias 15

que por el teorema 1.1 sabemos que existe en el interior de [0, 1]n y es no negativa.

Si C = SC en [0, 1]n , se dice que C es singular y

∂n
C(u1 , ..., un ) = 0 c.s. en [0, 1]n
∂u1 ...∂un

El soporte de una cópula es el complementario de la unión de todos los sub-


conjuntos abiertos A ∈ [0, 1]n con VC (A) = 0. Cuando el soporte de C es [0, 1]n ,
se dice que C tiene soporte completo. Si C es singular, su soporte tiene medida de
Lebesgue cero y recı́procamente. Sin embargo, una cópula puede tener soporte
completo con dos componentes, la absolutamente continua y la singular:

C = AC + SC

• La cópula producto Π es absolutamente continua:


Z uZ v Z uZ v
∂2
∀(u, v) ∈ [0, 1]2 AC = utdudt = dudt = uv = Π
0 0 ∂u∂t 0 0

• La cota superior de Fréchet, W , es singular:

∂2
∀(u, v) ∈ [0, 1]2 W (u, v) = 0
∂u∂v

luego
Z uZ v
∂2
AC = W (u, v)dudt = 0 6= W
0 0 ∂u∂v

• Análogamente para la cota inferior de Fréchet, M .

Para vectores aleatorios continuos, la densidad de la cópula se relaciona con


la densidad f asociada a la función de distribución conjunta F . Concretamente,
es igual a la razón entre la densidad conjunta y el producto de las densidades
marginales:
f (x, y)
c(F1 (x), F2 (y)) =
f1 (x)f2 (y)

ya que, por el Teorema de Sklar, podemos establecer la siguiente repre-


sentación canónica:
16 Teorı́a de Cópulas y Control de Riesgo Financiero

De hecho, puesto que las transformaciones integrales son uniformes U1 =


F1 (X) y U2 = F2 (X), se tiene que

X = F1−1 (U1 ) Y = F2−1 (U2 )

y dado que para variables aleatorias continuas estas transformaciones son


estrictamente crecientes y continuas
¯ ¯
¯ ∂X ∂X ¯ f (F1−1 (u1 ), F2−1 (u2 ))
¯ 1 ¯
c(u1 , u2 ) = f (F1−1 (u1 ), F2−1 (u2 )) ¯ ∂u
∂Y
∂u2
∂Y ¯ =
¯ ∂u ∂u2
¯ f1 (F1−1 (u1 ))f2 (F2−1 (u2 ))
1

La representación canónica resulta útil cuando, para una distribución mul-


tivariante dada y marginales dadas, se quiere conocer la cópula que une esas
marginales. También juega un papel fundamental en los procedimientos de esti-
mación de cópulas.

1.6. Cópula de supervivencia y función de superviven-


cia conjunta

Un elemento clave en el control de riesgo de crédito es la llamada Cópula de


supervivencia. Supongamos dos v.a. X e Y que representan, respectivamente,
los tiempos de supervivencia de dos riesgos. Las funciones de supervivencia, que
proporcionan la probabilidad de supervivencia individual más allá de un tiempo
x e y respectivamente, vienen dadas por:

F 1 (x) = P (X > x) = 1 − F1 (x)


F 2 (y) = P (Y > y) = 1 − F2 (y)

La función de supervivencia conjunta viene dada por:

H(x, y) = P [X > x, Y > y]

cuyas marginales son H(x, −∞) y H(−∞, y), que son las funciones de super-
vivencia univariantes F 1 y F 2 .
Cópulas y Variables Aleatorias 17

Parece natural preguntarse si es posible establecer una relación análoga a la


del Teorema de Sklar, pero entre funciones de supervivencia conjuntas y mar-
ginales. La respuesta viene dada a través de la cópula C de X e Y :

H(x, y) = 1 − F1 (x) − F2 (y) + H(x, y) = F 1 (x) + F 2 (y) − 1 + C(F1 (x), F2 (y))

a partir de lo cual, podemos definir una función C : [0, 1]2 → [0, 1] tal que

C(u, v) = u + v − 1 + C(1 − u, 1 − v)

con lo que tenemos

H(x, y) = C(F 1 (x), F 2 (y))

La función C es una cópula y recibe el nombre de Cópula de supervivencia de


X e Y . No debe confundirse con la función de supervivencia conjunta C b de n
T
v.a con función de distribución conjunta C, es decir, si (u1 , ..., un ) tiene función
de distribución C, entonces:
¡ ¢
b 1 , ..., un ) = P U1 > u1 , ..., Un > un ) = C(1 − u1 , ..., 1 − un )
C(u

en el caso bidimensional

b v) = 1 − u − v + C(u, v) = C(1 − u, 1 − v)
C(u,

Obsérvese que la función de distribución conjunta de dos transformaciones


monótonas decrecientes de dos v.a. dadas viene representada a través de su
cópula de supervivencia.

También es posible expresar, vı́a cópula de supervivencia, la probabilidad


condicionada

1 − u − v + C(u, v) C(1 − u, 1 − v)
P (U1 > uÁU2 > v) = =
1−v 1−v

y, por tanto ¡ ¢
C F 1 (x), F 2 (y)
P (X > xÁY > y) =
F 2 (y)
18 Teorı́a de Cópulas y Control de Riesgo Financiero

La densidad de la cópula de supervivencia se define como


∂2
c(u, v) = C(u, v)
∂u∂v

que existe c.s. y es tal que c(u, v) = c(1 − u, 1 − v). Esto está relacionado con
la densidad de la distribución de supervivencia F , de la siguiente manera:

f (x, y) = c(1 − F1 (x), 1 − F2 (y))f1 (x)f2 (y)

ası́ que
c(F1 (x), F2 (y)) = c(1 − F1 (x), 1 − F2 (y))

Reviste un interés particular la función de supervivencia conjunta de dos uni-


formes. Sean U1 y U2 dos v.a U (0, 1). con cópula C. Su función de supervivencia
conjunta, denotada por C, representa la probabilidad conjunta de que (U1 , U2 )
sean mayores que u y v , respectivamente:

C(u, v) = P(U1 > u,U2 > v)

A partir de lo anterior

C(u, v) = 1 − u − v + C(u, v) = C(1 − u, 1 − v)

La probabilidad de supervivencia F (x, y) puede escribirse en términos de la


función de supervivencia conjunta para uniformes como:

F (x, y) = C(F1 (x), F 2 (y))

Hay diferentes conceptos que pueden expresarse en términos de cópulas, cópulas


de supervivencia y funciones de supervivencia de U(0, 1). Por ejemplo, la función
de distribución de probabilidad para mı́nimos o máximos de dos v.a. se puede
expresar de forma sencilla en términos de cópulas:

Sean m = mı́n(X, Y ), M = máx(X, Y ) y Fm y FM las funciones de dis-


tribución del máximo y el mı́nimo, respectivamente.

Para el máximo, tenemos:

FM (a) = P (M ≤ a) = P (X ≤ a, Y ≤ a) = F (a, a) = C(F1 (a), F2 (a))


Cópulas y Variables Aleatorias 19

y para el mı́nimo:

Fm (a) = P (m ≤ a) = 1 − P (m > a) = 1 − P (X > a, Y > a)


= 1 − C(F1 (a), F 2 (a)) = 1 − C(F1 (a),F2 (a))

donde, obviamente, el punto a debe ser elegido perteneciente al RanF1 y


RanF2 .

1.7. Limitaciones del coeficiente de correlación lineal.


Medidas de concordancia

Comenzaremos estableciendo el significado de “independencia” en términos


de cópulas:

X1 , ..., Xn v.a son independientes si la cópula que une sus marginales es la


cópula producto.

C(F1 (x1 ), ..., Fn (xn )) = F1 (x1 )F2 (x2 )...Fn (xn ) = Πn

Podemos, entonces, considerar medidas de dependencia que recojan la distancia


entre la cópula empı́rica y la cópula producto. Veamos, en primer lugar, qué
propiedades serı́an deseables para una medida de dependencia. Consideremos el
caso bidimensional (X,Y); ∂ medida de dependencia debe cumplir:

1. Está definida para cada par (X,Y).

2.∂(X, Y ) = ∂(Y, X)(simetrı́a)

3.−1 ≤ ∂(X, Y ) ≤ 1

4. ∂(X, Y ) =0 sii X e Y son independientes

5. ∂(X, Y ) = 1 sii X e Y son función estrictamente monótona no decreciente


c.s la una de la otra (comonotonicidad).

∂(X, Y ) = −1 sii X e Y son función estrictamente monótona no creciente c.s


la una de la otra (contramonotonicidad).

6.∂(X, Y ) = ∂(T1 (X), T2 (Y ))con T1 y T2 funciones estrictamente monótonas


c.s.
20 Teorı́a de Cópulas y Control de Riesgo Financiero

7. Si la sucesión de v.a.{(Xn , Yn )}tiene cópula Cn con Cn ∼n→∞ C entonces


∂Cn =n→∞ ∂C .

Recordemos la definición estándar del coeficiente de correlación de Pearson:

1 P
n
n (xi − x)(yi − y)
i=1
ρ=
σX σY

ρ solamente cumple las propiedades 2 y 3 de entre las siete anteriores. El


éxito de la correlación lineal se debe a sus buenas propiedades en el análisis
lineal, especialmente para la combinación lineal de factores de riesgo F, donde

V aR(αT F ) = αT Cov(F )α

Sin embargo, su uso no es adecuado en situaciones en las que la dependencia


multivariante es de tipo más general.

Alguno de los inconvenientes más notables que presenta son los siguientes:
2 y σ 2 deben ser finitas para que ρ esté definida.
• σX Y

• La independencia siempre implica correlación cero, pero el recı́proco sólo es


cierto en el caso multivariante gaussiano.

• Correlaciones débiles no implican necesariamente baja dependencia.

• La correlación no es una medida invariante bajo transformaciones estricta-


mente monótonas (la cópula sı́ lo es).

Necesitamos, entonces, alguna otra medida de dependencia que no presente


estos inconvenientes y, puesto que la cópula captura aquellas propiedades de la
distribución conjunta que son invariantes bajo transformaciones estrictamente
crecientes c.s., parece conveniente expresar dichas medidas en términos de la
cópula.

Las medidas invariantes por cambios de escala utilizadas más frecuentemente


son las llamadas medidas de concordancia: decimos que dos v.a son concordantes
si valores grandes de una están asociados con valores grandes de la otra y lo mismo
ocurre con los valores pequeños. En otro caso diremos que son discordantes. De
Cópulas y Variables Aleatorias 21

esta forma, la concordancia recoge aquellas relaciones no lineales que escapan a


la correlación.

A continuación, recordamos las definiciones de las medidas de concordancia


más utilizadas y proporcionamos nuevas expresiones para ellas en términos de
cópulas:

• Tau de Kendall (se define como la probabilidad de concordancia menos la


de discordancia)

Sean (X1 , Y1 ) y (X2 , Y2 ) dos vectores aleatorios iid con funciones de dis-
tribución conjuntas H1 y H2 y posibles cópulas C1 y C2 ,

τ = [P (X1 − X2 )(Y1 − Y2 ) > 0] − [P (X1 − X2 )(Y1 − Y2 ) < 0]

Nelsen (1999) demuestra que puede expresarse en términos de las cópulas como:
Z Z
τC = 4 C2 (u, v)dC1 (u, v) − 1
I2

• Rho de Spearman

Sea Ri el rango de xi entre las x y Si el rango de yi entre las y. El coeficiente


de correlación de rangos de Spearman es:

P
n
(Ri − R)(Si − S)
i=1
ρS = s s
P
n P
n
(Ri − R)2 (Si − S)2
i=1 i=1

que en términos de cópulas queda como:


Z Z Z Z
ρC = 12 (C(u, v) − uv) dudv = 12 C(u, v)dudv − 3
I2 I2

(Obsérvese la comparación explı́cita con la cópula producto en este caso).

Esencialmente, estas dos medidas miden el grado de dependencia monotónica


frente al coeficiente de correlación lineal, que mide simplemente el grado de de-
pendencia lineal. Ambas medidas alcanzan el valor de la unidad para la cota
22 Teorı́a de Cópulas y Control de Riesgo Financiero

superior de Fréchet bivariante (una variable es transformación estrictamente cre-


ciente de la otra) y el valor -1 para la cota inferior de Fréchet (una variable es
transformación estrictamente decreciente de la otra), lo cual no es cierto de forma
general en el caso del coeficiente de correlación lineal.

Existen otras situaciones en las cuales el interés simplemente radica en cuando


las variables son concordantes o discordantes, es decir, cuando la dependencia en-
tre X e Y es positiva o negativa. En esas situaciones recurriremos a las siguientes
definiciones.

Definición 1.7
Se dice que X e Y v.a. tienen dependencia positiva en cuadrante (PQD) si

P [X > x, Y > y] ≥ P [X > x] P [Y > y] ∀x, y ∈ R

La definición anterior es equivalente a

P [X ≤ x, Y ≤ y] ≥ P [X ≤ x] P [Y ≤ y] ∀x, y ∈ R

Definición 1.8
Se dice que X e Y v.a están positivamente asociadas (PA) si

E [g1 (X, Y )g2 (X, Y )] ≥ E [g1 (X, Y )] E [g2 (X, Y )]

siendo g1 y g2 funciones medibles de variable real, crecientes en ambas compo-


nentes y para las que las esperanzas anteriores existen.

(Para ampliar conceptos de dependencia ver Joe 1997).

PQD y PA son invariantes bajo transformaciones crecientes y verifican lo


siguiente:

Comonotonicidad ⇒ PA ⇒ PQD ⇒ ρX,Y ≥ 0 , τX,Y ≥ 0 , ρS (X, Y ) ≥ 0

Por tanto, la comonotonicidad es el tipo más fuerte de concordancia o depen-


dencia positiva.

Para más detalles sobre tópicos relacionados con el uso del coeficiente de co-
rrelación lineal en el control de riesgos financieros, puede consultarse Embretchs,
McNeil y Straumann (1999).
Cópulas y Variables Aleatorias 23

1.8. Coeficiente de dependencia en colas (TDC)

El concepto de dependencia en colas resulta relevante para el estudio de la


dependencia entre valores extremos, lo cual es especialmente útil en la determi-
nación de medidas de riesgo, tales como el VaR, que se concentran en el com-
portamiento de sucesos extremos. La dependencia en colas entre dos variables
aleatorias continuas X e Y se puede plantear como una propiedad de la cópula
y no de las distribuciones marginales, por lo que su cuantificación es invariante
bajo transformaciones estrictamente crecientes de X e Y .

Con este fin, se define la siguiente medida empı́rica para extremos:

Definición 1.9
Sea (X, Y )T un vector de v.a. continuas con funciones de distribución mar-
ginales F1 y F2 . El coeficiente de dependencia en la cola superior de (X, Y )T
es
© ª
lı́mu→1− P Y > F2−1 (u)ÁX > F1−1 (u) = λu

siempre que λu ∈ [0, 1] exista.

Si λu ∈ (0, 1], decimos que X e Y son dependientes asintóticamente en la cola


derecha.

Si λu = 0 , decimos que X e Y son asintóticamente independientes en la cola


derecha.

Puesto que
© ª
P Y > F2−1 (u)ÁX > F1−1 (u)
© ª © ª © ª
1 − P X ≤ F1−1 (u) − P Y ≤ F2−1 (u) + P X ≤ F1−1 (u), Y ≤ F2−1 (u)
= © ª
1 − P X ≤ F1−1 (u)

Una definición equivalente (para v.a. continuas), que evidencia que el con-
cepto de dependencia en colas es una propiedad de la cópula es la siguiente (Joe
1997, pág.33):

Definición 1.10
Sea C una cópula bivariante tal que lı́mu→1− (1−2u+C(u,u))
(1−u) = λu existe, en-
tonces C tiene dependencia en la cola superior si λu ∈ (0, 1] e independencia en
la cola superior si λu = 0.
24 Teorı́a de Cópulas y Control de Riesgo Financiero

Podemos establecer estas definiciones en términos del VaR (Valor en Riesgo):

λu = lı́mα→1− P {Y > V aRα (Y )ÁX > V aRα (X)}


1 − 2α + C(α, α) b α)
C(α,
= lı́mα→1− = lı́mα→1− (1.3)
1−α 1−α

Para cópulas cuya expresión es complicada (por ejemplo la gaussiana), existe


una expresión más manejable de λu (Embretchs, McNeil y Straumann 1999):

Sean (U, V ) un par de v.a. U (0, 1) con cópula C . Obsérvese que


P {V ≤ v/U = u} = C(u, v)
∂u

P {V > v/U = u} = 1 − C(u, v)
∂u

y análogamente si condicionamos por V=v.

Entonces:

b u)
C(u, d b
λu = lı́mu→1− = −lı́mu→1− C(u, u)
(1 − u) du
µ ∙ ¸ ∙ ¸ ¶
∂ ∂
= −lımu→1− −2 + C(s, t) + C(s, t)
∂s s=t=u ∂t s=t=u

= lımu→1− (P {V > u/U = u} + P {U > u/V = u})

Si además C es una cópula intercambiable, C(u, v) = C(v, u) , esta expresión


se simplifica quedando como:

λu = 2lımu→1− P {V > u/U = u}

El concepto de dependencia en la cola inferior puede definirse de manera


similar:
Cópulas y Variables Aleatorias 25

Si lı́mu→0+ C(u,u)
u = λL existe, entonces C tiene dependencia en la cola inferior
si λL ∈ (0, 1] e independencia en la cola inferior si λL = 0.

De nuevo, existe una formulación alternativa útil en el caso de cópulas con


expresiones complicadas:

C(u, u) dC(u, u)
λL = lı́mu→0+ = lımu→0+
u du
= lı́mu→0+ (P {V < u/U = u} + P {U < u/V = u}) (1.4)

Si además C es una cópula intercambiable:

λL = 2lı́mu→0+ P {V < u/U = u}

Recordemos que :

b − u, 1 − v)
C(u, v) = 1 − u − v + C(u, v) = C(1

por tanto:
b u)
C(u, C(1 − u, 1 − u) C(u, u)
lı́mu→1− = lı́mu→1− = lı́mu→0+
(1 − u) (1 − u) u

por lo que el coeficiente de dependencia en la cola superior de C es el coefi-


ciente de dependencia en la cola inferior de C . Análogamente, el coeficiente de
dependencia en la cola inferior de C es el coeficiente de dependencia en la cola
superior de C.

Proposición 1.4
Si X e Y tienen funciones de distribución continuas F1 y F2 respectivamente,
entonces
¡ ± ¢
λL = lim P Y ≤ F2−1 (u) X ≤ F1−1 (u)
u→0 +
¡ ± ¢
λU = lim P Y > F2−1 (u) X > F1−1 (u)
u→1−

si existe el lı́mite correspondiente.

Dem: Es inmediata al aplicar la transformación cuantı́lica a las definiciones


de λL y λU .
26 Teorı́a de Cópulas y Control de Riesgo Financiero

1.9. Cópula empı́rica

Por último, trataremos una estimación empı́rica no paramétrica para cópulas


introducida por Deheuvels (1979).

Definición 1.11
Sea {(xk , yk )}nk=1 una muestra de tamaño n obtenida a partir de una dis-
tribución bivariante. La Cópula empı́rica es la función Cn dada por
µ ¶
i j no de pares (x, y) de la muestra tales que x ≤ x(i) e y ≤ y(j)
Cn , =
n n n
n
1X ¡ ¢
= I xk ≤ x(i) , yk ≤ y(j) i, j = 1...n (1.5)
n
k=1

con x(i) e y(j) 1 ≤ i ≤ j ≤ n , los estadı́sticos de orden de la muestra.

Definición 1.12
La frecuencia de la cópula empı́rica, cn , viene dada por
µ ¶ (
1
i j n si (x(i) , y(j) ) es un elemento de la muestra
cn , =
n n 0 en otro caso

La relación entre Cn y cn es la siguiente:

µ ¶ j
i X
X ³p q ´
i j
Cn , = cn ,
n n p=1 q=1
n n

e inversamente

µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
i j i j i−1 j i j−1 i−1 j −1
cn , = Cn , − Cn , − Cn , + Cn ,
n n n n n n n n n n

A partir de estas definiciones podemos obtener las versiones muestrales de las


medidas de concordancia poblacionales, rho de Spearman (rn ) y tau de Kendall
(tn ) :
Cópulas y Variables Aleatorias 27

n n ∙ µ ¶ ¸
12 X X i j i j
rn = 2 Cn , − .
n −1 n n n n
i=1 j=1
n i−1 j−1 ∙ µ ¶ ³ µ ¶ µ ¶¸
p q´
n
2n X X X X i j i q p j
tn = cn , cn , − cn , cn ,
n−1 p=1 q=1
n n n n n n n n
i=2 j=2

(La comprobación puede verse en Nelsen 1999).

Deheuvels (1979) también demostró que cuando el tamaño muestral crece, la


cópula empı́rica converge a la cópula verdadera.

Las cópulas empı́ricas permiten construir contrastes no paramétricos de inde-


pendencia (Deheuvels 1981a y 81b, Genest y Rémillard 2004) además de ser un
instrumento útil en el análisis exploratorio de los datos.

1.10. Familias de cópulas más usuales en el entorno


financiero

A continuación, describimos las familias paramétricas de cópulas de uso más


frecuente en el entorno financiero.

1.10.1. Cópulas elı́pticas

Las distribuciones elı́pticas juegan un papel importante en finanzas, debido a


que constituyen una fuente de distribuciones multivariantes que poseen muchas
de las buenas propiedades de la distribución normal multivariante y facilitan la
obtención de modelos multivariantes para extremos y otras formas de dependencia
no normales. Las cópulas elı́pticas no son más que las cópulas de distribuciones
elı́pticas. La simulación a partir de este tipo de distribuciones es sencilla y, como
consecuencia del Teorema de Sklar, también lo es a partir de cópulas elı́pticas.
Además permiten calcular fácilmente los coeficientes de correlación de rangos y
de dependencia en colas.
28 Teorı́a de Cópulas y Control de Riesgo Financiero

Definición 1.13
Sea X un vector aleatorio n-dimensional, μ ∈ R y Σ una matriz simétrica de
dimensión n × n y definida no negativa. Decimos que X tiene una distribución
elı́ptica de parámetros μ, Σ y φ si dada la función caracterı́stica de X − μ es de
la forma
ϕX−μ (t) = φ(tT Σt)

Lo denotaremos X ∼ En (μ, Σ, φ) y φ recibe el nombre de generador carac-


terı́stico.

Si n = 1, la clase de distribuciones elı́pticas coincide con la clase de distribu-


ciones simétricas unidimensionales. Si X ∼ En (μ, Σ, φ), donde Σ es una matriz
diagonal, entonces X tiene componentes incorreladas (si 0 < V (Xi ) < +∞). Si
X tiene componentes independientes, entonces X ∼ Nn (μ, Σ). Obsérvese que la
distribución normal multivariante es la única entre las distribuciones elı́pticas en
la que componentes incorreladas implica componentes independientes. Un pro-
blema práctico en riesgo multivariante utilizando distribuciones elı́pticas es aquel
en que todas las marginales son del mismo tipo.

Definición 1.14
Sea R una matriz simétrica, definida positiva con diagR = 1 y ΦnR la función
de distribución normal n-variante estandarizada. La cópula gaussiana (MVN) se
define como:

¡ ¢
CR (u1 , ..., un ) = ΦnR Φ−1 (u1 ), ..., Φ−1 (un )

La función de densidad correspondiente es:

µ ¶
1 1 ¡ ¢
cR (u1 , ..., un ) = exp − ς T R−1 − I ς
|R|1/2 2

con ςn = Φ−1 (un ).

En el caso bivariante

Z Φ−1 (u) Z Φ−1 (v) ½ 2 ¾


1 s − 2R12 st + t2
CR (u, v) = ¡ ¢ exp − 2 ) dsdt
−∞ −∞ 2 1/2
2π 1 − R12 2(1 − R12
Cópulas y Variables Aleatorias 29

R12 es sencillamente el coeficiente de correlación lineal de la correspondiente


distribución normal bivariante.

Las cópulas gaussianas no tienen dependencia en colas (ni superior ni inferior),


es decir, λu = λL = 0 para R12 < 1. Esta cópula ha sido la única utilizable
durante mucho tiempo; de hecho la metodologı́a RiskMetrics de J.P. Morgan
la usa hace varios años en gestión de riesgos de carteras mediante simulaciones
Monte Carlo.

Existe otra cópula dentro de la familia elı́ptica que reviste interés, es la lla-
mada t-cópula.

Si X tiene la representación estocástica



υ
X =d μ + √ Z
S

donde μ ∈ R, S ∼ χ2υ y Z ∼ Nn (0, Σ) son independientes, entonces X tiene


una distribución t de Student n-variante de media μ (para υ > 1 ) y υ grados de
libertad.
υ
Su matriz de covarianzas es υ−2 Σ (para υ > 2 ). Si υ ≤ 2 entonces Cov(X)
no está definida. En este caso interpretamos Σ como el parámetro de forma de
la distribución de X.

Definición 1.15
Sea R una matriz simétrica, definida positiva con diagR = 1 y X el vector
aleatorio definido anteriormente. La cópula de Student multivariante (MVT) se
define como:

t
¡ ¢
Cυ,R (u1 , ..., un ) = tnυ,R t−1 −1
υ (u1 , ..., tυ (un ))

donde

Σij
Rij = p ∀i, j ∈ {1, .., n}
Σii Σjj

y tnυ,R denota la función de distribución de √Sυ Y con S ∼ χ2υ e Y ∼ Nn (0, R)
independientes. tυ denota las marginales (iguales) de tnυ,R , es decir, la función

de distribución de √ υ Y1.
S
30 Teorı́a de Cópulas y Control de Riesgo Financiero

En el caso bivariante la expresión de la cópula es:


Z t−1
υ (u)
Z t−1
υ (v)
½ ¾−(υ+2)/2
t 1 s2 − 2R12 st + t2
Cυ,R (u, v) = 2 )1/2
1+ 2 ) dsdt
−∞ −∞ 2π(1 − R12 υ(1 − R12

Obsérvese que R12 es sencillamente el coeficiente de correlación lineal usual de


la correspondiente distribución tυ bivariante si υ > 2. En este caso, el coeficiente
de dependencia en la cola superior (y debido a la simetrı́a radial también el de la
cola inferior) viene dado por:

³√ p p ´
λu = 2lımx→∞ P (X2 > x/X1 = x) = 2tυ+1 υ + 1 1 − R12 / 1 + R12

Este coeficiente es creciente en R12 y decreciente en υ, como era de esperar. Es


más, tiende a cero cuando υ → ∞ para R12 < 1 e implica extremos asintóticamente
dependientes para R12 = −1.

1.10.2. Cópulas Arquimedianas

Muchas de las familias paramétricas de cópulas interesantes pertenecen a


la llamada clase de cópulas Arquimedianas que capturan una gran variedad de
estructuras de dependencia. Como veremos, la representación arquimediana de
cópulas permite reducir el estudio de una cópula multivariante a una única función
univariante.

Definición 1.16
Se dice que una cópula C es Arquimediana si es de la forma:


⎨ ϕ−1 (ϕ(u ) + ... + ϕ(u )) si P ϕ(u ) ≤ ϕ(0)
n
1 n i
C(u1 , ..., un ) = i=1

0 en otro caso

con ϕ : [0, 1] → [0, ∞] una función continua, estrictamente decreciente en


[0, ϕ(0)] con ϕ(1) = 0, ϕ0 (u) < 0 y ϕ00 (u) > 0 ∀0 ≤ u ≤ 1.

ϕ(u) se denomina generador de la cópula. Si ϕ(0) = ∞, decimos que ϕ es


un generador estricto (puesto que un gran número de resultados requieren que ϕ
tenga inversa en (0, ∞), solamente consideraremos generadores estrictos).
Cópulas y Variables Aleatorias 31

Estas cópulas poseen algunas propiedades algebraicas elementales, como son


las siguientes:

Sea C una cópula arquimediana con generador ϕ, entonces

(i) C es simétrica, es decir, C(u, v) = C(v, u) ∀u, v ∈ [0, 1].

(ii) C es asociativa, es decir, C(C(u, v), w) = C(u, C(v, w)) ∀u, v, w ∈ [0, 1].

(iii) kϕ es también un generador de C, con k cualquier constante positiva

(iv)Las distribuciones marginales de U y V son U (0, 1)


C(u, 1) = u ∀u ∈ [0, 1]
C(1, v) = v ∀v ∈ [0, 1]

(v) Sus curvas de nivel son convexas.

(La demostración puede verse en Nelsen 1999).

Adicionalmente, tenemos que el uso de cópulas arquimedianas simplifica mu-


cho los cálculos, por ejemplo, la tau de Kendall viene dada por:
Z 1
ϕ(u)
τC = 1 + 4 du
0 ϕ0 (u)
y la dependencia en colas se puede expresar en términos de los generadores.

Teorema 1.7
Sea ϕ un generador estricto tal que ϕ−1 pertenece a la clase de transformadas
de Laplace de variables aleatorias estrictamente positivas. Si ϕ−10 (0) es finita,
entonces C(u, v) = ϕ−1 (ϕ(u) + ϕ(v)) no tiene dependencia en la cola superior.
Si C tiene dependencia en la cola superior, entonces ϕ−10 (0) = −∞ y el coeficiente
de dependencia en la cola superior viene dado por:
" 0
#
ϕ−1 (2s)
λu = 2 − 2lı́ms→0+
ϕ−10 (s)

(La demostración puede verse en Joe 1997, pág.103)

Los dos resultados siguientes resultan necesarios para la aplicación del método
de calibración de cópulas basado en medidas de dependencia muestrales propuesto
en el punto 3.11.
32 Teorı́a de Cópulas y Control de Riesgo Financiero

Teorema 1.8
Sea una cópula arquimediana con generador ϕ en Ω. Sea KC (t) la C-medida
del conjunto
n o
(u, v) ∈ [0, 1]2 : C(u, v) ≤ t

o, equivalentemente, del conjunto


n o
2
(u, v) ∈ [0, 1] : ϕ(u) + ϕ(v) ≥ ϕ(t)

Entonces, para cualquier t ∈ [0, 1]

ϕ(t)
KC (t) = t −
ϕ0 (t+ )

(Demostración en Nelsen 1999, pág. 102).

Este resultado permite interpretar, de forma natural, la C-medida de una


región por encima o por debajo de una curva de nivel como una función de
distribución. La siguiente proposición presenta una interpretación probabilı́stica
del Teorema 1.8.

Proposición 1.5
Sean U y V v.a. cuya función de distribución conjunta es la cópula arquime-
diana C generada por ϕ en Ω. Entonces la función dada por el Teorema 1.8 es
la función de distribución de la v.a. C(u, v).

Algunos ejemplos de familias de cópulas arquimedianas más utilizadas en el


entorno financiero son las siguientes:

Familia Gumbel

Sea ϕ(t) = (− ln t)θ , θ ≥ 1.

Claramente ϕ(t) es continua, ϕ(1) = 0, ϕ0 (t) = −θ(− ln t)θ−1 1t , por tanto ϕ


es estrictamente decreciente en [0, ∞].

ϕ00 (t) ≥ 0 en [0, 1] , por lo que ϕ es convexa. Como ϕ(0) = ∞ , ϕ es un


generador estricto.

La expresión general en el caso bidimensional de esta familia es


Cópulas y Variables Aleatorias 33

µ h i1/θ ¶
−1 θ θ
Cθ (u, v) = ϕ (ϕ(u) + ϕ(v)) = exp − (− ln u) + (− ln v)
(1.6)
con función de densidad
h i1
θ
cθ (u, v) = (− ln u)θ−1 −1 + θ + (− ln u)θ + (− ln v)θ
h i( 1 −2)
(− ln v)(θ−1)
θ
(− ln u)θ + (− ln v)θ
Á h i1/θ
exp (− ln u)θ + (− ln v)θ uv

Además C1 = Π y limθ→∞ Cθ = M (recordemos que Π(u, v) = uv y M (u, v) =


mı́n(u, v)).

En cuanto a la dependencia en colas, puesto que ϕ−1 (s) = exp(−s1/θ ) y

ϕ−10 (s) = − exp(−s1/θ )/θ


según el Teorema 1.7 el coeficiente de dependencia en la cola superior viene dado
por:
" 0
#
ϕ−1 (2s)
λu = 2 − 2 lim
s→0+ ϕ−10 (s)
" #
exp(−(2s) 1/θ )
= 2 − 21/θ lim = 2 − 21/θ
s→0+ exp(−s1/θ )

La expresión de la tau de Kendall para esta familia es:


Z 1
t ln t 1
τθ = 1 + 4 dt = 1 −
0 θ θ

Familia Clayton
(t−θ −1)
Sea ϕ(t) = θ , θ ∈ [−1, ∞)\ {0}.

Las cópulas bidimensionales pertenecientes a la familia de Clayton tienen la


expresión: µh ¶
i−1/θ
−θ −θ
Cθ (u, v) = máx u + v − 1 , 0)
34 Teorı́a de Cópulas y Control de Riesgo Financiero

con función de densidad


µ ¶ 1
(−1−θ) (−1−θ) 1 1 (−2− θ )
cθ (u, v) = (1 + θ) u v −1 + θ + θ
u v

Para θ > 0 las cópulas son estrictas y su expresión queda simplificada:

Cθ (u, v) = (u−θ + v−θ − 1)−1/θ

La familia de Clayton tiene dependencia en la cola inferior para θ > 0 y


como ϕ−1 (s) = (1 + θs)−1/θ , a partir del Teorema 1.7 tenemos que λu = 0 y el
coeficiente de dependencia en la cola inferior viene dado por:

£ ¤
λL = 2 lim ϕ−10 (2s)/ϕ−10 (s)
s→∞
" 1 #
(1 + 2θs)− θ −1
= 2 lim 1
s→∞
(1 + θs)− θ −1
− 1 −1 1
= 2.2 θ
= 2− θ
La expresión de la tau de Kendall es:

Z 1 θ+1 µ ¶
t −t 4 1 1 θ
τθ = 1 + 4 dt = 1 + − =
0 θ θ θ+2 2 θ+2
además, C−1 = W, lı́mθ→0 Cθ = Π y lı́mθ→∞ Cθ = M .

Familia de Frank
−θt
Sea ϕ(t) = − ln ee−θ −1
−1
, θ ∈ (−∞, +∞) \ {0}.

La familia de Frank viene dada por:


µ ¶
1 (exp (−θu) − 1) (exp (−θv) − 1)
Cθ (u, v) = − ln 1 +
θ e−θ − 1
con función de densidad
θ exp {θ (1 + u + v)} (−1 + exp θ)
cθ (u, v) =
(exp θ − exp (θ + θu) + exp (θ (u + v)) − exp (θ + θv))2
Cópulas y Variables Aleatorias 35

Las cópulas de esta familia son arquimedianas estrictas.

Además:

lı́mθ→∞ Cθ = M
lı́mθ→−∞ Cθ = W
lı́mθ→0 Cθ = Π

Los miembros de esta familia son las únicas cópulas arquimedianas que sa-
tisfacen C(u, v) = C(u, v) (simetrı́a radial), por lo tanto representan patrones de
dependencia simétrica (la dependencia es la misma entre retornos positivos que
entre retornos negativos).

Como

1 ³ ³ ´ ´
ϕ−1 (s) = − ln 1 − 1 − e−θ e−s
θ
y

1
¡ ¢
−θ e−s
− 1 − e
ϕ−10 (s) = θ
1 − (1 − e−θ ) e−s
θ
y si ϕ−10 (0) = − e θ−1 es finita , la familia de Frank no tiene dependencia en la
cola superior y, además, debido a la simetrı́a radial (C = C) tampoco existirı́a
dependencia en la cola inferior.

La expresión de la tau de Kendall para esta familia es

(1 − D1 (θ))
τθ = 1 − 4
θ

k
Rx tk
con Dk (x) = xk 0 et −1 dt (función de Debye) para cualquier entero positivo.
36 Teorı́a de Cópulas y Control de Riesgo Financiero

1.10.3. Cópulas de valores extremos

Definición 1.17
Se dice que una cópula C es de valores extremos (EV) si satisface la siguiente
relación
C(ut1 , ..., utn ) = C t (u1 , ..., un ) ∀t > 0

La cópula de Gumbel es de valores extremos:


³ £¡ ¡ ¢α ¢¤1/α ´
C(ut , v t ) = exp − − ln ut )α + − ln v t
³ ´
= exp − (tα [(− ln u)α + (− ln v)α ])1/α
h ³ ´it
= exp − [(− ln u)α + (− ln v)α ]1/α
= C t (u, v)

Si nos preguntamos por la relación existente entre las cópulas de valores ex-
tremos y la teorı́a de extremos multivariantes, la respuesta es la siguiente:
+ = máx (X
Sea Xn,m n,1 , ..., Xn,k , ..., Xn,m ) con {Xn,k } k v.a. iid.

Sea Gn la distribución marginal del extremo univariante Xn,m + . Entonces, la


³ ´
+ + +
distribución lı́mite G de Xn,1 , ..., Xn,k , ..., Xn,m es tal que:

G(X1+ , ..., Xk+ , ..., Xm


+
) = C(G1 (X1+ ), ..., Gk (Xk+ ), ..., Gn (Xn+ ))

con C una cópula EV y Gk k = 1...n una distribución de valores extremos


univariante no degenerada.

Esta relación proporciona un método para construir distribuciones de valores


extremos multivariantes. Veamos el caso bidimensional con algo más de detalle:

Dada la cópula C de valores extremos, es decir


C(ut , v t ) = C t (u, v) ∀(u, v) ∈ [0, 1]2 t>0
C es máx-estable, es decir, si (X1 , Y1 ), ..., (Xn , Yn ) son pares aleatorios i.i.d a
partir de C, cópula de valores extremos, y si
Mn = máx {X1 , ..., Xn }
Nn = máx {Y1 , ..., Yn }
Cópulas y Variables Aleatorias 37

C también es una cópula asociada con (Mn , Nn ).

Joe (1997) demuestra que las cópulas EV se pueden representar de la forma:


½ µ ¶¾
ln u
C(u, v) = exp ln(uv)A
ln(uv)
£1 ¤
con A : [0, 1] → 2 , 1 función convexa tal que máx(t, 1−t) ≤ A(t) ≤ 1 ∀t ∈ [0, 1].
La función A(t) se denomina función de dependencia.

Como en el caso de v.a. univariantes, es posible demostrar que la cópula lı́mite


para la sucesión {(an + bn Mn , cn + dn Nn )}n∈N es una cópula EV, si la sucesión
converge débilmente en distribución para algunas sucesiones de números an , bn , cn
y dn , bajo ciertas condiciones de regularidad.

En el caso de la cópula de Gumbel, con una forma sencilla que permite generar
muestras aleatorias fácilmente, la función de dependencia es:

A(t) = (tα + (1 − t)α )1/α


2

Ajuste de Cópulas a Series


Financieras Bivariantes

En los puntos anteriores se ha establecido la definición de función cópula en


términos de variables aleatorias y sus propiedades, ası́ como las ventajas que
aporta su utilización como funciones de dependencia. A continuación, abordare-
mos la cuestión relativa a la elección de la cópula que represente de forma más
adecuada la relación de dependencia entre series de retornos de ı́ndices financieros.

Recordemos que este proceso de estimación implica, en primer lugar, la co-


rrespondiente a las funciones de distribución marginales que mejor se ajusten a
las observaciones muestrales de los retornos de cada ı́ndice considerado para, a
continuación, ligarlas en una función cópula que capture la dependencia conjunta.

La discusión sobre cuáles son las distribuciones marginales de naturaleza


paramétrica más adecuadas a este tipo de datos la postergaremos al capı́tulo
siguiente, donde se tendrá en cuenta la naturaleza especı́fica y la dependencia
temporal inherente a los mismos. En este capı́tulo nos centraremos exclusiva-
mente en la elección de la cópula estática, ya sea de tipo empı́rico o paramétrico,
basada en la información proporcionada por las distribuciones empı́ricas conti-
nuas marginales.
40 Teorı́a de Cópulas y Control de Riesgo Financiero

2.1. Aproximación no paramétrica

Una primera aproximación no paramétrica consiste en obtener la infor-


mación extraı́da de las series brutas de datos y proporcionada por la cópula
empı́rica, que recoge la estructura de dependencia subyacente en la muestra bidi-
mensional y permite estimar de forma consistente la cópula real que los repre-
senta. Para este cometido, emplearemos la definida en el punto 1.9 (Deheuvels
1979).

En términos generales, nuestro interés se centra en el análisis de dos series


temporales correspondientes a sendos ı́ndices de mercado, con colas pesadas y
alta curtosis. Sean X e Y las variables aleatorias que representan los logaritmos
de los retornos diarios de cada ı́ndice. Se trata de estimar la distribución de
probabilidad conjunta de X e Y , es decir, queremos encontrar probabilidades de
la forma H(x, y) = P (X ≤ x, Y ≤ y).

Denotamos por F1 (x) y F2 (y) las distribuciones marginales de H(x, y), que
supondremos continuas. Entonces, por el Teorema de Sklar, existe una única
cópula C, asociada a la distribución conjunta H, tal que

C(u, v) = H(F1−1 (x), F2−1 (y)) 0 ≤ u ≤ 1, 0 ≤ v ≤ 1

El procedimiento a seguir, en esta primera aproximación, será el siguiente:

1. Obtener las funciones de distribución empı́ricas marginales, F1emp (x) y


F2emp (y), procedentes de las series brutas de retornos.

2. A partir de ellas, definir las transformaciones integrales a uniformes es-


tandarizadas de las variables aleatorias implicadas X e Y :

U = F1emp (X) V = F2emp (Y )

3. Obtener la cópula empı́rica que une U y V , Cemp (u, v).

Obsérvese que el punto 1 puede plantear problemas si optamos por el método


de máxima verosimilitud en un proceso posterior de ajuste de tipo paramétrico,
puesto que para el desarrollo de la función de verosimilitud necesitamos dis-
tribuciones marginales continuas, lo cual entra en conflicto con el hecho de que
Ajuste de Cópulas a Series Financieras Bivariantes 41

la función de distribución empı́rica es de naturaleza discreta. Esta necesidad


proviene del hecho de que la derivada de algunas cópulas usadas en la verosimi-
litud no están definidas si u, v ∈ {1}. Para salvar este inconveniente, podemos
modificar la función de distribución empı́rica con el fin de convertirla en absolu-
tamente continua ( De Matteis 2001, Dudewicz y Mishra 1988).

Definición 2.1
Sean n observaciones x1 , ..., xn iid. La función de distribución empı́rica
de la muestra ∀x ∈ R viene dada por
n
1X
Fn (x) = I(−∞,x] (xi )
n
i=1

siendo I la función indicador usual.

Definición 2.2
Sean a, b ∈ R tales que a ≤ mı́n(x1 , ..., xn ) ≤ máx(x1 , ..., xn ) ≤ b.

Sean z1 , ..., zn los valores de x1 , ..., xn ordenados de forma creciente. Defini-


mos z0 = a y zn+1 = b.

Llamamos función de distribución empı́rica continua a

Femp (x; a, z1 , ..., zn , b)

que toma el valor 0 si x ≤ a, el valor 1 si x ≥ b y, para puntos intermedios,


a < x < b, toma el valor asignado por el segmento lineal que une los puntos
medios de las barras de los intervalos adyacentes [zi , zi+1 ]. El punto medio de la
barra más a la izquierda [z1 , z2 ] se une al punto (0, 0) y el de la barra más a la
derecha [zn−1 , zn ] se une al punto (b, 1).

Haciendo uso de esta definición, obtenemos las funciones de distribución mar-


ginales empı́ricas continuas, F1emp (x) y F2emp (y), que tienen como funciones de
densidad f1 (x) y f2 (y).

Proposición 2.1
Sea X una v.a. con función de distribución F . Sea F −1 la función cuantı́lica
de F
F −1 (α) = inf{x/F (x) ≥ α}
Entonces
42 Teorı́a de Cópulas y Control de Riesgo Financiero

(i) Para cualquier U v.a. distribuida como una uniforme estándar


se verifica que F −1 (u) ∼ F .

(ii) Si F es continua, la v. a. F (x) se distribuye como una U (0, 1).

(Demostración en Feller 1966)

La proposición anterior garantiza que las funciones de distribución marginales


F1 y F2 de (x1 , y1 ), ..., (xn , yn ) son v.a. distribuidas como U (0, 1).

Definimos

ui = F1emp (xi ) , vi = F2emp (yi ) i = 1...n

con lo que (ui )i=1...n y (vi )i=1...n se distribuyen aproximadamente como uniformes
estándar. Podemos, entonces, calcular la cópula empı́rica de (u1 , v1 )...(un , vn ).

La cópula empı́rica ası́ determinada será muy útil empleada como herramienta
en el análisis exploratorio de los datos, ya que podemos utilizarla para los si-
guientes cometidos:

1. Identificar el signo de la dependencia bivariante

La existencia de un orden parcial entre las cópulas garantiza que cualquier


cópula, incluida la empı́rica, está acotada por las cópulas máxima y mı́nima

W ≤ Cemp ≤ M

por tanto, podemos representar los diagramas de contorno de la cópula empı́rica


obtenida y compararlos con los de las cotas de Fréchet y los de la cópula indepen-
dencia que, como sabemos, caracterizan las situaciones de dependencia extrema.
La proximidad a cualquiera de ellas indicará el signo de la dependencia bivariante
o la posibilidad de independencia entre las variables X e Y .

Ası́mismo, la inspección gráfica de estos diagramas de contorno, junto con la


de la representación de la densidad empı́rica, permitirá efectuar comparaciones
entre pérdidas conjuntas extremas y ganancias conjuntas extremas, además de
detectar la presencia de asimetrı́a en colas.

2. Cuantificar la dependencia conjunta

El cálculo de las versiones muestrales de las medidas de concordancia τ y


rs , cuyas expresiones en términos de la cópula empı́rica vienen dadas por la
Ajuste de Cópulas a Series Financieras Bivariantes 43

ecuaciones recogidas en el punto 1.9, también informarán sobre el signo y la


cantidad de dependencia entre X e Y recogida en la cópula empı́rica.

3. Evaluar las posibles familias paramétricas candidatas para el


ajuste

Las estimaciones muestrales de las medidas de concordancia citadas ante-


riormente pueden servir para calibrar diferentes familias paramétricas: después
de estimar los parámetros para una familia paramétrica concreta mediante, por
ejemplo, máxima verosimilitud, se puede realizar una comparación del valor de τ y
rs de la cópula estimada con las muestrales. También es posible, como se detallará
más adelante al tratar los ajustes de tipo paramétrico para cópulas de la familia
arquimediana, plantear un algoritmo de calibración basado en la estimación del
parámetro θ de la cópula obtenida a partir de la relación existente entre dicho
parámetro y una medida de dependencia muestral concreta, por ejemplo la τ de
Kendall.

4. Cuantificar la dependencia en colas

Las estimaciones empı́ricas de los ı́ndices de dependencia en la cola superior


e inferior, además de informar sobre la dependencia extrema conjunta, pueden
utilizarse para la comparación entre cópulas. Recordemos la expresión del ı́ndice
de dependencia en la cola superior:

1 − 2α + C(α, α)
λu = lı́mα→1−
1−α

Se puede construir un gráfico de la función 1−2α+C(α,α)


1−α con C = Cemp , y haciendo

tender α → 1 observar posibles convergencias. Análogamente se puede proceder
para el ı́ndice de dependencia en la cola inferior.
44 Teorı́a de Cópulas y Control de Riesgo Financiero

2.2. Aproximación semiparamétrica

En cuanto a la elección de la familia paramétrica {Cθ , θ ∈ Θ}, y dado que


en la mayorı́a de los estudios empı́ricos que implican datos de series financieras
aparece de forma evidente la dependencia entre valores extremos (dependencia
en colas), resulta aconsejable encontrar especificaciones de modelos que reflejen
el fenómeno de las colas pesadas. Desde el punto de vista empı́rico, la clase
de cópulas arquimedianas aparece como una elección adecuada para reflejar esta
situación, además de poseer buenas propiedades que las hacen muy manejables
(véase el punto 1.10.2).

Si nos decidimos por una cópula perteneciente a esta última familia, es posi-
ble utilizar una idea apuntada por Genest y McKey (1986), con el fin de elegir
la mejor cópula. Es un método simple basado en medidas de dependencia mues-
trales, que puede considerarse como una adaptación no paramétrica del conocido
método de los momentos: a partir de la relación explı́cita entre el parámetro θ de
la cópula y la τ de Kendall se infiere una estimación para θ. Este método permite
también contrastar para diferentes cópulas arquimedianas cuál de ellas representa
mejor la estructura de dependencia comparándolas con la cópula empı́rica. Para
ello utilizaremos el algoritmo elaborado por Genest y Rivest (1993) que propone
determinar dos estimaciones para la función de distribución K de una cópula
arquimediana desconocida C: una de ellas de naturaleza no paramétrica, por
tanto independiente de las marginales y del parámetro de la cópula, y otra de
tipo paramétrico KC (t), vista en el Teorema 1.8. De esta forma, para la esti-
mación paramétrica necesitamos el parámetro θ estimado previamente. Aunque
la estimación paramétrica puede utilizarse directamente para construir la cópula
arquimediana bivariante, resulta más conveniente proponer diferentes elecciones
de cópulas arquimedianas y seleccionar a través de la estimación de θ aquella
cuya estimación paramétrica esté más próxima a la estimación no paramétrica.

El algoritmo a seguir es el siguiente:

(i) Estimación no paramétrica

Sea (X1 , Y1 )...(Xn , Yn ) una muestra aleatoria con función de distribución bi-
variante H(X, Y ), distribuciones marginales F1 (X) y F2 (Y ) y cópula arquime-
diana C(U, V ) con U = F1 (X) y V = F2 (Y ) variables aleatorias distribuidas
U (0, 1).
Ajuste de Cópulas a Series Financieras Bivariantes 45

Buscamos una estimación de la función de distribución univariante

K(w) = P [C(U, V ) ≤ w] = P [H(X, Y ) ≤ w]

b
para ello, definimos la v.a. W = H(X, b la estimación empı́rica de la
Y ), con H
distribución bivariante H.

A continuación, determinamos la estimación empı́rica de la distribución de


W . Sea

b i , yi ) = Card{(xj , yj ) | xj < xi , yj < yi }


Wi = H(x (2.1)
(n − 1)

b es la estimación empı́rica buscada. Entonces, un estimador no paramétrico


H
de K(w) viene dado por:
n
1X
Kn (w) = {i : 1 ≤ i ≤ n, wi ≤ w} (2.2)
n
i=1

Proposición 2.2 (Genest y Rivest)


Sea H(x, y) una función de dependencia absolutamente continua respecto a
la medida de Lebesgue y sea (x1 , y1 )...(xn , yn ) una m.a.s. obtenida a partir de
H. Bajo condiciones de regularidad débiles, la distribución de los Wi converge a
K(w) = P {H(x, y) ≤ w}, y la función de distribución empı́rica Kn (w) de los wi

es un estimador n − consistente de K(w).

(Demostración en Genest y Rivest 1993, Pág 1042)

Es importante establecer la relación existente entre los Wi definidos por (2.1)


y el valor muestral de la τ de Kendall. Recordemos que esta última se define
como la diferencia entre el número de pares concordentes y el número de pares
¡ ¢
discordantes, dividida por el número total de pares n2 . Sean
½
1 si Xj ≤ Xi e Yj < Yi
Iij =
0 en otro caso
½
1 si Xi ≤ Xj e Yi < Yj
Iji =
0 en otro caso
46 Teorı́a de Cópulas y Control de Riesgo Financiero

Con esta notación Iij + Iji puede tomar los valores 0, 1 y 2, pero valdrá 1 si
y sólo si las observaciones i y j son concordantes. Entonces
Pn
j=1 Iij
Wi =
n−1
por lo que el número de pares concordantes c se obtiene como
Pn n n n
j=1 Iij
X X X
Wi = ⇐⇒ Iij = (n − 1)Wi ⇒ Iij = (n − 1) Wi
n−1
j=1 i,j=1 i=1

El número de pares discordantes d es


µ ¶ µ ¶ n
X
n n
d= −c= − (n − 1) Wi
2 2
i=1

por lo que el cálculo de τ es


P n(n−1) Pn
c−d 2(n − 1) ni=1 Wi − 2 4(n − 1) i=1 Wi − n(n − 1)
τb = ¡n¢ = n(n−1)
= = 4W − 1
2
n(n − 1)
2 (2.3)

La conexión de lo anterior con la cópula empı́rica es la siguiente:

Sean Ri y Si , rangos de xi e yi respectivamente.Después de ajustar la escala


1
de los ejes mediante el factor n+1 ( n tamaño de la muestra) con el fin de que
todos los puntos pertenezcan al cuadrado unidad [0, 1]2 , se obtiene
µ ¶
Ri Si
Wi = Cn ,
n+1 n+1
con Cn la cópula empı́rica definida en el Capı́tulo 1 (expresión 1.5), que en
términos de rangos puede escribirse como:
n µ ¶
1X Ri Si
Cn (u, v) = I ≤ u, ≤v
n n+1 n+1
i=1

Entonces Z Z
W = Cn (u, v)dCn (u, v)
[0,1]2

A partir de (2.3) y del hecho de que bajo condiciones de regularidad adecuadas


Cn →n∈∞ C, con C la cópula verdadera, se puede concluir (como hizo Hoeffding
Ajuste de Cópulas a Series Financieras Bivariantes 47

1948) que τn es un estimador asintóticamente insesgado de la versión poblacional


de la τ de Kendall, dada en términos de la cópula por:
Z Z
τ =4 C(u, v)dC(u, v) − 1
[0,1]2

De forma general, si θ = h(τ ) para alguna función h, nos referiremos a

θbn = h(τn ) como el estimador de θ basado en la τ de Kendall.

Según la Proposición 3.1 de Genest y Rivest (1993)


√ τn − τ
n ≈ N (0, 1)
4S
donde
1 X³ ´2
n
2
S = fi − 2W
Wi + W
n
i=1
y
n
fi = 1 X 1 X
W Iji = {j : Xi ≤ Xj , Yi ≤ Yj }
n−1 n−1
j=1

Por aplicación del Teorema de Slutsky (también conocido como método Delta)
se obtiene que, cuando n → ∞:
µ ¶
b 1¡ 0
¢2
θn ≈ N θ, 4Sh (τn )
n

De acuerdo con lo anterior, un intervalo de confianza para θ al nivel

100(1 − α)% viene dado por


1 ¯ ¯
θbn ± z α2 √ 4S ¯h0 (τn )¯
n

Para un estimador consistente alternativo de la varianza asintótica de la var-


ianza asintótica de τn puede consultarse Samara y Randless (1988).

(ii) Estimación paramétrica

Consideramos la dada por


ϕ(w)
Kc (w) = w −
ϕ0 (w+ )
48 Teorı́a de Cópulas y Control de Riesgo Financiero

y denominamos a este estimador Kϕ (w).

(iii) Comparación entre las dos estimaciones

La idea central consiste en que el estimador θb es adecuado si la distribución


paramétrica Kϕ (w) es similar a la no paramétrica Kn (w). Esta comparación
puede hacerse de forma gráfica o analı́tica.

Gráficamente, a través de un QQ-Plot de las dos distribuciones. Si la elección


b
de θ es buena, este gráfico proporcionará una lı́nea recta como resultado y la
cópula elegida ajustará bien a la muestra.

Analı́ticamente, Frees y Valdez (1998) sugieren minimizar la siguiente distan-


cia
Z
(Kϕ (w) − Kn (w))2 dKn (w)

2.3. Aproximación paramétrica

En un planteamiento de naturaleza paramétrica (para el cual lo ex-


puesto anteriormente no resulta excluyente sino complementario e incluso re-
comendable como tratamiento previo) supondremos que la cópula verdadera
pertenece a una familia paramétrica {Cθ , θ ∈ Θ}, con Θ el espacio de posibles va-
lores del parámetro. Mediante el método de máxima verosimilitud se obtendrán
estimadores de θ ∈ Θ consistentes y asintóticamente normales.

Entre las técnicas estadı́sticas clásicas, la estimación de máxima verosimilitud


es una alternativa al método de los momentos, que es usualmente más eficiente,
particularmente cuando el parámetro θ es multidimensional. En el contexto en
que estamos situados, se requiere una adaptación a la inferencia realizada sobre el
parámetro de dependencia, basada exclusivamente en rangos, adaptación que fue
descrita en términos generales por Oakes (1994) y más tarde quedó formalizada
por Genest, Ghoudi y Rivest (1995) y por Shih y Louis (1995). Este método,
denominado de máxima pseudo-verosimilitud o de máxima verosimilitud canónica
(CML), requiere que Cθ sea absolutamente continua con densidad cθ y maximiza
el logaritmo de la verosimilitud de la forma

n
X µ µ ¶¶
Ri Si
l(θ) = log cθ ,
n+1 n+1
i=1
Ajuste de Cópulas a Series Financieras Bivariantes 49

expresión que se obtiene sin más que sustituir las marginales desconocidas F1 y F2
en la verosimilitud clásica por sus contrapartidas empı́ricas F1emp (x) y F2emp (y).

Este método puede parecer menos atractivo que el basado en la inversión de


la τ de Kendall, ya que implica una mayor cantidad de cálculos y requiere la
expresión explı́cita de la densidad cθ . sin embargo, puede aplicarse de forma más
general, concretamente si θ es multidimensional.

A partir de las distribuciones empı́ricas marginales continuas, F1emp y F2emp ,


y de la representación canónica de la cópula:

h(x, y) = f1 (x)f2(y) c(F1emp (xi ), F2emp (yi ))

2

con c(u, v) = ∂u∂v C(u, v) función de densidad de la cópula C, la ecuación de
verosimilitud será
L(θ; u, v) = Πni=1 c(ui , vi )
con ui = F1emp (xi ) y vi = F2emp (yi ) y la estimación de θ se determina en la forma
usual como:
n
X
θb = arg máxθ∈Θ log L(θ; ui , vi ) (2.4)
i=1

o equivalentemente, en términos de rangos, como raı́z de la ecuación


n ∙
X µ ¶Á µ ¶¸
∂ ∂ Ri Si Ri Si
l(θ) = cθ , cθ , =0
∂θ ∂θ n+1 n+1 n+1 n+1
i=1 (2.5)

Genest, Ghoudi y Rivest (1995) demuestran que, bajo ciertas condiciones de


regularidad, el estimador θb obtenido a partir de (2.4) o de (2.5) es consistente y
asintóticamente tiene distribución normal bajo condiciones de regularidad simi-
lares a las impuestas en el método de máxima verosimilitud.

Proposición 2.3
Bajo condiciones de regularidad adecuadas, el estimador θb obtenido a partir
de (2.4) es consistente y n1/2 (θb − θ) es asintóticamente normal con varianza
ν 2 = σ 2 /β 2 , donde ν 2 depende exclusivamente de la cópula verdadera Cθ .

Un estimador consistente de ν 2 viene dado por


bn2
σ
νbn2 =
βb2n
50 Teorı́a de Cópulas y Control de Riesgo Financiero

con
n
1 X¡ ¢2
bn2
σ = Ai − A
n
i=1
n
1 X¡ ¢2
βbn2 = Bi − B
n
i=1

con A y B las medias aritméticas de Ai y Bi respectivamente. El cálculo de las


pseudo-observaciones Ai y Bi puede hacerse como sigue:

Si reordenamos (Xi , Yi )i=1...n de forma que X1 < ... < Xn (es decir, R1 =
1, ..., Rn = n) y utilizamos la siguiente notación

L(θ, u, v) = log cθ (u, v)



Lθ (θ, u, v) = log cθ (u, v)
∂θ

Lu (θ, u, v) = log cθ (u, v)
∂u

Lv (θ, u, v) = log cθ (u, v)
∂v
entonces µ ¶
i Si
Bi = Lθ θbn , , i = 1, ..., n
n+1 n+1
y
n µ ¶ µ ¶
1X b j Sj b j Sj
Ai = Bi − Lθ θn , , × Lu θn , ,
n n+1 n+1 n+1 n+1
j=1
µ ¶ µ ¶
1 X j Sj j Sj
− Lθ θbn , , × Lv θbn , ,
n n+1 n+1 n+1 n+1
Sj ≥Si

Un intervalo de confianza para θ al nivel 100(1 − α)% vendrá dado por

νbn
θbn ± z α2 √
n
Ajuste de Cópulas a Series Financieras Bivariantes 51

2.4. Bondad de ajuste

Por último, necesitamos confirmar el ajuste realizado a través de algún con-


traste de bondad de ajuste (GOF). Proponemos el conocido de Kolmogorov-
Smirnov que permite detectar, incluso con muestras pequeñas, discrepancias entre
la distribución teórica y la empı́rica. El estadı́stico utilizado para el contraste es
la máxima diferencia entre la distribución empı́rica y la teórica
n¯ ¯o
¯ ¯
T = máx ¯Fb(x) − F (x)¯

Utilizaremos el planteamiento de una muestra para contrastar que

ϕ(t)
Kc (t) = t − = P [C(U, V ) ≤ t] (2.6)
ϕ0 (t+ )

aplicado a C(F1emp (x), F2emp (y)) es una U (0, 1).

A partir del estimador θ, b obtenido por ejemplo por máxima verosimilitud,


también podemos realizar un QQ-Plot de KC(F1emp (x),F2emp (y)) (·) frente a cuantiles
de la U (0, 1). Si el ajuste es bueno debemos obtener una lı́nea recta.

En el caso de comparar Kn (w) y KC (t) es necesario utilizar la versión del


contraste de Kolmogorov-Smirnov para dos muestras, en la que la hipótesis nula
asume la igualdad de las dos distribuciones citadas.

Si se utiliza la aproximación paramétrica de máxima verosimilitud, un criterio


suplementario para examinar la bondad del ajuste de nuestros modelos es el que se
basa en la comparación de los valores negativos de las funciones de verosimilitud.
Akaike (1973,1977) desarrolló una estrategia de decisión basada en la medida
de información de Leibler (1951), dado que esta medida proporciona un criterio
de ordenación de modelos estadı́sticos alternativos. Recordemos el estimador de
máxima verosimilitud para el parámetro θ:
n
X
θb = arg máxθ∈Θ log L(θ; ui , vi )
i=1
52 Teorı́a de Cópulas y Control de Riesgo Financiero

Definición 2.3
El criterio de información de Akaike se define como

AIC = 2(− log L(θ; ui , vi )) + 2q

donde q es el número de parámetros estimados en el modelo.

El valor de AIC informa sobre qué modelo proporciona un mejor ajuste:


cuanto menor sea este valor mejor es el modelo considerado.

La figura 2.1 resume el procedimiento propuesto para el ajuste.


Ajuste de Cópulas a Series Financieras Bivariantes 53

Muestra Bivariante
(X,Y)

Obtención de
F1emp(x) y F2emp(y)

U=F1emp(x)
V=F2emp(y)

Obtención de la
Cópula Empírica
Cemp(u,v)

Elección de la familia
Análisis Exploratorio paramétrica para el ajuste

Determinación Determinación
de θ de θ
por CLM por Genest y Rivest

GOF
AIC Kolmogorov-Smirnov

Figura 2.1: Procedimiento de selección y ajuste de la Cópula bivariante


54 Teorı́a de Cópulas y Control de Riesgo Financiero

2.5. Ajuste de cópulas a series diarias de retornos de


Índices financieros

2.5.1. Descripción de las series

A continuación, aplicamos los procedimientos propuestos en los puntos ante-


riores para determinar la cópula que mejor representa la relación de dependen-
cia entre retornos diarios de ı́ndices financieros. Para ello, hemos seleccionado
dos ı́ndices financieros ampliamente conocidos: DowJones e Ibex35. El primero
como representante del comportamiento del mercado americano y el segundo del
europeo, más concretamente del español. Las dos series temporales brutas co-
rrespondientes, contienen información del valor diario al cierre de ambos ı́ndices
desde el 3 de Enero de 1994 al 28 de Marzo de 2006. Los datos del ı́ndice Ibex35
provienen de los proveedores del mercado madrileño Telekurs Financial, y los del
Dow Jones directamente del mercado americano (American Stock Exchange).

La primera cuestión abordada ha sido el tratamiento de los valores missing


correspondientes a periodos no operativos en uno u otro mercado, afectados por
la diferencia horaria (fines de semana, fiestas, etc.). Al objeto de no perder
información, se han alineado las series aplicando el siguiente procedimiento a
cada una de ellas:

(i) localización del periodo t en el que existe un valor missing en la serie.

(ii) sustitución del mismo por la media xT (con el fin de conservar la tenden-
cia), siendo T el número total de observaciones de la serie.

(iii) obtención del valor final a utilizar en ese periodo a través de una media
móvil asimétrica de cuatro puntos, calculada como:
xt−2 + xt−1 + xT + xt+1
xt =
4

La incorporación del valor xt+1 tiene la finalidad de reflejar en el valor resul-


tante el impacto, al inicio de la siguiente sesión, de las noticias acumuladas en el
periodo inactivo. La figura 2.2 muestra los gráficos de ambas series conveniente-
mente alineadas.

A partir de estas series se obtienen las correspondientes a los retornos logarı́t-


micos, que constituyen el objeto de nuestro análisis. Llamamos retorno logarı́tmico
Ajuste de Cópulas a Series Financieras Bivariantes 55

11000
4000 6000 8000 Serie DowJones

1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006

Serie Ibex35
11000
7000
3000

1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006

Figura 2.2: Valores diarios al cierre de los ı́ndices DowJones e Ibex35

en un periodo t a
Rt = log (Pt /Pt−1 )

donde Pt y Pt−1 son los valores al cierre del ı́ndice correspondiente en los periodos
t y t − 1, respectivamente. La representación de las series de retornos resultantes
se muestra en la figura 2.3.

Contrastamos la normalidad de los retornos mediante el estadı́stico de Jarque-


Bera (1980)
⎛ ³ ´2 ⎞
d −3
kurt
T ⎜[2 ⎟
JB = ⎝skew + ⎠
6 4

[ la asimetrı́a muestral y kurt


con skew d la curtosis muestral. Bajo la hipótesis
nula de que los datos se distribuyen normalmente, JB se distribuye según una
χ22 . Los resultados de aplicar el contraste a las dos series consideradas aparecen
en la siguiente tabla
56 Teorı́a de Cópulas y Control de Riesgo Financiero

Retornos diarios DowJones


0.06
0.02
-0.02
-0.06

1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006

Retornos diarios Ibex35


0.06
0.02
-0.02
-0.06

1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006

Figura 2.3: Retornos logarı́tmicos diarios DowJones e Ibex35

Estadı́stico JB p-valor
DowJones 2619.619 0
Ibex35 1271.999 0

por lo que en ambos casos se rechaza la hipótesis de normalidad.

En la figura 2.4 se muestra una descripción gráfica de la serie de retornos


logarı́tmicos correspondientes al ı́ndice DowJones. En la esquina superior izquierda
aparece el histograma, que refleja una distribución leptocúrtica (obsérvese la den-
sidad Kernel ajustada en la imagen inferior), y a su derecha el correspondiente
box-plot presenta una serie de alta frecuencia en colas, lo que coincide con la
información aportada por el QQ-plot que enfrenta los cuantiles empı́ricos con
los de una normal, en el que se pueden apreciar ambas colas de la distribución
empı́rica más pesadas que las que corresponderı́an a una distribución normal.
Ajuste de Cópulas a Series Financieras Bivariantes 57

1200

0.06
0.02
200 400 600 800

-0.02
-0.06
0

-0.05 0.0 0.05

x
40

0.06
30

Cuantiles empíricos
0.02
20

-0.02
10

-0.06
0

-0.05 0.0 0.05 -2 0 2


x Cuantiles de la distribución Normal estándar

Figura 2.4: Descripción gráfica de los retornos logarı́tmicos diarios DowJones

Un análisis similar se deduce de la inspección de la figura 2.5 en la que aparece


la descripción gráfica de los retornos logarı́tmicos del ı́ndice Ibex35, que vuelve a
presentar una serie de alta frecuencia con colas pesadas.
58 Teorı́a de Cópulas y Control de Riesgo Financiero

0.05
200 400 600 800

0.0
-0.05
0

-0.05 0.0 0.05


x
30

0.05
25

Cuantiles empíricos
20

0.0
15
10

-0.05
5
0

-0.10 -0.05 0.0 0.05 0.10 -2 0 2


x Cuantiles de la distribución Normal estándar

Figura 2.5: Descripción gráfica de los retornos Ibex35

Las caracterı́sticas numéricas correspondientes a cada serie de retornos apare-


cen en la tabla 2.1

No obs. Q1 Mediana Q3 Media Asimetr. Curt.


DowJones 3080 -0.00511 0.00045 0.0060 0.00035 -0.2485 7.49
Ibex35 3080 -0.00652 0.00082 0.0076 0.00038 -0.2032 6.122

Tabla 2.1: Caracterı́sticas numéricas de los retornos logarı́tmicos diarios


DowJones e Ibex35

El aspecto de las series (figura 2.3) lleva a sospechar la existencia de esta-


cionariedad. Para comprobarlo, utilizamos el contraste KPSS (Kwiatkowski y
otros, 1992). Se obtiene un valor de 0.2812 para el estadı́stico del contraste en
la serie de retornos DowJones, y un valor de 0.1748 para el Ibex35. Dado que
el cuantil 90% del estadı́stico KPSS es 0.349 y que se trata de un contraste uni-
lateral de cola derecha, no es posible rechazar la hipótesis de estacionariedad
Ajuste de Cópulas a Series Financieras Bivariantes 59

para ninguna de las dos series. Se puede consultar una simulación del algoritmo
para obtener la distribución del estadı́stico del contraste KPSS en Zivot y Wang
(2003, página 124). Por otra parte, podemos valorar la dependencia temporal
inspeccionando los correspondientes correlogramas representados en la figura 2.6.

Series : retDJ Series : retDJ

0.04
1.0

0.0 0.02
0.8

Partial ACF
0.4 0.6
ACF
0.2

-0.04
0.0

0 10 20 30 0 10 20 30
Lag Lag

Series : retIb Series : retIb


0.04
1.0
0.8

0.02
Partial ACF
0.4 0.6
ACF

0.0
0.2

-0.04
0.0

0 10 20 30 0 10 20 30
Lag Lag

Figura 2.6: Funciones de autocorrelación simple y parcial de los retornos


DowJones (superior) e Ibex35 (inferior)
60 Teorı́a de Cópulas y Control de Riesgo Financiero

Los autocorrelogramas representados no aportan evidencias contra la inde-


pendencia temporal en los retornos diarios; sin embargo, ambas series presen-
tan heterocedasticidad condicionada (el llamado efecto ARCH), una versión en
tiempo discreto de volatilidad estocástica, como se puede observar en la repre-
sentación de los autocorrelogramas de los retornos al cuadrado (figura 2.7). En
el Capı́tulo 3, nos ocuparemos de analizar y contrastar formalmente este efecto
sobre las series consideradas, y de ajustar convenientemente los modelos que lo
representan a las distribuciones marginales empı́ricas.

Series : retDJ2 Series : retIb2


1.0

1.0
0.8

0.8
0.6

0.6
ACF

ACF
0.4

0.4
0.2

0.2
0.0

0.0

0 10 20 30 0 10 20 30
Lag Lag

Figura 2.7: Autocorrelogramas de los retornos al cuadrado DowJones e Ibex35


Ajuste de Cópulas a Series Financieras Bivariantes 61

2.5.2. Ajuste no paramétrico de la cópula bivariante DowJones


& Ibex35

Comenzamos el procedimiento de ajuste según lo propuesto en el punto 2.1.


En primer lugar, se obtienen las distribuciones empı́ricas continuas a partir de
las dos series de retornos y, a continuación , se determina la cópula empı́rica que
las liga. En la figura 2.8 aparecen representados el diagrama de dispersión de
los retornos logarı́tmicos diarios que constituyen la serie bivariante (DowJones,
Ibex35) junto con el correspondiente al soporte de la cópula empı́rica. Este
último permite apreciar la dependencia presente en ambas colas de la distribución
bivariante.
1.0
0.06

0.9
0.04

0.8
0.7
0.02

0.6
Retornos Ibex35
0.0

0.5
v
-0.02

0.4
0.3
-0.04

0.2
-0.06

0.1
-0.08

0.0

-0.06 -0.02 0.0 0.02 0.04 0.06 0.0 0.2 0.4 0.6 0.8 1.0

Retornos DowJones u

Figura 2.8: Diagrama de dispersión de la serie bivariante de retornos logarı́tmicos


(DowJones, Ibex35) (izquierda) y soporte de la cópula empı́rica (derecha)

Como ya se ha explicado, no supondremos ningún modelo paramétrico para


las funciones de distribución marginales, al objeto de evitar los errores proce-
dentes de una mala especificación. En la figura 2.9 podemos observar la densidad
correspondiente a la cópula empı́rica obtenida (esquina superior izquierda), su
función de distribución de probabilidad (esquina superior derecha) y en la parte
inferior aparecen representados los correspondientes diagramas de contorno.
62 Teorı́a de Cópulas y Control de Riesgo Financiero

Si superponemos los diagramas de contorno de la función de distribución aso-


ciada a la cópula empı́rica y el correspondiente a la cópula independencia, es
posible confirmar la existencia de dependencia bivariante (parte superior de la
figura 2.10). Es más, el diagrama de contorno de la función de densidad de pro-
babilidad de la cópula empı́rica confirma la existencia de dependencia en ambas
colas de la distribución bivariante (figura 2.9). Por otra parte, si superponemos
los diagramas de contorno de la función de distribución asociada a la cópula
empı́rica y los correspondientes a las cópulas máxima y mı́nima, observamos que
el signo de esta dependencia es positivo ( parte inferior de la figura 2.10 ) .
Ajuste de Cópulas a Series Financieras Bivariantes 63

1.6
0.8

1.4

1.2 0.6

Density 1.0 Density


0.4
0.8

0.6
0.2

0.4

0.8 0.8

0.8 0.8
0.6 0.6
0.6 0.6

0.4 0.4
0.4 0.4
y y
0.2 x 0.2 x
0.2 0.2

1.0 0.2 0.4 0.6 0.8 1.0


1.4 1.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0
1.6
1.4
1.2

0.8
0.8

0.6
0.6
y

1.2
V

0.4
0.4

0.2
0.2
1.6

1.4 1.4 1.21.0 0.8 0.6 0.4


0.0 0.0
0.0 0.2 0.4 0.6 0.8 1.0
0.0 0.2 0.4 0.6 0.8 1.0
x
U

Figura 2.9: Función de densidad, de distribución y diagramas de contorno de la


Cópula empı́rica
64 Teorı́a de Cópulas y Control de Riesgo Financiero

1.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

0.8

0.6

0.4

0.2

0.0

0.0 0.2 0.4 0.6 0.8 1.0


U

1.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0

0.8

0.6
V

0.4

0.2

0.0

0.0 0.2 0.4 0.6 0.8 1.0


U

Figura 2.10: Comparación diagramas de contorno de la cópula empı́rica con la


cópula independencia (arriba) y las cópulas máxima y mı́nima (abajo)

El cálculo de las medidas de dependencia muestrales confirma el diagnóstico


anterior. Si utilizamos como indicadores exploratorios del grado de dependencia
el coeficiente de correlación de Pearson, la rs de Spearman y la τ de Kendall, sus
valores muestrales son los siguientes:

ρb rbs τb
0.4103 0.3593 0.2515

Para el análisis de la dependencia en colas a través de la cópula empı́rica, es


necesario recurrir a una representación gráfica de los valores de los coeficientes de
dependencia en las colas superior e inferior, puesto que no existe una expresión
concreta para dichos coeficientes en este caso.
Ajuste de Cópulas a Series Financieras Bivariantes 65

Representamos la serie de valores de la función

1 − 2α + Cemp (α, α)
(1 − α)

para valores crecientes de α hacia uno en el caso de la cola superior, y análogamente,


representamos la serie de valores de la función

Cemp (α, α)
α
para valores decrecientes de α hacia cero en el caso de la cola inferior.

El análisis del gráfico resultante permite detectar la presencia de dependencia


en colas en la cópula empı́rica.y estudiar posibles convergencias en el valor de
ambos coeficientes. Como se aprecia en la figura 2.11, el valor del ı́ndice en la
cola inferior crece de manera lineal para valores de α inferiores a 0.8, a medida
que el valor de α se acerca a cero. En el ı́ndice superior observamos el mismo
comportamiento pero cuando α tiende a la unidad, para valores de α superiores
a 0.2. Por tanto, existe evidencia clara de dependencia, tanto en la cola derecha
como en la izquierda, de la distribución empı́rica bivariante.

Coeficiente Dependencia Cola Inferior


0.8
0.6
0.4
0.2
0.0

0.2 0.4 0.6 0.8 1.0

alpha

Coeficiente Dependencia Cola Superior


0.8
0.6
0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8

alpha

Figura 2.11: Coeficiente de dependencia en las colas inferior y superior de la


cópula empı́rica DowJones&Ibex35
66 Teorı́a de Cópulas y Control de Riesgo Financiero

2.5.3. Ajuste paramétrico de la cópula bivariante DowJones &


Ibex35

Basándonos en los resultados del análisis exploratorio realizado hasta el mo-


mento y en el conocimiento de las peculiaridades propias de las series financieras,
parece que la elección más acertada deberı́a recaer en alguna cópula perteneciente
al grupo de las arquimedianas que presentase dependencia en colas. Proponemos
las siguientes familias uniparamétricas arquimedianas para realizar el ajuste:
Clayton, Frank y Gumbel (veáse el punto 1.10.2 para un mayor detalle en la
descripción de estas familias). Recordemos que la familia de Clayton presenta
dependencia en la cola inferior, mientras que la de Gumbel lo hace en la cola
superior. La familia de Frank no tiene dependencia en colas, pero parece intere-
sante incluirla en el análisis comparativo como elemento de contraste con el fin
de valorar la eficacia de los procedimientos propuestos. Por razones análogas,
también está justificada la presencia de la familia gaussiana.

Estimación del parámetro θ mediante el procedimiento de Genest


y Rivest (1993)(GR)

Comenzaremos estimando el parámetro θ para las familias arquimedianas


consideradas, a partir de la relación existente entre el valor muestral de la τ de
Kendall y el generador asociado a la familia de cópulas, que recordemos era la
siguiente: Z 1
ϕ(t)
τb = 1 + 4 dt
0 ϕ´(t)

Para nuestras tres familias esta expresión se concreta en las siguientes igual-
dades:
θ
Clayton τ = θ+2 τ ∈ [−1, 1] r {0}
Frank τ = 1 − 4θ [D1 (−θ) − 1] τ ∈ [−1, 1] r {0}
Gumbel τ = 1 − θ−1 τ ∈ [0, 1]

1
Rθ t
con D1 (θ) = θ 0 et −1 dt (integral de Debye) y D1 (−θ) = D1 (θ) + θ2 .

En el caso de la familia de Frank, se ha utilizado para obtener el valor de θ


la aproximación de la integral de Debye que aparece en Abramowitz y Stegun
(1954).

El valor τb = 0.2515 proporciona las siguientes estimaciones de θ:


Ajuste de Cópulas a Series Financieras Bivariantes 67

θb Err.St IC0.95 (θ)


Clayton 0.6721 0.0444 [0.5851; 0.7591]
Frank 2.34 0.0115 [2.3285; 2.3625]
Gumbel 1.336 0.0222 [1.2925; 1.3795]

Tabla 2.2: Estimaciones de θ por el procedimiento de Genest y Rivest para los


tres modelos arquimedianos junto con sus intervalos de confianza al 95%

Estimación del parámetro θ mediante máxima verosimilitud canónica


(CML)

La estimación del parámetro θ se efectúa ahora para todos los modelos con-
siderados, incluyendo la familia gaussiana, y viene dada por la ecuación (2.4).
Los valores proporcionados para θ por la estimación de máxima verosimilitud
canónica son:
θb Err.St IC0.95 (θ)
Clayton 0.5422 0.0267 [0.4899; 0.5945]
Frank 2.4666 0.0203 [2.3766; 2.5063]
Gumbel 1.3354 0.0312 [1.2743; 1.3965]
Gaussiana 0.3925 0.0193 [0.3547; 0.4303]

Tabla 2.3: Estimaciones de θ por el procedimiento CML para los cuatro modelos
considerados junto con sus intervalos de confianza al 95%

Un resumen de las estimaciones obtenidas por ambos procedimientos, junto


con su ordenación utilizando el criterio de Akaike aparece en la tabla 2.4.

Familia de cópulas Genest y Rivest CML AIC


Gumbel 1.336 1.3354 -561.5811
Gaussiana - 0.3925 -512.2128
Clayton 0.6721 0.5422 -465.6281
Frank 2.34 2.4666 -452.0353

Tabla 2.4: Ordenación de las estimaciones de θ por ambos procedimientos según


AIC
A partir de estas estimaciones, cuantificamos de nuevo la dependencia mues-
tral recogida por cada modelo ajustado e incorporamos, como un elemento más
68 Teorı́a de Cópulas y Control de Riesgo Financiero

de ayuda a la elección de la cópula más adecuada, la información proporcionada


por los ı́ndices cola correspondientes. Los resultados obtenidos para las estima-
ciones de θ realizadas mediante el procedimiento de Genest y Rivest se recogen
en las tabla 2.5 , junto con los proporcionados por la cópula empı́rica.

Familia de Cópulas τ rs λl λu
Gumbel 0.2515 0.3657 0 0.3199
Clayton 0.2515 0.3675 0.3565 0
Frank 0.2469 0.3462 0 0
Cópula empı́rica 0.2515 0.3593 - -

Tabla 2.5: Medidas de dependencia muestrales asociadas a las cópulas uni-


paramétricas estimadas mediante Genest y Rivest

Procedemos de manera análoga para las estimaciones realizadas mediante


máxima verosimilitud (tabla 2.6).

Familia de Cópulas τ rs λL λU
Gumbel 0.2511 0.3652 0 0.3195
Gaussiana 0.2567 0.3925 0 0
Clayton 0.2133 0.3138 0.2784 0
Frank 0.2589 0.3812 0 0
Cópula empı́rica 0.2515 0.3593 - -

Tabla 2.6: Medidas de dependencia muestrales asociadas a las cópulas uni-


paramétricas estimadas mediante CML

2.5.4. Evaluación de la bondad de ajuste

Comenzaremos la evaluación de la bondad de ajuste de los modelos uni-


paramétricos propuestos utilizando métodos de tipo gráfico.

1. En primer lugar, comprobamos si KC (.), dada por la ecuación

ϕ(t)
Kc (t) = t −
ϕ0 (t+ )

aplicada a C(F1emp (x), F2emp (y)) sigue una U (0, 1).


Ajuste de Cópulas a Series Financieras Bivariantes 69

Familia Clayton (GR) Familia Gumbel (GR)


1.0

1.0
0.8

0.8
0.6

0.6
U(0,1)

U(0,1)
0.4

0.4
0.2

0.2
0.0

0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

Kc[C(Femp1,Femp2)] Kc[C(Femp1,Femp2)]

Familia Frank (GR)


1.0
0.8
0.6
U(0,1)

0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0

Kc[C(Femp1,Femp2)]

Figura 2.12: Comparación KC (Cθe(F1emp (x), F2emp (y))) con U (0, 1) (Genest y
Rivest)

La figura 2.12 muestra los QQ-plots que enfrentan las diferentes estimaciones
realizadas mediante el procedimiento de Genest y Rivest a la U (0, 1). Se aprecia
como la cópula de Frank resulta la peor elección, mientras que las estimaciones
obtenidas para las familias Gumbel y Clayton parecen buenas candidatas para el
ajuste del modelo uniparamétrico.

Si procedemos de manera análoga para las estimaciones obtenidas medi-


ante CML, observamos (figura 2.13) resultados muy similares: la familia de
Frank queda descartada y la de Clayton y Gumbel ofrecen buenos resultados,
apreciándose en esta última un mejor ajuste en la cola derecha.
70 Teorı́a de Cópulas y Control de Riesgo Financiero

Familia Clayton (CML) Familia Gumbel (CML)


1.0

1.0
0.8

0.8
0.6

0.6
U(0,1)

U(0,1)
0.4

0.4
0.2

0.2
0.0

0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

Kc[C(Femp1,Femp2)] Kc[C(Femp1,Femp2)]

Familia Frank (CML)


1.0
0.8
0.6
U(0,1)

0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0

Kc[C(Femp1,Femp2)]

Figura 2.13: Comparación KC (Cθe(F1emp (x), F2emp (y))) con U (0, 1) (CML)

2. A continuación, comparamos la estimación no paramétrica proporcionada


por (2.2) con la paramétrica dada por (2.6).

La figura 2.14 muestra los QQ-plots correspondientes a las dos funciones de


distribución estimadas mediante el procedimiento de Genest y Rivest. Los re-
sultados indican que, de nuevo, la familia de Frank proporciona una estimación
paramétrica más alejada de la empı́rica que en las otras dos familias. Entre estas
últimas, la de Gumbel también presenta un mejor ajuste en la cola derecha.
Encontramos resultados similares al aplicar este procedimiento gráfico a las
estimaciones obtenidas mediante máxima verosimilitud. Si observamos la figura
2.15, las familias de Clayton y Gumbel proporcionan buenos resultados mientras
que la de Frank se aleja bastante de la distribución empı́rica.
Por último, completamos el estudio anterior mediante métodos analı́ticos.
En realidad, ya hemos usado uno de ellos (criterio de Akaike) para ordenar los
Ajuste de Cópulas a Series Financieras Bivariantes 71

Familia Clayton (GR) Familia Gumbel (GR)


1.0

1.0
0.8

0.8
F.d. empírica

F.d. empírica
0.6

0.6
0.4

0.4
0.2

0.2
0.0

0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

Kc[Femp1,Femp2] Kc[Femp1,Femp2]

Familia Frank (GR)


1.0
0.8
F.d. empírica

0.6
0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0

Kc[Femp1,Femp2]

Figura 2.14: Comparación KC (Cθe(F1emp (x), F2emp (y))) y Kn (w) (Genest y


Rivest)

modelos ajustados mediante máxima verosimilitud. Ahora proponemos emplear


el contraste de Kolmogorov-Smirnov, para una muestra, en el que la hipótesis
nula consiste en que KC (Cθe(F1emp (x), F2emp (y))) sigue una distribución U (0, 1).
Los p-valores suministrados por el contraste aplicado a los resultados obtenidos
mediante los dos procedimientos de estimación, aparecen en la tabla siguiente:

Familia de Cópulas p-valor GR p-valor CML


Gumbel 0.2817 0.2822
Clayton 0.0908 0.0434
Frank 0.0 0.0

Si utilizamos la versión del contraste de Kolmogorv-Smirnov para dos mues-


tras con el fin de comparar las distribuciones KC (t) y Kn (w), en el que la hipótesis
nula asume la igualdad de las dos distribuciones, se obtienen en todos los casos
72 Teorı́a de Cópulas y Control de Riesgo Financiero

Familia Clayton (CML) Familia Gumbel (CML)


1.0

1.0
0.8

0.8
F.d. empírica

F.d. empírica
0.6

0.6
0.4

0.4
0.2

0.2
0.0

0.0
0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

Kc[Femp1,Femp2] Kc[Femp1,Femp2]

Familia Frank (CML)


1.0
0.8
F.d. empírica

0.6
0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0

Kc[Femp1,Femp2]

Figura 2.15: Comparación KC (Cθe(F1emp (x), F2emp (y))) y Kn (w) (CML)

p-valores nulos debido a que se trata de un contraste bastante conservador, por


lo que en esta situación concreta no aporta información que pueda ayudar en el
proceso de selección del modelo.

Por último, podemos preguntarnos si la diferencia entre las estimaciones de


θ obtenidas para cada familia mediante los dos procedimientos empleados, tiene
influencia sobre los valores suministrados por los modelos ajustados. Una posible
medida de la distancia entre las dos estimaciones puede ser
¯ ¯
¯ ¯
sup ¯Cθe1 (u, v) − Cθe2 (u, v)¯
x,y
Ajuste de Cópulas a Series Financieras Bivariantes 73

Aplicando esta distancia a los diversos modelos ajustados, se obtiene


¯ ¯
¯ ¯
Familia de Cópulas supx,y ¯Cθe1 (u, v) − Cθe2 (u, v)¯
Gumbel 0.000094
Clayton 0.010358
Frank 0.003341

A la vista de todo lo anterior, el modelo uniparamétrico de cópula propor-


cionado por la familia Gumbel se confirma como la mejor elección para represen-
tar la relación de dependencia existente entre las series de retornos logarı́tmicos
diarios de los ı́ndices DowJones e Ibex35. El modelo de Clayton también pro-
porciona buenos resultados, por lo que deberı́a ser considerado como una posible
segunda elección. En cuanto a la cópula gaussiana, aunque no proporciona un
mal ajuste en términos de AIC (tabla 2.4), es un modelo que no contempla la
existencia de dependencia en colas, por lo cual no parece muy apropiado dada la
naturaleza de nuestros datos. No existe duda en cuanto a los malos resultados
que ofrece el modelo perteneciente a la familia de Frank, por lo que queda clara-
mente desechado para nuestros propósitos.

2.5.5. Modelos alternativos de cópulas mixtas

Teniendo en cuenta las conclusiones a las que hemos llegado en el ajuste de


cópulas uniparamétricas, ası́ como la información proporcionada por el modelo
de cópula empı́rica extraı́do de la muestra bidimensional de retornos, podemos
mejorar los resultados obtenidos hasta el momento proponiendo algún modelo
de cópula mixta que capture con más precisión los rasgos peculiares del com-
portamiento conjunto de los retornos de los dos ı́ndices considerados. En con-
creto, nos referimos a la dependencia en ambas colas de la distribución bivari-
ante empı́rica. El modelo perteneciente a la familia Gumbel, que ha resultado
preferido en el análisis previo, contempla la dependencia en la cola superior. La
situación inversa aparece al considerar como elección el modelo de Clayton, en
el que la dependencia reflejada es la tiene lugar en la cola inferior. Parece, por
tanto, que una mezcla de ambos modelos operarı́a de manera más eficiente sobre
nuestra muestra bivariante de retornos. Por otra parte, puesto que el modelo
uniparamétrico que ha ofrecido los mejores resultados ha sido el perteneciente a
la familia Gumbel, otra opción interesante la constituye la mezcla de un elemento
74 Teorı́a de Cópulas y Control de Riesgo Financiero

de la familia Gumbel con un modelo de cópula de supervivencia (veáse el punto


2.6) asociado a dicha familia.

Si denotamos por C(u, v; θ) el modelo de cópula mixta, consideramos combi-


naciones lineales convexas de la forma:
C(u, v; θ) = θ3 CF am1 (u, v; θ1 ) + (1 − θ3 )CF am2 (u, v; θ2 )
que se concretarán en dos modelos mixtos:
Fam1 Fam2
Modelo 1 Gumbel Gumbel supervivencia
Modelo 2 Gumbel Clayton
Especı́ficamente, el modelo 1 tiene como expresión
CMod1 (u, v; θ) = θ3 CGu (u, v; θ1 ) + (1 − θ3 )(u + v − 1 + CGu (1 − u, 1 − v; θ2 ))
donde CGu es la cópula de Gumbel (u, v) ∈ [0, 1]2 y θ1 , θ2 ∈ [1, +∞).

Para el modelo 2 la formulación es


CMod2 (u, v; θ0 ) = θ30 CGu (u, v; θ10 ) + (1 − θ30 )CCl (u, v; θ20 )
con CCl la cópula Clayton (u, v) ∈ [0, 1]2 , θ10 ∈ [1, +∞) y θ20 ∈ [−1, +∞) \ {0}.

Proposición 2.4
CMod1 (u, v; θ) y CMod2 (u, v; θ0 ) son cópulas.

Demostración:

Es inmediata a partir de la definición 1.4 y del hecho de que CGu y CCl son
cópulas.

Los modelos ası́ construidos vuelven a ser cópulas y, por tanto, disfrutan de
todas las propiedades de las mismas. Los parámetros θ1 y θ2 (θ10 y θ20 ) admi-
nistran el grado de dependencia en la cola superior e inferior, respectivamente, y
el parámetro θ3 (θ30 ) asigna el peso del primer elemento de la combinación lineal
convexa y fija la estructura conjunta.

El ajuste se realiza mediante máxima verosimilitud, en la forma usual


n
X
b = arg máxθ∈Θ
θ log L(θ; ui , vi )
i=1
Ajuste de Cópulas a Series Financieras Bivariantes 75

con ui = F1emp (xi ) y vi = F2emp (yi ).

Los modelos mixtos ajustados se comparan con los uniparamétricos mediante


el criterio AIC. También se utilizan para calcular los coeficientes de dependencia
en colas (recordemos que estos coeficientes son una caracterı́stica de la cópula,
por lo que exclusivamente es necesaria la función cópula correspondiente a cada
modelo para calcularlos).

Proposición 2.5
Existen los coeficientes de dependencia en ambas colas (superior e inferior)
para CMod1 (u, v; θ) y CMod2 (u, v; θ0 ), y sus expresiones son, para CMod1 (u, v; θ):
λL,1 = (1 − θ3 )(2 − 21/θ2 )
λU,1 = θ3 (2 − 21/θ1 )
y para CMod2 (u, v; θ0 ):
0
λL,2 = (1 − θ30 )2−1/θ2
0
λU,2 = θ30 (2 − 21/θ1 )

Demostración:

A partir de la definición de la cópula de Gumbel, dada por la expresión (1.6),


se tiene que
1 µ 1 ¶
2 θ1 2 θ2
CMod1 (u, u; θ) = θ3 u + (1 − θ3 ) 2u − 1 + (1 − u) (2.7)

Sustituyendo (2.7) en la expresión (1.4), obtenemos el coeficiente de depen-


dencia en la cola inferior para el modelo 1:
⎡ 1
µ 1
¶⎤
2 θ1 2 θ2
⎢ θ3 u + (1 − θ3 ) 2u − 1 + (1 − u) ⎥
λL,1 = lim ⎢ ⎥
u→0+ ⎣ u ⎦

⎡ 1 ⎤ ⎡ 1 ⎤

u2 θ1 2u − 1 + (1 − u)2 θ2
= θ3 lim ⎣ ⎦ + (1 − θ3 ) lim ⎣ ⎦
u→0+ u u→0+ u
∙ 1 ¸
1
2 θ2 −1
= (1 − θ3 ) lim 2 − 2 (1 − u)
θ 2
u→0+

= (1 − θ3 )(2 − 21/θ2 )
76 Teorı́a de Cópulas y Control de Riesgo Financiero

Análogamente,sustituyendo (2.7) en la expresión (1.3), obtenemos el coefi-


ciente de dependencia en la cola superior para el modelo 1:
⎡ 1
µ 1
¶⎤
2 θ1 2 θ2
⎢ 1 − 2u + θ3 u + (1 − θ3 ) 2u − 1 + (1 − u) ⎥
λU,1 = lim ⎢ ⎣


u→1− 1−u

1 ⎞ ⎛ ⎡ 1 ⎤
µ ¶ 2 θ1 2 θ2
1 − 2u u 2u − 1 + (1 − u)
= lim + θ3 lim ⎝ ⎠ + (1 − θ3 ) lim ⎣ ⎦
u→1− 1−u u→1− 1−u u→1− 1−u
1 ∙ 1 ¸
1 θ 1 θ
= 2 − θ3 lim 2 θ1 u2 1 −1 + (1 − θ3 ) lim − 2 − 2 θ2 (1 − u)2 2 −1
u→1− u→1−
1
= 2 − θ3 2 − 2(1 − θ3 )
θ1
³ 1 ´
= θ3 2 − 2 θ1

Procediendo de manera similar, se obtiene para el modelo 2


1
0
θ1
³ 0
´− 10
CMod1 (u, u; θ0 ) = θ30 u2 + (1 − θ30 ) 2u−θ2 − 1 θ2 (2.8)

Sustituyendo (2.8) en la expresión (1.4), obtenemos el coeficiente de depen-


dencia en la cola inferior para el modelo 2:
⎡ 1 ³ ´ 1 ⎤
0 − θ0
0 2 θ1 + (1 − θ30 ) 2u−θ2 − 1
0
⎢ θ3 u 2

λL,2 = lim ⎢ ⎥
u→0+ ⎣ u ⎦

⎛ 1
⎞⎡³ ´− 10 ⎤
θ 0
2u−θ20 − 1 θ2

0 ⎜ ⎟ u2 1
0 ⎢ ⎥
= θ3 lim ⎝ ⎠ + (1 − θ3 ) lim+ ⎣ ⎦
u→0+ u u→0 u

El lı́mite incluido en el primer sumando es cero y el correspondiente al segundo


sumando coincide con el coeficiente de dependencia en la cola inferior de la cópula
Clayton, por lo que:
− θ10
λL,2 = (1 − θ30 )2 2

Finalmente, sustituyendo (2.8) en la expresión (1.3), obtenemos el coeficiente


Ajuste de Cópulas a Series Financieras Bivariantes 77

de dependencia en la cola superior para el modelo 2:


⎡ 1 ³ ´− 10 ⎤
0
1 − 2u − θ 0 u2 θ1 + (1 − θ 0 ) 2u−θ20 − 1 θ2
⎢ 3 3 ⎥
λU,2 = lim ⎢ ⎥
u→1− ⎣ 1−u ⎦

⎛ 1
⎞ ⎡³ ´− 10 ⎤
µ ¶ 0
θ
2u−θ20 − 1 θ2
1 − 2u 0 ⎜ ⎟ u2 1
0 ⎢ ⎥
= lim + θ3 lim ⎝ ⎠ + (1 − θ3 ) lim− ⎣ ⎦
u→1− 1−u u→1− 1−u u→1 1−u
" 1
#
1 0
0 2 θ1
= 2 + θ30 lim −2 u θ1 −1
+
u→1−
µ ¶
1 ³ −θ20 ´− 10 −1 ¡ ¢ 0
+(1 − θ30 ) lim (−1) − 0 2 −θ20 u−θ2 −1
θ2
2u −1
u→1− θ2
1
0 1 ¡ ¢ 1
0
= 2 − θ30 2 θ1 + (1 − θ30 ) 0 2 −θ20 = 2 − θ30 2 θ1 − 2(1 − θ30 )
θ2
µ 1

0
= θ30 2 − 2 θ1

En la tabla 2.7 aparecen las estimaciones de máxima verosimilitud para los


parámetros de los dos modelos de cópulas mixtas, ası́ como su ordenación según
el criterio de Akaike junto con el valor de los coeficientes de dependencia en colas
inferior y superior.

Podemos apreciar que el modelo 1 es el que proporciona mejores resultados,


y si comparamos los modelos mixtos con los uniparamétricos ajustados, ambos
operan mejor que cualquiera de los considerados.
78 Teorı́a de Cópulas y Control de Riesgo Financiero

Familia de cópulas CML AIC λL λU


Modelo1 1.251 ; 1.252 ; 0.497 -652.0370 0.1310 0.1293
Modelo 2 1.171 ; 1.021 ; 0.624 -624.7183 0.1906 0.1205
Gumbel 1.3354 -561.5811 0 0.3199
Gaussiana 0.3925 -512.2128 0 0
Clayton 0.5422 -465.6281 0.2784 0
Frank 2.4666 -452.0353 0 0

Tabla 2.7: Ordenación de todos los modelos estimados mediante CML según AIC

1.0 0.5 1.0 4.5


1 4.0
3.5
3.0
2.5
2.0
1.5

0.8

0.6
y

0.4

0.2

98 7651.5
10
11
12
13 43 2 1 1.0 0.5
0.0

0.0 0.2 0.4 0.6 0.8 1.0


x

Figura 2.16: Diagrama de contorno de la cópula mixta Gumbel & Clayton en el


que se aprecia la dependencia en ambas colas
3

Filtrado de la Dependencia
Temporal Marginal

Uno de los objetivos fundamentales de nuestro estudio es analizar el compor-


tamiento del riesgo inherente a los mercados financieros. Con este fin, abordamos
en el presente capı́tulo la cuestión relativa a la elección de los modelos marginales
más adecuados a cada ı́ndice considerado. El planteamiento básico del que parti-
mos es que cada serie de retornos sigue un modelo de serie temporal estacionario
con estructura de volatilidad estocástica. La presencia de volatilidad estocástica
implica, como ya es conocido, que los retornos de ı́ndices financieros no son nece-
sariamente independientes en el tiempo. Por tanto, trabajando con estos modelos
existen dos tipos de distribuciones de retornos a considerar: la distribución condi-
cionada, donde la condición la establece la volatilidad actual, y la distribución
marginal o estacionaria del proceso. Ambas distribuciones son relevantes para el
control del riesgo. Las colas de la distribución de retornos condicionada son esen-
cialmente objeto de interés en el cálculo de medidas de riesgo de mercado y será
donde se concentre nuestro trabajo en el capı́tulo siguiente, una vez filtrada la
dependencia temporal marginal. La clave es la posible extensión de una pérdida
originada por un movimiento de mercado adverso sobre el dı́a (dı́as) siguiente,
dada la volatilidad registrada hasta el momento actual. La estimación de colas
no condicionadas proporciona información diferente, pero complementaria, sobre
el riesgo.

Esquemáticamente, las aproximaciones existentes para estimar la distribución


de beneficio-pérdida (P&L) de una cartera se pueden dividir en tres grupos:
80 Teorı́a de Cópulas y Control de Riesgo Financiero

1. Método de simulación histórica no paramétrica (HS).

2. Métodos paramétricos basados en un modelo econométrico para volatili-


dades y en la suposición de normalidad condicionada (Riskmetrics de J.P. Morgan
1995, y la mayorı́a de modelos de la familia ARCH/GARCH).

3. Métodos basados en Teorı́a de valores extremos (EVT).

En la aproximación HS (Crouhy, Galai y Mark 2001; Marshall 2001; Vilariño


2001), la distribución P&L estimada de una cartera viene dada simplemente por
la distribución empı́rica de pérdidas y ganancias pasadas. El método es fácil de
implementar y evita suposiciones sobre la forma de la distribución. Sin embargo,
este método dificulta notoriamente la estimación de los cuantiles extremos, ası́
como la extrapolación más allá de las observaciones pasadas. Es más, las esti-
maciones de cuantiles obtenidas por HS tienden a ser muy volátiles siempre que
aparece una observación grande en la muestra. Finalmente, el método es incapaz
de distinguir entre periodos de alta y baja volatilidad, en perticular si se utiliza
una muestra grande para mitigar la influencia de los dos primeros problemas en
la calidad de las estimaciones en colas.

Los modelos más refinados que incluyen la aproximación de normalidad condi-


cionada, tales como los de la familia GARCH ( Engle 1982, 2000, Bollerslev, Chow
y Kroner 1992, Bollerslev, Engle y Nelson, 1994, Gouriéroux 1997) con modelos
dinámicos de varianza condicionada de los retornos, proporcionan estimaciones
del VaR que reflejan la volatilidad registrada hasta el momento actual. La debi-
lidad principal de esta aproximación está en suponer la normalidad condicionada,
lo cual no parece ajustarse a la mayorı́a de los datos reales.

Los métodos basados en EVT (Embretchs y otros, 1997) tienen dos carac-
terı́sticas que los hacen atractivos para la estimación de las colas: están basados
en una teorı́a estadı́stica sólida y proporcionan una forma paramétrica para la
cola de la distribución. Por tanto, estos métodos permiten extrapolaciones más
allá del rango de los datos. Sin embargo, ninguno de los métodos basados en EVT
para estimación de cuantiles proporciona estimaciones VaR que reflejen la histo-
ria de la volatilidad actual. Dada la heterocedasticidad condicionada presente en
la mayorı́a de las series financieras, bien documentada por el considerable éxito
de los modelos de la familia ARCH-GARCH, creemos que esta será una mejor
elección para cualquier tipo de estimación del VaR. No obstante, no desechamos
estos métodos sino que serán utilizados en una fase posterior, detallada en el
Filtrado de la Dependencia Temporal Marginal 81

capı́tulo 4, donde emplearemos los llamados métodos umbral (POT) a partir de


EVT para estimar la distribución de las colas de los términos de error correspon-
dientes a las distribuciones marginales filtradas mediante procesos tipo GARCH
(McNeil y Frey, 2000).

Por todo lo anteriormente expuesto, nuestra propuesta para representar el


comportamiento de las distribuciones marginales de los retornos incluye dos
fases: en primer lugar utilizaremos modelos tipo GARCH y máxima verosimi-
litud para obtener estimaciones de la volatilidad condicionada, para proceder, a
continuación, a confirmar a través de análisis de datos exploratorio y los con-
trastes estadı́sticos pertinentes, que los términos de error (residuos) constituyen,
al menos aproximadamente, una serie i.i.d. con colas pesadas.

Los resultados obtenidos permitirán construir una estimación de la distribución


condicionada de los retornos a partir de la distribución de los residuos y las esti-
maciones de la volatilidad y de la media condicionada. Esta aproximación refleja
dos rasgos presentes en la mayorı́a de las series de retornos financieros: la volati-
lidad estocástica y las colas pesadas de las distribuciones condicionadas de los
retornos sobre horizontes temporales cortos.

De manera formal, sea (Xt )t∈N una serie temporal estrictamente estacionaria
que representa las observaciones diarias de retornos generadas por precios de
activos financieros.

Suponemos que esta serie viene generada por

Xt = μt + σt Zt (3.1)

donde las innovaciones Zt son un proceso estricto de ruido blanco (iid) de media
cero, varianza 1, función de distribución marginal FZ (z) y con μt y σt medibles
respecto a Gt−1 (información sobre el proceso de retornos hasta el instante (t-1)).

Sea FX (x) la distribución marginal de cada Xt y FXt+1 +...+Xt+k /Gt (x) la dis-
tribución predictiva de los retornos de los k dı́as siguientes, suponiendo conocidos
los retornos hasta el dı́a t.

Nuestro interés consiste en estimar cuantiles de las colas de este tipo de dis-
tribuciones, lo cual permitirá determinar las medidas de riesgo financiero usuales,
tales como el VaR o la Pérdida esperada, tal y como se detalla a continuación.
82 Teorı́a de Cópulas y Control de Riesgo Financiero

Sabemos que, para 0<q<1, se define el cuantil no condicionado de F como

xq = inf {x ∈ R : FX (x) ≥ q}

por tanto, el cuantil condicionado será un cuantil de la distribución predictiva


de retornos sobre los siguientes k dı́as:
© ª
xtq (k) = inf x ∈ R : FXt+1 +...+Xt+k /Gt (x) ≥ q

Puesto que una medida alternativa de riesgo viene dada por la llamada pérdida
esperada (ES), si consideramos la pérdida esperada no condicionada, tendremos:

Sq = E [X/X > xq ]

y la pérdida esperada condicionada será:


⎡ ⎤
Xk k
X
Sqt (k) = E ⎣ Xt+j / Xt+j > xtq (k), Gt ⎦
j=1 j=1

Para simplificar la exposición, podemos limitarnos al cálculo del VaR y la


pérdida esperada en distribuciones predictivas que contemplan un solo instante,
para las que utilizaremos la notación xtq y Sqt .

Puesto que
µ ¶
x − μt+1
FXt+1 /Gt (x) = P {μt+1 + σt+1 Zt+1 ≤ xÁGt } = FZ
σt+1

estas medidas se simplifican y quedan como:

xtq = μt+1 + σt+1 zq


Sqt = μt+1 + σt+1 E [ZÁZ > zq ]

ambas dependiendo de zq , q-cuantil superior de la distribución marginal de Zt que


por hipótesis no depende de t. Por tanto, nuestra tarea consistirá en determinar
zq , valor que permitirá el cálculo de las medidas de riesgo anteriormente citadas.

El proceso de filtrado de los retornos marginales se puede esquematizar en el


desarrollo de las siguientes fases:
Filtrado de la Dependencia Temporal Marginal 83

1) En primer lugar elegimos un proceso especı́fico entre los que verifican (3.1),
es decir, un modelo particular para la varianza y media condicionadas. Podemos
decantarnos por un tipo GARCH para la varianza y un ARMA, AR o incluso un
valor constante para la media. Procedemos al ajuste del modelo sin establecer
ninguna suposición sobre FZ (z), distribución de las innovaciones.

2) Estimamos μt+1 y σt+1 a partir del modelo ajustado y obtenemos los


residuos, considerándolos como una realización de un ruido blanco estricto.

3) Comprobamos la no normalidad de los residuos (mediante los contrastes


indicados para esta situación y, por ejemplo, gráficamente a través de un QQ-
plot de los mismos frente a la Normal) y la existencia de colas pesadas y curtosis
elevada.

4) Postulamos alguna distribución conocida para los residuos, de manera que


responda al patrón de colas pesadas y curtosis elevada. En concreto, proponemos
la distribución t-Student transformada para tener varianza 1. Los modelos tipo
GARCH con innovaciones siguiendo una t de Student pueden ajustarse mediante
máxima verosimilitud. Los resultados serán más satisfactorios cuanto más iguales
sean en cuanto a longitud las colas positiva y negativa de la distribución de los
retornos.

5) Comparamos de los resultados obtenidos con el caso de innovaciones dis-


tribuidas normalmente, que es de esperar proporcionen un peor ajuste, dada la
presencia de colas pesadas.

6) Aplicamos los procedimientos inferenciales propuestos en el Capı́tulo 2, con


el fin de estimar el modelo de cópula que mejor capture la relación de dependen-
cia presente en la muestra bivariante de retornos filtrados según los procesos tipo
GARCH. Para finalizar, comparamos las conclusiones obtenidas con las proce-
dentes del tratamiento de la muestra bivariante de retornos brutos.

3.1. Modelos de volatilidad

Hasta hace una década, la mayorı́a de los modelos relativos a series tempo-
rales financieras y macroeconométricas se centraban en los primeros momentos
condicionados, y cualquier dependencia temporal en momentos de orden superior
se trataba como una perturbación. Sin embargo, la importancia creciente del
84 Teorı́a de Cópulas y Control de Riesgo Financiero

riesgo y las consideraciones de incertidumbre en la teorı́a económica moderna,


han llevado a desarrollar nuevas técnicas de series temporales en econometrı́a
que permiten establecer modelos para varianzas y covarianzas que varı́an en el
tiempo. Un instrumento importante en este desarrollo lo constituyen la clase de
modelos para heterocedasticidad condicionada autorregresiva (ARCH) introduci-
dos por Engle (1982). Paralelamente al éxito de los modelos de series temporales
clásicos, en los que aparece el uso de la media condicionada frente a la no condi-
cionada, la clave de los modelos ARCH está en la incorporación de los momentos
de segundo orden condicionados frente a los no condicionados. Mientras que
en aquellos modelos la matriz de covarianzas no condicionadas para las varia-
bles de interés puede ser invariante en el tiempo, las varianzas y covarianzas
condicionadas a menudo dependen, y no trivialmente, de los estados pasados del
universo. La comprensión de la naturaleza exacta de esta dependencia temporal
es crucial para muchas series financieras y macroeconómicas tales como las rela-
tivas a inversiones, valoración de opciones, la estructura de los ı́ndices de interés
y la dinámica general de las relaciones entre valoraciones de activos financieros.
Por tanto, desde la perspectiva de la inferencia econométrica, la pérdida de efi-
ciencia asintótica por el descuido de la heterocedasticidad puede ser arbitraria-
mente grande y, cuando se efectúan las predicciones económicas, serı́a deseable
obtener estimaciones más precisas del error de predicción condicionando por el
conjunto de información que se tiene hasta el momento. Muchos procedimientos
estadı́sticos han sido diseñados con la intención de que fueran robustos frente
a grandes errores, pero ninguno habı́a utilizado la existencia de agrupamientos
temporales de datos atı́picos para predecir su ocurrencia y minimizar sus efectos.
Esta es exactamente la aproximación que hacen los modelos tipo ARCH.

3.1.1. Caracterı́sticas de las Series Financieras

La predicción de rentabilidades de activos financieros, tales como stocks e


ı́ndices de cambio, es de interés obvio en la práctica financiera (Alexander 2001).
La realidad es que rara vez se generan predicciones seguras, en muchas ocasiones
ni tan siquiera es posible predecir el signo de la rentabilidad del dı́a siguiente. La
relación entre rentabilidad y riesgo juega un papel prominente en muchas teorı́as
y modelos financieros, como por ejemplo la valoración de opciones. Dado que la
volatilidad es vista a menudo como una medida de este riesgo (cuando se aceptan
distribuciones normales, condicionadas o no, el riesgo es una función de la volati-
Filtrado de la Dependencia Temporal Marginal 85

lidad), se puede estar interesado no sólo en obtener predicciones de rentabilidades


sobre activos financieros, sino también predicciones de la volatilidad asociada. La
evidencia reciente muestra que la volatilidad de activos financieros no es cons-
tante, sin embargo sı́ se manifiesta una cierta regularidad, en el sentido de que
periodos de alta volatilidad alternan con otros más tranquilos, por lo que parece
posible predecir este riesgo que varı́a a lo largo del tiempo. La mayorı́a de los
modelos comúnmente utilizados en la práctica financiera para describir rentabili-
dades y volatilidades son lineales. Existen, sin embargo, distintos indicios de que
pudieran ser más apropiados modelos no lineales (Pagan 1996, Frey 1997). Uno
de ellos es el hecho de que los datos de series temporales financieras presentan un
comportamiento asimétrico (por ejemplo, rentabilidades negativas grandes apare-
cen más frecuentemente que rentabilidades positivas grandes). Otro serı́a que la
aparición de rentabilidades negativas grandes es, a menudo, preludio de periodos
de volatilidad sustancial, mientras que la aparición de rentabilidades positivas
grandes genera volatilidades menos significativas. Una cuestión importante es
la de discernir cuando estas rentabilidades negativas grandes son simplemente
sucesos atı́picos, o cuando son consecuencia natural de un proceso subyacente
que sigue un modelo no lineal que debe ser identificado, modelo que se puede
utilizar no sólo para describir el patrón observado en la serie financiera, sino más
importante aún, con el fin de obtener las mejores predicciones. Huelga decir que
tales peculiaridades deberı́an incorporarse en el modelo de serie temporal uti-
lizado para la descripción y predicción; en otro caso, nos arriesgamos a obtener
predicciones demasiado por debajo o demasiado por encima. Incluso en el caso
univariante, el conjunto de formas funcionales permitidas es amplio, y se puede
acomodar a una gran familia paramétrica de modelos ARCH. Por tanto, es conve-
niente tener conocimiento de las regularidades empı́ricas que cada modelo recoge
para seleccionar el ARCH apropiado.

A partir de una sencilla inspección gráfica y descriptiva de las observaciones


temporales, podemos resumir estos rasgos caracterı́sticos de las series financieras
de la siguiente forma:

(i) Los valores atı́picos aparecen más veces de lo esperado.

(ii) Las puntuaciones atı́picas generalmente son negativas.

(iii) Los valores atı́picos tienden a presentarse en clusters.

(iv) Valores atı́picos negativos provocan inestabilidades significativas.


86 Teorı́a de Cópulas y Control de Riesgo Financiero

(Rentabilidades del mercado de stock negativas grandes provocan volatilidades


grandes)

(v) Los periodos inactivos incrementan la volatilidad en la reapertura.

(vi) Movimientos conjuntos de volatilidades.

Para finalizar conviene comentar la relación existente entre variables macro-


económicas y volatilidad. Puesto que los valores del stock están fuertemente liga-
dos a la salud de la economı́a, es natural esperar que medidas de la incertidumbre
macroeconómica tales como las varianzas condicionadas de la producción indus-
trial, ı́ndices de interés, crecimiento monetario, etc. deberı́an ayudar a explicar
los cambios en la volatilidad del mercado de stocks. Esta idea refuerza el interés
en la obtención de modelos tipo ARCH, que representan el comportamiento de
estos momentos de segundo orden condicionados, bajo esta nueva óptica macro-
económica.

3.1.2. Formulación del Modelo ARCH

Si una variable
µ ¶ aleatoria yt se observa a partir de la función de densidad condi-
yt
cionada f , la predicción de valores actuales basada en la información
yt−1 µ ¶
yt
pasada , bajo suposiciones clásicas, es simplemente E , que depende del
yt−1
valor de la variable
µ ¶que condiciona, yt−1 . La varianza de la predicción en ese
yt
periodo es V . Tal expresión reconoce que la predicción de la varianza
yt−1
condicionada depende de la información pasada y, es más, puede ser una variable
aleatoria.

Consideremos inicialmente la autorregresión de primer orden:


yt = γyt−1 + εt
donde {εt } es un ruido blanco con E(εt ) = σ 2 .

La media condicionada de yt es γyt−1 , y la media no condicionada es cero.


La varianza condicionada de yt es σ 2 , mientras que la varianza no condicionada
σ2
es .
1 − γ2
La aproximación clásica en la representación de la heterocedasticidad consiste
Filtrado de la Dependencia Temporal Marginal 87

en introducir una variable exógena xt que predice la varianza. Con media cero
conocida, el modelo será:
yt = εt xt−1
donde, de nuevo V (εt ) = σ 2 y V (yt ) = σ 2 x2t−1 .

Esta solución del problema no parece satisfactoria, ya que lo que se requiere


es una especificación de las causas de los cambios de la varianza, más que el
reconocimiento de que la media y la varianza condicionadas pueden variar en el
tiempo. Quizás a causa de esta dificultad, rara vez aparecen correcciones de la
heterocedasticidad en modelos de series temporales.

Un modelo preferible es:

1
yt = εt ht2
2
ht = α0 + α1 yt−1

con V (εt−1 ) = 1.

Esto es un ejemplo de lo que será llamado un Modelo Autorregresivo de He-


terocedasticidad Condicionada (ARCH). No es exactamente un modelo bilineal,
pero se acerca mucho a uno. Añadiendo la suposición de normalidad, se puede
expresar más directamente en términos de el conjunto de información pasada
disponible hasta el instante t, que denotaremos por Gt . Usando densidades condi-
cionadas:
yt
∼ N (0, ht )
Gt−1
2
ht = α0 + α1 yt−1

La función de la varianza se puede expresar de forma más general como:

ht = h(yt−1 , yt−2 , ..., yt−p , α)

donde p es el orden del proceso ARCH y α es un vector de parámetros descono-


cidos.

El modelo de regresión ARCH se obtiene suponiendo que la media de yt viene


dada por xt β, una combinación lineal de variables endógenas y exógenas retar-
dadas incluidas en el conjunto de información Gt−1 , con β un vector de parámetros
desconocidos.
88 Teorı́a de Cópulas y Control de Riesgo Financiero

Formalmente:

yt /Gt−1 ∼ N (xt β, ht )
ht = h (εt−1 , εt−2 , ..., εt−p , α) (3.2)
εt = yt − xt β

La función de la varianza se puede generalizar para que incluya x actuales y


retardadas como parte del conjunto de información. La función h queda, entonces,
como:
ht = h(εt−1 , ..., εt−p , xt , xt−1 , ..., xt−p , α)
o, sencillamente:
ht = h(Gt−1 , α)

Esta generalización representa una extensión sencilla de los resultados.

En particular, si la función h se factoriza de la forma:

ht = hε (εt−1 , ..., εt−p , α)hx (xt , ..., xt−p )

los dos tipos de heterocedasticidad pueden ser tratados secuencialmente, primero


corrigiendo la componente x y, a continuación, ajustando el modelo ARCH sobre
los datos transformados.

El modelo formulado en (3.2) tiene una serie de caracterı́sticas que lo ha-


cen atractivo para aplicaciones econométricas, puesto que es útil para captar
los rasgos peculiares de las series financieras, ya comentados en el punto ante-
rior, y permite predecir la varianza cambiante en el tiempo basándose en errores
pasados. A partir de suposiciones sencillas, los beneficios de carteras de activos
financieros se toman como funciones de las medias y varianzas esperadas de las
rentabilidades. Cualquier cambio en la demanda de activos debe asociarse con
cambios en estas medias y varianzas esperadas. Si se asume que la media sigue
una regresión o un modelo de serie temporal clásicos, inmediatamente la varianza
se ve restringida a ser constante en el tiempo. Como ya se ha comentado, la al-
ternativa de utilizar variables exógenas para explicar cambios en la varianza, no
es apropiada en la mayorı́a de los casos, lo que hace del modelo ARCH el más
indicado en estas situaciones.
Filtrado de la Dependencia Temporal Marginal 89

Dada (Xt )t∈N sucesión de variables aleatorias, la formulación más utilizada


para un modelo ARCH de orden p, p ∈ N, es la siguiente:

Xt = μ + t

t = σt Zt (3.3)
ht = α0 + α1 2t−1 + ... + αp 2t−p

donde (Zt )t∈Z es una sucesión de variables aleatorias i.i.d de media cero y varianza
unidad, α0 > 0 y αi ≥ 0 para i = 1, 2, ..., p.

3.1.3. Formulación del Modelo GARCH

En aplicaciones empı́ricas del modelo ARCH a menudo se requiere un re-


tardo relativamente largo en la ecuación de la varianza condicionada y, para
evitar problemas con la varianza de las estimaciones de los parámetros, general-
mente se impone una estructura de retardos fija. Resulta, entonces, de inmediato
interés práctico extender la clase de modelos ARCH de forma que permita si-
multáneamente una memoria más larga y una estructura de retardos más flexible.
Esto se consigue con la clase de modelos GARCH(p,q) (Modelo Generalizado de
Heterocedasticidad Condicionada Autorregresiva).

Sean:

εt ≡ proceso estocástico en tiempo discreto con valores reales


ψt ≡ Conjunto (σ-álgebra) de toda la información hasta el instante t

El modelo GARCH(p,q) viene definido por:

εt /ψt−1 ∼ N (0, ht ) (3.4)

p
X q
X
ht = α0 + αi ε2t−i + βi ht−i = α0 + A(L)ε2t + B(L)ht (3.5)
i=1 i=1

donde p > 0, q ≥ 0, α0 > 0, αi ≥ 0, i = 1..p, βi ≥ 0 con i = 1...q .

Seguimos la lı́nea de Engle (1982) asumiendo que la distribución condicionada


es Normal, pero naturalmente también se pueden considerar otras distribuciones;
90 Teorı́a de Cópulas y Control de Riesgo Financiero

por ejemplo, en lugar de ε2t−i en la ecuación (3.5), puede ser más apropiado en
algunas aplicaciones utilizar |εt−i |.

Para p=0 el modelo se reduce a un ARCH(q), y para p=q=0, εt es sencilla-


mente un ruido blanco.

En el proceso ARCH(q) la varianza condicionada se especifica como una


función lineal únicamente de las varianzas muestrales pasadas, mientras que el
proceso GARCH(p,q) permite introducir también varianzas condicionadas re-
tardadas, lo que se corresponde con alguna clase de mecanismo de aprendizaje
adaptativo.

El modelo de regresión GARCH(p,q) se obtiene tomando los εt como innova-


ciones de una regresión lineal:

εt = yt − x0t b

donde yt es la variable dependiente, x0t es un vector de variables explicativas y b


es un vector de parámetros desconocidos.

Si todas las raı́ces de 1-B(z)=0 están fuera del cı́rculo unidad, (3.5) se puede
escribir como:

ht = α0 (1 − B(1))−1 + A(L)(1 − B(L))−1 ε2t


à q
!−1 ∞
X X
= α0 1 − βi + δi ε2t−i
i=1 i=1

que junto con (3.4) puede interpretarse como un ARCH(∞).

Los δi se obtienen a partir del desarrollo en serie de potencias de:

D(L) = A(L)(1 − B(L))−1



⎪ P
n

⎨ αi + βj δi−j , i = 1...p
j=1
δi = P
n

⎪ βj δi−j , i = p + 1, ...

j=1

con n = mı́n(q, i − 1).

Entonces, si B(1)<1, δi será decreciente para i más grande que m = máx{p, q}.
Filtrado de la Dependencia Temporal Marginal 91

Ası́, si D(1)<1, el proceso GARCH(p,q) se puede aproximar, con un grado


determinado de precisión, por un ARCH(p) estacionario para un valor suficien-
temente grande de q. Pero como en el caso análogo de un ARMA, el proceso
GARCH puede justificarse, posiblemente, a través de una descomposición de
Wald de los argumentos, lo que proporcionarı́a una descripción más escueta.

A partir de la teorı́a elaborada sobre procesos ARCH(q) finito dimensionales


que hemos visto en la sección anterior, es de esperar que la condición D(1)<1, o
equivalentemente A(1)+B(1)<1, sea suficiente para garantizar la estacionariedad
en sentido amplio (Milhoj 1985).

Una representación equivalente del proceso GARCH(p,q) viene dada por


p
X q
X q
X
ε2t = α0 + αi ε2t−i + βi ε2t−i − βi νt−i + νt (3.6)
i=1 i=1 i=1

con
¡ ¢
νt = ε2t − ht = ηt2 − 1 ht
donde ηt ∼ N (0, 1) i.i.d.

Obsérvese que, por definición, νt es serialmente incorrelada de media cero.


Además, el proceso GARCH(p,q) se puede interpretar como un proceso ARMA
en ε2t de órdenes m = máx(p, q) y q, respectivamente. Sin embargo, aunque (3.6)
puede ser más significativa desde un punto de vista teórico, la formulación dada
por (3.4) y (3.5) resulta más sencilla para trabajar de forma práctica.
92 Teorı́a de Cópulas y Control de Riesgo Financiero

Estructura de las funciones de autocorrelación y autocorrelación


parcial

Puesto que es conocido el uso de las funciones de autocorrelación y autocor-


relación parcial para identificar y chequear el comportamiento de series tempo-
rales de la forma ARMA (Box-Jenkins 1976), a continuación veremos como estas
dos funciones del proceso al cuadrado son útiles para identificar y chequear el com-
portamiento de series temporales cuya varianza condicionada sigue un proceso de
la forma GARCH. (La idea de utilizar el proceso al cuadrado para chequear
la adecuación del modelo no es nueva; Granger y Anderson (1978) encontraron
que algunas de las series modelizadas por Box-Jenkins presentaban residuos al
cuadrado autocorrelados, incluso si los residuos mismos parecı́an no estar corre-
lados a lo largo del tiempo).

Consideremos el proceso general GARCH(p,q):

εt /ψt−1 ∼ N (0, ht )
p
X q
X
ht = α0 + αi ε2t−i + βi ht−i = α0 + A(L)ε2t + B(L)ht
i=1 i=1
y supongamos que el proceso tiene momento de cuarto orden finito.

Hay que tener en cuenta que las condiciones para la existencia del momento
de cuarto orden son desconocidas; sin embargo, dado un orden especı́fico del
modelo estas condiciones se pueden obtener. Por ejemplo, la condición necesaria
y suficiente para el proceso GARCH(1,2) obtenida de esta manera es:

α2 + 3α12 + 3α22 + β12 + 2α1 β1 − 3α32 − 3α21 α2 + 6α1 α2 β1 + α2 β12 < 1

Sea la función de autocovarianza para ε2t denotada por:

γn = γ−n = Cov(ε2t , ε2t−n )

De (3.6) se sigue inmediatamente que:


p
X q
X
γn = αi γn−i + βi γn−i
i=1 i=1

m
X ⎪
n≥q+1

= ϕi γn−i m = máx(p, q) (3.7)


i=1 ϕi = αi + βi , i = 1...p
Filtrado de la Dependencia Temporal Marginal 93

αi ≡ 0 para i>p y βi ≡ 0 para i>q.

De donde se obtienen las siguientes ecuaciones, análogas a las de Yule-Walker:


m
X
ρn = γn γ0−1 = ϕi ρn−i , n ≥ q + 1 (3.8)
i=1

Por tanto, las q primeras autocorrelaciones para ε2t dependen directamente de


los parámetros α1 , ..., αp , β1 , ..., βq pero, dados ρq , ..., ρq+1−m la anterior ecuación
en diferencias únicamente determina las autocorrelaciones en retardos más al-
tos. Esto es similar a lo que ocurre con las autocorrelaciones de un proceso
ARMA(m,p).

Obsérvese también, que (3.7) depende de los parámetros α1 , ..., αp y β1 , ..., βq


solamente a través de ϕ1 , ..., ϕm .

Sea φkk la autocorrelación parcial k para ε2t que se obtiene resolviendo el


conjunto de k ecuaciones con k incógnitas φk1 , ..., φkk :
k
X
ρn = φki ρn−i n = 1...k
i=1

Por (3.8) φkk se corta después del retardo q para un proceso ARCH(p):
(
6= 0, k ≤ p
φkk
= 0, k > p

Este comportamiento es idéntico al de la función de autocorrelación parcial


de un AR(p).

También, por (3.8) y otros resultados ya conocidos en series temporales, la


función de autocorrelación parcial de ε2t para un proceso GARCH(p, q) es, en
general, no nula pero tiende a desaparecer.

En la práctica, naturalmente, los ρn y las φkk serán desconocidas. Si embargo,


los análogos muestrales ρ̂n proporcionan una estimación consistente para ρn , y
φkk se estima consistentemente por el coeficiente k-ésimo, φ̂kk , de una autorre-
gresión de orden k para ε2t (Granger y Newbold 1977). Estas estimaciones, junto
con su varianza asintótica bajo la hipótesis nula de no GARCH, se pueden utilizar
94 Teorı́a de Cópulas y Control de Riesgo Financiero

en la etapa de identificación preliminar, resultando también útiles para chequear


el diagnóstico del modelo.

3.1.4. Extensiones del modelo GARCH

En la mayorı́a de los casos, el modelo básico GARCH resulta una elección


razonablemente adecuada para representar y estimar la volatilidad condicionada
presente en las series financieras. Sin embargo, dado que en la formulación del
modelo intervienen únicamente los residuos al cuadrado, ε2t−i , la volatilidad condi-
cionada no refleja la influencia del signo de los residuos. Sin embargo, es un he-
cho conocido en las series financieras que las “malas noticias” (shocks negativos)
tienen una mayor influencia sobre la volatilidad que las “buenas noticias” (shocks
positivos). Esto es debido a que las malas noticias tienden a bajar los precios,
lo que produce un efecto de palanca y genera una mayor volatilidad. Por esto,
nos referimos al fenómeno del impacto asimétrico de las noticias como efecto de
apalancamiento financiero. A continuación, presentamos algunas variantes del
modelo GARCH básico que incorporan el efecto de apalancamiento financiero en
su formulación.

Modelo TGARCH

El modelo GARCH umbral (TGARCH) (Zakoian, 1991) es de la forma siguiente:

p
X p
X q
X
ht = α0 + αi ε2t−i + γi St−i 2t−i + βi ht−i
i=1 i=1 i=1

donde
(
1 si εt−i > 0
St−i =
0 si εt−i ≤ 0

esto es, dependiendo de cuando εt−i está por encima o por debajo del umbral
del 0, ε2t−i tiene un efecto diferente sobre la varianza ht : si εt−i es positivo, el
efecto total viene dado por αi ε2t−i , mientras que si εt−i es negativo, el efecto total
viene dado por (αi + γi )ε2t−i . Por tanto, valores positivos de γi producen mayor
influencia de las llamadas malas noticias.
Filtrado de la Dependencia Temporal Marginal 95

Este modelo también es conocido como modelo GJR, debido a que fue pro-
puesto de manera muy similar por Glosten, Jagannathan y Runkle (1993).

Modelo EGARCH

Nelson (1991) propuso el siguiente GARCH exponencial:


p
X p
X
|εt−i | + γi εt−i
log ht = α0 + αi 1/2
+ βi log ht−i (3.9)
i=1 ht−i i=1

Obsérvese que cuando εt−i es positivo ,“buenas noticias”, el efecto total es


(1 + γi ) |εt−i |, mientras que si εt−i es negativo o hay “malas noticias”, el efecto
total es (1 − γi ) |εt−i |. Las malas noticias pueden tener un gran impacto sobre
la volatilidad, si el valor de γi es negativo. Una ventaja adicional del modelo
EGARCH sobre el GARCH básico es que la varianza condicionada ht siempre es
positiva sin importar los valores de los coeficientes de (3.9), ya que el modelo se
refiere a log ht en lugar de ht .

Modelo PGARCH

El modelo GARCH básico se puede tratar como un caso particular del modelo
GARCH potencia (PGARCH) propuesto por Ding, Granger y Engle (1993):
p
X q
X
d/2 d d/2
ht = α0 + αi (|εt−i | + γi εt−i ) + βi ht−i (3.10)
i=1 i=1

donde d es un exponente positivo. Si d = 2, (3.10) se reduce al modelo GARCH


básico con efecto apalancamiento. Ding, Granger y Engle (1993) demuestran que
el modelo PGARCH también incluye casos especiales de muchas otras variantes
GARCH.
96 Teorı́a de Cópulas y Control de Riesgo Financiero

Curvas de impacto de noticias

Todos los modelos planteados en los puntos anteriores son capaces de recoger
el efecto de apalancamiento financiero, por lo que la elección particular de uno
de ellos implica el uso de un criterio de selección. Podemos emplear de nuevo
el criterio de Akaike (definición 2.3), junto con las llamadas curvas de impacto
de noticias, propuestas por Engle y Ng (1993), que representan gráficamente la
relación funcional entre la varianza condicionada en el instante t y el término de
error en el instante (t − 1), manteniendo constante la información en el instante
(t − 2) y anteriores.

La tabla 3.1 recoge las expresiones de la varianza no condicionada, σ 2 , de


diferentes modelos GARCH, y la tabla 3.2 contiene las expresiones de las curvas
de impacto de noticias para los mismos modelos con órdenes p = 1 y q = 1.
," p q
#
X ¡ ¢ X
GARCH(p,q) 2
σ = α0 1− 2
αi 1 + γi − βi
," i=1
p
i=1
q
#
X X
TGARCH(p,q) σ 2 = α0 1− (αi + γi /2 ) − βi
," i=1 i=1 #
p q 2
X p X
PGARCH(p,q) 2
σ = α02 1− αi 2/π − βi
(Ã p
i=1 ! ,Ã i=1
q
!)
X p X
EGARCH(p,q) σ 2 = exp α0 + αi 2/π 1− βi
i=1 i=1

Tabla 3.1: Varianza no condicionada de los diferentes procesos GARCH

GARCH(1,1) σt2 = A + α1 (| t−1 | + γ1 t−1 )2


A = α0 + β1 σ 2
TGARCH(1,1) σt2 = A + (α1 + γ1 St−1 ) 2t−1
A = α0 + β1 σ 2
√ 2
PGARCH(1,1) σt2 = A + 2 Aα1 (| t−1 | + γ1 t−1 ) + α12 (| t−1 | + γ1 t−1 )
A = (α0 + β1 σ)2
EGARCH(1,1) σt2 = A exp {α1 (| t−1 | + γ1 t−1 ) /σ }
A = σ 2β1 exp {α0 }

Tabla 3.2: Curvas de impacto de noticias de los diferentes procesos GARCH


Filtrado de la Dependencia Temporal Marginal 97

3.2. Ajuste de procesos GARCH a los retornos diarios


DowJones e Ibex35

3.2.1. Selección y diagnóstico de los modelos

En el capı́tulo anterior, se habı́a constatado la no normalidad de los retornos


mediante el estadı́stico de Jarque-Bera y la observación de los gráficos correspon-
dientes a las funciones de autocorrelación de los retornos al cuadrado de los dos
ı́ndices considerados (figura 3.1), hacı́a sospechar la presencia de efecto ARCH
(heterocedasticidad condicionada) en ambas series.

Series : retDJ2 Series : retIb2


1.0

1.0
0.8

0.8
0.4 0.6

0.4 0.6
ACF

ACF
0.2

0.2
0.0

0.0

0 10 20 30 0 10 20 30
Lag Lag

Series : retDJ2 Series : retIb2


0.25
0.15

0.15
0.05 0.10
Partial ACF

Partial ACF
0.05
0.0

-0.05

0 10 20 30 0 10 20 30
Lag Lag

Figura 3.1: Funciones de autocorrelación simple y parcial de los retornos


logarı́tmicos diarios al cuadrado DowJones e Ibex35

A partir de la formulación del modelo ARCH(p) dada por (3.3) y, puesto que
t tiene media cero ∀t, suponiendo que existe el momento de segundo orden de
98 Teorı́a de Cópulas y Control de Riesgo Financiero

Xt
¡ 2¢
V ar( t ) = E t = ht

donde V ar y E denotan, respectivamente, la varianza y la esperanza condi-


cionadas por la información hasta el instante (t − 1). Entonces, (3.3) puede
escribirse como

2 2 2
t = α0 + α1 t−1 + ... + αp t−p + Ut (3.11)

¡ ¢
donde Ut = 2t − E 2t es un ruido blanco de media cero. La ecuación (3.11)
permite afirmar que los residuos al cuadrado de un proceso ARCH(p) siguen
un proceso autorregresivo de orden p. Engle (1982), propone un contraste para
detectar el efecto ARCH basado en la ecuación (3.11):

Se contrasta la hipótesis nula α1 = α2 = ... = αp = 0 mediante el estadı́stico


LM = T R2 . Bajo la hipótesis nula , LM sigue una distribución χ2 con p grados
de libertad. T es el tamaño muestral y R2 es el coeficiente de determinación de
la regresión de 2t sobre p valores retardados de 2t , obtenido a partir de (3.11)
después de ajustar el modelo correspondiente según (3.3).

Los resultados del contraste anterior aplicado a las dos series de retornos
aparecen en la tabla 3.3. La hipótesis nula de ausencia de efecto ARCH es
rechazada en ambos casos.

Retornos LM P-valor
DowJones 340.08 0.0
Ibex35 547.89 0.0

Tabla 3.3: Contraste LM de la presencia de efecto ARCH en las series de retornos


logarı́tmicos diarios DowJones e Ibex35

Formalmente, consideraremos (Zt )t∈Z sucesión de variables aleatorias iid de


media cero y varianza unidad. El proceso (Xt )t∈Z es un ARMA(p2 , q2 ) para
la media condicionada y un GARCH(p2 , q2 ) para la varianza condicionada si
Filtrado de la Dependencia Temporal Marginal 99

satisface

Xt = μt + t
p1
X q1
X
μt = μ + φi (Xt−1 − μ) + θj t−j (3.12)
i=1 j=1
t = σt Zt
p2
X q2
X
σt2 = α0 + αi 2t−i + 2
βj σt−j
i=1 j=1

donde α0 > 0, αi ≥ 0 para i = 1, 2, ..., p2 , βj ≥ 0 para j = 1, 2, ..., q2 y Zt


es independiente de (Xs )s≤t Los polinomios φ(z) = 1 − φ1 z − ... − φp1 z p1 y
θ(z) = 1 − θ1 z − ... − θq1 z q1 no tienen raı́ces comunes ni dentro del cı́rculo unidad.

A continuación, ajustamos modelos univariantes ARMA(1, 1) para la media


condicionada y del tipo GARCH(1, 1) para la varianza condicionada, mediante
máxima verosimilitud, a cada una de las series de retornos marginales. Supon-
dremos que las innovaciones Zt siguen una distribución gaussiana o una dis-
tribución t de Student, y compararemos los resultados. Los diferentes procesos
tipo GARCH(1, 1) que consideramos incorporan, en todos los casos, un término
que contempla la presencia del efecto de apalancamiento financiero. En concreto
utilizamos los procesos TGARCH(1, 1), EGARCH(1, 1) y PGARCH(1, 1). En
este último caso, la estimación de máxima verosimilitud de la potencia produjo
un valor de 0.855, por lo que el proceso se reajustó con un valor fijo para la
potencia de 1.

Los resultados obtenidos, según los distintos procesos considerados, para la


serie de retornos logarı́tmicos diarios DowJones con innovaciones gaussianas son
los siguientes:

μ − TGARCH(1, 1) Coeficientes Error std. t Pr(> |t|)


μ 3.325e-004 1.52e-004 2.180 1.46e-002
α0 1.392e-006 2.13e-007 6.538 3.63e-011
ARCH(1) 1.320e-002 7.90e-003 1.670 4.75e-002
GARCH(1) 9.188e-001 7.03e-003 130.608 0.0
Coef. apalanc. 1.082e-001 9.69e-003 11.167 0.0
100 Teorı́a de Cópulas y Control de Riesgo Financiero

ARMA(1, 1) − EGARCH(1, 1) Coeficientes Error std. t Pr(> |t|)


μ 0.00041 0.0002 1.40 7.97e-002
AR(1) -0.9065 0.1585 -5.71 5.93e-009
M A(1) 0.8982 0.1667 5.38 3.82e-008
α0 -0.4649 0.0458 -10.13 0.0
ARCH(1) 0.1571 0.0152 10.27 0.0
GARCH(1) 0.9633 0.0041 231.19 0.0
Coef. apalanc. -0.6990 0.0895 -7.80 3.99e-015

μ − PGARCH(1, 1, 1) Coeficientes Error std. t Pr(> |t|)


μ 0.0002 0.0001 1.71 4.29e-002
α0 0.0001 2e-005 7.27 2.21e-013
ARCH(1) 0.0687 0.0067 10.19 0.0
GARCH(1) 0.9288 0.0064 143.13 0.0
Coef. apalanc. -0.7531 0.09477 -7.94 1.33e-015

b/b
En todos los casos se utiliza el estadı́stico t usual , α σαe , para contrastar
cuando el parámetro correspondiente es cero.

Para comprobar la no autocorrelación de los residuos utilizamos el contraste


de Ljung-Box, que plantea la hipótesis nula de aleatoriedad y utiliza el estadı́stico
h
X ρ2j
QLB = n(n + 2)
n−j
j=1

donde n es el tamaño muestral, ρj es la autocorrelación en el retardo j y h es el


número de retardos considerado. La hipótesis nula se rechaza si QLB > χ21−α;h ,
con α el nivel de significación fijado previamente. Los resultados de aplicar el con-
traste anterior tanto a los residuos estandarizados como a su cuadrado en los tres
modelos ajustados no permiten rechazar la hipótesis nula de no autocorrelación
(con 12 retardos considerados). También se efectuado el contraste basado en el
estadı́stico LM a los residuos para constatar la ausencia de efecto ARCH en los
mismos. Los resultados de ambos contrastes se recogen en las tablas 3.4 y 3.5.
Filtrado de la Dependencia Temporal Marginal 101

QLB resstd p-valor QLB res2std p-valor


μ − P GARCH(1, 1, 1) 15.89 0.19 7.49 0.82
ARM A(1, 1) − EGARCH(1, 1) 13.93 0.30 10.03 0.61
μ − T GARCH(1, 1) 15.95 0.19 8.83 0.71

Tabla 3.4: Contraste QLB aplicado a los residuos DowJones en los tres procesos
GARCH ajustados

LM p-valor
μ − P GARCH(1, 1, 1) 7.38 0.87
ARM A(1, 1) − EGARCH(1, 1) 9.784 0.63
μ − T GARCH(1, 1) 8.69 0.75

Tabla 3.5: Contraste LM aplicado a los residuos DowJones en los tres procesos
GARCH ajustados

Para terminar, quedarı́a por analizar la normalidad de los residuos. Efectuado


el contraste de Jarque-Bera sobre los residuos de los tres procesos ajustados, se
obtienen p-valores nulos, con lo cual es posible rechazar la hipótesis de normalidad
en los tres supuestos. La figura 3.2 muestra los QQ-plots de los residuos de los tres
modelos ajustados frente a la normal tipificada. Se aprecia de forma evidente, que
la cola izquierda en los tres casos se aleja bastante del supuesto de normalidad.

Una vez realizado el diagnóstico de los procesos ajustados, pasamos a decidir


cual es el más adecuado para representar el comportamiento marginal de la serie
de retornos logarı́tmicos diarios DowJones. La tabla 3.6 muestra la ordenación,
según el criterio de Akaike, de los tres modelos:

AIC Valor verosimilitud


μ − P GARCH(1, 1, 1) -20166.67 10088
ARM A(1, 1) − EGARCH(1, 1) -20140.11 10073
μ − T GARCH(1, 1) -20136.64 10077

Tabla 3.6: Ordenación según AIC de los procesos ajustados a los retornos diarios
DowJones con innovaciones gaussianas
102 Teorı́a de Cópulas y Control de Riesgo Financiero

2
Residuos PGARCH

Residuos EGARCH
0

0
-2

-2
-4

-4
-2 0 2 -2 0 2

Cuantiles de la distribución Normal estándar Cuantiles de la distribución Normal estándar


2
Residuos TGARCH

0
-2
-4
-6

-2 0 2

Cuantiles de la distribución Normal estándar

Figura 3.2: QQ-plots de los residuos estandarizados DowJones frente a la normal


estándar

En la figura 3.3 están representadas las curvas de impacto de noticias ge-


neradas por los tres procesos ajustados a la serie de retornos logarı́tmicos diarios
DowJones con innovaciones gaussianas. La inspección de esta representación
gráfica permite constatar la presencia del efecto de apalancamiento financiero en
todos ellos (ya confirmado por el hecho de que el coeficiente correspondiente al
mismo es significativo en todos los ajustes) que se traduce en la contribución
asimétrica que tienen las innovaciones sobre la volatilidad. Podemos observar
como valores negativos de los residuos, malas noticias, disparan el valor de la
volatilidad condicionada. También se observa que el modelo más robusto frente
al impacto de valores negativos grandes es el correspondiente al PGARCH(1,1,1)
ajustado. Esta información, junto con la proporcionada por la tabla 3.6, hace que
el proceso PGARCH(1,1,1), con media constante, sea el preferido para representar
el comportamiento marginal de la serie de retornos DowJones.
Filtrado de la Dependencia Temporal Marginal 103

TGARCH
PGARCH
EGARCH
0.0010
0.0006
0.0002

-6 -4 -2 0 2 4

Figura 3.3: Curvas de impacto de noticias de los tres procesos GARCH ajustados
a la serie de retornos logarı́tmicos diarios DowJones con innovaciones gaussianas

Como ya habı́amos comentado, la hipótesis de normalidad no resulta apro-


piada para los residuos de nuestro modelo. Por ello, una vez seleccionado el
proceso PGARCH(1,1,1), con media constante, como el más adecuado a nuestros
propósitos, podemos efectuar el reajuste del mismo, suponiendo que las innova-
ciones siguen una distribución t de Student. Los coeficientes estimados para el
proceso PGARCH(1,1,1) con media constante e innovaciones distribuidas según
una t de Student, con una estimación de 10.863 grados de libertad y desviación
tı́pica estimada 1.6755, son los siguientes:

μ − PGARCH(1, 1, 1) Coeficientes Error std. t Pr(> |t|)


μ 4.09e-004 1.45e-004 2.807 2.51e-003
α0 1.44e-004 0.29e-004 4.926 4.41e-007
ARCH(1) 0.0617 8.74e-003 7.063 9.99e-013
GARCH(1) 0.9366 8.15e-003 114.857 0.0
Coef. apalanc. -0.7738 0.1336 -5.79 3.86e-009
104 Teorı́a de Cópulas y Control de Riesgo Financiero

El contraste de Jarque -Bera permite rechazar la hipótesis de normalidad en


los residuos y, en cuanto a la autocorrelación, los valores que toma el estadı́stico
QLB de Ljung-Box son 16.11 (p-valor de 0.186) para los residuos y 8.41 (p-valor
de 0.752) para los residuos al cuadrado, por lo que no es posible rechazar la
hipótesis nula de aleatoriedad en los 12 retardos considerados. El estadı́stico LM
toma un valor de 8.28 con un p-valor de 0.796, por lo que aceptamos la ausencia
de efecto ARCH en los residuos. El valor AIC para este modelo es de -20221.34,
inferior al -20166.67 obtenido para el modelo con innovaciones gaussianas, y con
un valor para la verosimilitud de 10117.

Si realizamos un análisis análogo para la serie de retornos logarı́tmicos diarios


del ı́ndice Ibex35, obtenemos los siguientes coeficientes estimados en los diversos
procesos ajustados:

μ − TGARCH(1, 1) Coeficientes Error std. t Pr(> |t|)


μ 5.96e-004 1.86e-004 3.21 6.70e-004
α0 2.76e-006 4.22e-007 6.53 3.71e-011
ARCH(1) 5.06e-002 9.75e-003 5.19 1.10e-007
GARCH(1) 8.90e-001 9.75e-003 92.91 0.0
Coef. apalanc. 8.59e-002 1.20e-002 7.12 6.37e-013

μ − EGARCH(1, 1) Coeficientes Error std. t Pr(> |t|)


μ 4.91e-004 1.77e-004 2.78 2.73e-003
α0 -0.4486 0.0464 -9.66 0.0
ARCH(1) 0.1944 0.0167 11.62 0.0
GARCH(1) 0.9666 0.0042 225.70 0.0
Coef. apalanc. -0.3371 0.0586 -5.74 5.08e-009

μ − PGARCH(1, 1, 1) Coeficientes Error std. t Pr(> |t|)


μ 5.60e-004 1.67e-004 3.35 4.006e-004
α0 2.26e-004 0.32e-004 6.87 3.70e-012
ARCH(1) 0.0895 6.98e-003 12.81 0.0
GARCH(1) 0.9106 7.03e-003 129.42 0.0
Coef. apalanc. -0.3611 0.0562 -6.41 8.12e-011

El análisis de la autocorrelación de los residuos mediante el contraste de Ljung-


Box proporciona los resultados que aparecen en la tabla 3.7. Podemos observar
que mientras que la ausencia de correlación es aceptable al analizar los residuos
al cuadrado, en el caso de la serie simple de residuos no es posible aceptar la
Filtrado de la Dependencia Temporal Marginal 105

hipótesis de aleatoriedad en los casos PGARCH y TGARCH.

QLB resstd p-valor QLB res2std p-valor


μ − P GARCH(1, 1, 1) 22.12 0.03 7.91 0.791
μ − EGARCH(1, 1) 20.35 0.06 7.38 0.830
μ − T GARCH(1, 1) 21.94 0.03 8.12 0.775

Tabla 3.7: Contraste QLB aplicado a los residuos Ibex35 en los tres procesos
GARCH ajustados

En la tabla 3.8 se recogen los valores del estadı́stico LM , que permiten con-
firmar la ausencia de efecto ARCH en las tres series de residuos Ibex35.

LM p-valor
μ − P GARCH(1, 1, 1) 7.78 0.80
μ − EGARCH(1, 1) 7.31 0.83
μ − T GARCH(1, 1) 7.96 0.78

Tabla 3.8: Contraste LM aplicado a los residuos Ibex35 en los tres procesos
GARCH ajustados

De nuevo recurrimos al criterio de Akaike y a las curvas de impacto de noticias,


como herramientas de ayuda en la selección del mejor modelo para filtrar la
dependencia temporal de la serie de retornos Ibex35. La ordenación según AIC
de los tres procesos ajustados aparece en la tabla 3.9.

AIC Valor verosimilitud


μ − P GARCH(1, 1, 1) -18754.89 9382
μ − T GARCH(1, 1) -18748.77 9379
μ − EGARCH(1, 1) -18745.43 9378

Tabla 3.9: Ordenación según AIC de los procesos ajustados a los retornos diarios
Ibex35 con innovaciones gaussianas
106 Teorı́a de Cópulas y Control de Riesgo Financiero

La figura 3.4, en la que están representadas las curvas de impacto de noticias


asociadas a cada proceso ajustado, permite apreciar un comportamiento interme-
dio del proceso EGARCH, que recordemos era el que proporcionaba mejores re-
sultados en términos de autocorrelación de los residuos estandarizados, en cuanto
a estabilidad frente a la aparición de malas noticias (valores negativos de los erro-
res).

TGARCH
PGARCH
0.0014

EGARCH
0.0010
0.0006
0.0002

-0.10 -0.05 0.0 0.05 0.10

Figura 3.4: Curvas de impacto de noticias de los tres procesos GARCH ajustados
a la serie de retornos logarı́tmicos diarios Ibex35 con innovaciones gaussianas

En lo que respecta a la normalidad de los residuos, el contraste de Jarque-Bera


proporciona p-valores nulos en los tres casos, por lo que es posible rechazar la
hipótesis de residuos gaussianos en todos los ajustes realizados. En la figura 3.5
aparecen los QQ-plots de los residuos Ibex35 frente la normal estándar. En las tres
series de residuos se observa la presencia de colas pesadas, es decir, ambas colas
reflejan frecuencias más altas que las esperadas en el caso gaussiano, lo que induce
a pensar que el ajuste mejorarı́a considerando innovaciones con distribución t de
Student.
Filtrado de la Dependencia Temporal Marginal 107

4
4

2
2
Residuos PGARCH

Residuos EGARCH
0
0
-2

-2
-4

-4
-6

-6
-8

-2 0 2 -2 0 2

Cuantiles de la distribución Normal estándar Cuantiles de la distribución Normal estándar


4
2
Residuos TGARCH

0
-2
-4
-6

-2 0 2

Cuantiles de la distribución Normal estándar

Figura 3.5: QQ-plots de los residuos estandarizados Ibex35 frente a la normal


estándar

Realizado este ajuste, los coeficientes estimados para el proceso EGARCH(1,1)


con media constante e innovaciones distribuidas según una t de Student, con una
estimación de 10.617 grados de libertad y desviación tı́pica estimada 1.4158, son
los siguientes:

μ − EGARCH(1, 1) Coeficientes Error std. t Pr(> |t|)


μ 7.02e-004 1.7e-004 3.93 4.29e-005
α0 -0.3203 0.0450 -7.10 7.27e-013
ARCH(1) 0.1649 0.0193 8.53 0.0
GARCH(1) 0.9785 0.0041 236.15 0.0
Coef. apalanc. -0.4383 0.0819 -5.34 4.73e-008
108 Teorı́a de Cópulas y Control de Riesgo Financiero

El contraste de Jarque -Bera permite rechazar la hipótesis de normalidad en


los residuos y, en cuanto a la autocorrelación, los valores que toma el estadı́stico
QLB de Ljung-Box son 20.88 (p-valor de 0.053) para los residuos estandarizados
y 7.69 (p-valor de 0.8083) para los residuos estandarizados al cuadrado, por lo
que no es posible rechazar la hipótesis nula de aleatoriedad en los 12 retardos
considerados. El estadı́stico LM toma un valor de 7.55 con un p-valor de 0.819,
por lo que aceptamos la ausencia de efecto ARCH en los residuos. El valor
AIC para este modelo es de -18824.18, inferior a cualquiera de los obtenidos
para los modelos ajustados con innovaciones gaussianas, y con un valor para la
verosimilitud de 9418.

3.2.2. Ajuste de cópulas bidimensionales a los retornos filtrados


DowJones e Ibex35

A partir de los modelos GARCH ajustados en el punto anterior, se obtienen los


residuos o retornos filtrados, zbt , de cada una de las series de retornos logarı́tmicos
diarios univariantes. Los residuos se calculan a partir de la muestra (x1 , ..., xT )
y de los parámetros estimados, como
(xt − μbt )
zbt = (3.13)
bt
σ
para t = 1, 2, ..., T .

De esta forma, se obtiene una muestra bivariante de retornos filtrados que no


presentan evidencias en contra de la hipótesis de i.i.d. en las marginales, pero que
conservan la dependencia contemporánea, como se aprecia en la figura 3.6 en la
que aparece el diagrama de dispersión correspondiente a la muestra bivariante de
retornos DowJones e Ibex35, filtrados a través de un proceso PGARCH(1,1,1) con
media constante para los retornos DowJones y de un EGARCH(1,1) con media
constante para los retornos Ibex35, en ambos casos con innovaciones según una
t de Student. En la parte derecha de este mismo gráfico aparece el soporte de la
cópula empı́rica de las innovaciones, en el que es posible observar la dependencia
en las colas de la distribución bivariante

Sean Z1 y Z2 las variables aleatorias que representan los retornos filtrados


DowJones e Ibex35, respectivamente. Sea F la función de distribución de proba-
bilidad bivariante de (Z1 , Z2 ) con funciones de distribución marginales continuas
F1 y F2 . Con el fin de analizar la dependencia entre los residuos, ajustamos
Filtrado de la Dependencia Temporal Marginal 109

1.0
0.06

0.9
0.04

0.8
0.7
0.02
Innovaciones Ibex35

0.6
0.0

0.5
v
-0.02

0.4
0.3
-0.04

0.2
-0.06

0.1
-0.08

0.0

-0.08 -0.04 0.0 0.02 0.04 0.06 0.0 0.2 0.4 0.6 0.8 1.0
Innovaciones DowJones u

Figura 3.6: Diagrama de dispersión (izquierda) y soporte de la cópula empı́rica


(derecha) de los retornos filtrados DowJones e Ibex35

modelos de cópulas del tipo

F (z1 , z2 ) = Cθ (F1 (z1 ), F2 (z2 ))

z1 , b
Dada la muestra de retornos filtrados (b z2 ), estimamos el parámetro θ de la
cópula C mediante los procedimientos de Genest y Rivest y máxima verosimilitud
canónica (CML), ya descritos y utilizados en el Capı́tulo 2. En el caso CML, el
estimador vendrá dado en esta ocasión por
n
X
θb = arg máxθ∈Θ log L(θ; F1emp (z1i ), F2emp (z2i ))
i=1

Los resultados obtenidos en el ajuste del modelo de cópula más adecuado


para representar la relación de dependencia entre los retornos filtrados DowJones
e Ibex35 aparecen en la tabla 3.10 ordenados según AIC. Las conclusiones son
110 Teorı́a de Cópulas y Control de Riesgo Financiero

semejantes a las obtenidas en el Capı́tulo 2 al tratar las series brutas de retornos,


puesto que la estructura de dependencia contemporánea entre los dos ı́ndices se
ha conservado a través del filtrado marginal. Los dos modelos mixtos encabezan
la clasificación, seguidos del perteneciente a la familia de Gumbel, todos ellos
con estimaciones de los parámetros muy similares a las obtenidas para las series
brutas. En el caso de los modelos mixtos, aparecen tres valores estimados: los
dos primeros corresponden a cada modelo de los que integran la mixtura y el
tercero concreta la combinación lineal convexa.

Familia de cópulas b
θ AIC λL λU
Modelo1 1.252 ; 1.253 ; 0.498 -652.03 0.1312 0.1297
Modelo 2 1.172 ; 1.022 ; 0.625 -624.72 0.1903 0.1209
Gumbel 1.3355 -561.58 0 0.3195
Gaussiana 0.3926 -512.23 0 0
Clayton 0.5423 -465.63 0.2785 0
Frank 2.4667 -452.04 0 0

Tabla 3.10: Ordenación según AIC de todos los modelos de cópula estimados para
los retornos filtrados DowJones e Ibex35
4

Dependencia en Colas

Es un hecho conocido y ya comentado que la ausencia de normalidad en


términos univariantes va asociada a los fenómenos de colas pesadas y leptocur-
tosis. En un planteamiento multivariante, estos rasgos caracterı́sticos pueden
referirse tanto a las distribuciones marginales como a la distribución que repre-
senta los movimientos conjuntos de los diferentes mercados. Anteriormente ya
nos hemos referido a este concepto como dependencia en colas. Intuitivamente,
podemos imaginar mercados en los que las distribuciones marginales presenten
colas pesadas, mientras que los movimientos extremos de los mercados implicados
sean ortogonales, o casos en los que los retornos de cada mercado se distribuyan
normalmente pero los grandes movimientos se presentan conjuntamente bajo otro
patrón. El uso de funciones cópula permite representar estas dos peculiaridades,
colas pesadas y dependencia en colas, de forma separada. Recordemos que para
representar la dependencia en colas considerábamos la probabilidad de que un
suceso con probabilidad menor o igual que α ocurra en la primera variable, dado
que un suceso con probabilidad menor o igual que α ha ocurrido en la segunda
(podrı́amos estar hablando, por ejemplo, de la probabilidad de observar un crash
de mercado con probabilidad menor o igual que 0,01 en el ı́ndice Ibex35, dado
que ha ocurrido un crash con probabilidad menor o igual que 0,01 en el ı́ndice
Dow Jones):
P (F1 (x) ≤ α, F2 (y) ≤ α) C(α, α)
λα = P (F1 (x) ≤ α/F2 (y) ≤ α) = =
P (F2 (y) ≤ α) α

Si calculamos esta medida a lo largo de la cola inferior, es decir, para va-


lores muy pequeños de α, obtenemos el ı́ndice de dependencia en la cola inferior
112 Teorı́a de Cópulas y Control de Riesgo Financiero

definido en el punto 1.8 del Capı́tulo 1. Una interpretación análoga es posible


para el ı́ndice de dependencia en la cola superior, que representa la probabilidad
de que los precios se disparen simultáneamente en los dos mercados (en nuestro
ejemplo, en los mercados español y estadounidense).

El cálculo de estos ı́ndices constituye una primera aproximación en la cuan-


tificación de la dependencia en colas de una muestra bivariante, a través de la
cópula que liga las funciones de distribución marginales correspondientes. Parece
que una solución más ajustada a la naturaleza del problema, debe establecerse
en términos de las colas de las distribuciones univariantes marginales, dado que
nuestro objetivo es el cálculo de cuantiles altos que permitan determinar el valor
de las distintas medidas de riesgo financiero. Es en este punto donde intervienen
métodos estadı́sticos tradicionales de tratamiento de valores extremos, que com-
binados con la aportación que hacen las funciones cópula en la representación
de estructuras de dependencia conjunta, permitirán enfocar el problema en la
aparición contemporánea de sucesos extremos a través de sus distribuciones de
probabilidad. En el Capı́tulo 3 hemos salvado la dificultad que suponı́a, a la
hora de aplicar estos métodos, la presencia de dependencia temporal en las series
marginales de retornos, mediante el filtrado de las mismas a través de procesos
tipo GARCH. Nos disponemos a lo largo del presente capı́tulo, a resolver las
siguientes cuestiones:

1. Comprobación mediante métodos gráficos (Chi-plots, K-plots) de la exis-


tencia de dependencia local en colas entre las series de retornos filtrados.

2. Modelización de las colas de las distribuciones marginales de las series


de retornos filtrados previamente a través de procesos tipo GARCH. Para ello
utilizaremos Métodos Umbral (POT) que permitirán ajustar Distribuciones de
Pareto Generalizadas (GPD) a la muestras univariantes de residuos que superen
un umbral dado. (Gilli y Këllezi 2005, Tajvidi 2004)

3. Cálculo de las medidas de riesgo financiero usuales VaR (Valor en Riesgo)


y ES (Pérdida esperada) para cada ı́ndice considerado, a través de las GPD
ajustadas y para diferentes niveles de confianza. Los resultados obtenidos se
compararán con los procedentes de un supuesto gaussiano.

4. Selección del módelo de cópula más efectivo para capturar la dependencia


conjunta de las distribuciones GPD que representan los comportamientos de los
ı́ndices financieros en las colas marginales.
Dependencia en Colas 113

5. Cálculo de las medidas de riesgo financiero usuales VaR (Valor en Riesgo)


y ES (Pérdida esperada), para diferentes niveles de confianza, pero en este caso,
a través del modelo de cópula elegido, al objeto de cuantificar el riesgo financiero
conjunto.

4.1. Métodos gráficos para detectar la dependencia


bivariante: Chi-plot y K-plot

4.1.1. Chi-plot

El Chi-plot definido por Fisher y Switzer (1985, 2001) está diseñado para ser
un instrumento gráfico sencillo, rápido y útil en la tarea de explorar estructuras
de dependencia bivariante, dependiendo de los datos únicamente a través de los
valores de sus rangos. La información que proporciona complementa la obtenida
de un diagrama de dispersión, en el cual puede resultar difı́cil valorar la pre-
sencia de algún patrón diferente a una relación monótona. Su construcción es la
siguiente:

Sea (X1 , Y1 ), ..., (Xn , Yn ) una muestra aleatoria simple de H, función de dis-
tribución conjunta continua de la v.a. (X, Y ) y sea I(A) la función indicatriz
usual del suceso A . Para cada observación (xi , yi ), sean:
X
Hi = I(Xj ≤ Xi , Yj ≤ Yi )/(n − 1) (4.1)
j6=i

X
Fi = I(Xj ≤ Xi )/(n − 1)
j6=i
X
Gi = I(Yj ≤ Yi )/(n − 1)
j6=i
½µ ¶µ ¶¾
1 1
Si = sign Fi − Gi −
2 2
1
χi = (Hi − Fi Gi ) / {Fi (1 − Fi ) Gi (1 − Gi )} 2
(µ ¶ µ ¶ )
1 2 1 2
λi = 4Si máx Fi − , Gi −
2 2
114 Teorı́a de Cópulas y Control de Riesgo Financiero

El Chi-plot es un diagrama de dispersión de los pares (λi , χi )i=1...n .

El valor de λi es una medida de la distancia de la observación (Xi , Yi ) al


centro de los datos. Adicionalmente, se pueden trazar las lı́neas horizontales en
1 1
χ = −cp /n 2 y χ = cp /n 2 , donde cp se selecciona de modo que aproximada-
mente el 100p% de los pares (λi , χi ) se sitúen entre estas dos lı́neas de control.
Para p = 0, 90, 0.95, 0.99 los valores de cp son 1.54, 1.78, 2.18, respectivamente,
(Fisher y Switzer, 2001). Se pueden calcular otros valores mediante métodos
Monte Carlo. Además, los autores recomiendan representar solamente los pares
³ ´2
1
para los que |λi | < 4 n−1 − 12 , con el fin de evitar observaciones engañosas.
Todos los valores de λi deben estar en el intervalo [−1, 1]. En caso de que los
datos constituyan una muestra bivariente con marginales continuas independien-
tes, los valores de λi se distribuyen uniformemente. Sin embargo, si X e Y están
asociadas, los valores de λi se presentarán formando agrupaciones; en particu-
lar, valores positivos de λi indican que Xi e Yi son relativamente grandes (a la
vez) o relativamente pequeñas (a la vez) respecto a sus medianas, mientras que
λi negativos corresponden a Xi e Yi situados en lados opuestos respecto a sus
medianas.

En cada observación muestral, χi se puede interpretar como el coeficiente


de correlación asociado con (n − 1) pares (Xij , Yij ), ambos dicotomizados de la
siguiente manera:

(
1 si Xj ≤ Xi
Xij =
0 en otro caso
(
1 si Yj ≤ Yi
Yij =
0 en otro caso


para todo j 6= i. Por tanto, −1 ≤ χi ≤ 1, ∀i = 1...n. Además, nχi es la raı́z
cuadrada del estadı́stico chi-cuadrado utilizado tradicionalmente para contrastar
la independencia en la tabla de contingencia generada por los puntos de corte
(Xi , Yi ).

Si Y es función estrictamente creciente de X, entonces χi = 1 para todos


los puntos de corte muestrales, por el contrario, si Y es función estrictamente
decreciente de X, χi = −1 en esos mismos puntos. χi también puede conside-
rarse como una medida empı́rica de la dependencia en cuadrante positiva (PQD),
Dependencia en Colas 115

definida como (Joe, 1997):

P (X ≤ a1 , Y ≤ a2 ) ≥ P (X ≤ a1 ) P (Y ≤ a2 ) ∀a1 , a2 ∈ R

es decir, PQD se define globalmente para todo a1 , a2 ∈ R, mientras que χi mide


esta dependencia localmente y la representa frente a la distancia del punto al
centro de los datos.

Por otra parte, Fisher y Switzer (1985, 2001) sugieren que los patrones de
dependencia observados mediante los chi-plots pueden ser útiles para identificar
el modelo de cópula subyacente. Por ejemplo, datos normales bivariantes con
correlación de Pearson positiva, ρ, producen pares (λi , χi ) con χi ≈ ρn cuando
λi ≈ 0.

El Chi-plot también es eficaz para detectar de la presencia de dependencia en


colas, la cual habı́amos cuantificado mediante los coeficientes de dependencia en
la cola superior e inferior, λL y λU , definidos en términos de la cópula bivariante
correspondiente. Teóricamente, el valor de χi es cero si

P (X ≤ a1 , Y ≤ a2 ) = P (X ≤ a1 ) P (Y ≤ a2 )

que es lo mismo que decir

C(u, v) = uv
C(u, v)
= v
u
C(u, v)
= u
v

Si la cópula tiene independencia en la cola inferior, sabemos que λL = 0


y todos los χi también son cero. por tanto, la inspección gráfica de los Chi-
plots construidos sobre las observaciones situadas en el primer y tercer cuadrante
permitirá explorar la dependencia en las colas superior e inferior, respectivamente,
de la distribución bivariante, ası́ como detectar la posible presencia de outliers.

Chi-plot de la muestra bivariante de retornos filtrados Dow Jones e


Ibex35

Comenzamos la exploración de la dependencia local existente en la muestra bi-


variante, obtenida mediante el filtrado de los retornos logarı́tmicos diarios del
116 Teorı́a de Cópulas y Control de Riesgo Financiero

ı́ndice Dow Jones a través de un proceso PGARCH(1,1,1) con media constante y


de los retornos logarı́tmicos diarios del ı́ndice Ibex35, en este caso a través de un
proceso EGARCH(1,1) y media constante, construyendo el Chi-plot correspon-
diente. En la figura 4.1 aparece el diagrama de dispersión de los retornos filtrados
junto con la representación del Chi-plot de los mismos. Se aprecia claramente la
ausencia de independencia entre ambas series univariantes, ya que la mayorı́a de
los pares representados se sitúan fuera de las lı́neas de control representadas por
las lı́neas horizontales discontinuas. los valores de χi > 0 son los que predominan,
por lo que el signo de la dependencia puede considerarse positivo.
0.06
0.04
0.02
Residuos Ibex35
0.0
-0.04
-0.08

-0.08 -0.06 -0.04 -0.02 0.0 0.02 0.04 0.06


Residuos DowJones
1.0
0.5
0.0
chi
-0.5
-1.0

-1.0 -0.5 0.0 0.5 1.0


lambda

Figura 4.1: Diagrama de dispersión (arriba) y Chi-plot (abajo) de la muestra


bivariante de retornos filtrados DowJones e Ibex35
Dependencia en Colas 117

La representación (figura 4.2) de los chi-plot correspondientes a los valores


de la muestra bivariante que se sitúan en el primer y tercer cuadrante, permite
confirmar la existencia de dependencia de signo positivo en ambas colas. En
ambos casos, la práctica totalidad de los puntos se sitúan fuera de las bandas de
control, con valores positivos para χi .
1.0
0.5
0.0
chi
-0.5
-1.0

-1.0 -0.5 0.0 0.5 1.0


lambda
1.0
0.5
0.0
chi
-0.5
-1.0

-1.0 -0.5 0.0 0.5 1.0


lambda

Figura 4.2: Chi-plot de los retornos filtrados DowJones e Ibex35 del primer
cuadrante (arriba) y del tercer cuadrante (abajo)
118 Teorı́a de Cópulas y Control de Riesgo Financiero

4.1.2. K-plot

Al igual que los chi-plot, los K-plot (forma abreviada de Kendall-plot), de-
sarrollados por Genest y Boies (2003), también se construyen sobre los rangos
de las observaciones pero, ası́ como los primeros se inspiran en el estadı́stico
chi-cuadrado de independencia, los K-plots utilizan la transformación integral de
probabilidades multivariantes, produciendo un gráfico similar al QQ-plot conven-
cional.

Sea (X1 , Y1 ), ..., (Xn , Yn ) una muestra aleatoria simple de H, función de dis-
tribución conjunta continua de la v.a. (X, Y ). Para construir el K-plot debe
procederse de la siguiente manera:

(a) Para cada 1 ≤ i ≤ n, se calcula Hi como en (4.1).

(b) Se ordenan los valores Hi de forma que H(1) ≤ ... ≤ H(n) .

(c) Se dibujan los pares (Wi:n , Hi ), 1 ≤ i ≤ n, donde Wi:n representa la


esperanza del estadı́stico de orden i-ésimo en una muestra de tamaño n, calculada
a partir de la distribución K0 de los Hi bajo la hipótesis nula de independencia.

Veamos, a continuación, como se determina la forma de K0 bajo la hipótesis


de independencia. A partir de la definición de la densidad de un estadı́stico de
orden, se tiene que
µ ¶Z 1
n−1
Wi:n = n w [K0 (w)]i−1 [1 − K0 (w)]n−i dK0 (w) (4.2)
i−1 0

para todo 1 ≤ i ≤ n. Bajo ciertas condiciones de regularidad (Genest y Rivest,


1993, Proposición 2.1), la función de distribución empı́rica Kn de las pseudo-

observaciones H1 , ..., Hn es un estimador n-consistente y normal de

K(w) = P {H(X, Y ) ≤ w} con 0 ≤ w ≤ 1

conclusión que se podı́a intuir dado que Hi = Hb n (Xi , Yi ) → H cuando n → ∞,


b
con Hn la función de distribución empı́rica basada en los (Xj , Yj ) para j 6= i.
A pesar de la no independencia estocástica de los Hi , Genest y Rivest (1993)
demuestran que cuando H = F × G

K(w) = K0 (w) = P {U V ≤ w} = w − w log(w) 0≤w≤1

con U y V variables aleatorias independientes con distribución uniforme en [0, 1].


Dependencia en Colas 119

Por tanto, esta será la elección de K que utilizaremos en (4.2) para calcular los
Wi:n . Obsérvese que K depende únicamente de la cópula asociada con H:

Si H(x, y) = C(F (x), G(y)), entonces


Z +∞ Z +∞
K(w) = I (H(x, y) ≤ w) dH(x, y)
−∞ −∞
Z +∞ Z +∞
= I (C(F (x), G(y)) ≤ w)dC(F (x), G(y))
−∞ −∞
Z1Z 1
= I (C(u, v) ≤ w) dC(u, v)
0 0
= P {C(U, V ) ≤ w}

K proporciona, por tanto, un resumen univariante de la dependencia implı́cita


en la cópula C.

Genest y Rivest (1993, proposición 2.1) demuestran que

Kn (w) →P K(w) cuando n → ∞ ∀0 ≤ w ≤ 1

y, por tanto también

Kn−1 (p) →P K −1 (p) cuando n → ∞ ∀0 ≤ w ≤ 1

Puesto que Kn y su inversa están acotadas, esta convergencia se extiende


naturalmente a sus esperanzas, con las consecuencias siguientes:

(i) Para un entero arbitrario n ≥ 1 y 0 ≤ p ≤ 1, sea dnpe el entero más


pequeño mayor o igual que np. Entonces

H(dnpe) = Kn−1 (p) → K −1 (p)

y, por tanto
£ ¤
lim E H(dnpe) = lim Wdnpe:n = K0−1 (p)
n→∞ n→∞
bajo la hipótesis nula de independencia.

(ii) Para un n suficientemente grande, los pares (Wi:n , H(i) ) tienden a con-
¡ ¢
centrarse a lo largo de la curva p → K0−1 (p), K −1 (p) , es decir, los puntos del
k-plot parecerán una representación de w → K −1 (K0 (w)).

(iii) El gráfico tenderá a ser lineal cuando K = K0 , es decir, bajo la hipótesis


de independencia.
120 Teorı́a de Cópulas y Control de Riesgo Financiero

(iv) Todos los puntos del gráfico caerán sobre el eje horizontal (p ≡ 0) cuando
X e Y sean contramonotónicas (τ (X, Y ) = −1), ya que K −1 (p) = 0 para todos
los valores posibles de 0 ≤ p ≤ 1.

(v) Todos los puntos del gráfico caerán sobre la curva K0 (p) cuando X e Y
sean comonotónicas (τ (X, Y ) = 1), puesto que K −1 (p) = p sobre el intervalo
[0, 1].

K-plot de la muestra bivariante de retornos filtrados Dow Jones e


Ibex35

La inspección gráfica de los K-plots construidos sobre la muestra bivariante de


retornos filtrados (figura 4.3) conduce a las mismas conclusiones que habı́amos
establecido a partir de los Chi-plot.

Existe dependencia positiva entre los retornos filtrados ya que los puntos del
gráfico se sitúan en una curva por encima de la diagonal principal. Además, los
K-plots correspondientes a valores de la muestra que se sitúan en el primer y
tercer cuadrante, confirman la presencia de dependencia positiva en ambas colas,
derecha e izquierda, y en los dos casos la curvatura de los gráficos correspon-
dientes es superior a la obtenida para el total de pares integrantes de la muestra
bivariante.
Dependencia en Colas 121

1.0
0.05
Retornos filtrados Ibex35

0.8
0.6
0.0

z
0.4
-0.05

0.2
0.0
-0.08 -0.04 0.0 0.02 0.04 0.06 0.0 0.2 0.4 0.6 0.8 1.0

Retornos filtrados DJ rg(n)


1.0

1.0
0.8

0.8
0.6

0.6
z

z
0.4

0.4
0.2

0.2
0.0

0.0

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

rg(n) rg(n)

Figura 4.3: Diagrama de dispersión y K-plot de la muestra bivariante de re-


tornos filtrados DowJones e Ibex35(arriba). K-plots de los retornos bivariantes
del primer cuadrante (abajo izquierda) y del tercer cuadrante (abajo derecha)

4.2. Modelos de Extremos

La teorı́a de valores extremos (EVT) proporciona un fundamento teórico


firme sobre el que construir modelos estadı́sticos que describan el comportamiento
de sucesos extremos (McNeil 1998, McNeil y Frey 2000, Embretchs, Resnick y
Samorodnitsky 1998 y 1999, Longin 1977a y 1977b), lo que en nuestro caso se
concreta en la obtención de modelos relativos a colas de series financieras, que
permitirán determinar medidas de riesgo y establecer los intervalos de confianza
relacionados.

Los riesgos financieros pueden considerarse como variables aleatorias que, a


partir de estados futuros del universo, toman valores representando beneficios
y pérdidas. Estos riesgos pueden tratarse individualmente, o como parte de un
proceso estocástico en el que los riesgos presentes dependen de los riesgos previos.
Los valores potenciales de un riesgo tienen una distribución de probabilidad que,
evidentemente, no es observable de manera exacta, pero que es posible estimar
122 Teorı́a de Cópulas y Control de Riesgo Financiero

a partir de información parcial procedente de pérdidas pasadas debidas a riesgos


similares.

Los sucesos extremos ocurren cuando un riesgo toma valores en la cola de su


distribución. Puesto que en lo que sigue trataremos con dos medidas concretas
de riesgo, VaR y Pérdida media esperada (ES), convendremos en que una pérdida
es un número positivo y un beneficio es un número negativo. Lógicamente, en
el ámbito financiero, EVT está más desarrollada como una teorı́a de grandes
pérdidas más que una teorı́a de beneficios pequeños.

En términos generales, existen dos métodos para modelizar los valores ex-
tremos:

- Método de máximos por bloques

Proporciona modelos para las observaciones más grandes de muestras grandes


de observaciones idénticamente distribuidas (por ejemplo, si se registran pérdidas
y beneficios diarios , o por hora, a partir de un instrumento o grupo de instrumen-
tos financieros, este método proporciona un modelo apropiado para el máximo
anual o cuatrimestral de tales valores). El punto delicado de este método lo
constituye la elección apropiada de los periodos que definen los bloques.

Figura 4.4: Máximos por bloques

- Métodos umbral (POT o Peaks Over Threshold)

Proporcionan modelos para las observaciones grandes que exceden un um-


bral alto. Los modelos POT generalmente resultan más útiles en aplicaciones
prácticas, debido a su mayor eficiencia al tratar con un número limitado de datos,
como es el caso de los valores extremos. Dentro de esta clase de modelos exis-
Dependencia en Colas 123

ten dos tipos de análisis: los modelos semiparamétricos construidos en torno al


estimador de Hill (Danielsson y de Vries, 1997) y los modelos paramétricos basa-
dos en la distribución de Pareto generalizada (GPD). Nos inclinamos por estos
últimos por razones de simplicidad, tanto en la exposición como en la ejecución,
ya que proporcionan expresiones paramétricas simples de las medidas de riesgo
extremo, para las que es relativamente fácil dar estimaciones de error estadı́stico
utilizando técnicas inferenciales de máxima verosimilitud.

Excesos sobre un umbral u

4.2.1. Distribución de máximos

A continuación, presentamos los resultados teóricos fundamentales que se uti-


lizan tanto en el método de máximos por bloques como en el método de umbrales.

Cuando modelizamos el máximo de una v.a., EVT proporciona un resultado


similar al del Teorema central del lı́mite para sumas de v.a. pero aplicado sobre
máximos de los bloques definidos. Es el llamado teorema de Fisher -Tippett.

Teorema 4.1 (Fisher-Tippett)


Sea {Xn } un a sucesión de variables aleatorias i.i.d. con Mn el máximo del
bloque de tamaño n. Si existen las constantes cn > 0, dn ∈ R y H función de
distribución no degenerada tal que

Mn − dn
→d H
cn

entonces H pertenece a una de las tres distribuciones de valores extremos


siguientes:
124 Teorı́a de Cópulas y Control de Riesgo Financiero

(
0 si x ≤ 0
Φα (x) = −x−α α>0 (Fréchet)
e si x > 0
( α
e−(−x) si x ≤ 0
Ψα (x) = α>0 (Weibull)
1 si x > 0
−x
Λ(x) = e−e , x∈R (Gumbel)

La prueba de este resultado puede verse en Fisher-Tippett, 1928; Gnedenko,


1943.

Figura 4.5: Funciones de densidad Fréchet, Weibull y Gumbel

Obsérvese que la distribución de Fréchet tiene una cola que decae polino-
mialmente y se ajusta bien a distribuciones de colas pesadas, mientras que la de
la distribución Gumbel decae exponencialmente por lo que caracteriza distribu-
ciones de colas delgadas. Finalmente, la distribución Weibull es la distribución
asintótica de distribuciones con punto final finito.

Jenkinson (1955) y Von Misses (1954) propusieron la siguiente representación


uniparamétrica:

Definición 4.1 (GEV)


Se denomina distribución de valores extremos generalizada (GEV) a
( −1
e −(1+ξx) ξ si ξ 6= 0
Hξ (x) = −x
con x tal que 1 + ξx > 0
e−e si ξ = 0

Esta generalización se obtiene tomando ξ = α−1 para la distribución de


Fréchet, ξ = −α−1 para la Weibull e interpretando la de Gumbel como el caso
lı́mite para ξ = 0.
Dependencia en Colas 125

Dado que, en general, se desconoce el tipo de distribución lı́mite del máximo


muestral, la representación generalizada es particularmente útil cuando se emplea
en la estimación el método de máxima verosimilitud. La distribución GEV, de-
finida anteriormente, es la distribución lı́mite de extremos normalizados. Puesto
que en la práctica desconocemos la distribución verdadera de los retornos y, por
tanto, las constantes de normalización cn y dn también son desconocidas, uti-
lizaremos la especificación triparamétrica siguiente de la GEV, que constituye la
distribución lı́mite de los máximos no normalizados:
⎧ ³ ´
µ ¶ ⎪
⎪ −∞, μ − σ
si ξ < 0
x−μ ⎨ ξ
Hξ,μ,σ (x) = Hξ x ∈ D , con D ∈ (−∞, ∞) ´ si ξ = 0
σ ⎪ ³

⎩ μ − σ,∞ si ξ > 0
ξ

Los dos parámetros adicionales μ y σ son los parámetros de localización y


escala, respectivamente, y representan las constantes de normalización descono-
cidas.

Las cantidades de interés no son los parámetros en sı́ mismos, sino los cuantiles
(también llamados niveles de retorno) de la GEV estimada:
½ µ ¶
−1 1
Rk = Hξ,μ,σ 1−
k

b μ
Sustituyendo ξ, μ y σ por sus estimaciones ξ, byσ b obtenemos
⎧ µ ¶
⎨ μ ¡ ¡ ¢¢−ξe
b k b − σee 1 − − log 1 − k1 si ξ 6= 0
R = ξ
¡ ¡ ¢¢

b−σ
μ b log − log 1 − k1 si ξ = 0

(Un valor de 7 para R bk indica que la pérdida máxima observada durante el


periodo de un año excederá el 7% una vez en 10 años, en media).
126 Teorı́a de Cópulas y Control de Riesgo Financiero

4.2.2. Distribución de excesos

Una aproximación alternativa consiste en considerar la distribución de exce-


sos sobre cierto umbral (POT). Se trata de estimar, a partir de la función de
distribución desconocida F , la función de distribución Fu de valores de x sobre
el umbral u:

Definición 4.2
Sea X una v.a. con función de distribución F y punto final por la derecha
xF ≤ ∞. Para un u < xF fijo

Fu (y) = P {X − u ≤ y/X > u} con 0 ≤ y ≤ xF − u

es la función de distribución de los excesos de la v.a X (con función de dis-


tribución F ) sobre el umbral u.

La distribución de excesos representa la probabilidad de que una pérdida ex-


ceda el umbral u como máximo un cantidad y, dado que ha superado el umbral u.
De forma general, asumiremos que F tiene punto final derecho infinito, es decir,
se permite la posibilidad de pérdidas arbitrariamente grandes, aunque puede ocu-
rrir en ciertas aplicaciones que sea finito, por ejemplo, si F representa pérdidas
de crédito expresadas como una proporción de exposición, puede ser una dis-
tribución Beta en el intervalo [0, 1] en la que los resultados mayores que 1 tienen
probabilidad nula.

Figura 4.6: Función de distribución F y función de distribución de excesos Fu


Dependencia en Colas 127

Definición 4.3
Se denomina función media de excesos a

e(u) = E [X − u /X > u ]

Fu se puede escribir en términos de F como:

F (u + y) − F (u) F (x) − F (u)


Fu (y) = = (4.3)
1 − F (u) 1 − F (u)

Las realizaciones de X permanecen en su mayor parte entre 0 y u, y la esti-


mación de F en ese intervalo generalmente no plantea problemas. Sin embargo,
la de Fu puede complicarse debido a que, en general, existe un número pequeño
de observaciones en este área.

Definición 4.4 (GPD)


Sea Gξ dada por
( 1
1 − (1 + ξx)− ξ si ξ 6= 0
Gξ (x) =
1 − e−x si ξ = 0

donde

x ≥ 0 si ξ ≥ 0
1
0 ≤ x≤− si ξ < 0
ξ

Gξ es la llamada distribución de Pareto generalizada (GPD).

El caso G0 puede interpretarse como el lı́mite de Gξ cuando ξ → 0.

Se pueden introducir en la definición dos parámetros, uno de localización y


otro de escala, con lo cual tenemos la familia Gξ,μ,σ sustituyendo el argumento
¡ ¢
x por x−μσ para μ ∈ R y σ > 0 y reajustando el soporte convenientemente.
También nos referiremos a Gξ,μ,σ como GPD.

La distribución GPD juega un papel importante a la hora de determinar la


distribución de los excesos sobre un determinado umbral, como queda patente en
el siguiente resultado.
128 Teorı́a de Cópulas y Control de Riesgo Financiero

Teorema 4.2 (Pickands, 1975)


Para una gran clase de funciones de distribución F , la función de distribución
de excesos Fu , para un valor de u grande, puede aproximarse por:

Fu (y) u Gξ,σ (y) u→∞

donde ⎧
⎨ ³ ´− 1
ξ ξ
1 − 1 + σy si ξ 6= 0
Gξ,σ (y) =
⎩ 1−e
y
−σ
si ξ = 0
para

y ∈ [0, (xf − u)] si ξ ≥ 0


∙ ¸
σ
y ∈ 0, − si ξ < 0
ξ

Este resultado permite afirmar que el modelo GPD es el natural para la


distribución de excesos desconocida sobre umbrales suficientemente altos, por
tanto, para un riesgo individual Xi con función de distribución F supondremos
que, para un cierto umbral u, la distribución de excesos sobre u es una GPD para
algún ξ y σ. ξ es el parámetro de forma o “ı́ndice cola” (que puede ser negativo,
positivo o cero) y σ es el parámetro de escala. El ı́ndice cola ξ da una indicación
de la pesadez de la cola: cuanto más grande sea, más gruesa es la cola. Como,
en general, no es posible fijar una cota superior para pérdidas financieras, las
distribuciones que mejor se ajustan a series de retornos financieros son aquellas
en las que ξ > 0.

Suponiendo que la distribución de la cola es una GPD, podemos obtener


expresiones analı́ticas para el VaR y ES como funciones de los parámetros de la
GPD. En primer lugar, despejamos F (x) de (4.3):

F (x) = (1 − F (u)) Fu (y) + F (u)

y sustituyendo Fu por la GPD y F (u) por la estimación n−N n , donde n es el


u

número total de observaciones y Nu es el número de observaciones sobre el umbral


u, se obtiene el estimador de la cola derecha:
⎛ Ã !− 1 ⎞ µ
b ξe

b Nu ⎝ ξ ⎠ Nu
F (x) = 1 − 1 + (x − u) + 1−
n σb n
Dependencia en Colas 129

simplificando
à !− 1
Nu ξb ξe
Fb(x) = 1 − 1 + (x − u) (4.4)
n b
σ

que es válida para x > u.

Invirtiendo la expresión anterior para una probabilidad dada p:


õ ¶−ξe !
b
σ n
V[ aRp = u + p −1 (4.5)
ξb Nu

que no es más que la estimación de un cuantil, cuando el cuantil es un parámetro


desconocido de una distribución subyacente desconocida.

En cuanto a la pérdida esperada ES para una probabilidad dada p, podemos


reescribir su expresión como:
h . i
dp = V[
ES aRp + E X − V[ aRp X > V[ aRp (4.6)

donde el segundo término de la suma es el valor esperado de los excesos sobre el


umbral V[ aRp .

La función media de excesos para una GPD con ξ < 1 es


σ + ξu
e(u) = E [X − u /X > u ] = con σ + ξu > 0 (4.7)
1−ξ

Esta función proporciona la media de los excesos de X sobre diferentes valores


del umbral u.

Por otra parte, el modelo GPD para la distribución de excesos sobre el umbral
u tiene una buena propiedad de estabilidad: si tomamos cualquier umbral más
alto, tal como V aRp para p > F (u), la distribución de excesos sobre V aRp es
también GPD con el mismo parámetro de forma, pero diferente parámetro de
escala.(Embretchs Klüpelberg y Mikosch 1997).

Proposición 4.1
si X es una v.a que sigue una GPD, entonces, para todos los enteros r tales
que r < 1ξ , existen los r primeros momentos.

(La demostración puede verse en Embretchs Klüpelberg y Mikosch 1997, Pág.


165)
130 Teorı́a de Cópulas y Control de Riesgo Financiero

Análogamente, a partir de la definición de la pérdida esperada que recordemos


era:

ESp = E [X /X > V aRp ] (4.8)

y a partir de (4.6), para Z = V aRp − u y X la v.a. que representa los excesos y


sobre u, se tiene que:
³ ´
b + ξb V[
σ aRp − u V[ aRp σ b
b − ξu
dp = V[
ES aRp + = + (4.9)
1 − ξb 1 − ξb 1 − ξb

Estimación de máxima verosimilitud

Dada una muestra y = (y1 , ..., yn ), el logaritmo de la función de verosimilitud


para la GPD es
( ³ ´P ³ ´
n ξ
−n log σ − 1ξ + 1 i=1 log 1 + σ yi si ξ 6= 0
L (ξ, σ; y) =
1 Pn
−n log σ − σ i=1 yi si ξ = 0 (4.10)

Calcularemos los valores ξb y σb que maximizan esta función, para la muestra


determinada por las observaciones que exceden el umbral u. Los cuantiles altos
y la pérdida esperada pueden calcularse a partir de las ecuaciones (4.5) y (4.9)
sustituyendo los parámetros por sus estimaciones.

Intervalos de confianza

Si admitimos que se mantiene la teorı́a de grandes muestras, podemos construir


intervalos de confianza para los parámetros ξ y σ mediante inversión del con-
traste de razón de verosimilitudes. Dado que en el procedimiento de estimación
únicamente intervienen los excesos, puede ocurrir que las estimaciones se obten-
gan a partir de conjuntos de datos pequeños, lo que hace que no siempre se
pueda confiar en las propiedades de optimalidad asintótica de los estimadores de
máxima verosimilitud. Para tamaños muestrales pequeños, sugerimos utilizar la
corrección basada en la metodologı́a de Lawley (1956).
Dependencia en Colas 131

Además de intervalos de confianza simples para cada parámetro, también es


posible construir intervalos conjuntos. Por ejemplo, un intervalo conjunto para
los parámetros ξ y σ viene dado por el contorno al nivel χ2α,2 del logaritmo de la

función de verosimilitud relativa, definida como L(ξ, σ) − L(ξ, b).

Para construir intervalos de confianza simples, por ejemplo para ξ, calculamos

L∗ (ξ) = máx L (ξ, σ)


σ

y el intervalo de confianza al nivel (1 − α) viene dado por los valores de ξ que


satisfacen ³ ´ 1
L∗ (ξ) > L ξ,bσ
b − χ2α,1
2
donde χ2α,1 es el cuantil (1 − α) de la distribución χ2 con 1 grado de libertad. La
curva (ξ, L∗ (ξ)) se denomina perfil del logaritmo de la verosimilitud y, en general,
no es simétrica respecto a su máximo.

Los intervalos de confianza basados en máxima verosimilitud para el V aR,


se pueden obtener a partir de una versión reparametrizada de la GPD, definida
como una función de ξ y V aRp :
⎧ Ã !− 1
⎪  −ξ

⎪ n
p −1
ξ
⎨ 1 − 1 + Nu y si ξ 6= 0
V aRp −u
Gξ,V aRp (y) =

⎪  

⎩ n
y
1 − Nu pe V aRp −u
si ξ = 0

La función de densidad correspondiente es


⎧ Ã !− 1 −1
⎪  −ξ  −ξ

⎪ n
p −1 n
p −1
ξ
⎪ N N
⎨ ξ(VuaRp −u) 1 + VuaRp −u y si ξ 6= 0
gξ,V aRp (y) =  

⎪ y

⎪ n
pe V aRp −u
⎩ − Nu
si ξ = 0
V aRp −u

Análogamente, usando la siguiente reparametrización para ξ 6= 0:


⎧ ⎛ ³ ´−ξ ⎞− 1ξ

⎪ n
⎨ ξ + Nu p −1 ⎟

Gξ,ESp (y) = 1 − ⎝1 + y⎠

⎪ (ESp − u) (1 − ξ)

132 Teorı́a de Cópulas y Control de Riesgo Financiero

⎧ ³ ´−ξ ⎛ ³ ´−ξ ⎞− 1ξ −1


⎨ ξ + Nn p − 1 ξ + n
p − 1
u ⎜ Nu ⎟
gξ,ESp (y) = ⎝1 + ⎠

⎪ ξ (1 − ξ) (Esp − u) (1 − ξ) (Esp − u)

es posible calcular un intervalo de confianza basado en máxima verosimilitud para


la pérdida esperada.

4.2.3. Selección del umbral

El principal problema del método POT está en la selección del umbral u. La


elección del umbral u es, básicamente, un compromiso entre un valor suficiente-
mente alto que garantice la aplicación del resultado asintótico del Teorema 4.2,
y un valor suficientemente bajo que permita seleccionar un número suficiente de
valores muestrales que permita realizar la estimación de la cola de la distribución.

Se puede utilizar una herramienta gráfica, basada en la representación de la


función muestral media de excesos

Definición 4.5
Llamamos función muestral media de excesos a
Pn
(xn − u)
en (u) = i=k i k = mı́n {i /xni > u }
n−k+1
con n − k + 1 el número de observaciones que exceden el umbral u.

La función muestral media de excesos es una estimación de la función media


de excesos, e(u), que para la función GPD se ha establecido en la definición 4.3
y es lineal para ξ < 1 , por tanto, la representación de los puntos

(u, en (u)) con xn1 < u < xnn

informará gráficamente sobre la linealidad para diferentes valores de u, es decir,


se elegirá u > 0 tal que en (u) sea aproximadamente lineal para x ≥ u. Una
vez elegido un valor para el umbral u, se puede proceder a realizar un QQ-plot
que enfrente los cuantiles muestrales de los excesos a ese umbral y los de la
GPD correspondiente. Si se sitúan sobre una lı́nea recta, el hecho de que los
datos provienen de una GPD es aceptable . Para datos financieros, α = 1ξ en
la mayorı́a de los casos, toma valores en el rango (3,4) (Embretchs Klüpelberg y
Mikosch 1997, Pág. 291).
Dependencia en Colas 133

Por otra parte, según el teorema 4.2, si una distribución GPD resulta un
modelo razonable para los excesos sobre un umbral u0 , entonces los excesos sobre
un umbral más alto u también deben seguir una distribución GPD con el mismo
parámetro de forma. Por tanto, las estimaciones de dicho parámetro ξ deben
ser constantes sobre u0 . En la práctica, las estimaciones de estas cantidades no
resultarán exactamente constantes, pero deben estabilizarse en torno a un valor.
Por tanto, la representación gráfica de las estimaciones ξb frente a distintos valores
de u, junto con los intervalos de confianza para estas cantidades, facilitará la
elección de u0 como el valor más pequeño del umbral para el que las estimaciones
se vuelven aproximadamente constantes.

4.2.4. Estimación de las colas de las distribuciones de pérdidas


DowJones e Ibex35

Anteriormente se ha justificado la elección de métodos umbral (POT) para


obtener modelos univariantes de las colas de las distribuciones marginales, de-
bido a la posibilidad que ofrecen de estimar por separado las colas de cada dis-
tribución univariante y por razones de simplicidad, ya que proporcionan expre-
siones paramétricas simples de las medidas de riesgo extremo. Serán, por tanto,
distribuciones GPD las elegidas para este cometido.

Dado que nuestro objetivo es el cálculo de medidas de riesgo financiero, en lo


que sigue convendremos que una pérdida es un número positivo y un beneficio
un número negativo, de manera que limitaremos el análisis a la cola derecha de
las distribuciones marginales.

En primer lugar, exploramos el comportamiento de las dos colas de pérdidas,


mediante un QQ-plot en el que la distribución de referencia es la exponencial.
Recordemos que si la distribución de excesos sobre un umbral es de colas finas,
entonces la GPD es exponencial con ξ = 0 y el QQ-plot debe ser lineal.

La figura 4.7 representa estos QQ-plots para los retornos negativos de los
dos ı́ndices. En ambos casos, observamos un distanciamiento de la linearidad,
más acusado en las pérdidas correspondientes al ı́ndice Dow Jones. Por tanto,
el siguiente paso consistirá en determinar el valor más adecuado para el umbral
sobre el que se ajustarán las GPD correspondientes. Para ello, calculamos y
representamos la función media de excesos para las dos series de retornos filtrados
(figura 4.8). Se aprecia una situación similar en los dos gráficos: la función es
134 Teorı́a de Cópulas y Control de Riesgo Financiero

6
Retornos negativos DowJones Retornos negativos Ibex35

6
5

5
4
Exponential Quantiles

Exponential Quantiles
4
3

3
2

2
1

1
0
0

0.02 0.03 0.04 0.05 0.06 0.07 0.02 0.03 0.04 0.05 0.06 0.07 0.08

Ordered Data Ordered Data

Figura 4.7: QQ-plots de los retornos negativos DowJones e Ibex35 sobre el umbral
u=0.015 frente a la exponencial

lineal para u < −0.02 y u > 0.02,.por lo que una primera aproximación sobre el
el valor del umbral en ambos casos podrı́a ser u = 0.02.

El gráfico 4.9 muestra la variación de ξb según distintos valores del umbral u.


Se aprecia que en el caso DowJones (parte superior del gráfico) el valor de ξ se
estabiliza para valores del umbral inferiores o iguales a 0.02 y en el caso Ibex35
(parte inferior del gráfico) lo hace para valores de hasta 0.03, lo cual confirma la
aproximación obtenida para los posibles valores de u mediante la función media
de excesos (recordemos que la elección del umbral constituye un compromiso
entre valores altos del mismo para asegurar el resultado asintótico establecido
en el teorema 4.2, y valores suficientemente bajos que permitan seleccionar un
número suficiente de observaciones para realizar las estimaciones de la cola de la
distribución).
Dependencia en Colas 135

0.06 Retornos negativos DowJones Retornos negativos Ibex35

0.06
0.05
0.04
Media de excesos

Media de excesos
0.04
0.03
0.02

0.02
0.01

-0.06 -0.04 -0.02 0.0 0.02 0.04 0.06 -0.06 -0.02 0.0 0.02 0.04 0.06
Umbral Umbral

Figura 4.8: Función media de excesos para los retornos negativos DowJones e
Ibex35

Una vez determinados los valores de los umbrales, procedemos a obtener las
estimaciones de máxima verosimilitud de los parámetros ξ y σ de las distribu-
ciones GPD correspondientes a las colas de pérdidas en cada uno de los ı́ndices, a
partir de (4.10) . Los resultados obtenidos aparecen en la tabla 4.1. Los valores
entre paréntesis a la derecha de las estimaciones de los parámetros corresponden
a los errores estándar de estimación.
136 Teorı́a de Cópulas y Control de Riesgo Financiero

Umbral

0.00732 0.00819 0.00903 0.00985 0.01100 0.01220 0.01370 0.01600 0.01920 0.02390
0.6
Forma (xi) (IC, p = 0.95)
0.2
-0.2
-0.6

600 559 519 478 438 398 357 317 277 236 196 156 115 75 55 35 15
Excesos

Umbral
0.00965 0.01050 0.01170 0.01270 0.01470 0.01650 0.01880 0.02140 0.02450 0.03120
0.4
Forma (xi) (IC, p = 0.95)
0.0
-0.4
-0.8

600 559 519 478 438 398 357 317 277 236 196 156 115 75 55 35 15

Excesos

Figura 4.9: Estimaciones del valor de ξ como función del umbral u para los
retornos negativos DowJones e Ibex35

DowJones Ibex35
u 0.02 0.02
n 103 208
b b
ξ (se) 0.2859 (0.1283) 0.1491 (0.0828)
b (se)
σ b 0.0055 (0.0088) 0.0076 (0.0008)
% datos>u 96.65 93.24
−max(logveros.) -402.0554 -775.5655

Tabla 4.1: Resultados de la estimación de las colas de pérdidas DowJones e Ibex35


para u = 0.02
Dependencia en Colas 137

Los valores de las estimaciones ξbDJ = 0.2859 y ξbIB = 0.1491 se alejan de


cero, por lo que nos encontramos con distribuciones de colas pesadas. Dichos
valores, también garantizan la existencia de momentos de primer orden en ambas
distribuciones (recordemos que existen los momentos de orden r < 1/ξ, para r
entero), por lo que es posible calcular la pérdida esperada (ES) definida en (4.9).

Para realizar el diagnóstico de los modelos ajustados utilizamos métodos de


tipo gráfico. En la figura 4.10 aparecen cuatro gráficos, construidos sobre la GPD
estimada a partir de las pérdidas de los retornos filtrados del ı́ndice Dow Jones
sobre el umbral u = 0.02.

En la esquina superior izquierda aparece la GPD estimada de la distribución


de excesos y en la parte superior derecha se muestra la estimación de la cola
(4.4). El gráfico de la esquina inferior izquierda se corresponde con un gráfico
de dispersión de los datos transformados a residuos exponenciales de paramétro
³ ´− 1
unidad Wi = 1 + ξbxiσe−eμ ξ y, por último, en la parte derecha aparece un QQ-
e

plot de los cuantiles de la distribución empı́rica frente a los de la GPD ajustada.

A la vista de todos ellos, podemos concluir que la distribución GPD de


parámetros ξbDJ = 0.2859 y σ bDJ = 0.0055 se ajusta razonablemente a la cola
derecha (pérdidas) de los retornos filtrados Dow Jones.
138 Teorı́a de Cópulas y Control de Riesgo Financiero
1.0
0.8

0.0050
1-F(x) (on log scale)
0.6
Fu(x-u)
0.4

0.0005
0.2

0.0001
0.0

0.02 0.04 0.06 0.08 0.10 0.12 0.02 0.04 0.06 0.08 0.10 0.12
x (on log scale) x (on log scale)

12
4

10
GPD Quantiles; xi = 0.2859
3

8
Residuals

6
2

4
1

2
0
0

0 20 40 60 80 100 0.02 0.03 0.04 0.05 0.06 0.07


Ordering Ordered Data

Figura 4.10: Gráficos de diagnóstico para la GPD ajustada a la distribución de


pérdidas DowJones sobre el umbral u = 0.02

Procediendo de igual modo para efectuar el diagnóstico correspondiente a la


GPD estimada, en este caso, a partir de las pérdidas de los retornos filtrados
del ı́ndice Ibex35 sobre el umbral u = 0.02, recurrimos a la figura 4.11. Una
observación detallada de los cuatro gráficos en ella representados y ya descritos
anteriormente, confirma un buen ajuste de la distribución GPD de parámetros
ξbIB = 0.1491 y σ
bIB = 0.0076 a la cola derecha (pérdidas) de los retornos filtrados
Ibex35.
Dependencia en Colas 139

0.05000
1.0
0.8

0.00500
1-F(x) (on log scale)
0.6
Fu(x-u)
0.4

0.00050
0.2

0.00005
0.0

0.02 0.04 0.06 0.08 0.10 0.12 0.02 0.04 0.06 0.08 0.10 0.12
x (on log scale) x (on log scale)

10
5

8
4

GPD Quantiles; xi = 0.1491


6
3
Residuals

4
2

2
1
0

0 50 100 150 200 0.02 0.03 0.04 0.05 0.06 0.07 0.08
Ordering Ordered Data

Figura 4.11: Gráficos de diagnóstico para la GPD ajustada a la distribución de


pérdidas Ibex35 sobre el umbral u = 0.02

Por último, podemos comparar los resultados obtenidos mediante simulación


de muestras a partir de las distribuciones GPD estimadas, del mismo tamaño que
las originales de residuos filtrados. En la figura 4.13 aparecen representadas las
observaciones muestrales originales en la columna de la izquierda y las simuladas
en la columna de la derecha. Los cuatro gráficos superiores corresponden al ı́ndice
Dow Jones y los cuatro inferiores al ı́ndice Ibex35. En las filas primera y tercera
observamos los diagramas de dispersión correspondientes a la totalidad de las
observaciones, mientras que los de las filas segunda y cuarta corresponden a los
excesos sobre el umbral. En ambos ı́ndices se observa bastante similitud entre la
disposición de las observaciones originales y las simuladas.
140 Teorı́a de Cópulas y Control de Riesgo Financiero
Residuos DowJones
0.05

gpdDJ.sim
0.05
-0.05

-0.05
0 500 1000 1500 2000 2500 3000 0 500 1000 1500 2000 2500 3000

0.10
residDJ.umbral.sim
residDJ.umbral
0.06

0.06
0.04
0.02

0.02

0 20 40 60 80 100 0 20 40 60 80 100
0.06
0.04
Residuos Ibex35

gpdIb.sim
0.0

0.0
-0.06

-0.06

0 500 1000 1500 2000 2500 3000 0 500 1000 1500 2000 2500 3000
0.08

residIb.umbral.sim
0.06
residIb.umbral
0.05

0.04
0.02

0.02

0 50 100 150 200 0 50 100 150 200

Figura 4.12: Datos originales (izquierda) y muestras simuladas (derecha) a partir


de las distribuciones GPD ajustadas a los residuos DowJones (parte superior) e
Ibex35 (parte inferior) sobre un umbral u = 0.02. En las filas segunda y cuarta
se representan los excesos al umbral en los datos originales (izquierda) y en las
muestras simuladas (derecha).
Dependencia en Colas 141

4.2.5. Medidas de riesgo para las distribuciones de pérdidas uni-


variantes DowJones e Ibex35

A partir de las distribuciones GPD ajustadas a las pérdidas univariantes de


los dos ı́ndices considerados, es posible calcular las medidas de riesgo financiero
usuales, VaR y ES, según las expresiones (4.5) y (4.9), respectivamente y para
distintos niveles de probabilidad fijados.

Las estimaciones de ambas medidas para la cola de pérdidas estimada ( según


una GPD de parámetros ξb = 0.2859 y σ b = 0.0055) de los retornos filtrados
Dow Jones y para distintos niveles de probabilidad p, junto con sus intervalos de
confianza al 95%, aparecen en la tabla 4.2.

Dado que las distribuciones GPD trabajan mejor para cuantiles altos y puesto
que el porcentaje de observaciones que caen por debajo del umbral elegido,u =
0.02, es de 96.65%, se han seleccionado como niveles de probabilidad para el
cálculo, tanto del VaR como de ES, p = (0.98, 0.99, 0.995, 0.999) La tabla 4.3
recoge los valores de dichas medidas calculados en el caso normal. Si consid-
eramos, por ejemplo, p = 0.99, la interpretación de los valores obtenidos es la
siguiente: la pérdida diaria del ı́ndice Dow Jones será superior al 2.8% con una
probabilidad del 1%, y si la pérdida diaria es superior al 2.8%, la media de las
pérdidas esperadas será del 3,91% con probabilidad 1%. Por otra parte, si com-
paramos las dos tablas, se observa que para ambas medidas y en todos los niveles
de probabilidad p considerados, se obtienen valores superiores en el caso de colas
estimadas según distribuciones GPD frente al supuesto gaussiano, es decir, el he-
cho de no contemplar el fenómeno de colas pesadas conlleva una subestimación
de la pérdida futura. Obsérvese, también, que esta diferencia aumenta cuanto
más alto es el cuantil considerado.

La última columna de ambas tablas proporciona el valor de la razón de la


pérdida esperada al cuantil correspondiente, según el nivel de probabilidad fijado.
De nuevo observamos valores inferiores en todos los casos cuando se considera la
distribución normal. En este último caso, dicha razón tiende a la unidad a medida
que p → 1, ya que

ESp = E [X /X > V aRp ] = k(V aRp )

donde K(x) = φ(x)/(1 − Φ(x)) es el recı́proco de la razón de Mill, con φ(x) y


Φ(x) la función de densidad y la función de distribución de la normal estándar (la
142 Teorı́a de Cópulas y Control de Riesgo Financiero

razón de Mill está incorporada en la mayorı́a de los paquetes estadı́sticos usuales);


para más detalles consultar Johnson y Kotz (1970). Se puede utilizar la expresión
asintótica siguiente
k(x) = x(1 + x−2 + o(x−2 ))

cuando x → ∞, a partir de la cual es claro que la razón

ESp /V aRp →p→1 1

En el supuesto GPD, para ξ = 0.2859 > 0 esta razón converge a

(1 − ξ)−1 →p→1 1.40

Por tanto, la pérdida esperada , una vez superado el VaR, tenderá a ser 1.4
veces superior a dicho valor en el caso GPD, mientras que ambas medidas tienden
a igualarse en un supuesto gaussiano.

ESp
p VaRp ICV aRp ;0.95 ESp ICESp ;0.95 VaRp (→p→1 1.40)
0.98 0.0231 [0.0223; 0.0240] 0.0321 [0.0294; 0.0388] 1.3896
0.99 0.0280 [0.0263; 0.0303] 0.0391 [0.0347; 0.0522] 1.3964
0.995 0.0340 [0.0311; 0.0384] 0.0475 [0.0400; 0.0723] 1.3970
0.999 0.0536 [0.0445; 0.0770] 0.0749 [0.0546; 0.1124] 1.3973

Tabla 4.2: Estimaciones puntuales e intervalos de confianza al 95% para las


medidas de riesgo DowJones según una GPD(ξb = 0.2859; σ
b = 0.0055)

ESp
p VaRp ESp VaRp (→p→1 1)
0.98 0.0216 0.0255 1.1805
0.99 0.0244 0.0280 1.1475
0.995 0.0271 0.0304 1.1217
0.999 0.0325 0.0354 1.0892

Tabla 4.3: Cuantiles y ES de la N(5.82e-05;0.0105) calculados sobre los retornos


filtrados DowJones
Dependencia en Colas 143

Los resultados de un análisis similar al anterior, pero realizado en esta ocasión


sobre los retornos filtrados Ibex35 aparecen en las tablas 4.4 (estimación según
una GPD de parámetros ξb = 0.1491 y σ b = 0.0076) y 4.5 (según la normal),
para los mismos niveles de probabilidad. De nuevo, todos los valores de las
medidas de riesgo y para todos los niveles de probabilidad considerados, son
superiores en el caso de estimar la cola de pérdidas mediante una distribución
GPD. Para p = 0.99, la pérdida diaria del ı́ndice Ibex35 será superior al 3.68%
con probabilidad 1%, y si la pérdida diaria supera el 3.68%, la media de las
pérdidas esperadas será del 4.87% con igual probabilidad. También en este caso,
la suposición de normalidad en la cola de pérdidas produce una subestimación de
la pérdida futura, ya sea en valor (VaR) o en media (ES).
ES
En cuanto a la razón VaRpp , ésta toma valores superiores en el caso GPD, en
el que cuando p → 1 tiende al valor 1.17, mientras que en el caso gaussiano su
valor sigue siendo 1. En este caso los valores del lı́mite en ambas razones están
más próximos que los correspondientes al ı́ndice Dow Jones, debido a que el valor
estimado del parámetro ξb = 0.1491 de la distribución GPD está más cerca de
cero (recordemos que en el caso Dow Jones ξb = 0.2859) y, por tanto, las colas de
la distribución son menos pesadas y más parecidas a las de la distribución normal
que las del caso anterior.

ESp
p VaRp ICV aRp ;0.95 ESp ICESp ;0.95 VaRp (→p→1 1.17)
0.98 0.0301 [0.0286; 0.0318] 0.0408 [0.0377; 0.0463] 1.3554
0.99 0.0368 [0.0344; 0.0397] 0.0487 [0.0438; 0.0581] 1.3233
0.995 0.0442 [0.0406; 0.0495] 0.0574 [0.0500; 0.0729] 1.2986
0.999 0.0646 [0.0555; 0.0833] 0.0814 [0.0650; 0.1196] 1.2600

Tabla 4.4: Estimaciones puntuales e intervalos de confianza al 95% para las


medidas de riesgo Ibex35 según una GPD(ξb = 0.1491; σ
b = 0.0076)
144 Teorı́a de Cópulas y Control de Riesgo Financiero

ESp
p VaRp ESp VaRp (→p→1 1)
0.98 0.0277 0.0326 1.1768
0.99 0.0314 0.0359 1.1433
0.995 0.0347 0.0389 1.1210
0.999 0.0416 0.0453 1.0889

Tabla 4.5: Cuantiles y ES de la N(3.20e-04;0.0133) calculados sobre los retornos


filtrados Ibex35

Para finalizar, en la figura 4.14 aparecen representadas las estimaciones de


las colas de pérdidas según la distribución GPD correspondiente a cada ı́ndice
considerado, junto con las curvas correspondientes al perfil del logaritmo de la
verosimilitud, sobre las que se marcan los intervalos de confianza al 95% para el
V[ d0.99 . Se aprecia la asimetrı́a de dicha curva respecto a su máximo
aR0.99 y el ES
en el caso de la estimación ESd0.99 , como era de esperar dada la presencia de
sucesos extremos.
0.0100
1-F(x) (escala log)

95
0.0010

99
0.0001

0.02 0.04 0.06 0.08 0.10 0.12

x (escala log)
0.05000
1-F(x) (escala log)

95
0.00100

99
0.00005

0.02 0.04 0.06 0.08 0.10 0.12


x (escala log)

Figura 4.13: Estimación de la cola de pérdidas según una GPD. V aR0.99 y ES0.99
con sus correspondientes intervalos de confianza al 95% para los retornos filtrados
DowJones (arriba) e Ibex35 (abajo)
Dependencia en Colas 145

4.3. Medidas de Riesgo para una Cartera de Inversión

Una consecuencia directa del Teorema de Sklar es el uso de las funciones


cópulas como instrumento para medir el riesgo de mercado, en concreto para
calcular el valor en riesgo (VaR) de una cartera de inversión construida sobre
ı́ndices de mercado.

Si denotamos por R los retornos de la cartera sobre un horizonte dado T, VaR


es el valor tal que, para una probabilidad α fijada

P (R ≤ V aRα ) = α

De forma equivalente, utilizando la función de distribución de R, F (r), VaR


se puede definir como la solución z ∗ de la ecuación F (z ∗ ) = α. A su vez, la
función de distribución F (r) se puede escribir vı́a cópulas como sigue:

Consideremos una cartera con dos activos, sean X e Y sus retornos continuos
sobre un horizonte común T y sea β ∈ [0, 1] el peso de X. El retorno de la cartera
es
R = βX + (1 − β)Y
con función de distribución

F (r) = P {R ≤ r} = P {βX + (1 − β)Y ≤ r}


Z +∞ ½ ¾
1 1−β
= P X ≤ r− y, Y = y f2 (y)dy
−∞ β β
Z +∞ µ µ ¶ ¶
1 1−β
= C1/2 F1 r− y , F2 (y) f2 (y)dy
−∞ β β

con la probabilidad condicionada obtenida a través de:


C(u, v + ∆v) − C(u, v) ∂C(u, v)
C1/2 (u, v) = P [U ≤ u/V ≤ v] = lı́m∆v→0+ =
∆v ∂v

A partir de esta expresión es posible calcular el VaR de la cartera para distin-


tos niveles de confianza (probabilidades que determinan el cuantil) y horizontes
fijados, considerando distribuciones conjuntas no normales, a partir de marginales
de los retornos también no normales y estudiar su sensibilidad respecto a la com-
binación de activos establecida, variando los pesos de localización de cada uno de
ellos (en nuestro caso, variando el valor de β). Es más, la aproximación mediante
146 Teorı́a de Cópulas y Control de Riesgo Financiero

la cópula permite cambiar las marginales mientras se mantiene fija la cópula (la
familia elegida) o utilizar diferentes familias de cópulas manteniendo fijas las mar-
ginales. Esto permite jugar con situaciones tan diferentes como aquellas en las
que se eliminan los efectos de colas pesadas en las distribuciones marginales con-
siderando retornos distribuidos normalmente (obtendremos valores del VaR más
pequeños en valor absoluto) o aquellas en las que se mantienen estos efectos con-
siderando, por ejemplo, retornos distribuidos según una t de Student. También
es posible suponer independencia entre retornos y utilizar la cópula independen-
cia, con lo que de nuevo queda de manifiesto la gran flexibilidad aportada por la
representación vı́a cópulas.

Nuestra propuesta consiste en cuantificar el riesgo de la pérdida conjunta,


concretada a través de una cartera de inversión con unos pesos de localización
especificados, utilizando como modelos de pérdidas marginales los obtenidos me-
diante el ajuste de distribuciones GPD univariantes a las colas de pérdidas de
los ı́ndices implicados, ligados por el modelo de cópula que mejor represente la
dependencia presente en las colas de las distribuciones univariantes.

La distribución de los retornos de la cartera debe aproximarse por simulación,


dado que solo se conoce una expresión paramétrica exacta para ella en algunos
modelos particulares. Para ello, utilizaremos la idea propuesta por Embrechts,
McNeil y Straumann (1999) que permite, mediante distribuciones condicionadas,
simular observaciones de modelos basados en cópulas.

Sean F1 , ..., Fn distribuciones marginales continuas de forma que la cópula


C(u1 , ..., un ) especifica una única distribución multivariante

F (x1 , ..., xn ) = C(F1 (x1 ), ..., Fn (xn ))

El problema teórico de simulación se reduce al que plantea la existencia de una


solución de la ecuación anterior. Nuestro objetivo es simular un vector aleato-
¡ ¢t
rio (U1 , ..., Un )t a partir de C, basándonos en que F1−1 (U1 ), ..., Fn−1 (Un ) tiene
distribución F .

Consideramos el caso general n > 2 e introducimos la notación

Ci (u1 , ..., un ) = C(u1 , ..., ui , 1, ..., 1) i = 2, ..., n − 1

para representar las distribuciones marginales i-dimensionales de C(u1 , ..., un ).


Bajo esta notación, C1 (u1 ) = u1 y Cn (u1 , ..., un ) = C(u1 , ..., un ).
Dependencia en Colas 147

La distribución condicionada de ui dados los valores de las (i − 1) primeras


componentes de (u1 , ..., un )t , se puede escribir en términos de derivadas y densi-
dades de las marginales i-dimensionales

Ci (ui /u1 , ..., ui−1 ) = P [Ui ≤ ui /U1 = u1 , ..., Ui−1 = ui−1 ]


Á
δ i−1 Ci (u1 , ..., ui ) δ i−1 Ci−1 (u1 , ..., ui−1 )
=
δu1 ...δui−1 δu1 ...δui−1

suponiendo que existen tanto el numerador como el denominador. En ese caso,


seguiremos el siguiente algoritmo:

• Simulamos un valor u1 a partir de una U (0, 1)

• Simulamos un valor u2 a partir de C2 (u2 /u1 )

• Simulamos un valor u3 a partir de C3 (u3 /u1 , u2 )


..
.

• Simulamos un valor un a partir de Cn (un /u1 , ..., un−1 )

En nuestro caso (n = 2) una vez generado el vector aleatorio (U, V ), según


el procedimiento anterior y a partir del modelo de cópula seleccionado según se
indicó en el Capı́tulo 3, supondremos que las distribuciones marginales correspon-
dientes son las GPD ajustadas a las pérdidas de los ı́ndices considerados:
³ ´
U ∼ GP D ξbDJ , σ bDJ
³ ´
V ∼ GP D ξbIB , σ bIB

a partir de las cuales simularemos, mediante el método Montecarlo, los valores


¡ ¢
Xsim e Ysim que producirán la muestra aleatoria bidimensional final xisim , ysim
i
i=1...n
.

Utilizando esta muestra bidimensional, generamos la muestra de retornos


logarı́tmicos de la cartera según la expresión siguiente
¡ ¡ ¢ ¡ i ¢¢
ri∗ = log λ1 exp xisim + λ2 exp ysim (4.11)

La muestra ası́ generada, permitirá calcular las medidas de riesgo en el periodo


siguiente, V aRt+1 , al nivel de probabilidad α deseado de la siguiente forma

V aRt+1 = −rt+1,α (4.12)
148 Teorı́a de Cópulas y Control de Riesgo Financiero

con rt+1,α el cuantil de orden α de la distribución de retornos de la cartera. La


pérdida esperada, ESt+1 , se calculará como
N
X
1 ∗
¡ ∗ ¢
ESt+1 = − ri,t+1 I {x ≤ −V aRt+1 , x ∈ R} ri,t+1
Nt+1
i=1 (4.13)

donde Nt+1 es el número de retornos simulados ri,t+1 con valor menor o igual que
−V aRt+1 , es decir
N
X ¡ ∗ ¢
Nt+1 = I {x ≤ −V aRt+1 , x ∈ R} ri,t+1
i=1

4.3.1. Medidas de riesgo calculadas sobre la cartera DowJones e


Ibex35

En lo que sigue, consideraremos una cartera de inversión integrada en un


50% por el ı́ndice Dow Jones y en un 50% por el ı́ndice Ibex35. En la figura
4.14 observamos el diagrama de dispersión de las pérdidas correspondientes a los
retornos filtrados de ambos ı́ndices situados por debajo del umbral u = −0.02.
0.07
0.06
Retornos filtrados Ibex35
0.05
0.04
0.03
0.02

0.02 0.03 0.04 0.05 0.06 0.07


Retornos filtrados DowJones

Figura 4.14: Diagrama de dispersión de los retornos filtrados DowJones e Ibex35


por debajo del umbral u = −0.02

Se han simulado 3000 retornos de la cartera especificada anteriormente para


cada uno de los modelos mixtos de cópula con los que estamos trabajando. El
Dependencia en Colas 149

procedimiento de simulación se ajusta al algoritmo detallado en el punto anterior.


Para cada modelo mixto de cópula se han seguido los siguientes pasos:

• En primer lugar, se obtiene la expresión de la función de densidad conjunta


c(u1 , u2 ).

• Simulamos un valor u1 a partir de una U (0, 1)

• A continuación, se determina la función de densidad condicionada c(u2 /u1 ).

• Se obtiene la función de distribución empı́rica F ∗ (u2 /u1 ) asociada a c(u2 /u1 ).

• Simulamos un valor u a partir de una U (0, 1).

• Se obtiene el valor u2 tal que F ∗ (u2 /u1 ) = u.

El par (u1 , u2 ) corresponde a un valor muestral del modelo de cópula en


cuestión.

Las expresiones correspondientes a las funciones de densidad conjuntas de los


modelos mixtos son, para el Modelo 1:

cMod1 (u1 , u2 , θ1 , θ2 , θ3 ) = θ3 × cGu (u1 , u2 , θ1 ) + (1 − θ3 ) × cGu S (u1 , u2 , θ2 )

con
h ³ ´i 1
cGu (u1 , u2 , θ1 ) = (− log u1 )(−1+θ1 ) −1 + θ1 + (− log u1 )θ1 + (− log u2 )θ1
θ1
×
 
h i −2+ 1
(− log u1 )θ1 + (− log u2 )θ1 (− log u2 )(−1+θ1 ) ×
θ1

∙ ³ ´1 ¸−1
exp (− log u1 )θ1 + (− log u2 )θ1 1 × u1 × u2
θ

cGu S (u1 , u2 , θ2 ) = cGu ((1 − u1 ) , (1 − u2 ) , θ2 )

y
θ1 = 1.252 , θ2 = 1.253 , θ3 = 0.498
Análogamente, la función de densidad conjunta para el Modelo 2 viene dada por

cMod2 (u1 , u2 , θ10 , θ20 , θ30 ) = θ30 × cGu (u1 , u2 , θ10 ) + (1 − θ30 ) × cCl (u1 , u2 , θ20 )

con
 
à ! −2− θ10
¡ ¢ (−1−θ20 ) (−1−θ20 ) 1 1 2
cCl (u1 , u2 , θ20 ) = 1 + θ20 u1 u2 −1 + θ0 + θ0
u12 u22
150 Teorı́a de Cópulas y Control de Riesgo Financiero

y
θ10 = 1.172 , θ20 = 1.022 , θ30 = 0.625

En el gráfico 4.15 aparecen representadas las funciones de densidad condi-


cionadas para diferentes valores de u1 (0.1, 0.3, 0.5, 0.7 y 0.9) y sus correspon-
dientes funciones de distribución empı́ricas para el Modelo 1 (parte superior) y
el Modelo 2 (parte inferior).
1.5

0.8
1.0

0.6
Femp(u/v)
f(u/v)

0.4
0.5

0.2
0.0
0.0

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

u u
0.8
1.5

0.6
1.0

Femp(u/v)
f(u/v)

0.4
0.5

0.2
0.0

0.0

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0

u u

Figura 4.15: Funciones de densidad condicionadas para distintos valores de v


(izquierda) y sus correspondientes funciones de distribución empı́ricas(derecha).
La parte superior corresponde al Modelo 1 y la inferior al Modelo 2

Mediante el método Montecarlo, simulamos los valores Xsim e Ysim , que pro-
¡ ¢
ducirán la muestra aleatoria bidimensional final xisim , ysim
i , a partir de las GPD
ajustadas anteriormente a las distribuciones de pérdidas marginales DowJones e
Dependencia en Colas 151

Ibex35. Esta muestra bidimensional permite obtener los retornos logarı́tmicos


de la cartera según (4.11) y las medidas de riesgo asociadas a las pérdidas co-
rrespondientes según (4.12) y (4.13). Los resultados obtenidos para los dos mo-
delos mixtos, junto con los producidos por la cópula normal de parámetro 0.3926
aparecen en la tabla 4.6.

VaRp ESp
p Modelo 1 Modelo 2 Normal Modelo 1 Modelo 2 Normal
0.98 0.0203 0.0127 0.0215 0.0259 0.0158 0.0286
0.99 0.0252 0.0149 0.0256 0.0294 0.0180 0.0339
0.995 0.0273 0.0170 0.0296 0.0326 0.0198 0.0400
0.999 0.0349 0.0210 0.0451 0.0417 0.0243 0.0582

Tabla 4.6: Medidas de riesgo para los retornos logarı́tmicos de la cartera


DowJones e Ibex35 simulados según los modelos mixtos y la cópula normal de
parámetro 0.3926

Para obtener los retornos generados a partir de la cópula normal únicamente


se necesita generar una muestra a partir de una normal bivariante y, a conti-
nuación hacer que las marginales sean uniformes. Una vez generado el vector
aleatorio (U, V ) que proviene de la cópula normal de parámetro θ, supondremos
que cada una de sus componentes procede a su vez de la GPD correspondiente.
El algoritmo es el siguiente.

• Simulamos un valor u1 a partir de una N (0, 1).

• Obtenemos u2 a partir de una N (θu1 , 1 − θ2 ), con θ el parámetro de la


cópula normal.

• Entonces

U = Φ (u1 )
V = Φ (u2 )

con Φ la función de distribución de la normal.

• A continuación suponemos que


³ ´
U ∼ GP D ξbDJ , σ
bDJ
³ ´
V ∼ GP D ξbIB , σ
bIB
152 Teorı́a de Cópulas y Control de Riesgo Financiero

a partir de las cuales simularemos, mediante el método Montecarlo, los valores


¡ ¢
Xsim e Ysim que producirán la muestra aleatoria bidimensional final xisim , ysim
i
i=1...n
.

Utilizando esta muestra bidimensional, generamos la muestra de retornos


logarı́tmicos de la cartera según la expresión (4.11) y calculamos las medidas
de riesgo según (4.12) y (4.13).

En la figura 4.16 se pueden apreciar las violaciones de los retornos de la cartera


sobre el VaR y el ES al nivel 0.99, simulados a partir de cada uno de los modelos
mixtos.

Retornos cartera según Modelo 1

ES 0.99
VaR 0.99
0.04
0.0
-0.04

0 500 1000 1500 2000 2500 3000

Retornos cartera según Modelo 2


0.02

ES 0.99
VaR 0.99
0.01
0.0
-0.02

0 500 1000 1500 2000 2500 3000

Figura 4.16: Violaciones al V aR0.99 de los retornos simulados según los dos
modelos mixtos.
Dependencia en Colas 153

Si consideramos que los retornos de la cartera proceden de una distribución


GPD, podemos realizar la estimación de la misma con los resultados que aparecen
en la tabla 4.7 Se ha establecido un valor para el umbral de u = 0.01, a la vista
de la forma de la función de excesos medios (figura 4.17) y de la sensibilidad de
la estimación ξb al valor del umbral u (figura 4.18).

Modelo 1 Modelo 2
u 0.01 0.01
n 323 147
b b
ξ (se) 0.01085 (0.06318) 0.00152 (0.0943)
b (se)
σ b 0.00568 (0.000478) 0.00304 (37 × 10 − 4)
% datos>u 88.85 95.1
−max(logveros.) -1343.558 -704.7064

Tabla 4.7: Resultados de la estimación GPD de las colas de pérdidas de los


retornos de la cartera DowJones&Ibex35 según los modelos mixtos para u = 0.01

Retornos negativos Modelo 1 Retornos negativos Modelo 2


0.020
0.06
0.05

0.015
0.04
Media de excesos

Media de excesos
0.03

0.010
0.02

0.005
0.01

-0.06 -0.04 -0.02 0.0 0.02 -0.02 -0.01 0.0 0.01 0.02
Umbral Umbral

Figura 4.17: Función de excesos medios para las pérdidas de la cartera


DowJones&Ibex35 según los dos modelos mixtos
154 Teorı́a de Cópulas y Control de Riesgo Financiero

Umbral
0.2 0.00651 0.00715 0.00797 0.00867 0.00947 0.01040 0.01150 0.01350 0.01590 0.02080
Forma (xi) (IC, p = 0.95)
0.0
-0.2
-0.4
-0.6

600 559 519 478 438 398 357 317 277 236 196 156 115 75 55 35 15
Excesos

Umbral
0.00566 0.00612 0.00660 0.00705 0.00757 0.00809 0.00881 0.00950 0.01070 0.01290
0.4
Forma (xi) (IC, p = 0.95)
0.2
0.0
-0.4

600 559 519 478 438 398 357 317 277 236 196 156 115 75 55 35 15

Excesos

Figura 4.18: Estimaciones del valor de ξ como función del umbral u para los
retornos negativos de la cartera DowJones&Ibex35 generados según los modelos
mixtos de cópulas

Los gráficos 4.19 y 4.20 permiten afirmar que las dos distribuciones se ajustan
razonablemente a las colas de pérdidas de los retornos de la cartera generados a
partir de los dos modelos mixtos.
Dependencia en Colas 155

0.10000
1.0
0.8

1-F(x) (on log scale)


0.6

0.00100
Fu(x-u)

0.4
0.2

0.00001
0.0

0.01 0.02 0.03 0.04 0.06 0.01 0.02 0.03 0.04 0.06

x (on log scale) x (on log scale)


6

6
5

Exponential Quantiles

5
4
Residuals

4
3

3
2

2
1

1
0

0 50 100 150 200 250 300 0 1 2 3 4 5 6

Ordering Ordered Data

Figura 4.19: Gráficos de diagnóstico para la GPD ajustada a la distribución de


pérdidas de la cartera DowJones&Ibex35 sobre el umbral u = 0.01 (Modelo 1)
156 Teorı́a de Cópulas y Control de Riesgo Financiero

1.0
0.8

1-F(x) (on log scale)

0.00100
0.6
Fu(x-u)
0.4

0.00001
0.2
0.0

0.01 0.02 0.03 0.04 0.01 0.02 0.03 0.04

x (on log scale) x (on log scale)


5

5
Exponential Quantiles
4

4
Residuals
3

3
2

2
1

1
0
0

0 20 40 60 80 100 120 140 0 1 2 3 4 5

Ordering Ordered Data

Figura 4.20: Gráficos de diagnóstico para la GPD ajustada a la distribución de


pérdidas de la cartera DowJones&Ibex35 sobre el umbral u = 0.01 (Modelo 2)

A partir de estas distribuciones GPD ajustadas para cada modelo, se han


obtenido las estimaciones puntuales de las medidas de riesgo junto con sus inter-
valos de confianza al 95%. En la tabla 4.8 aparecen los correspondientes a las
pérdidas de los retornos de la cartera simulados según el Modelo 1 y en la 4.9
los referentes a las pérdidas simuladas según el Modelo 2. En ambos casos se
observan valores muy próximos a los obtenidos directamente a partir de la serie
de retornos de la cartera (tabla 4.6).
Dependencia en Colas 157

ESp
p VaRp ICV aRp ;0.95 ESp ICESp ;0.95 VaRp → 1, 01
0.98 0.0198 [0.0188; 0.0210] 0.025 [0.0240; 0.0283] 1.2626
0.99 0.0238 [0.0224; 0.0256] 0.0297 [0.0273; 0.0339] 1.2478
0.995 0.0279 [0.0260; 0.0308] 0.0338 [0.0306; 0.0402] 1.2114
0.999 0.0374 [0.0334; 0.0454] 0.0435 [0.0372; 0.0574] 1.1631

Tabla 4.8: Estimaciones puntuales e intervalos de confianza al 95% para las me-
didas de riesgo de la cartera según una GPD(ξb = 0.01085; σ
b = 0.00568) (Modelo
1)
ESp
p VaRp ICV aRp ;0.95 ESp ICESp ;0.95 VaRp → 1, 001
0.98 0.0127 [0.0122; 0.0132] 0.0157 [0.0149; 0.0169] 1.2362
0.99 0.0148 [0.0140; 0.0157] 0.0178 [0.0167; 0.0199] 1.2027
0.995 0.0169 [0.0159; 0.0183] 0.0200 [0.0184; 0.0233] 1.1834
0.999 0.0218 [0.0198; 0.0261] 0.0249 [0.0217; 0.0334] 1.1422

Tabla 4.9: Estimaciones puntuales e intervalos de confianza al 95% para las me-
didas de riesgo de la cartera según una GPD(ξb = 0.00152; σ
b = 0.00304) (Modelo
2)

ES
Se puede observar que la razón VaRpp converge a valores próximos a 1 en
los dos modelos, lo cual era de esperar dado que las estimaciones del parámetro
de forma en la distribuciones GPD ajustadas toma valores próximos a cero en
ambos casos (ξbMod1 = 0.01085, ξbMod2 = 0.00568). Recordemos también, que
la cópula gaussiana no era una mala opción en términos de AIC (tabla 2.4)
aunque no contemplaba la dependencia en colas presente en nuestra muestra
bivariante. De ahı́, que si comparamos las estimaciones de las medidas de riesgo
calculadas para los retornos procedentes de los modelos mixtos (tablas 4.8 y 4.9)
con las obtenidas a partir de la cópula gaussiana (tabla 4.6), en todos los casos
esta última proporciona valores superiores para todos los niveles de probabilidad
considerados.
5

Cópulas con Estructura


Dinámica

Parece lógico que en esa búsqueda del patrón de dependencia subyacente


entre las series de retornos analizadas, aparezca como elemento sustancial la in-
formación proporcionada por observaciones pasadas, incorporada no únicamente
en los comportamientos marginales sino también en el conjunto. La influencia
de esta información pasada, en general, no tiene por qué ser del mismo tipo e
intensidad en los modelos marginales que en el considerado para capturar la de-
pendencia multivariante. Por tanto, la determinación de modelos de cópulas con
estructura dinámica resulta relevante en nuestro estudio, y a este fin vamos a
dedicar el presente capı́tulo.

Las formulaciones tipo GARCH, empleadas en el Capı́tulo 3 para filtrar la


dependencia temporal marginal y obtener ası́ una muestra bivariante en la que se
mantiene la dependencia contemporánea, proponen modelos de retornos futuros
de un determinado ı́ndice financiero conociendo su historia, pero no resuelven el
problema de predecir ese ı́ndice conociendo no sólo sus valores anteriores sino
también los de otros que puedan estar relacionados con él.

Hasta ahora hemos supuesto que el parámetro de dependencia de la cópula


que modeliza el comportamiento conjunto posee un valor constante, o dos valores
constantes en el caso de los modelos mixtos, lo que presupone que la dependencia
entre los dos procesos marginales permanece estática a lo largo del periodo mues-
tral considerado. Sin embargo, resulta más realista contemplar la posibilidad
160 Teorı́a de Cópulas y Control de Riesgo Financiero

de que esta relación de dependencia conjunta, expresada a través del modelo de


cópula seleccionado como el más adecuado, posea una estructura que cambie a lo
largo del tiempo, dado que en el caso de los mercados financieros existe una clara
componente dinámica que afecta a su evolución. Podemos encontrar diversos
autores que han desarrollado sus trabajos en esta lı́nea de investigación: Patton
(2001a, 2001b, 2003) introdujo el concepto de cópula condicional, extendido re-
cientemente por Fermanian y Wegkamp (2004), mientras que la aproximación de
Van der Goorberg, Genest y Werker (2005) consiste en proponer un modelo de
evolución temporal para el parámetro de dependencia de la cópula a través de
la medida de asociación τ de Kendall, relacionada con aquel por la expresión ya
conocida
τ (θ) = 4ECθ (U, V ) − 1

en la que (U, V ) se distribuye según Cθ , y la esperanza se toma respecto a U y


V.

Puesto que a lo largo de este estudio hemos prestado una especial atención
a la dependencia bivariante localizada en colas, trataremos de dotar al mo-
delo paramétrico de cópula elegido de una estructura dinámica, relacionando su
parámetro identificativo con alguna medida de dependencia local, que establezca
dicha dependendencia como una propiedad de la cópula misma. Un candidato
idóneo para esta tarea resulta ser el coeficiente de dependencia en colas (TDC),
definido en la Sección 1.8 del Capı́tulo 1, ya utilizado anteriormente a lo largo de
diversos desarrollos, para el que se propondrá un modelo de evolución temporal
adecuado.

Sean ri,t+1 los retornos correspondientes al ı́ndice i en los periodos t + 1 y t,


respectivamente, y sea
Gt = σ ((r1,s , r2,s ) : s ≤ t)

toda la información disponible sobre los retornos de ambos ı́ndices hasta el ins-
tante t.

Suponemos que las distribuciones marginales de los retornos de cada ı́ndice


vienen dadas por procesos GARCH del tipo de los ya especificados en el Capı́tulo
3, y que ambas distribuciones marginales están ligadas por el modelo paramétrico
mixto Cθ (U, V ), con θ = {θ1 , θ2 , θ3 }.

Recordemos las expresiones del coeficiente de dependencia en colas, en función


de los parámetros de dependencia de la cópula, obtenidas para el modelo paramétrico
Cópulas con Estructura Dinámica 161

mixto dado por miembros de la familia Gumbel y Gumbel supervivencia:

λL = (1 − θ3 )(2 − 21/θ2 ) (5.1)

λU = θ3 (2 − 21/θ1 ) (5.2)

Los parámetros θ1 y θ2 reflejan el grado de dependencia del modelo mixto


y θ3 podrı́a considerarse un parámetro de forma, que regula la estructura de
dependencia mediante la asignación de pesos a los modelos integrantes de la
composición.

La primera cuestión a resolver es la obtención de las series de valores que


reflejen la evolución temporal de la dependencia en ambas colas. Sean λU y
λL , los coeficientes de dependencia en la cola superior
n e inferior
o respectivamente,
n o
asociados a nuestro modelo. Las series de valores λU,n b t y λ bt que
L,n
t∈T t∈T
recogen la evolución temporal de ambos coeficientes, se obtienen a partir de los es-
timadores no paramétricos propuestos por Schmidt y Stadmüller (2003), basados
en la definición de cópula cola y cuya construcción se detalla a continuación.

Definición 5.1 (Cópula cola)


Sea F una función de distribución n-dimensional. Si para los subconjuntos
n
I, J ∈ {1, ..., n} , I ∩ J = ∅, existe el siguiente lı́mite en R+
n ³ xi ´ . ³ xj ´ o
ΛI,J
U (x) = lim P X i > Fi
−1
1 − , ∀i ∈ I X j > Fj
−1
1 − ∀j ∈ J
t→∞ t t
n
entonces la función ΛI,J
U : R+ −→ R es la llamada cópula cola superior asociada
a F para I; J. La correspondiente cópula cola inferior se define como
n ³ ´ . ³ ´ o
−1 xi −1 xj
ΛI,J
L (x) = lim P Xi ≤ Fi , ∀i ∈ I X j ≤ Fj ∀j ∈ J
t→∞ t t
siempre que dicho lı́mite exista.

F1−1 , ..., Fn−1 denotan las correspondientes inversas generalizadas de las fun-
n
ciones de distribución marginales F1 , ..., Fn y R+ := [0, ∞]n r {(∞, ..., ∞)}.

Mientras que las funciónes cópula representan la estructura de dependencia de


un vector aleatorio multivariante, las funciones cópula cola describen la estructura
de dependencia de distribuciones multi-dimensionales en las colas.

En un entorno bivariante, consideraremos un vector aleatorio (X, Y )0 con


función de distribución F y funciones de distribución marginales continuas G y
162 Teorı́a de Cópulas y Control de Riesgo Financiero

H. La estimación resulta más fácil si se utiliza la siguiente modificación de la


cópula cola:
{1},{2}
ΛU (x, y) = y.ΛU (x, y)
{1},{2}
ΛL (x, y) = y.ΛL (x, y) x ∈ R+ , y ∈ R+

donde los ı́ndices {1} y {2} pueden obviarse. Tendremos que ΛU (x, ∞) = x y
ΛL (x, ∞) = x para todo x ∈ R+ .

La siguiente definición establece el ya conocido concepto de dependencia en


colas en términos de la cópula cola.

Definición 5.2 (Dependencia en colas)


El vector aleatorio bivariante (X, Y )0 se considera dependiente en la cola su-
perior si existe ΛU (1, 1) y
© ± ª
λU = ΛU (1, 1) = lim P X > G−1 (v) Y > H −1 (v) > 0
v→1−

Si λU = 0 se dice que (X, Y )0 es independiente en la cola superior. λU es el coefi-


ciente de dependencia en la cola superior. Análogamente, se define el coeficiente
de dependencia en la cola inferior como

λL = ΛL (1, 1)

si el lı́mite existe. Diremos que existe dependencia en la cola inferior si λL > 0.

La cópula cola y los coeficientes de dependencia en colas no dependen de las


marginales sino únicamente de la cópula, por ejemplo

1 − 2v + C(v, v) ³ ³ x y ´´
λU = lim y ΛU (x, y) = x + y − lim t 1 − C 1 − , 1 −
v→1− 1−v t→∞ t t

Sea Cn la cópula empı́rica definida por

Cn (u, v) = Fn (G−1 −1
n (u), Hn (v)) (u, v)0 ∈ [0, 1]2

con Fn , Gn y Hn las funciones de distribución empı́ricas de F , G y H y n el


tamaño de la muestra bivariante considerada. Cn ((a, b] × (c, d]) es la medida
sobre el intervalo (a, b] × (c, d] ⊂ [−∞, ∞]2 dada por
³ ´
Cn ((a, b] × (c, d]) = Cn ((a, b] × (c, d]) ∩ [0, 1]2
Cópulas con Estructura Dinámica 163

Como ya se ha comentado con anterioridad, la elección de las funciones de


distribución empı́ricas para modelizar las marginales evita errores debidos a es-
pecificaciones equivocadas en los ajustes paramétricos de dichos modelos. Un
estudio empı́rico de las consecuencias producidas por malas especificaciones e
interpretaciones erróneas de la correspondiente estructura de dependencia en va-
lores extremos puede consultarse en Frahm, Junker y Schmidt (2006).

Definición 5.3 (Cópula cola empı́rica)


(j) (j)
Sean R1n y R2n los rangos de X (j) e Y (j) j = 1, ..., n, respectivamente. Se
define la cópula cola empı́rica superior como
µµ ¸ µ ¸¶
b U,n (x, y) = n kx ky
Λ Cn 1− ,1 × 1 − ,1
k n n
n
1X q
≈ I R(j) >n−kx y R(j) >n−kyr (5.3)
k 1n 2n
j=1

Análogamente, se define la cópula cola empı́rica inferior como


µ ¶
b L,n (x, y) = n kx ky
Λ Cn , (5.4)
k n n
n
1X q
≈ I R(j) ≤kx y R(j) ≤kyr
k 1n 2n
j=1

con k ∈ {1, ..., n} , k = k(n) → ∞ y k/n → 0 cuando n → ∞.

Las definiciones anteriores están basadas en la siguiente representación de la


cópula empı́rica propuesta por Genest, Ghoudi y Rivest (1995):

X n
en (u, v) = 1
C I{Gn (X (j) )≤u y Hn (Y (j) )≤v} (u, v) ∈ [0, 1]2
n
j=1

Schmidt y Stadmüller (2003) proponen los siguientes estimadores no paramétricos


del coeficiente de dependencia en colas, basados en las definiciones anteriores de
las cópulas cola empı́ricas:

bU,n = Λ
λ b U,n (1, 1) (5.5)
bL,n = Λ
λ b L,n (1, 1) (5.6)
164 Teorı́a de Cópulas y Control de Riesgo Financiero

Ambos autores demuestran que, bajo ciertas condiciones de regularidad,


√ n o ¡ ¢
k λ bU,n − λU → d N 0, σU2
√ n o ¡ ¢
k λ bl,n − λL → d N 0, σL2
¡ ¢ ¡ ¢
con N 0, σU2 y N 0, σL2 variables aleatorias centradas distribuidas normalmente
con varianzas
µ ¶2 µ ¶2
2 ∂ ∂
σU = λU + ΛU (1, 1) + ΛU (1, 1)
∂x ∂y
µµ ¶µ ¶ ¶
∂ ∂
+2λU ΛU (1, 1) − 1 ΛU (1, 1) − 1 − 1
∂x ∂y
y
µ ¶2 µ ¶2
∂ ∂
σL2 = λL + ΛL (1, 1) + ΛL (1, 1)
∂x ∂y
µµ ¶µ ¶ ¶
∂ ∂
+2λL ΛL (1, 1) − 1 ΛL (1, 1) − 1 − 1
∂x ∂y

Para más detalles sobre propiedades de convergencia, normalidad y consis-


tencia se puede consultar Schmidt y Stadmüller (2003).

Consideraremos ventanas temporales de un cuatrimestre de negocio (periodos


de 81 dı́as) cada uno de las cuales comprende los 40 dı́as anteriores al dı́a t
considerado, los 40 siguientes y el propio dı́a t. Para cada uno de esos periodos,
bt , n = 81, según la expresión (5.6).
se calcula la estimación empı́rica λL,n

Puesto que las estimaciones del VaR son altamente sensibles al compor-
tamiento de las colas y, en concreto, a la dependencia en colas presente en la
distribución de retornos de la cartera, la elección del umbral k vendrá deter-
minada por el nivel p del VaR correspondiente. Recordemos que el cálculo del
coeficiente de dependencia en la cola inferior es equivalente a:

λL = lim P {Y < V aR1−p (Y ) /X < V aR1−p (X) } > 0


p→1−

Mediante un procedimiento análogo efectuado sobre el coeficiente de depen-


dencia en la cola superior

λU = lim P {Y > V aR1−p (Y ) /X > V aR1−p (X) } > 0


p→0+
Cópulas con Estructura Dinámica 165

bt , n = 81, según la expresión (5.5).


se obtienen las estimaciones empı́ricas λU,n

Una vez obtenidas las series de estimaciones empı́ricas de los coeficientes de


dependencia, en la cola superior e inferior, en cada periodo temporal, se propone
un modelo de serie temporal para cada una de ellas en el cual la influencia de
valores cercanos al instante t considerado sea superior a la de los más alejados
en el tiempo. La especificación se corresponde con la de un modelo de alisado
exponencial doble de Holt (Gardner y Dannenbring 1980, Gardner 1985), ade-
cuado para series que presentan una tendencia de tipo lineal en su evolución,
cuya especificación es la siguiente:
bt+k = at + bt k + t
λ
bt + (1 − α) (at−1 + bt−1 )
at = αλ 0<α≤1 (5.7)
bt = β (at − at−1 ) + (1 − β)bt−1 0<β≤1 (5.8)

La expresión (5.7) corresponde a la ecuación de nivel y la (5.8) a la de la


pendiente.

Finalmente, es posible incorporar una estructura dinámica al modelo de cópula


a través de las relaciones establecidas en (5.1) y (5.2), que en cada instante t per-
miten determinar, a partir de los valores λL,t y λU,t , los parámetros θ1 y θ2 . El
parámetro θ3 permanece constante, según el valor obtenido en la estimación de
máxima verosimilitud realizada en el Capı́tulo 2, y la evolución temporal afec-
tará a los valores de los parámetros θ1 y θ2 que son los que gobiernan el grado
de dependencia del modelo mixto.

5.1. Modelo de cópula dinámica DowJones&Ibex35

Las series de estimaciones empı́ricas de los coeficientes de dependencia en cada


cuatrimestre considerado, obtenidas según las expresiones (5.5) y (5.6), respec-
tivamente, aparecen representadas en la figura 5.1. El umbral k utilizado se ha
determinado en función del nivel de probabilidad asociado al VaR, considerando
un valor que garantice la inclusión de un 15% de observaciones por la izquierda
(TDC inferior) o por la derecha (TDC superior). A continuación se ha procedido
a realizar un doble suavizado exponencial de Holt sobre cada serie. En cada una
de ellas el valor seleccionado del parámetro es α = 0, 1, resultante al minimizar
el error cuadrático medio del ajuste (figura 5.2).
166 Teorı́a de Cópulas y Control de Riesgo Financiero

TDC inferior TDC superior

0.6

0.5
0.5

0.4
0.4

0.3
0.3

0.2
0.2

0.1
0.1
0.0

0.0

0 10 20 30 0 10 20 30
Cuatrimestre Cuatrimestre

Figura 5.1: Estimaciones empı́ricas de los TDC en cada cuatrimestre obtenidas


a partir de la muestra bivariante filtrada (DowJones,Ibex35)

0,7 TDC inferior


alpha=0.1 0,6 TDC superior
alpha=0,1
0,6
0,5

0,5

0,4

0,4

0,3

0,3

0,2
0,2

0,1 0,1

0,0 0,0

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37
Cuatrimestre Cuatrimestre

Figura 5.2: Serie de estimaciones empı́ricas de los TDC y los correspondientes


suavizados de Holt para α = 0, 1.
Cópulas con Estructura Dinámica 167

En base a los modelos ajustados se han realizado predicciones de ambos coefi-


cientes para los próximos 4 años (12 cuatrimestres), que han permitido determinar
el valor de los parámetros de dependencia de cada modelo mixto de cópula, en
base a las expresiones siguientes, obtenidas a partir de (5.1) y (5.2):
, Ã !
bU,t
λ
θb1,t = log(2) log 2 −
θb3
, ⎛ ⎞
b
λL,t ⎠
θb2,t = log(2) log ⎝2 − ³ ´
1 − θb3
θb3 = 0.497

La evolución temporal de los parámetros de dependencia del modelo mixto


puede observarse en la figura 5.3. En ella se aprecia que el parámetro θ2 tiene un
crecimiento más acusado. Recordemos que este parámetro determina el grado de
dependencia de la cópula Gumbel supervivencia, que regula la dependencia entre
las pérdidas (cola inferior) de la muestra bivariante.

Se han efectuado simulaciones de 12 muestras de tamaño 2000 para cada par


(θ1 , θ2 ) del Modelo 1 con θ3 = 0.497, que corresponden a cuatrimestres consecu-
tivos de los cuatro años siguientes al 28 de Marzo de 2006. Para cada una de ellas
se han generado los retornos de la cartera integrada por los ı́ndices Dow Jones e
Ibex35, con un peso de 0.5 para ambos ı́ndices, considerando cada marginal una
GPD de parámetros los especificados para cada ı́ndice en el Capı́tulo 4 (tabla
4.1).

A partir de estos retornos se han determinado las medidas de riesgo corres-


pondientes, VaR y ES, para niveles de probabilidad p = (0.98, 0.99, 0.995, 0.999).
La evolución temporal del VaR, calculado para cada cuatrimestre considerado,
puede apreciarse en el gráfico 5.4. En él se observa que a medida que aumenta el
cuantil calculado ( la pérdida asociada al valor en riesgo es mayor y, por tanto más
peligrosa) el Var obtenido para el modelo de cópula estático está por debajo de los
valores en riesgo generados por el modelo dinámico, lo que conduce a pensar que
el riesgo estarı́a siendo subvalorado a través del modelo estático. Por otra parte,
la posibilidad de calcular valores en riesgo para periodos temporales consecutivos
(en nuestro caso cuatrimestres), permite prevenir situaciones de riesgo extremo
a lo largo de un horizonte temporal fijado previamente: la aparición de picos o
cumbres en la serie de predicciones señala con antelación periodos especialmente
168 Teorı́a de Cópulas y Control de Riesgo Financiero

5.5
Theta1
Theta2
5.0
4.5
4.0
3.5
3.0
2.5

2 4 6 8 10 12 14
Cuatrimestre

Figura 5.3: Evolución temporal de los parámetros θ1 y θ2 del modelo mixto Gum-
bel&Gumbel supervivencia

peligrosos, lo que facilita la aplicación de medidas preventivas, en el caso de que


sea posible, o cuanto menos la posibilidad de estar sobre aviso. El gráfico 5.4
señala como especialmente peligroso el cuarto cuatrimestre a partir de la fecha
considerada, en todos los niveles de probabilidad.

Finalmente, en cuanto al valor del ES (la otra medida de riesgo en consi-


deración) el gráfico 5.5 revela un comportamiento similar, e incluso más acusado,
que en el caso VaR. Se puede apreciar que en todos los niveles de probabilidad
considerados, la pérdida esperada obtenida sobre el modelo estático de cópula
infravalora, en la mayorı́a de los cuatrimestres considerados, las indicadas por el
modelo dinámico. De nuevo, los cuatrimestres 4 y 5 aparecen como especialmente
peligrosos.
Cópulas con Estructura Dinámica 169

0.0205

0.02038

0.026
0.0195

0.02523
VaR 0.98

VaR 0.99
0.024
0.0185

0.022
0.0175

2 4 6 8 10 12 2 4 6 8 10 12
Cuatrimestre Cuatrimestre
0.06
0.030
VaR 0.995

VaR 0.999
0.05

0.02733
0.04
0.026

0.03492
0.03

2 4 6 8 10 12 2 4 6 8 10 12
Cuatrimestre Cuatrimestre

Figura 5.4: Predicciones del VaR a un horizonte de 4 años para diferentes niveles
de probabilidad, según el Modelo 1 con estructura dinámica (la lı́nea discontinua
corresponde al VaR obtenido a partir del modelo estático)
170 Teorı́a de Cópulas y Control de Riesgo Financiero

0.040
0.032

0.036
ES 0.98

ES 0.99
0.028

0.032

0.02600
0.02943
0.028
0.024

2 4 6 8 10 12 2 4 6 8 10 12
Cuatrimestre Cuatrimestre
0.050

0.07
0.045

0.06
ES 0.995

ES 0.999
0.040

0.05
0.035

0.04

0.04178
0.03267

2 4 6 8 10 12 2 4 6 8 10 12
Cuatrimestre Cuatrimestre

Figura 5.5: Predicciones del ES a un horizonte de 4 años según el Modelo 1 para


diferentes niveles de probabilidad, con estructura dinámica (la lı́nea discontinua
corresponde al ES obtenido a partir del modelo estático)
6

Conclusiones y Problemas
abiertos

Considerando nuestro trabajo en su totalidad y con carácter general , creemos


que es posible afirmar que la obtención de modelos basados en cópulas constituye
una aproximación interesante, flexible y eficiente en la representación de estruc-
turas de dependencia de series financieras bivariantes, que supera las carencias y
malas especificaciones inherentes a aquellas otras que parten de supuestos gaus-
sianos y tratan únicamente el aspecto lineal de la correlación.

En cada uno de los capı́tulos se han tratado y resuelto de forma individua-


lizada las diferentes cuestiones que surgen en un planteamiento general del desafı́o
que constituye la elaboración de una metodologı́a estadı́stica sólida que permita
abordar con garantı́as de éxito la valoración y control de riesgos de mercados
financieros.

Dado que un modelo multivariante presenta dos componentes: la univariante


o marginal, que caracteriza cada una de las variables, y la estructura de depen-
dencia existente entre esas variables marginales, resulta posible plasmar de forma
separada estos dos aspectos del problema en términos matemáticos con el fin de
obtener los modelos apropiados. Esto es lo que se ha hecho en el capı́tulo 1, de
forma genérica, conectando las funciones cópulas con la noción de variable alea-
toria. Los conceptos, propiedades y resultados establecidos en él constituyen el
fundamento teórico de partida que nos ha permitido acometer el resto de cues-
tiones.
172 Teorı́a de Cópulas y Control de Riesgo Financiero

Hemos iniciado nuestro estudio con una propuesta de métodos inferenciales


que faciliten la selección del modelo de cópula más adecuado a nuestra muestra
bivariante, prestando especial atención a la información bruta extraı́da de las
muestra, proporcionada por las funciones de distribución empı́ricas univariantes,
tratadas convenientemente, ligadas por su cópula empı́rica. Posteriormente se
utilizan métodos paramétricos para realizar el ajuste de diferentes modelos basa-
dos en cópulas, y se indica como evaluar la bondad del ajuste a través de métodos
gráficos y analı́ticos. Es aquı́ donde se perfilan como modelos más eficientes aque-
llos que combinan diferentes familias de cópulas, puesto que son capaces de cubrir
de una forma más precisa y flexible diferentes grados y estructuras de dependen-
cia.

También se ha resuelto la dificultad que presenta la presencia de dependencia


temporal en las muestras univariantes. Después de evaluar diferentes alternativas,
hemos optado por realizar un filtrado de dicha dependencia marginal a través de
procesos tipo GARCH con el fin de obtener marginales aproximadamente i.i.d
con colas pesadas, manteniendo la relación de dependencia contemporánea. En
el capı́tulo 3 se propone una metodologı́a de ajuste para series financieras basada
en este tipo de procesos.

Una vez superadas las dificultades anteriores estamos ya en disposición de


abordar el núcleo de nuestro problema: la representación de la relación existente
entre pérdidas de ı́ndices financieros, con el fin de valorar el riesgo potencial
de carteras de inversión construidas sobre ellos. A lo largo del capı́tulo 4 se
trata exhaustivamente esta cuestión, proporcionando herramientas que permitan
tratar el problema en todas sus facetas. Las distribuciones GPD resultan de gran
utilidad en la modelización de las pérdidas univariantes, proporcionando buenos
resultados en la obtención de cuantiles altos.

Por último, nos planteamos la posibilidad de dotar de una estructura dinámica


al modelo de cópula seleccionado. Puesto que nuestro interés fundamental se cen-
tra sobre el fenómeno de dependencia en colas, incorporamos la información pro-
porcionada por observaciones pasadas a este respecto no sólo en las distribuciones
marginales (procesos GARCH) sino también en la conjunta. Los candidatos ide-
ales para esta tarea resultan ser los coeficientes de dependencia en colas (TDC),
superior e inferior.

En el camino recorrido desde el inicio de nuestro estudio hasta su elaboración


final, nos hemos encontrado con nuevos retos que han llamado nuestra atención
Conclusiones y Problemas abiertos 173

y a los que esperamos poder dedicar tiempo y esfuerzo en el futuro tales como:

• La utilización de modelos mixtos construidos como combinaciones lineales


convexas de familias de cópulas se perfila como una herramienta potente para
capturar diferentes estructuras y grados de dependencia. A la flexibilidad carac-
terı́stica de los modelos basados en cópulas, que permiten ligar diferentes modelos
marginales con diferentes estructuras bivariantes en un número infinito de formas,
se añade la proporcionada por los pesos de la combinación lineal que permiten
dar mayor importancia a la dependencia de uno u otro signo o a la ausencia de de-
pendencia en colas. Resultarı́a interesante seguir analizando estructuras distintas
a las ya utilizadas en esta tesis.

• La posibilidad de dotar a los modelos de cópula de una estructura que


refleje la evolución temporal conjunta de observaciones pasadas, también resulta
una lı́nea de trabajo interesante, en su doble faceta de obtener aproximaciones
alternativas a la propuesta en esta tesis, que permitan obtener modelos dinámicos
de cópulas, y en la de explorar diferentes usos de los mismos.

• Por último, quedarı́a pendiente la tarea de generalizar los resultados obtenidos


al caso multidimensional.

Para finalizar, únicamente señalar que para la realización de los diferentes


procedimientos empleados a lo largo de los desarrollos se ha utilizado el pa-
quete estadı́stico Splus 6.1 en su versión para Windows, especialmente el módulo
S+FinMetrics en su versión 2.0.1 que incorpora funciones especı́ficas de tratamiento
de series financieras y la librerı́a MASS realizada por Venables, W. y Ripley, B.
versión 7.0.
Bibliografı́a

[1] Alexander, C. (2001): Market Models: A Guide to Financial Data Analysis.


John Wiley and Sons.

[2] Artzner, P.; Delbaen, F.; Eber, J. y Heath, D. (1999): Coherent Measures
of Risk.Mathematical Finance 9, 203-288.

[3] Abramowitz, M. y Stegun, I. (1970): Handbook of Mathematical Functions.


Dover.

[4] Akaike, H. (1973): Information Theory and An Extension of the Maximum


likelihood Principle. Petrov, B. N. y Csaki, F. (Eds.). The second Interna-
tional Symposium on Information Theory. Budapest: Akadémiai Kiado.

[5] Akaike, H. (1977): On Entropy Maximization Principle. Krishnaia, P. R.


(Ed.). Applications of Statistics. Holland: North-Holland. Publishing Co.

[6] Ang, A. y Bekaert,G. (2002): International Asset Allocation with Regime


Shifts. Review of Financial Studies, 15: 1137-1187.

[7] Ang, A. y Chen, J. (2002): Asymetric Correlations of Equity Portfolios.


Review of Financial Studies, 63: 443-494.

[8] Bank of International Settlements (1996): Amendment to the Capital Accord


to Incorporate Market Risks. Basle Committee on Banking Supervision.

[9] Bollerslev, T., Chou, R. y Kroner, K. (1992): ARCH Modeling in Finance.


Journal of Econometrics, 52:5-59.

[10] Bollerslev, T., Engle, R.F. y Nelson, D. B. (1994): ARCH Models. In Hand-
books of Econometrics. (Eds. Engle, R.F. y McFadden, D. L.). Vol 4, Elsevier
Science B.V.
176 Teorı́a de Cópulas y Control de Riesgo Financiero

[11] Box, G. E. y Jenkins, G. M. (1976): Time Series Analysis Forecasting and


Control. Holden-Day Inc. San Francisco.

[12] Carmona, R. A. (2004): Statistical Analysis of Financial Data in S-Plus.


Springer Texts in Statistics. Springer. New York.

[13] Cherubini,U. , Luciano, E. y Vecchiato, W. (2004): Copula Methods in Fi-


nance. Wiley, New York.

[14] Crouhy, M. , Galai, D. y Mark, R. (2001): Risk Management. McGraw-Hill.


New York.

[15] Danielsson, J, De Vries, C (1997): Value-at-Risk and extreme Returns.


School of Economics and Political Science. Paper No 273: 1-33.

[16] Danielsson, J, Jorgenssen, N., De Vries, C. y Phornchanok, J. (2000): On


th (Ir)Relevancy of Value-at-Risk Regulation. Incluido en Measuring Risk in
Complex Stochastics Systems. (Frankel, J., Härdle, W., Stahl, G.) Kaiser-
slautern and Berlin.

[17] Deheuvels, P. (1979): La Fonction de Dependence Empirique et ses


Propietés. Un test non parametrique d’independence. Acad.Roy. Belg. Bull.
Cl. SCi (5) 65: 274-292.

[18] Deheuvels, P. (1981a):A Kolmogorov-Smirnov type test for Independence and


Multivariate Samples. Rev. Roumaine Math. Pures Appl. 26: 213-226.

[19] Deheuvels, P. (1981b): A Non Parametric Test for Independence. Publ.Inst.


Statist. Univ. Paris 26: 29-50.

[20] Ding, Z., Granger, C. W. J. y Engle, R.F. (1993): A Long Memory Property
of Stock Market of Returns and A New Model. Journal of Empirical Finance,
1: 83-106.

[21] Dudewicz, E. J. y Mishra, S. N. (1988): Modern Mathematical Statistics.


John Wiley & Sons.

[22] Engle, R. F. (1982): Autorregressive Conditional Heteroskedasticity With


Estimates of the Variance of United Kingdom Inflation. Econometrica, 50
(4): 987-1007.

[23] Engle, R. F. y Ng, V. (1993): Measuring and Testing the Impact of News on
Volatility. Journal of Finance, 48 (5): 1749-1778.
BIBLIOGRAFÍA 177

[24] Engle, R. F.(2000): ARCH Selected Readings. Oxford University Press.

[25] Embretchs, P. ; McNeil, A. ; Straumann, D. (1999): Correlation and Depen-


dence in Risk Management: Properties and Pitfalls. Cambridge University
Press, 176-223.

[26] Embretchs, P.; Klüppelberg, C. y Mikosch, T. (1997): Modelling Extremal


Events for Insurance and Finance. Springer. New York.

[27] Embretchs, P., Resnick, S. y Samorodnitsky, G. (1998): Living In the Edge


RISK Magazine, 11 (1): 96-100.

[28] Embretchs, P., Resnick, S. y Samorodnitsky, G. (1999): Extreme Value The-


ory As a Risk Management Tool. North American Actuarial Journal, 3 (2):
30-41.

[29] Embretchs, P. ; Lindskog, F. ; McNeil, A. (2001). Modelling Dependence with


Copulas and Applications to Risk Management. Department of Mathematics
ETHZ. Zurich.

[30] Feller, W. (1966): An Introduction to Probability Theory and Its Applica-


tions. Vol 2. John Wiley & Sons.

[31] Fermanian, J. D. y Wegkamp, M. (2004): Time Dependent Copulas. Preprint


INSEE.

[32] Fisher, N. I.y Switzer, P. (1985): Chi-plot for Assessing Dependence. Bio-
metrika 72 (2):253-265

[33] Fisher, N. I.y Switzer, P. (2001): Graphical Assessment of Dependence: Is


a Picture Worth 100 Tests?. the American Statistician, 55: 233-239.

[34] Fisher, R. A., Tippett, L. H. C. (1928): Limiting Forms of the Frequency


Distribution of the Largest or Smallest Member of a Sample. Proceedings of
the Cambridge PHilosophical Society. Vol. 24: 180-190.

[35] Frahm, G., Junker, M., Schmidt, R. (2006): Estimating of Tail-Dependence


Coefficient : Propertie and Pitfalls. Insurance: Mathematics and Economics
37: 80-100.

[36] Fréchet, M (1957): Les Tableaux de Corrélation Dont Les Marges Sont
Données.Annals Univ. Lyon, Sci., 20:13-31.
178 Teorı́a de Cópulas y Control de Riesgo Financiero

[37] Frees, E.W. y Valdez, E.A. (1998): Understanding Relationships Using Co-
pulas. North Amer. Act. J. 2:1-25.

[38] Frey, R. (1997): Derivative Asset Analysis in Models With Level-Dependent


and Stochastic Volatility. CWI Quaterly. Amsterdam, 10: 1-34.

[39] Gardner, E. y Dannenbring, D. G. (1980): Forecasting With Exponential


Smoothing: Some Guideliness for Model selection. Decision Sciencies. Vol.
11, No 2: 370-383.

[40] Gardner, E. (1985): Exponential Smoothing: The State of Art. Journal of


Forecasting. Vol.4 No 1: 1-38.

[41] Genest, C., Mckey, J. (1986): The Joy of Copulas: Bivariate Distributions
With Uniform Marginals. American Statistics, 40: 280-285.

[42] Genest, C., Rivest, L.-P. (1993): Statistical Inference Procedures for Bivari-
ate Archimedian Copulas. Journal of the American Statistical Association,
88 (423): 1034-1043.

[43] Genest, C., Ghoudi, K. y Rivest, L.-P. (1995):A Semiparametric Estimation


Procedure of Dependence Parameters in Multivariate Families of Distribu-
tion. Biometrika, 40: 543-552.

[44] Genest, C., Boies, J.-C. (2003): Detecting dependence with Kendall plots.
The American Statistician, 57, 275-284.

[45] Genest, C. y Rémillard, B. (2004): Tests of Independence and Randomness


Based on the Empirical Copula Process. Sociedad de Estadı́stica e I.O. Test
Vol. 13 No. 2: 335-369.

[46] Genest, C. y Favre, A.-C. (2006): Everything You Always Wanted Know
About Copula Modelling But Were Afraid to Ask. Journal of Hydrologic En-
gineering, 12. Próxima publicación.

[47] Gilli, M. y Këllezi, E. (2005): An Application of Extreme Value Theory for


Measuring Financial Risk. Elsevier Sciencie. Preprint.

[48] Glosten, L. R., Jagannathan, R. y Runkle, D. E. (1993): On the Relation


Between the Expected Value and the Volatility of The Nominal Excess Return
on Stocks. Journal of Finance, 48 (5): 1779-1801.
BIBLIOGRAFÍA 179

[49] Gnedenko, B. V. (1943): Sur la Distribution Limite du Terme Maximum


D’une Série Aléatoire. Annals of Math. 44:423-453.

[50] Gouriéroux, C. (1997): ARCH-Models and Financial Applications. Springer


Series in Statistics. Springer. New York.

[51] Granger, C.W.J. y Newbold, P. (1977): Forecasting Economic Time Series


Academic Press. New York.

[52] Granger, C. W. J. y Andersen, A. P.: 1978: Introduction to Bilinear Time


Series Models. Vandenhoeck and Ruprecht, Göttingen

[53] Hoeffding, W. (1940): Maszstabinvariante Korrelationstheorie. Schr. Math.


Inst. und Inst.Angewandte Math. Universität Berlı́n, 5:181-233.

[54] Hoeffding, W. (1948): A Class of Statistics With Asymptotically Normal


Distribution. Annals Math. Statistics, 19: 293-325.

[55] Jarque, C. M. y Bera, A. (1980): Efficient Tests for Normality, Homoscedas-


ticity and Serial Independence of Regression Residuals. Economic Letters, 6
(3): 255-259.

[56] Jenkinson, A. F. (1955): The Frequency Distribution of The Annual Maxi-


mum (or Minimum) Values of Meteorological Elements. Quarterly Journal
of the Royal Meteorological Society, 81: 158-171.

[57] Joe, H. (1997): Multivariate Models and Dependence Concepts. Cap-


man&Hall.

[58] Johnson, N. L., y Kotz, S. (1970). Distributions in Statistics. Continuous


Univariate Distributions - 2. New York: Wiley.

[59] Krause, A. y Olson, M. (2002): The Basics of S-Plus. Springer. New York.

[60] Kwiatkowski, D., Phillips, P., Schmidt, P. y Shin, Y. (1992): Testing the Null
Hypotesis of Stationary Against The Alternative of A Unit Root. How Sure
Are We That Economic Series have A Unit Root?. Journal of Econometrics,
54: 159-178.

[61] Lawley, D.N. (1956): A General Method for Approximating to the Distribu-
tion of Likelihood Ratio Criteria. Biometrica, 43: 295-303.
180 Teorı́a de Cópulas y Control de Riesgo Financiero

[62] Leibler, R. A. y Kullbach, S. (1951): On Information and Sufficiency. Annals


of Mathematical Statistics, 22:79-86.

[63] Longin, F. (1977a): From Value at Risk To Stress Testing, The Extreme
Value Approach. Discussion Paper 97-004. CERESSEC.

[64] Longin, F. (1977b): Beyond The VaR. Discussion Paper 97-011. CER-
ESSEC.

[65] Longin, F. y Solnik, B. (2001):. Extreme Correlation of International Equity


Markets. Journal of Finance, 56(2): 649-676.

[66] Marshall, C. (2001): Measuring and Managing Operational Risk in Financial


Institutions: Tools, Techniques and Other Resources. John Wiley & Sons.
Singapore.

[67] De Matteis, R. (2001): Fitting Copulas to Data. Diploma thesis Institute of


Mathematics of the University of Zurich.

[68] McNeil, A. (1998): Calculating Quantile Risk Measures for Financial Return
Series Using Extreme Value Theory. Preprint. ETH Zürich.

[69] McNeil, A. y Frey, R. (2000): Estimation of Tail Related Risk Measures


for Heteroscedastic Financial Time Series: An Extreme Value Approach.
Journal of Empirical Finance, 7: 271-300.

[70] Milhoj, A. (1985). The Moment Structure of ARCH Processes. Scandinavian


Journal of Statistics 12: 281-292.

[71] Nelsen, R. (1999): An Introduction to Copulas. Springer-Verlag.

[72] Nelson, D. B. (1991): Conditional Heteroskedasticity in Asset Returns: A


New Approach. Econometrica, 59 (2): 347-370.

[73] Oakes, D. (1994): Multivariate Survival Distributions. J. Nonparam. Statist.


3 (3-4): 343-354.

[74] Pagan, A. (1996): The Econometrics of Financial Markets. Journal of Em-


pirical Finance, 3: 15-102.

[75] Patton, A. J. (2001a): Modelling Time-Varying Exchange Rate Dependence


Using the Conditional Copula. Economics Working Paper Series 2001-09,
Department of Economics, UC San Diego.
BIBLIOGRAFÍA 181

[76] Patton, A. J. (2001b): Estimation of Copula Models for Time Series of


Possibly Different Lengths. Economics Working Paper Series 2001-17, De-
partment of Economics, UC San Diego

[77] Pickands, J. (1975): Statistical Inference Using Extreme Order Statistics.


The Annals of Statistics 3: 199-131.

[78] Riskmetrics (1995): Riskmetrics Thecnical Document. 3a ed. J. P. Morgan.

[79] Samara, B. y Randles, R. H. (1988). Kendall´s Tau. Comm. Statist. Theory


Methods, 17: 3191-3205.

[80] Shih, J.H. y Louis, T.A. (1995): Inferences on the Association Parameter in
Copula Models for Bivariate Survival Data. Biometrics, 51: 1384-1399.

[81] Sklar, A (1959): Fonctions de Repartition à n-dimensions et Leur Marges.


Publ. Inst. Statist. Univ. Parı́s.8: 229-231.

[82] Sklar, A (1996): Random Variables, Distribution functions and Copulas-


a personal look backward and forward in Distributions with fixed Marginals
and Related Topics. Rüschendorf, L., Schweizer, B. y Taylor, M. Institute of
Mathematical Statistics. Hayward, CA:1-14.

[83] Sklar, A. y Schweizer, B.(1983): Probabilistic metric Spaces. North-Holland.


New York.

[84] Schmidt, R. y Stadmüller, U. (2003): Nonparametric Estimation of Tail


Dependence. Working Paper. London Bussiness School. London. U.K.

[85] Smith, R. (2002): Risk management: Value at Risk and Beyond. Cambridge
U.P.

[86] Van der Goorberg, R. W., Genest, C. y Werker, J. M. (2005): Bivariate


Option Pricing Using Dynamic Copula Models. Insurance: Mathematics and
Economics, 37: 101-114.

[87] Tajvidi, N. (2004): Confidence Intervals and Accuracy Estimation for Heavy-
Tailed Generalized Pareto Distributions. Extremes 6: 111-123. Kluwer Aca-
demic Publishers. Netherlands.

[88] Venables, W. N. y Ripley, B. D. (2002): Modern Applied Statistics With S.


Springer. New York.
182 Teorı́a de Cópulas y Control de Riesgo Financiero

[89] Vilariño, A. (2001): Turbulencias Financieras y Riesgos de Mercado. Pren-


tice Hall. Madrid.

[90] Von Misses, R. (1954): La Distribution De La Plus Grande De n Valeurs.


American Mathematical Society. Reprinted in Selected Papers. Vol II: 271-
294. Providence. R. I.

[91] Zakoian, J. (1991): Threshold Heteroskedasticity Model. Unpublished man-


uscript. INSEE.

[92] Zivot, E. y Wang, J. (2003) Modeling Financial Time Series With S-Plus.
Springer-Verlag.
Relación de Procedimientos

A continuación, se relacionan los procedimientos y funciones desarrollados


para la implementación de las diferentes técnicas propuestas a lo largo de esta
tesis. Para su realización se ha utilizado el paquete estadı́stico Splus 6.1 en
su versión para Windows, especialmente el módulo S+FinMetrics en su versión
2.0.1 que incorpora funciones especı́ficas de tratamiento de series financieras y la
librerı́a MASS realizada por Venables, W. y Ripley, B. versión 7.0.

También señalar, que han sido de gran ayuda los textos de Carmona (2004),
Krause y Olson (2002), Venables y Ripley (2002) y Zivot y Wang (2003).

Capı́tulo 2:

• Alinear y describir series.scc

Incluye las funciones

miqqnorm <- function(x)

forma <- function(x)

• Retornos.scc

• Cópula empı́rica.scc

Incluye las funciones

empiric.df <-function(data,x)

tail.index.empirical.copula <-function(copula)

• Estimación Genest-Rivest.scc

Incluye las funciones


2 Teorı́a de Cópulas y Control de Riesgo Financiero

calc.theta <- function(ktau)

kfi.1 <- function(t,a)

kfi.2 <- function(t,a)

kfi.3 <- function(t,a)

varW <- function(y)

varW.2 <-function(y)

sd.clayton <- function(copula)

sd.gumbel <- function(copula)

• Estimación CML.scc

Incluye las funciones

neg.log.lik <- function(param,copula,data)

AIC <- function (copula)

L.theta.clayton <- function(a,u,v)

L.u.clayton <- function(a,u,v)

L.v.clayton <- function(a,u,v)

L.theta.frank <- function(a,u,v)

L.u.frank <- function(a,u,v)

L.v.frank <- function(a,u,v)

N.cl

M.cl

sd.cl

N.frank

M.frank

sd.frank
3

L.theta.gumbel <- function(a,u,v)

L.u.gumbel <- function(a,u,v)

L.v.gumbel <- function(a,u,v)

N.gumbel

M.gumbel

sd.gumbel

L.theta.normal <- function(a,u,v)

L.u.normal <- function(a,u,v)

L.v.normal <- function(a,u,v)

N.normal

M.normal

sd.normal

sum1

• Estimación modelos mixtos.scc

Incluye las funciones

duv.mix <-function(u,v,par1)

negloglik <- function(par1)

ti.low.mix

ti.up.mix1

du.g

du.gs

duv.mix2 <- function(u,v,param2)

negloglik2 <- function(param2)

du.g2
4 Teorı́a de Cópulas y Control de Riesgo Financiero

du.c2

Capı́tulo 3:

• Filtrado GARCH-DowJones.scc

• Filtrado GARCH-Ibex35.scc

Capı́tulo 4:

• Dependencia en colas.scc

Incluye las funciones

chi.plot.ur function(datos)

chi.plot.ll function(datos)

gpdDJ.sim

gpdIb.sim

residDJ.umbral

residDJ.umbral.est

residIb.umbral

residIb.umbral.est

• Densidades.scc

Incluye las funciones

fxy.mod1<-function(x,y,a,b,c)

fxy.mod2<-function(x,y,a2,b2,c2)

• Simulación modelos mixtos.scc

Incluye las funciones

rfib <- function(n)

generación.mod1

generación.mod2
5

muestra.mod1.3000

muestra.mod2.3000

• Simulación retornos cartera.scc

Incluye las funciones

retornos.sim<- function (Q, sim.u, sim.v, x.est, y.est, lambda1, lambda2)

vi.m1

vi.m2

Risk.portf.normal

icm1.var

icm1.es

icm2.var

icm2.es

Capı́tulo 5:

• Cópula dinámica.scc

Incluye las funciones

lambda.inf <- function(x.rank,y.rank)

lambda.sup<-function(x.rank,y.rank)

muestra.mod1.2000

risk.m1.2000

También podría gustarte