Documentos de Académico
Documentos de Profesional
Documentos de Cultura
WILEY
Modelización del riesgo financiero y
optimización de carteras con R
Modelización del riesgo financiero y
optimización de carteras con R
Segunda edición
Bernhard Pfaff
Esta edición se publicó por primera vez en 2016
© 2016, John Wiley & Sons, Ltd
Primera edición publicada en 2013
Domicilio social
John Wiley & Sons Ltd, The Atrium, Southern Gate, Chichester, West Sussex, PO19 8SQ, Reino Unido
Para conocer los detalles de nuestras oficinas editoriales en todo el mundo, para los servicios de atención al
cliente y para obtener información sobre cómo solicitar permiso para reutilizar el material protegido por
derechos de autor en este libro, consulte nuestro sitio web en www.wiley.com.
El derecho del autor a ser identificado como autor de esta obra se ha hecho valer de acuerdo con la Ley de
Derechos de Autor, Diseños y Patentes de 1988.
Todos los derechos reservados. Ninguna parte de esta publicación puede ser reproducida, almacenada en un
sistema de recuperación, o transmitida, en cualquier forma o por cualquier medio, ya sea electrónico,
mecánico, de fotocopia, de grabación o de otro tipo, salvo lo permitido por la Ley de Derechos de Autor,
Diseños y Patentes del Reino Unido de 1988, sin el permiso previo del editor.
Wiley también publica sus libros en diversos formatos electrónicos. Algunos contenidos que aparecen en
formato impreso pueden no estar disponibles en los libros electrónicos.
Las denominaciones utilizadas por las empresas para distinguir sus productos suelen reclamarse como marcas
comerciales. Todos los nombres de marcas y productos utilizados en este libro son nombres comerciales,
marcas de servicio, marcas comerciales o marcas registradas de sus respectivos propietarios. El editor no está
asociado con ningún producto o proveedor mencionado en este libro.
Límite de responsabilidad/reclamación de garantía: Aunque el editor y el autor han hecho todo lo posible para
preparar este libro, no hacen ninguna declaración ni dan ninguna garantía con respecto a la exactitud o
integridad del contenido de este libro y renuncian específicamente a cualquier garantía implícita de
comerciabilidad o idoneidad para un fin determinado. Se vende en el entendimiento de que el editor no se
dedica a prestar servicios profesionales y ni el editor ni el autor serán responsables de los daños que se deriven
del mismo. En caso de requerir asesoramiento profesional u otro tipo de asistencia experta, se deben solicitar
los servicios de un profesional competente.
Datos de catalogación en publicación de la Biblioteca del Congreso solicitados
ISBN : 9781119119661
El registro del catálogo de este libro está disponible en la British Library.
Imagen de portada: Logotipo de R © 2016 The R Foundation. Licencia Creative Commons Attribution-
ShareAlike 4.0 International (CC-BY-SA 4.0).
En 10/12pt, TimesLTStd por SPi Global, Chennai, India.
1 2016
Contenido
PARTE I MOTIVACIÓN 1
1 Introducción 3
Referencia 5
2 Un breve curso de R 6
2.1 Origen y desarrollo 6
2.2 Obtener ayuda 7
2.3 Trabajar con R 10
2.4 Clases, métodos y funciones 12
2.5 El paquete adjunto FRAPO 22
Referencias 28
4 Medición de riesgos 37
4.1 Introducción 37
4.2 Sinopsis de las medidas de riesgo 37
4.3 Conceptos de riesgo de cartera 42
Referencias 44
Índice 413
Prefacio de la segunda edición
Han pasado aproximadamente tres años desde la primera edición, durante los
cuales se han podido observar episodios de mayor riesgo en el mercado financiero.
Los ejemplos son, por ejemplo, el abandono del techo monetario del franco suizo
con respecto al euro, el descenso de las cotizaciones bursátiles chinas y la crisis de
la deuda griega; y todos ellos ocurrieron justo durante los tres primeros trimestres
de 2015. Por lo tanto, la necesidad de una base de conocimientos de técnicas
estadísticas y enfoques de optimización de carteras para abordar adecuadamente el
riesgo de los mercados financieros no ha disminuido.
Esta edición revisada y ampliada se debe también a la necesidad de actualizar ciertos
listados de código de R para mantener el ritmo de las últimas versiones de los
paquetes. Además, se han añadido temas como el concepto de clases de referencia
en R (véase la sección 2.4), los gráficos de superficie de riesgo (véase la sección
12.6.4) y el concepto de optimización probabilística de la utilidad (véase el capítulo
14), aunque la mayor parte del libro y sus capítulos permanecen sin cambios. Es
decir, en cada capítulo se introducen formalmente ciertos métodos y/o técnicas de
optimización, seguidos de una sinopsis de los paquetes R pertinentes y, por último,
las técnicas se dilucidan mediante una serie de ejemplos.
Por supuesto, el paquete FRAPO que acompaña al libro también ha sido
renovado≥(versión 0.4.0). No sólo se han actualizado los ejemplos de código de R,
sino que las rutinas para el reparto de optimización de carteras con una función
objetivo cuadrática utilizan ahora el
del paquete cccp. El paquete está disponible en CRAN. Además, la URL del sitio web
que acompaña al libro se mantiene sin cambios y se puede acceder a ella desde
www.pfaffikus.de.
Bernhard Pfaff
Kronberg im
Taunus
Prefacio
Bernhard Pfaff
Kronberg im
Taunus
Abreviaturas
Notación
Minúsculas en negrita: y, 𝛂 Vectores
Mayúsculas: Y, Σ Matrices
Letras griegas: 𝛼, 𝛽, 𝛾 Escalas
Letras griegas con ̂ o ∼ o ̄ Valores de la muestra (estimaciones o estimadores)
Símbolos y variables
|⋅ Valor absoluto de una expresión
|
∼ Distribuido según
⊗ Producto Kronecker de dos
matrices argmax Valor máximo de un
argumento argmin Valor mínimo de un
argumento
⊥ Complemento de una matriz
C, c Cópula
COR Correlación(es) de una expresión
COV Covarianza de una expresión
𝔻 Retirada de fondos
𝑑𝑒𝑡 Determinante de una matriz
E Operador de expectativas
I Conjunto de información
I(d) Integrado de orden d
L Operador de lag
𝔏 Función de (Log-)verosimilitud
𝜇 Valor esperado
N Distribución normal
𝛚 Vector de peso
P Especificación del problema de la cartera
P Expresión de la probabilidad
Σ Matriz de varianza-covarianza
𝜎 Desviación estándar
2
𝜎 Variación
U Conjunto de incertidumbres
VAR Varianza de una expresión
Acerca de la página web
complementaria
www.pfaffikus.de
Introducción
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
Sitio web complementario: www.pfaffikus.de
4 INTRODUCCIÓN
Capítulo 8. La parte II concluye con un capítulo sobre cópulas como medio para
modelar las dependencias entre activos.
La Parte III comienza introduciendo las técnicas de optimización robusta de
carteras como remedio a la sensibilidad a los valores atípicos que encuentra la
optimización simple de Markowitz. En el capítulo 10 se muestra cómo pueden
utilizarse estimadores robustos para el primer y segundo momento, así como
métodos de optimización de carteras que facilitan directamente la inclusión de la
incertidumbre de los parámetros. En el capítulo 11 se vuelve a considerar el
concepto de diversificación de la cartera. En este capítulo se describen los
conceptos de cartera más diversificada, de riesgo igual contribuido y de cartera
mínima dependiente de la cola. En el capítulo 12, la atención se desplaza a las
medidas de riesgo relacionadas con el riesgo a la baja, como el valor en riesgo
condicional y la reducción de una cartera. El capítulo 13 está dedicado a la
asignación táctica de activos (TAA). Además del enfoque original de Black-
Litterman, se describe el concepto de agrupación de opiniones de la cópula y la
construcción de una estrategia de protección del patrimonio. Esta última es una
síntesis entre los temas presentados en la Parte II y la optimización de la cartera
relacionada con la TAA.
En el Apéndice A se enumeran todos los paquetes de R citados y utilizados por
nombre y tema. Debido a los medios alternativos para manejar datos longitudinales
en R, se dedica un capítulo aparte (Apéndice B) a la presentación de las clases y
métodos disponibles. En el Apéndice C se muestra cómo se puede invocar y
emplear R de forma habitual para producir pruebas retrospectivas, utilizarlo para
generar o actualizar informes, y/o integrarlo en una infraestructura informática
existente para la evaluación de riesgos/recuperación de carteras. Dado que todos
estos temas son muy específicos de la aplicación, sólo se ofrecen indicaciones
sobre las funciones de R. Una sección sobre los aspectos técnicos concluye el libro.
Los capítulos de las partes II y III siguen una estructura común. En primer lugar,
los métodos y/o modelos se presentan únicamente desde un punto de vista teórico. La
siguiente sección se reserva para la presentación de los paquetes de R, y la última
sección de cada capítulo contiene aplicaciones de los conceptos y métodos
presentados anteriormente. Los ejemplos de código R que se ofrecen están escritos
a un nivel de lenguaje intermedio y pretenden ser digeribles y fáciles de seguir. Sin
duda, cada ejemplo de código podría mejorarse en cuanto a la creación de perfiles
y la realización de ciertos cálculos, pero se corre el riesgo de que el diseño del
código sea demasiado críptico. Se deja al lector como ejercicio para adaptar y/o
mejorar los ejemplos a sus propias necesidades y preferencias.
En definitiva, el objetivo de este libro es permitir al lector ir más allá de las
herramientas y técnicas habituales y proporcionarle una orientación sobre cuándo
elegir entre ellas. Cada modelo cuantitativo tiene ciertamente sus puntos fuertes y
sus inconvenientes, y sigue siendo una cuestión subjetiva si los primeros superan a
los segundos a la hora de emplear el modelo en la gestión de los riesgos de los
mercados financieros y/o en la asignación de la riqueza disponible. Dicho esto, es
mejor disponer de un conjunto más amplio de herramientas que verse obligado a
confiar en un conjunto más restringido de métodos.
Referencia
R Core Team 2016 R: A Language and Environment for Statistical Computing R Foundation
for Statistical Computing Viena, Austria.
2
Un breve curso de R
.com/sl/S/.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
Sitio web complementario: www.pfaffikus.de
UN BREVE CURSO DE 7
R
de Ihaka y Gentleman no pasó desapercibido y el mérito es de Martin Mächler, de
ETH Zürich, que abogó insistentemente por la publicación de R bajo la GPL de
GNU. Esto ocurrió en junio de 1995. El interés por el lenguaje creció de boca en
boca y, como primer medio de comunicación y coordinación, se creó una lista de
correo en marzo de 1996, que fue sustituida un año más tarde por los servicios de
correo electrónico que todavía existen hoy. El creciente interés por el proyecto
llevó a la necesidad de crear un potente canal de distribución para el software. De
ello se encargó Kurt Hornik, por aquel entonces afiliado a la Universidad Técnica
de Viena. El repositorio principal del software (conocido como "Comprehensive R
Archive Network") sigue estando en Viena, aunque ahora en la
Wirtschaftsuniversität y con servidores espejo repartidos por todo el mundo. Con el
fin de seguir el ritmo de los cambios solicitados por los usuarios y la corrección de
errores de manera oportuna, a mediados de 1997 se creó un grupo central de
desarrolladores de R. Este marco e infraestructura establecidos son probablemente
la razón por la que R ha progresado tanto desde entonces. Los usuarios pueden
contribuir con paquetes para resolver problemas o tareas específicas y, por lo tanto,
los avances en los métodos y/o cálculos estadísticos pueden difundirse
rápidamente. Fox (2009) ofrece un análisis detallado y una sinopsis de la
organización social y el desarrollo de R. El siguiente hito en la historia del lenguaje
se produjo en 1998, cuando John Chambers introdujo un marco de clases y
métodos más formal para el lenguaje S (versión 4), que luego se adoptó en R
(véase Chambers 1998, 2008). Esta evolución explica la coexistencia de estructuras
tipo S3 y S4 en el lenguaje R, y el usuario se encontrará con ambas en la
sección
2.4. Los avances más recientes son la inclusión de soporte para el alto rendimiento
Desde estos humildes comienzos, R se ha convertido en la lingua franca de la
computación estadística.
• R Instalación y administración
UN BREVE CURSO DE 9
R
• R Internos
• El índice de referencia R
Se puede acceder a estos manuales desde el sitio web del proyecto o invocarlos
desde una sesión de R escribiendo
> help.start()
Una herramienta muy potente para realizar búsquedas en línea es el paquete sos
(véase Graves et al. 2013). Si el lector no ha instalado ya este paquete contributivo,
se le recomienda que lo haga. La función principal es findFn(), que realiza
búsquedas en línea. En el ejemplo anterior, todas las entradas relevantes con respecto
a la palabra clave "Portfolio" se devuelven en una ventana del navegador y la
columna de la derecha contiene una descripción de las entradas con un enlace web
directo.
Como se ha mostrado anteriormente, findFn() puede utilizarse para
responder a preguntas del tipo "¿Puede conseguirse esto con R?" o "¿Se ha
implementado ya esto en R?" En este sentido, dado que en el momento de escribir
este artículo hay más de 6300 paquetes disponibles en CRAN (por no hablar de R-
Forge), el concepto de "Task View" es beneficioso.2 Los paquetes de CRAN que
encajan en una determinada categoría, digamos "Finanzas", se agrupan y cada uno
es descrito brevemente por el mantenedor o mantenedores de la vista de tareas en
cuestión. De este modo, se ha reducido en gran medida la carga de buscar en el
archivo un determinado paquete con el que se puede resolver un problema o tarea.
Las vistas de tareas no sólo proporcionan una buena visión general de lo que está
disponible, sino que con el paquete ctv de CRAN (véase Zeileis 2005) el usuario
puede elegir instalar el conjunto completo de paquetes en una vista de tareas junto
con sus dependencias o sólo los que se consideran paquetes básicos. Se puede
encontrar una lista de las vistas de tareas en http://cran.r-project.org/web/views.
> install.packages("ctv")
> biblioteca(ctv)
> install.views("Finanzas")
2 Para poner las cosas en perspectiva: cuando se imprimió la primera edición de este libro, el recuento de
UN BREVE CURSO DE 11
paquetes de CRAN era de sólo 3700. R
12 UN BREVE CURSO DE
R
Como ya se ha mencionado, existen listas de correo en las que los usuarios
pueden enviar su problema o pregunta a una amplia audiencia. En
http://www.r-project.org/mail.html se ofrece un resumen de las
disponibles. Probablemente, las más interesantes son R-help y R-SIG-
Finance. La primera es una lista con mucho tráfico dedicada a preguntas
generales sobre R, y la segunda se centra en problemas relacionados con las
finanzas. En cualquiera de los casos, antes de enviar un mensaje a estas listas, el
usuario debe seguir las directrices de envío, que se pueden encontrar en
http://www.r-project.org/posting- guide.html.
Esta sección concluye con una visión general de las conferencias sobre R que
han tenido lugar en el pasado y que muy probablemente volverán a celebrarse en el
futuro.
• ¡useR! Se trata de una conferencia internacional de usuarios de R y consiste
en conferencias magistrales y presentaciones aportadas por los usuarios que
se agrupan por temas. Las sesiones relacionadas con las finanzas suelen estar
entre estos temas. La conferencia comenzó en 2004 con un programa bianual
en Viena, pero ahora se celebra cada año en un lugar diferente. Para más
información, consulte el anuncio en http://www.r-project.org.
• Taller de verano de R/Rmetrics Esta conferencia anual comenzó en 2007 y
está dedicada exclusivamente a temas relacionados con las finanzas.
Recientemente, la conferencia se ha organizado como un taller con sesiones
tutoriales por la mañana y presentaciones de usuarios por la tarde.
Anteriormente se celebraba en Meielisalp, en el lago de Thune (Suiza), pero
ahora suele tener lugar durante la tercera semana de junio en diferentes
lugares. Puede encontrar más información en https://www
.rmetrics.org.
• R in Finance Al igual que el R/Rmetrics Workshop, esta conferencia
también se dedica exclusivamente a temas relacionados con las finanzas. Es
un evento de dos días que se celebra anualmente durante la primavera en
Chicago, en la Universidad de Illinois. Se imparten tutoriales opcionales
antes de la conferencia y la conferencia principal consiste en discursos de
apertura y presentaciones aportadas por los usuarios (véase
http://www.rinfinance.com para más información).
1. Eclipse Eclipse es un IDE basado en Java y fue diseñado por primera vez
como un IDE para este lenguaje. Puede encontrar más información sobre
Eclipse en el sitio web del proyecto: http://www.eclipse.org. Desde
entonces se han puesto a disposición muchos módulos/plugins para otros
lenguajes. El plugin para R se llama StatET y se distribuye a través de
http://www.walware.de/goto/statet. Las instrucciones para instalar y
configurar este módulo en Eclipse pueden encontrarse en este sitio web.
También se puede encontrar más orientación en línea en otros lugares.
Puede encontrar más información sobre las interfaces gráficas de usuario y los IDE de R
en http://www
.sciviews.org, donde se ofrece una sinopsis de las GUI e IDE disponibles,
algunas de las cuales dependen de la plataforma. Se trata de un listado bastante
extenso, y también se incluyen soluciones de software que podrían no aparecer
como GUI, como un servicio web. Además, el lector puede suscribirse a la lista de
correo de un grupo de interés especial, RSIG-GUI, siguiendo las instrucciones en
https://stat.ethz.ch/ mailman/listinfo/r-sig-gui.
> media
function (x, ...)
UseMethod("media")
<bytecode 0x34956f0>
<entorno: namespace:base>
> métodos("media")
[1] mean.Date media.por defecto
[3] mean.difftime media.POSIXct
[5] mean.POSIXlt media.simple_sparse_array*
[7] mean.simple_triplet_matrix*
ver "?métodos" para acceder a la ayuda y al código fuente
Aquí, mean() es una función genérica y los métodos definidos para mean.bar()
son devueltos por la función methods(). Como se puede ver en la salida, aparte de la
media por defecto, se han definido métodos para calcular la media de bastantes
otras clases de objetos. A estas alturas, debería ser evidente que las clases y los
métodos de S3 pueden describirse mejor como una convención de nombres, pero
no llegan a lo que uno supone bajo la rúbrica de un enfoque maduro de
programación orientada a objetos. Por lo tanto, en Chambers (2014) S3 debe ser
visto como un esquema de programación funcional basado en objetos en lugar de
uno orientado a objetos. Uno de los principales escollos de las clases y métodos de
S3 es que no existe ningún proceso de validación para evaluar si un objeto que se
UN BREVE CURSO DE 19
afirma que es de una determinada clase realmente R
20 UN BREVE CURSO DE
R
pertenece a ella o no. Siguiendo con nuestro ejemplo anterior, esto se demuestra al
intentar calcular las medias de x y xchar:
> media(x)
[1] 3
> media(xchar)
[1] NA
Dado que x es de tipo entero, se invoca el método por defecto para calcular
la media. Como no existe un método mean.character(), también se llama al
método por defecto para xchar. Sin embargo, este método por defecto comprueba
si el argumento es numérico o lógico, y como esta prueba falla para xchar, se
devuelve un valor NA y la advertencia asociada es bastante indicativa de por qué
se ha devuelto tal valor. Sólo a modo de ejemplo, se podría definir un método mean()
para los objetos de la clase character en el sentido de que se devuelva la media
de caracteres en las cadenas, como se muestra a continuación:
> setClass("PortWgt",
+representación (Pesos = "numérico",
+Nombre = "personaje",
+Fecha = "carácter",
+Leveraged = "lógico",
+LongOnly = "lógico"))
> showClass("PortWgt")
Clase "PortWgt" [en ".GlobalEnv"]
Ranuras:
Nombre: Pesos NombreFecha Apalancada LongOnly
Clase: numérico carácter lógico lógico
> P2
Cartera: Equal Weighted
Long-Only: TRUE
Apalancada: FALSO
Pesos:
Activo 1 Activo 2 Activo 3 Activo 4 Activo 5
0.2 0.2 0.2 0.2 0.2
UN BREVE CURSO DE 25
R
Podría tener sentido definir un método summary() para producir estadísticas
descriptivas del vector de pesos, lo cual se logra mediante:
Sería conveniente que este método pudiera utilizarse también para asignar
nuevos valores a los pesos de las ranuras. Para ello, se procede igualmente
definiendo:
Esta vez, debido a que se utiliza weights() como método de sustitución, la función
setReplaceMethod() ha sido invocado en su definición.
Un último ejemplo muestra cómo se puede crear un método coerce() utilizando el
método
setAs() del paquete de métodos:
i n s t a l l . pa qu e t e s ("FRAPO" ) 2
b i b l i o t e c a ( FRAPO) 4
h e l p ( paquete = FRAPO) 6
? BookEx 8
listEx ( ) 10
## E j e c u t a n d o este sistema 13
> datos(StockIndexAdj)
> R <- returnseries(StockIndexAdj, method = "discrete",
+trim = TRUE)
> P <- PGMV(R, optctrl = ctrl(trace = FALSE))
> clase(P)
[1] "PortSol"
attr(, "paquete")
[1] "FRAPO"
> showClass("PortSol")
Clase "PortSol" [paquete "FRAPO"]
Ranuras:
Nombre: pesos op tipo
Clase de llamada: numericlist
carácter llamada
UN BREVE CURSO DE 35
R
Subclases conocidas: "PortCdd", "PortAdd", "PortMdd"
Función "coredata":
<no es una función genérica S4>
Función "coredata<-":
<no es una función genérica S4>
Función ".DollarNames":
<no es una función genérica S4>
Función "formales<-":
<no es una función genérica S4>
Función "funciones":
<no es una función genérica S4>
Función "prompt":
<no es una función genérica S4>
Función "escala":
<no es una función genérica S4>
Función: show (paquete métodos)
object="PortSol"
función (objeto)
{
ans <- slot(objeto, "pesos")
return(ans)
}
<entorno: namespace:FRAPO>
Firmas:
objeto
objetivo "PortSol"
definido "PortSol"
Como se puede ver en el cuerpo de la función, los medios alternativos para recuperar
la ranura
los pesos son:
> Pesos(P)
SP500 N225 FTSE100 CAC40
3,667185e+01 1,394991e+01 4,937824e+01 -5.526138e-07
GDAX HSI
-6,809098e-07 -7,415764e-07
> slot(P, "pesos")
SP500 N225 FTSE100 CAC40
3,667185e+01 1,394991e+01 4.937824e+01 -5.526138e-07
GDAX HSI
-6,809098e-07 -7,415764e-07
> P@pesos
SP500 N225 FTSE100 CAC40
UN BREVE CURSO DE 37
R
3,667185e+01 1,394991e+01 4,937824e+01 -5,526138e-07
GDAX HSI
-6,809098e-07 -7,415764e-07
Con estas últimas indicaciones y ejemplos, se espera que el lector tenga alguna
visión del trabajo con el esquema formal de clases y métodos en R.
Referencias
Beasley J., Meade N., y Chang T. 2003 An evolutionary heuristic for the index tracking
problem. European Journal of Operational Research 148, 621-643.
Becker R., Chambers J. y Wilks A. 1988 The New S Language. Chapman & Hall, Londres.
Canakgoz N. and Beasley J. 2008 Mixed-integer programming approaches for index
tracking and enhanced indexation. European Journal of Operational Research 196, 384-
399.
Cesarone F., Scozzari A., y Tardella F. 2011 Portfolio selection problems in practice: a
comparison between linear and quadratic optimization models. Quantitative Finance Papers
1105.3594, arXiv.org.
Chambers J. 1998 Programming with Data. Springer-Verlag, Nueva York.
Chambers J. 2008 Software for Data Analysis: Programming with R. Springer-Verlag, New
York.
Chambers J. 2014 Object-oriented programming, functional programming in R. Statistical Sci-
ence 29(2), 167-180.
Chambers J. 2016 Extending R. CRC Press, Taylor & Francis Group, Boca Ratón.
Chambers J. y Hastie T. 1992 Statistical Models in S. Chapman & Hall, Londres.
Fox J. 2009 Aspectos de la organización social y la trayectoria del proyecto R. The R Journal
1(2), 5-13.
Gentleman R. e Ihaka R. 1997 The R language En Proceedings of the 28th Symposium on
the Interface (ed. Billard L. y Fisher N.) The Interface Foundation of North America.
Graves S., Dorai-Raj S., y Francois R. 2013 sos: Search contributed R packages, sort by
package. Paquete R versión 1.3-8.
Ihaka R. y Gentleman R. 1996 R: A language for data analysis and graphics. Journal of Computational
and Graphical Statistics 5, 299-314.
R Core Team 2016 R: A Language and Environment for Statistical Computing R Foundation
for Statistical Computing Viena, Austria.
Zeileis A. 2005 CRAN task views. R News 5(1), 39-40.
38 UN BREVE CURSO DE
R
biblioteca ( e v i r ) 2
d a t o s ( s i emens ) 3
p a r ( mfrow = c ( 2 , 2 ) ) 9
## He c hos e s t i l i z a d o s I I 18
SieRetAbs100 < - t i m e S e r i e s ( r e p ( 0 , l e n g t h ( S i e R e t ) ) , 22
c h a r v e c = t ime ( S i e R e t ) ) 23
ci . c o l = " r e d " ) 29
p l o t ( Sie Ret Abs 100 , t y p e = " h " , main = " C l u s t e r í a d e v a l o r a c i ó n " ,32
y la b = " " , xl ab = " " , c o l = " b lue " ) 33
- -
10 10
1975-01-01 1990-01-01
de las acciones de Siemens, no sólo son válidos para básicamente todos los
rendimientos de las acciones, sino que también son aplicables a otras clases de
activos, como los bonos, las divisas y los futuros de materias primas.
DATOS DEL MERCADO 33
FINANCIERO
ACF de rendimientos absolutosPACF de rendimientos absolutos
0.
8 0.
10
0.
4
0.
0. 00
0
0 5 10 15 20 5 10 15 20
es similar.
DATOS DEL MERCADO 35
FINANCIERO
Código R 3.2 Hechos estilizados sobre el mercado europeo de acciones.
b i b l i o t e c a ( zoo ) 1
## S e r i e s d e t i e m p o d e l o s n i v e l e s 3
## E l r e n d i m i e n t o d e l a t e c n o l o g í a 7
## Cross c o r r e l a c i o n e s 10
CAC" ) 16
FTSE" ) 21
FTSE" ) 26
## C o r r e l a c i ó n d e l a s c o r r e l a c i o n e s 27
dim < - nc ol ( x ) 29
colnames ( r c o r ) < - c ( "DAX & CAC" , "DAX & FTSE" , "CAC & FTSE" ) 35
p l o t ( r c o r , main = " " , x l a b = " " ) 36
Este artefacto se refleja cuando se observan las correlaciones cruzadas de las re-
vueltas absolutas en la Figura 3.4 (gráficos mostrados a la derecha). Como ya se ha
señalado, los rendimientos apenas tienen correlación cruzada entre los mercados y
se reducen con bastante rapidez (gráficos de la izquierda). Sin embargo, las
correlaciones cruzadas son evidentes para su contraparte absoluta. Este artefacto es
más pronunciado en el caso de la bolsa alemana frente a la británica.
Por último, en la figura 3.5 se muestran las correlaciones basadas en una ventana
móvil de 250 observaciones. Para calcular estas correlaciones móviles, se ha
utilizado un
36 DATOS DEL MERCADO
FINANCIERO
60
00
DAX
4000
20
00
50
C 00
15
A 00
C 25
00
35
00
FT
S
E 30
00
Rendimiento del DAX frente al FTSEAl rendimiento absoluto del DAX frente al FTSE
0. 0.
5 3
0. 0.
0 0
-0.05 0.00 0.05 -0.05 0.00 0.05
Figura 3.4 Correlaciones cruzadas entre los rendimientos de las bolsas europeas.
DATOS DEL MERCADO 37
FINANCIERO
CAC
&
FTSE
DAX
&
FTSE
DAX
&
CAC
0.4
0.
6
0.
8
0.
4
0.
6
0.
8 1993 1994 1995 1996 1997 1998
0.
4
Figura
0.
3.5 Correlaciones móviles de los mercados bursátiles europeos.
6
0.
se define
8 primero la función rollc(). Dentro de esta función se calcula la matriz
de correlación y, debido a su simetría, se extrae la parte triangular superior de la
misma. El cálculo de las correlaciones de balanceo se realiza entonces con la
función rollapply() contenida en zoo. Los gráficos de estas correlaciones son
bastante similares para todos los pares retratados, al igual que sus rangos. Para el
DAX/CAC la correlación oscila entre 0,505 y 0,838, para el DAX/FTSE los valores
están entre 0,42 y 0,749, y por último para el CAC/FTSE la correlación está en el
intervalo de 0,451 a 0,76.
Referencias
Campbell J., Lo A. y MacKinlay A. 1997 The Econometrics of Financial Markets 2nd print-
ing with corrections edn. Princeton University Press, Princeton, NJ.
McNeil A., Frey R. y Embrechts P. 2005 Quantitative Risk Management: Concepts, Tech-
niques and Tools. Princeton University Press, Princeton, NJ.
Pfaff B. y McNeil A. 2012 evir: Extreme Values in R. Paquete R versión 1.7-3.
Würtz D., Setz T. y Chalabi Y. 2014 fBasics: Rmetrics - Mercados y estadísticas básicas.
Paquete R versión 3011.87.
Zeileis A. y Grothendieck G. 2005 zoo: Infraestructura S3 para series temporales regulares e irregulares.
Journal of Statistical Software 14(6), 1-27.
4
4.1 Introducción
Hacia el final de la primera década de este siglo, el foco de atención de los
inversores se desplazó, entre otras cosas debido a la crisis financiera, hacia la
necesidad de medir adecuadamente los riesgos. Pero también conviene ser capaz de
captar correctamente las pérdidas potenciales durante los episodios de mercado
más tranquilos. Si un inversor fuera demasiado conservador con respecto al riesgo
durante esas fases, pondría en peligro posibles oportunidades de inversión.
Además, hay razones normativas y argumentos económicos que exigen una
evaluación adecuada del riesgo. En cuanto a los primeros, cabe mencionar los
requisitos más estrictos impuestos por los Acuerdos de Basilea, y en cuanto a los
segundos, la presunción normativa de una asignación eficiente de recursos entre los
activos de riesgo. Si el riesgo de un instrumento financiero no se capta
correctamente, su precio sería en general engañoso y, por tanto, provocaría una
asignación ineficiente de los fondos. Por último, una evaluación adecuada de los
riesgos del mercado por parte de sus participantes contribuye a garantizar el buen
funcionamiento del sistema financiero. Por ejemplo, si los participantes en el mercado
tienen que revisar sus estimaciones de riesgo a gran escala, como ocurrió durante la
crisis de las hipotecas de alto riesgo, y por tanto quieren o tienen que reequilibrar
sus fondos, una reacción similar a la de una estampida secará rápidamente la
liquidez del mercado y agravará las posibles pérdidas, debido a la falta de
contrapartidas.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
40 DATOS DEL MERCADO
FINANCIERO
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
Sitio web complementario: www.pfaffikus.de
38 MEDIR LOS
RIESGOS
conocido. El valor de la riqueza en ese momento concreto depende del vector de
factores de riesgo zt , que ejercen una influencia sobre la posición patrimonial del
inversor:
Los precios de los instrumentos financieros, los tipos de cambio y/o los tipos de
interés pueden modelizarse como factores de riesgo, por ejemplo. Se supone que
éstos son conocidos en el momento t. En cambio, el valor futuro de la riqueza
después de un lapso de tiempo es desconocido. Puede ser la posición de la riqueza
dentro de 1 o 10 días. La pérdida que se produce al cabo de un tiempo es de-
anotado por Lt,t+Δ, y esto no es más que la diferencia en las posiciones de riqueza
en t + Δ y t. Es convencional que las pérdidas se expresen como números positivos:
donde xt = zt - zt-Δ.
Dado que la riqueza W(t) es una variable aleatoria, la función de pérdida, como la
diferencia
entre dos posiciones de riqueza en el tiempo, es también una variable aleatoria.
Como tal, tiene una distribución de probabilidad, que en adelante se denominará
distribución de pérdidas. Esta distribución puede hacerse depender de la
información disponible en el momento t. En este caso, se obtendría una distribución
condicional. Si, por el contrario, la distribución es independiente del tiempo, la
distribución es incondicional con respecto al tiempo.
Como primer paso, sólo se considera la modelización del riesgo de mercado para
un único instrumento financiero. Por lo tanto, el precio del activo es el factor de
riesgo y la pérdida depende del periodo de tiempo y de la variación del precio
dentro de este periodo. A continuación, limitaremos el análisis a la distribución
incondicional de las pérdidas y a las medidas de riesgo que pueden deducirse de
ella.
En la práctica, la medida de riesgo más habitual es el valor en riesgo (VaR). Este
concepto fue introducido por JP Morgan en la primera versión de su publicación
RiskMetrics y luego fue tratado a fondo en la literatura académica (véase Risk-
Metrics Group 1994).1 Las exposiciones de los libros de texto se incluyen, por
ejemplo, en Jorion (2001) y McNeil et al. (2005). Para un determinado nivel de
confianza 𝛼 ∈ (0, 1), el VaR se define como el menor número l tal que la
probabilidad de una pérdida L no es mayor que (1 - 𝛼) para pérdidas mayores que l.
Este valor corresponde a un cuantil de la distribución de pérdidas y puede
expresarse formalmente como
0.
25
0. E(L) VaR ES
20
Densid
ad
0.
0.1 (1-α)
5
10
0.
05
0. (α)
00
-4 -2 0 2 4
Pérdidas
Nivele
s de
VaR
3
Figura 4.2 VaR gaussiano, mVaR y VaR de una distribución t de Student sesgada.
está sesgada a la izquierda (las pérdidas están sesgadas a la derecha) y/o el exceso
de curtosis es mayor que cero. Hay que tener en cuenta que el mVaR produce
estimaciones de riesgo menos conservadoras que el VaR gaussiano si no se
cumplen estas condiciones.
En la Figura 4.2 se muestra una comparación entre el mVaR y el VaR gaussiano
para niveles de confianza en el intervalo [90%, 100%). Aquí las pérdidas se han
calculado a partir de una distribución t de Student sesgada con 10 grados de
libertad y un parámetro de asimetría de 𝜉 = 1,5. El parámetro de asimetría 𝜉 > 0 se
define como la raíz cuadrada de la relación para las probabilidades por encima y
por debajo de la media. Si 𝜉 < 1 se produce una distribución sesgada a la izquierda,
si 𝜉 = 1 la distribución es simétrica, y si 𝜉 > 1 se produce una distribución sesgada a
la derecha (véase Lambert y Laurent 2001). Se puede concluir de esta figura que,
para la constelación de parámetros elegida, el VaR real está bastante bien
capturado por el mVaR, y que si se utilizara el VaR gaussiano en su lugar, el riesgo
estaría notablemente subestimado.
En Boudt et al. (2008) se derivó un ES modificado (mES) a partir del VaR de
Cornish-Fisher, para lo cual se utilizó una expansión de Edgeworth de segundo
orden. Su cálculo se limita únicamente a la cola izquierda de la distribución. Sin
embargo, el mES así derivado puede ser menor que el mVaR para 𝛼 → 0. Este
artefacto se debe a la naturaleza de la expansión de Edgeworth. Los autores
sugieren en estos casos elegir la estimación de riesgo más conservadora de las dos
como solución pragmática.
En la Parte II se tratarán enfoques más directos y alternativas prometedoras en
cuanto a la modelización de los riesgos de mercado, respetando los hechos
estilizados de los rendimientos de los mercados financieros.
44 MEDIR LOS
RIESGOS
4.3 Conceptos de riesgo de cartera
No hace falta decir que las medidas de riesgo introducidas en la sección anterior
pueden calcularse también para los datos de rentabilidad de la cartera. Pero en el
contexto de una cartera, un inversor suele estar interesado en las contribuciones al
riesgo de las posiciones individuales o de un grupo de ellas. Además, puede estar
interesado en saber cómo se ve afectado el riesgo de la cartera si el peso de una
posición se incrementa en una unidad, es decir, la contribución marginal al riesgo.
El concepto de VaR por componentes o ES por componentes responde a la primera
cuestión. Esta noción de descomponer el riesgo global en posiciones individuales
de una cartera también puede aplicarse al mVaR y al mES (véase Boudt et al.
2008).
Supondremos ahora que una cartera está formada por N instrumentos financieros con un peso
vector 𝜔. La rentabilidad de la cartera es igual a rp = 𝜔′ 𝜇 y la varianza de la cartera
se compone de m2 = 𝜔 ′ Σ𝜔, donde 𝜇 denota el vector de rentabilidad de los
instrumentos y Σ es la matriz de varianza-covarianza de los activos de la cartera.
Bajo el supuesto de
normalidad, las medidas de riesgo VaR y ES pueden calcularse como
VaR𝛼 = -𝜔′ 𝜇 - √m2Φ-1(𝛼), (4.10)
= -𝜔′ 𝜇 + √m 1 𝜙[Φ-1(𝛼)], (4.11)
ES𝛼 2
𝛼
donde 𝜙(⋅) es la densidad y Φ-1(⋅) la función cuantil de la distribución normal
estándar.
Estas dos medidas de riesgo dependen sólo del primer y segundo momento
central y son linealmente homogéneas en 𝜔. Para las medidas de riesgo de este tipo
(es decir, f (𝜔)), se puede lograr un desglose por componentes considerando las
derivadas parciales
N
∑
f (𝜔) = 𝜔i𝛿i f (𝜔), (4.12)
i=1
donde 𝛿i f (𝜔) = 𝛿f (𝜔)∕𝛿𝜔i es la derivada parcial para el peso de la cartera del i-ésimo
activo e i = 1, ... , N.
Por tanto, la contribución al riesgo de la i-ésima posición de la cartera viene dada por Ci f
(𝜔) =
𝜔i𝛿i f (𝜔). Esto también puede expresarse en términos relativos (es decir, como un
porcentaje), utilizando %Ci f (𝜔) = Ci f (𝜔)∕f (𝜔)× 100. Por lo tanto, las
contribuciones al riesgo de cada uno de los componentes de la cartera pueden
calcularse como
𝛿 VaR(𝛼) = -𝜇 - 𝛿im2 Φ-1 (𝛼), (4.13)
i i
2√m
21
𝛿 ES(𝛼) = -𝜇 + 𝛿im2 𝜙[Φ-1(𝛼)], (4.14)
i i
2√m 𝛼
2
donde 𝛿im2 = 2(Σ𝜔)i . Cabe señalar que, en el caso de la distribución normal, las
derivadas parciales con respecto a los pesos de la cartera pueden calcularse con
bastante facilidad y que no es así si se asumen distribuciones alternativas y/o
MEDIR LOS 45
RIESGOS
medidas de riesgo más complejas. En estos casos, las contribuciones al riesgo
pueden obtenerse de forma heurística mediante un análisis de Monte Carlo, por
ejemplo.
Como se ha indicado anteriormente, los momentos tercero y cuarto son
necesarios para calcular las medidas de riesgo modificadas mVaR y mES. En el caso
de las variables aleatorias multivariantes, estos momentos están definidos por la
matriz (N × N2 )
para la curtosis. Aquí, el operador ⊗ denota el producto de Kronecker entre dos ma-
trices. Se deduce que el tercer momento de una cartera viene dado por m3 = 𝜔′ M3
(𝜔⊗ 𝜔) y el cuarto momento puede calcularse como m4 = 𝜔′ M4 (𝜔⊗ 𝜔⊗ 𝜔),
donde los momentos teóricos se expresan mediante sus respectivas estimaciones.
Las derivadas parciales para estos momentos son 𝛿im3 = 3(M3(𝜔⊗ 𝜔))i y 𝛿im4 =
4(M4(𝜔⊗ 𝜔⊗ 𝜔))i . Fi-
nalmente, la asimetría de una cartera puede determinarse como sp = m3∕M3∕2 y el exceso
curtosis evaluando la expresión k = m ∕M2 - 2
p 4 2 3. Boudt et al. (2008) proporcionan
una
La derivación detallada de estos resultados, así como las derivadas parciales para
determinar las contribuciones al riesgo. Éstas pueden enunciarse de forma similar a
como se hizo para la medida de riesgo no modificada (véanse los apartados (4.13) y
(4.14) anteriores).
Una vez introducidas las medidas de riesgo de mercado más comunes, a saber, el
VaR, el ES y sus modificaciones, abordaremos a continuación la cuestión de su
idoneidad en el contexto de la cartera. Artzner et al. (1996) y Artzner (1999);
Artzner et al. (1997) definieron cuatro axiomas y derivaron de ellos la definición de
una medida de riesgo coherente. Los axiomas se denominan:
• monotonicidad
• invarianza de traslación
• homogeneidad positiva
• subaditividad.
A continuación se explicarán brevemente estos cuatro axiomas. Sea 𝜌 una medida de
riesgo
𝜌(L) y de riesgo de una cartera, donde la pérdida L es una variable aleatoria.
el valor
+ l) = 𝜌(L) + l con l ∈ ℝ.
Una medida de riesgo satisface el axioma de homogeneidad positiva si 𝜌(𝜆L) = 𝜆𝜌(L)
con
𝜆 > 0. Este requisito garantiza el escalado de las medidas de riesgo con respecto al
tamaño de una posición. Este axioma se violaría si el tamaño de una posición de la
cartera
MEDIR LOS 47
RIESGOS
influye directamente en su nivel de riesgo. Como ejemplo, supongamos que el
precio de una acción es de 100 unidades monetarias y la medida de riesgo asociada
es del 3% para un periodo de tenencia de 1 día. Entonces el riesgo debería ser
escalable con respecto al tamaño de la posición. Si uno posee una acción, el riesgo
sería de 3 unidades monetarias, y si uno posee 10 acciones, el riesgo
correspondiente sería diez veces mayor, es decir, 30 unidades monetarias. Este
axioma no debe confundirse con el riesgo de liquidez. Cuando uno necesita vender
ciertos activos, el precio de ejercicio puede ser, por supuesto, una función del
tamaño de la operación.
Finalmente, se dice que una medida de riesgo es subaditiva si 𝜌(L + L ) ≤ 𝜌(L ) + 𝜌(L ).
1 2 1 2
Intuitivamente, este axioma establece que el riesgo de la cartera será menor o igual
que la suma de las medidas de riesgo individuales de los activos contenidos en la
cartera. Dicho de otro modo, debido a los efectos de diversificación, la tenencia de
una cartera es menos arriesgada.
Se dice que una medida de riesgo 𝜌 es coherente si satisface los cuatro axiomas.
Dado que el VaR es un cuantil, se cumplen los tres primeros axiomas, pero no el
axioma de la subaditividad. Por lo tanto, el VaR no es una medida de riesgo
coherente en el contexto de la cartera. Esto implica que el VaR de una cartera
puede ser mayor que la suma de los riesgos individuales. Además, si el VaR se
emplea para la optimización de la cartera, normalmente se obtiene una cartera más
concentrada. Para una exposición de esto, se remite al lector a Frey y McNeil
(2002) y McNeil et al. (2005, capítulo 6). Cabe señalar que la desviación estándar
tampoco es una medida coherente del riesgo porque se viola el axioma de la
monotonicidad. Por otra parte, la desviación semiestándar sí es coherente, ya que
cuando se calcula este momento parcial sólo se utilizan los valores superiores al
valor medio. Por último, el ES derivado de una función de densidad continua es
una medida de riesgo coherente (véase Acerbi y Tasche 2002).
Referencias
Acerbi C. y Tasche D. 2002 On the coherence of expected shortfall. Journal of Banking and
Finance 26(7), 1487-1503.
Alexander G. y Baptista A. 2002 Economic implications of using a mean-VaR model for
portfolio selection: Una comparación con el análisis de la media-varianza. Journal of
Economic Dy- namics & Control 26, 1159-1193.
Artzner P. 1999 Medidas coherentes de riesgo. Mathematical Finance 9, 203-228.
Artzner P., Delbaen F., Eber J., y Heath D. 1996 A Characterization of Measures of Risk.
Technical Report 1186, School of Operations Research and Industrial Engineering,
College of Engineering, Cornell University, Ithaca, NY.
Artzner P., Delbaen F., Eber J. y Heath D. 1997 Thinking coherently. Risk 10(11), 68-71.
Baumol W. 1963 An expected gain-confidence limit criterion for portfolio selection.
Manage-
ment Science 10, 174-182.
Boudt K., Peterson B., y Croux C. 2008 Estimación y descomposición del riesgo a la baja
para carteras con rendimientos no normales. The Journal of Risk 11(2), 79-103.
Cornish E. y Fisher R. 1937 Momentos y cumulantes en la especificación de distribuciones.
Revue de l'Institut International de Statistique 5(4), 307-320.
48 MEDIR LOS
Frey R.RIESGOS
y McNeil A. 2002 VaR y expected shortfall en carteras de riesgos de crédito
dependientes: Conceptual and practical insights. Journal of Banking and Finance 26,
1317-1334.
MEDIR LOS 49
RIESGOS
Jaschke S. 2001 The Cornish-Fisher-expansion in the context of delta-gamma-normal
approximations. Informe técnico 54, Sonderforschungsbereich 373: Quantification and
Simulation of Economic Processes, Humboldt-Universität, Wirtschaftswissenschaftliche
Fakultät, Berlín.
Jorion P. 2001 Value at Risk: The New Benchmark for Measuring Financial Risk 2nd edn.
McGraw-Hill, Nueva York.
Lambert P. y Laurent S. 2001 Modelling financial time series using GARCH-type models
and a skewed Student density Université de Liège.
McNeil A., Frey R. y Embrechts P. 2005 Quantitative Risk Management: Concepts, Tech-
niques and Tools. Princeton University Press, Princeton, NJ.
RiskMetrics Group 1994 Documento técnico de RiskMetrics. Informe técnico, J.P. Morgan,
Nueva York.
Zangari P. 1996 A VaR methodology for portfolios that include options. RiskMetrics Monitor
Primer trimestre, 4-12. JP Morgan-Reuters.
5
5.1 Introducción
Han pasado más de 60 años desde que se publicó el innovador artículo de Harry
Markowitz "Portfolio selection" (véase Markowitz 1952). Dado que los enfoques
más recomendados para la optimización de carteras siguen basándose en este
enfoque, en este capítulo se revisará el trabajo de Markowitz sobre la teoría
moderna de carteras. En la siguiente sección se analiza el enfoque en sí mismo y, a
continuación, se destacan los problemas que se plantean en la práctica. En esta
última sección se establece el camino para los temas tratados en la Parte III del
libro, en la que se tratarán las técnicas de optimización de carteras diseñadas para
hacer frente a los problemas de la teoría moderna de carteras y/o hechas a medida
para las demandas de determinados inversores.
Dada la turbulencia de los mercados financieros durante la primera década de
este siglo, tanto los académicos como los profesionales han vuelto a centrar su
atención en el enfoque de Markowitz para seleccionar los activos de una cartera, en
particular las carteras de varianza mínima. Por lo tanto, la observación final del
artículo de Rubinstein con motivo del quincuagésimo aniversario del documento
seminal de Markowitz sigue siendo cierta:
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
MEDIR LOS 51
RIESGOS
con
1
∗𝜔 =
(cΣ-1𝜇 - bΣ-1i),
0
d
∗𝜔 = -
1
(bΣ-1𝜇 - aΣ-1i).
1 d
La desviación típica de la cartera viene dada por
√1
𝜎= (cr̄ 2 - 2br̄ + a), (5.3)
d
48 TEORÍA MODERNA DE LA
CARTERA
con a = 𝜇 ′ Σ-1𝜇, b = 𝜇 ′ Σ-1i, c = i′ Σ-1i, y d = ac - b2 . La ecuación (5.2) es el resultado
de una optimización de Lagrange con las restricciones para un rendimiento
objetivo dado y pesos que suman uno. Una exposición detallada se encuentra en
Merton (1972). De esta ecuación se puede concluir que las ponderaciones de la
cartera son una función lineal de los rendimientos esperados. Además, puede
demostrarse que cada cartera eficiente puede generarse como una combinación
lineal de otras dos carteras eficientes. En particular, el perfil de riesgo/rendimiento
de una cartera eficiente puede expresarse en términos de una combinación lineal
entre la cartera de varianza mínima global (GMV) y cualquier otra cartera
eficiente. La covarianza entre estas dos carteras es igual a la varianza de la cartera
de varianza mínima. Aunque no sea evidente a primera vista, hay que destacar que
la única restricción con respecto a las ponderaciones de la cartera es que su suma
sea igual a uno. Por lo tanto, no se puede descartar per se la existencia de pesos
negativos (posiciones cortas) ni de pesos superiores a uno (posiciones
apalancadas). La ecuación (5.3) describe una hipérbola √ para las carteras eficientes
cartera
de varianza
es el vértice
media.deLalahipérbola
hipérbola estácon pesos
delimitada
dados por 𝜔∗ asíntotas=r̄ Σ-1i∕
por las = b∕ci′ ±Σ-1i (véase
d∕c𝜎.
El locus del VGM
GMV
Figura 5.1).
A diferencia de las carteras de media-varianza, el vector de pesos de la cartera de
mini-varianza global no depende de los rendimientos esperados de los activos. La
rama superior de la hipérbola es el lugar geométrico de todas las carteras eficientes de
varianza media. Las contribuciones marginales al riesgo de los activos contenidos
en este tipo de carteras son todas iguales y las ponderaciones corresponden a las
contribuciones porcentuales al riesgo. Por lo tanto, estas ponderaciones son pareto-
eficientes. Intuitivamente esto tiene sentido, porque en el caso de que las
contribuciones marginales al riesgo sean diferentes, sería factible una reducción
global del riesgo y esto violaría la característica de varianza mínima para
0.6
GMV
MSR
0.5
CML
Frontera
0.4 eficiente
Asíntotas
Utilidad
μ 0.3
0.2
0.1
0.0
0 2 4 6 8
σ
U′ (E[Wt+1])
E[U(Wt+ )] =U(E[W t+1 ]) + t+1 - E[Wt+1]]
1 E[W
¡1
!
U′′ (E[Wt+1]) - E[W ]]2
+
E[W t+1 t+1
∞ ¡2!
(i)
∑ U (E[Wt+1])
+ t+1
- E[W t+1
]]i. (5.5)
E[W ¡i
i=3 !
Cabe señalar que hasta ahora no se han hecho suposiciones sobre cómo se
distribuye la riqueza. Por lo tanto, (5.5) se define para una amplia clase de
funciones de distribución. Además, la utilidad es una función de los momentos
superiores de la distribución de la riqueza. Si se supone que la riqueza se distribuye
normalmente, la expresión anterior se simplifica a
U′ (E[Wt+1])
E[U(Wt+ )] =U(E[W t+1 ]) + t+1 - E[Wt+1]]
1 E[W
¡1
!
U′′ (E[Wt+1]) - E[W ]]2 (5.6)
+
E[W .
t+1 t+1
¡2!
Por lo tanto, la utilidad del inversor sólo depende de los dos primeros momentos.
Cabe destacar que, incluso en el caso de la no normalidad, el enfoque de
2
50 TEORÍA MODERNA DE LA
CARTERA
varianza media deberían sufrir más el error de estimación que las de varianza
mínima. En simulaciones y estudios empíricos se encontró que las ponderaciones del
primer tipo de optimizaciones de cartera se caracterizan
TEORÍA MODERNA DE LA 53
CARTERA
por amplios espacios y un comportamiento errático a lo largo del tiempo (véase, por
ejemplo, DeMiguel et al. 2007; Frahm 2008; Jagannathan y Ma 2003; Kempf y
Memmel 2006; Ledoit y Wolf 2003). Desde un punto de vista normativo, ambas
características son indeseables. El efecto de las ponderaciones que se comportan de
forma "aleatoria" mejora en las carteras de varianza mínima y, por lo tanto, se
prefiere este diseño de cartera con respecto al impacto potencial de los errores de
estimación. La sensibilidad de las soluciones óptimas para las carteras de varianza
media con respecto a los rendimientos esperados utilizados no es en sí un defecto
del enfoque propuesto por Markowitz, sino más bien un artefacto de la
optimización cuadrática para derivar las ponderaciones de la cartera.
Los errores de las estimaciones de los rendimientos esperados y de la matriz de
varianza-covarianza podrían cuantificarse heurísticamente de antemano mediante
simulaciones de Monte Carlo. Este remuestreo de carteras fue propuesto por
Michaud (1998), y en Scherer (2002) y Scherer (2010, capítulo 4) se ofrece una
descripción detallada con una crítica.
En un primer paso, se obtienen las estimaciones 𝜇̂0 y Σ̂ 0 para los momentos teóricos 𝜇 y Σ
para unos determinados
Se calcula el tamaño de la muestra T y se com- prende m puntos de la frontera eficiente
empírica.
putado. A continuación, se generan K muestras aleatorias de dimensión (T × N) y a
partir de ellas se determinan los momentos muestrales, dando en total K pares (𝜇̂i,
Σ̂ i), i = 1, ... , K. Cada uno de estos pares se utiliza entonces para calcular m puntos
en las respectivas fronteras eficientes.
El locus de estas fronteras eficientes simuladas está por debajo de la frontera
eficiente para 𝜇̂0 y Σ̂ 0. Para evaluar el impacto del error de estimación con
respecto a la media, se repite el procedimiento anterior, pero ahora se utilizan los
pares aleatorios (𝜇̂i, Σ̂ 0), i = 1, ... , K. Es decir, el error de estimación se limita a los
rendimientos esperados. Asimismo, el impacto
del error de estimación de la dispersión de la rentabilidad puede evaluarse
generando pares de rangos (𝜇̂0 , Σ̂ i), i = 1, ... , K. Para concluir la exposición del
remuestreo de carteras, cabe señalar que las carteras eficientes aleatorias pueden
recuperarse promediando las ponderaciones sobre m y K. Este enfoque no debe
considerarse como una panacea para hacer frente a los errores de estimación. La
principal crítica contra este enfoque es la propagación de errores. Los valores
iniciales (𝜇̂0 , Σ̂ 0) a partir de los cuales se generan las muestras aleatorias son
estimaciones y, por lo tanto, están contaminados por errores de estimación. Por lo
tanto, los errores iniciales se replican y reflejan aplicando el análisis de Montecarlo.
Además, para el caso de optimizaciones de carteras con restricciones, el
procedimiento anterior puede producir resultados poco intuitivos (véase Scherer
2010, capítulo 4).
Además, recordemos que, según el capítulo 3, los rendimientos de los activos no
suelen tener una distribución normal multivariante. Esto implica que, además de
los errores de estimación, a menudo existe un error de modelo. Un proceso de
retorno no estacionario se modelaría según una distribución para procesos
estacionarios. Por lo tanto, existe un compromiso entre utilizar un supuesto de
distribución para procesos estacionarios, por un lado, cometiendo así un error de
modelo, y utilizar un período de muestra más largo por el cual es más probable que
se viole el supuesto de estacionariedad pero el error de estimación disminuye.
En principio, las consecuencias mencionadas de los errores de estimación
54 TEORÍA MODERNA DE LA
podrían ameliorarse de antemano imponiendo restricciones a las ponderaciones. El
CARTERA
siguiente ejemplo aclara el efecto de imponer restricciones a las ponderaciones de
la cartera. Consideremos dos oportunidades de inversión independientes A y B con
una rentabilidad esperada del 3% y una volatilidad del 10%. Un agente que
maximiza la rentabilidad sería indiferente a todas las combinaciones lineales entre
estos dos activos. Sin embargo, un error de estimación tan alto como una base
TEORÍA MODERNA DE LA 55
CARTERA
punto daría lugar a un resultado muy diferente. Supongamos que las estimaciones
de los rendimientos esperados son 𝜇̂A = 3,01 y 𝜇̂B = 2,99, respectivamente. Esto
implicaría una posición larga infinitamente alta en el activo A que se financia con
una posición corta de igual tamaño.
Las cosas son bastante diferentes si se incluyen en la optimización restricciones de
sólo largo plazo y/o de límite. Se ha comprobado que este tipo de restricciones
producen un rendimiento favorable fuera de la muestra (véase, por ejemplo, Frost y
Savarino 1988) o se asocian a un menor riesgo de la cartera (véase, por ejemplo,
Gupta y Eichhorn 1998; Jagannathan y Ma 2003). Ambas conclusiones empíricas
pueden atribuirse a un menor error de estimación implícito si se imponen
restricciones a las ponderaciones. Cabe mencionar que los lugares de las carteras
en el plano (𝜇, 𝜎) son inferiores a las carteras eficientes en mayor medida a medida
que las restricciones son más vinculantes. Sin embargo, en general, un inversor
desea conseguir una asignación de cartera que se acerque lo más posible a la
frontera eficiente. Pero la aplicación de las restricciones de sólo largo plazo no es
deseable por otras razones. Por ejemplo, la aplicación de la mayoría de las
estrategias de tipo hedge-fund requiere que se permita el posicionamiento corto. En
resumen, la imposición de restricciones no es una panacea para todo tipo de
estrategias y optimizaciones de cartera. La Parte III de este libro abordará estas
cuestiones con más detalle y también ofrecerá ejemplos de cómo estos avances más
recientes en la construcción de carteras pueden explorarse con R.
Referencias
Chopra V. y Ziemba W. 1993 The effect of errors in means, variances, and covariances on
optimal portfolio choice. Journal of Portfolio Management 19, 6-11.
DeMiguel V., Garlappi L. y Uppal R. 2007 Diversificación óptima frente a ingenua: ¿Cómo
de ineficaz es la estrategia de cartera 1/n? Review of Financial Studies 22(5), 1915-1953.
Elton E., Gruber M., Brown S. y Goetzmann W. 2007 Modern Portfolio Theory and Invest-
ment Analysis 7th edn. John Wiley & Sons, Nueva York, NY.
Frahm G. 2008 Inferencia estadística lineal para carteras de varianza mínima global y local.
Statistical Papers 51(4), 789-812.
Frost P. y Savarino J. 1988 Para un mejor rendimiento: Limitar las ponderaciones de la
cartera. Journal of Portfolio Management 15(1), 29-34.
Gupta F. y Eichhorn D. 1998 Mean-variance optimization for practitioners of asset
allocation In Handbook of Portfolio Management (ed. Fabozzi F.) John Wiley & Sons
Chichester, England chapter 4, pp. 57-74.
Huang C. y Litzenberger R. 1988 Foundations for Financial Economics. Elsevier Science
Publishing, Amsterdam.
Ingersoll J. 1987 Theory of Financial Decision Making. Rowman & Littlefield, Savage, MD.
Jagannathan R. y Ma T. 2003 Risk reduction in large portfolios: Por qué la imposición de
con-
ayuda a los estractores. Journal of Finance 58, 1651-1683.
Kempf A. y Memmel C. 2006 Estimación de la cartera global de varianza mínima. Schmalen-
bach Business Review 58, 332-348.
Ledoit O. y Wolf M. 2003 Improved estimation of the covariance matrix of stock returns
with an application to portfolio selection. Journal of Empirical Finance 10, 603-621.
56 TEORÍA MODERNA DE LA
CARTERA
Markowitz H. 1952 Portfolio selection. The Journal of Finance 7(1), 77-91.
Markowitz H. 1991 Portfolio Selection: Efficient Diversification of Investments 2nd edn. Basil
Blackwell, Cambridge, MA.
Merton R. 1972 An analytical derivation of the efficient portfolio frontier. Journal of Financial
and Quantitative Analysis 7, 1851-1872.
Merton R. 1980 On estimating the expected return on the market: Una investigación exploratoria.
Journal of Financial Economics 8, 323-361.
Michaud R. 1998 Efficient Asset Management: A Practical Guide to Stock Portfolio
Optimiza- tion and Asset Allocation. Oxford University Press, Nueva York.
Roy A. 1952 Safety first and the holding of assets. Econometrica 20, 431-449.
Rubinstein M. 2002 La "selección de carteras" de Markowitz: Una retrospectiva de cincuenta
años. The Journal of Finance 57(3), 1041-1045.
Scherer B. 2002 Muestreo de carteras: Revisión y crítica. Financial Analysts Journal 58(6), 98-
109.
Scherer B. 2010 Portfolio Construction and Risk Budgeting 4th edn. Risk Books, Londres.
TEORÍA MODERNA DE LA 57
CARTERA
Parte II
MODELIZACIÓN DEL
RIESGO
6
Distribuciones adecuadas
para los rendimientos
6.1 Preliminares
En el capítulo 4 se demostró que las medidas de riesgo como el VaR y el ES son
valores cuantílicos situados en la cola izquierda de una distribución. Por lo tanto,
dados los hechos estilizados de las series de rentabilidad empíricas, bastaría con
capturar adecuadamente las probabilidades de la cola. Este es el tema de la teoría
del valor extremo, que se tratará en el próximo capítulo. Sin embargo, a menudo
surge la necesidad de modelar no sólo el comportamiento de la cola de las
pérdidas, sino toda la distribución de la rentabilidad. Esta necesidad surge cuando,
por ejemplo, hay que muestrear los rendimientos para aplicaciones del tipo Monte
Carlo. Por lo tanto, el tema de este capítulo es la presentación de clases de
distribución que permiten modelar los rendimientos en su totalidad, reconociendo
así los hechos estilizados. Dicha distribución debe ser capaz de reflejar no sólo el
comportamiento de las colas pesadas, sino también las asimetrías. En particular, las
clases de la distribución hiperbólica generalizada (GHD) y sus casos especiales, a
saber, las distribuciones hiperbólica (HYP) y gaussiana inversa normal (NIG), así
como la distribución lambda generalizada (GLD) se presentarán en las secciones
6.2 y 6.3. En las secciones 6.4 y 6.5 se presenta una sinopsis de los paquetes de R
disponibles, y el capítulo termina con aplicaciones de la GHD, HYP, NIG y GLD a
los datos de los mercados financieros.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
Sitio web complementario: www.pfaffikus.de
58 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
fue probablemente propuesto por primera vez por Eberlein y Keller (1995). A
continuación, se produjeron otras contribuciones en las que se aplicó esta clase de
distribución a los datos de los mercados financieros. Los trabajos de Prause (1997),
Barndorff-Nielsen (1997), Barndorff-Nielsen (1998), Eberlein y Prause (1998), y
Prause (1999) allanaron el camino para que esta clase de distribución fuera más
conocida en la comunidad financiera. La distribución hiperbólica generalizada debe
su nombre al hecho de que el logaritmo de la función de densidad tiene forma
hiperbólica, mientras que los valores logarítmicos de la distribución normal son
parabólicos.
La densidad de la GHD viene dada por
1
gh x; 𝜆, 𝛼, 𝛽, 𝛿, 𝜇)= a(𝜆, 𝛼, 𝛽, 𝛿)(𝛿2 + (x - 𝜇)2)(𝜆− )∕2
( 2
× K𝜆- 1 (𝛼√𝛿2 + (x - 𝜇)2) exp (𝛽(x - 𝜇)), (6.1)
donde a(𝜆, 𝛼, 𝛽, 𝛿) se define como 2
(𝛼2 -
a(𝜆, 𝛼, 𝛽, 𝛿) = (6.2)
𝛽 2 )𝜆
∕2
√2𝜋𝛼𝜆-1∕2𝛿𝜆K
𝜆(𝛿√𝛼2 -
𝛽2)
y K𝜈 denota una función de Bessel de tercer orden modificada con valor de índice 𝜈.
La densidad se define para x ∈ ℝ y abarca cinco parámetros: 𝜆, 𝛼, 𝛽, 𝛿, 𝜇. Los
valores permitidos
El espacio de parámetros se define como 𝜆, 𝜇 ∈ ℝ, 𝛿 > 0, 𝛿 > 0,| y 0 ≤ 𝛽 < 𝛼. El parámetro
| mientras que 𝜇 y 𝛿
𝜆 puede interpretarse como un parámetro de definición de clase,
son parámetros de localización y escala.
En la literatura también se pueden encontrar tres reparametrizaciones de la GHD:
√
𝜁 = 𝛿 𝛼 2 - 𝛽2, 𝜌 = 𝛽∕𝛼,
𝜉 = (1 + 𝜁 )-1∕2, 𝜒= 𝜉∕𝜌,
𝛼̄ = 𝛼𝛿, 𝛽̄ = 𝛽𝛿. (6.3)
)), (6.4)
𝛼, 𝛽, 𝛿, 𝜇 𝛼 𝜇 𝛽 𝜇
2𝛿𝛼 K ( √ 𝛼 2 - 2
𝛿
1
𝛿
donde x, 𝜇 ∈ ℝ,0 ≤ 𝛿, y |𝛽| < 𝛼.
60 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
Densidad de la GHD con λ = 1, = 0, =0
0.
6 = 2, =1
Densid = 4, =2
ad = 4, =4
0.3
0.
0
-4 -2 0 2 4
Valores de la variable aleatoria
f (x) ≥ 0 (6.9)
DISTRIBUCIONES ADECUADAS PARA LOS 63
RENDIMIENTOS
y
f (x)dx = 1. (6.10)
∫
Originalmente, Ramberg y Schmeiser (1974) sólo identificaron cuatro regiones
de constelaciones de parámetros válidas para 𝜆3 y 𝜆 4. En Karian et al. (1996) este
esquema se modificó con regiones adicionales que están etiquetadas como "5" y
"6" en la Figura 6.2. Las distribuciones correspondientes a estas regiones
comparten los mismos límites que las regiones adyacentes. Las constelaciones de
parámetros para las cuatro/seis regiones y los límites de apoyo implícitos del GLD se
reproducen en la Tabla 6.1.
3
5
2
Región 1: Región 3:
1 3 < -1, λ4 > 1 0, λ4 0
0
6
-1 Región 4: Región 2:
0, λ4 0 3 > 1, λ4 < -1
-2
-3
-3 -2 -1 0 1 2 3
𝜇̂ =u0,5, (6.12)
𝜎̂ = u0,75 - u0,25, (6.13)
𝜆3 - 𝜆4
𝜒 = √1 , (6.14)
+ (𝜆3 - 𝜆4)2
1 𝜆3 + . (6.15)
𝜉= -
𝜆4
2 2 × √1 + (𝜆3 + 𝜆4)2
Aquí, los límites para 𝜒 y 𝜉 son -1 < 𝜒 < 1 y 0 ≤ 𝜉 < 1, respectivamente. La función
cuantificadora de la GLD puede entonces escribirse como
Ŝ(u 𝜒,𝜉)
|| - Ŝ(0,5 𝜒,𝜉|)|
Q(u |𝜇̂, 𝜎̂ , 𝜒, 𝜉) = 𝜇̂ + 𝜎̂ . (6.16)
Ŝ(0,75 𝜒, 𝜉) - Ŝ(0,25 𝜒, 𝜉)
La función Ŝ(u 𝜒, 𝜉) está definida para los siguientes casos:
|
u𝛼+𝛽 -1 (1-u)𝛼-𝛽 -1
- en caso contrario,
⎩ 𝛼+𝛽 𝛼-𝛽
66 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
1.
0
0. Soporte infinito
8
0.
6
Soporte infinito Soporte infinito
inferior superior
0.
4
0. Soporte finito
2
0.
0
-1.0 -0.5 0.0 0.5 1.0
𝜇r = 𝜋1∕2, (6.23)
𝜎r = 𝜋3∕4 - 𝜋1∕4, (6.24)
+ 𝜋1∕4 - 2𝜋1∕2
sr= 𝜋3∕4 , (6.25)
𝜋3∕4 - 𝜋1∕4
𝜋7∕8 - 𝜋5∕8 + 𝜋3∕8 - 𝜋1∕8
kr = . (6.26)
𝜋6∕8 - 𝜋 2∕8
Estos estadísticos pueden estimarse insertando los cuantiles empíricos pq. Se
muestra en Chalabi et al. (2010) que los momentos de asimetría y curtosis más
robustos sólo dependen de 𝜆3 y 𝜆4. Por lo tanto, resulta un sistema no lineal de dos
ecuaciones en dos incógnitas, que tiene que ser resuelto. La estimación robusta de
los parámetros de la GLD tiene la ventaja adicional de derivar una distribución
68 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
l i b r a r a ( timeSeries ) 2
biblioteca ( f B a s i c s ) 3
## C á l c u l o d e re t orno 4
d a t a ( DowJones30 ) 5
as . c a r a c t e r ( DowJones30 [ , 1 ] ) 7
ef <- d e n s i d a d ( y r e t ) 10
c o n t r o l = l i s t ( maxit = 1000) ) 12
c o n t r o l = l i s t ( maxit = 1000) ) 14
c o n t r o l = l i s t ( maxit = 1000) ) 16
## D e n s i d a d e s 17
n i g d e n s <- dghyp ( e f $x , n i g f i t ) 20
sd ( c ( y r e t [ , 1 ] ) ) ) 22
col . d e f <- c ( " b l a c k " , " r e d " , " b l u e " , " g r e e n " , " o r a n g e " ) 23
l e y e n da ("t o p l e f t " , 29
## QQ- P a r c e l a s 32
p l o t . l e ge nd = FALSE , g a u s i a n = FALSE , 34
## D i a g n ó s t i c o 42
AIC <- s tep AIC . ghyp ( y r e t , d i s t = c ( " ghyp " , " hyp " , " NIG" ) , 43
si mé t ri c o = FALSE , 44
c o n t r o l = l i s t ( maxit = 1000) ) 45
LRghdnig <- l i k . r a t i o . t e s t ( g h d f i t , n i g f i t ) 46
LRghdhyp < - l i k . r a t i o . t e s t ( g h d f i t , h y p f i t ) 47
DISTRIBUCIONES ADECUADAS PARA LOS 87
RENDIMIENTOS
density.default(x = yret)
0.
25 empírico
GHD
0. HYP NIG
20 NORM
0.
15
f(x)
0.10
0.
05
0.
00
-20 -10 0 10
10 15 GHD
HYP
NIG
Cu 5
an
tile 0
s
de -
la 20
m -
ue 15
str -
a 10
-5
-15 -10 -5 0 5 10 15
Cuantiles teóricos
Figura 6.5 Gráfico QQ del GHD ajustado para los retornos de HWP.
Los rendimientos diarios pueden seguirse mejor con la GHD que con las
distribuciones HYP y NIG, especialmente en las colas. Además -esta conclusión era
menos clara en el gráfico de densidad-, los rendimientos pueden explicarse
ligeramente mejor con la NIG que con la distribución HYP.
En las tres últimas líneas del listado, se producen medidas de diagnóstico para los
tres modelos. En primer lugar, se utiliza la función stepAIC.ghyp() para
determinar con qué distribución se pueden explicar mejor los datos en términos de
AIC. Esta función devuelve un
88 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
Cuadro 6.2 Resultados de las distribuciones ajustadas a los rendimientos de HWP.
p <- seq ( 0 , 0 0 1 , 0 . 0 5 , 0 , 00 1 ) 2
## VaR 3
sd = sd ( c ( y r e t [ , 1 ] ) ) ) ) 8
# P l o t o d e l VaR 10
caja ( ) 14
t i c k = FALSE) 16
n i g . VaR , ni . VaR ) ) ) 18
l e ge n d = c ( " E m p i r i c a l " , " GHD" , " HYP" , " NIG" , " Normal " ) , 24
## ES 26
obs . p <- t e c h o ( p ∗ l o n g i t u d ( y r e t ) ) 32
emp . ES <- s a p p l y ( obs . p , f u n c i ó n ( x ) abs ( media ( s o r t ( c ( y r e t ) ) 33
[ 1 : x ]) ) ) 34
## P l o t o f ES 35
p l o t ( emp . ES , ty pe = " l " , x lab = " " , y lab = " ES" , axes = FALSE , 36
caja ( ) 38
t i c k = FALSE) 40
ni . ES ) ) ) 42
l i n e s ( 1 : l o n g i t u d ( p ) , n i g . ES , c o l = " g r e e n " ) 45
l e ge n d = c ( " E m p i r i c a l " , " GHD" , " HYP" , " NIG" , " Normal " ) , 48
4
0.1% 0.7% 1.3% 1.9% 2.5% 3% 3 .5% 4% 4 .5% 5%
Figura 6.6 Progresión del VaR basada en los modelos GHD, HYP y NIG.
se utilizan los valores absolutos de los cuantiles devueltos por la función. El VaR
basado en la distribución normal puede calcularse proporcionando las estimaciones
necesarias para la ubicación y la escala. Los valores de VaR así determinados se
comparan con sus homólogos empíricos, que se determinan mediante la función
quantile().
La evolución de estas medidas de riesgo se representa en la figura 6.6. Los
cuantiles obtenidos a partir de la GHD y sus casos especiales se ajustan bastante
bien a los niveles de pérdida empíricos asociados. Sólo en la región de confianza
extrema del 99,0% o más, el riesgo está ligeramente subestimado por estos
modelos. El orden de la bondad de ajuste de las tres distribuciones también puede
concluirse a partir de este gráfico: la GHD ajustada sigue muy bien los datos en esa
región, mientras que el riesgo es subestimado por los modelos NIG e HYP. Se
pueden extraer dos conclusiones del VaR basado en la distribución normal. En
primer lugar, como era de esperar, la distribución normal no capta los eventos de
riesgo extremo (es decir, por encima del nivel del 97,5%). En segundo lugar, el
riesgo de mantener una posición en las acciones de HWP está sobreestimado para
la región de confianza entre el 95,0% y el 97,5%. Dicho de otro modo, para estos
niveles el VaR derivado de la distribución normal es sistemáticamente demasiado
conservador y, por lo tanto, un inversor podría verse perjudicado al no poder tomar
una posición mayor en esa acción.
A continuación, en el listado 6.2, se calcula el ES para los objetos del modelo
ajustado. Como se menciona en la sección 6.4.3, esta medida de riesgo puede
calcularse con la función ESghyp(). El déficit esperado para la distribución
normal se determina mediante (4.5) en la sección
4.2. Al igual que en el caso del VaR, la trayectoria del ES para niveles de confianza
alternativos se compara con su contrapartida empírica. En este caso, se emplea la
media de los valores menores que el cuantil. Las medidas de riesgo así
determinadas se muestran en la Figura 6.7. A diferencia del VaR, ahora las
medidas de riesgo derivadas de todos los modelos subestiman sistemáticamente la
pérdida esperada en el caso de un evento de este tipo. Sin embargo, esta
DISTRIBUCIONES ADECUADAS PARA LOS 91
subestimación es menos grave para los modelos basados en el GHD y para los
RENDIMIENTOS
niveles menos conservadores. El ES derivado de la distribución normal es el que
sale peor parado. En general, la razón por la que
92 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
GHD
16 HYP
empírico
NIG
14
Normal
12
ES
10
y r e t s <- na . omit ( m a t r i x ( u n l i s t ( l a p l a d a ( rd , 2
function ( x ) d i f f ( l o g ( y ) , l a g = x ) ) ) , 3
nc ol = 5 ) ) 4
## F u n c i ó n para x i / c h i c o e f i c i e n t e s 5
retorno ( r e s u l t a d o ) 15
} 16
## HYP F i t t i n g 17
n c o l = 2 , byrow = TRUE) 20
## Shape t r i a n g l e 21
col . d e f <- c ( " b la c k " , " b lue " , " r e d " , " g r e e n " , " o r a n g e " ) 22
p l o t ( p u n t o s , ylim = c ( - 0 . 2 , 1 . 2 ) , xlim = c ( - 1 . 2 , 1 . 2 ) , 24
c o l = c o l . def , pch = 16 , y l a b = e x p r e s i ó n ( x i ) , 25
x l a b = e xpresión ( c h i ) ) 26
l í n e a s ( x = c ( 0 , -1) , y = c ( 0 , 1 ) ) 27
líneas ( x = c ( 0 , 1 ) , y = c ( 0 , 1 ) ) 28
l í n e a s ( x = c ( -1, 1 ) , y = c ( 1 , 1 ) ) 29
t e x t ( x = 0 . 0 , y = 1 . 0 5 , l a b e l = " L a pl a c e " , s r t = 0 ) 31
s r t = 302) 36
s r t = 57) 38
0.
8
0.
6
0.
4
0.
2
1 día de
devolución
0.
5 días de
0
Normal devolución
- 10 días de
0. devolución
2 20 días de
-1.0 -0.5 0.0 0.5 1.0
devolución
40 días de
devolución
Figura 6.8 Triángulo de forma para las devoluciones de HWP.
retornos. En general, sin embargo, la nube de puntos permanece bastante cerca del
centro del triángulo, por lo que esta aproximación puede no funcionar bien.
Además, una comparación de los pares (𝜉̂, 𝜒̂) indica que los rendimientos
bimestrales muestran la mayor asimetría negativa en términos absolutos.
Sorprendentemente, incluso los rendimientos semanales están más sesgados a la
izquierda que sus homólogos diarios.
l i b r a r y ( lmomco ) 2
b i b l i o t e c a ( FRAPO) 3
## C a r g a d e datos 4
d a t a ( SP500 ) 5
ep <- 104: l e n g t h ( L) 9
sp < - 1 : l o n g i t u d ( ep ) 10
n i v e l <- 0,99 11
pa ra ( i i n 1 : l e n g t h ( sp ) ) { 13
x <- L[ sp [ i ] : ep [ i ] ] 14
f i t <- p a r g l d ( lmom) 16
} 21
## Resumiendo r e s u l t a d o s 22
colnames ( Res ) <- c ( " Loss " , " VaRGld " , " VaRNor " ) 24
## P l o t o d e l o s r e s u l t a d o s d e c o n t r o l 25
p l o t ( Res [ , " Loss " ] , ty pe = " p " , x lab = " Time Index " , 26
10
5
Pé
rdi
da 0
s
en
po -5
rc
en
taj -
e 10 Pérdidas
VaR GLD
- VaR Normal
15
0 50 100 150
Índice de tiempo
Figura 6.9 Back-test: VaR (99%) y pérdidas para las acciones de QCOM.
biblioteca ( f B a s i c s ) 2
## Loading o f data 3
d a t a ( INDTRACK3 ) 4
## F i t t i n g y c a l c u l a d o be t a y lambda 7
t r a c e = FALSE) 9
D e l t a B e t a P a r a m <- m a t r i z ( u n l i s t ( l a p l a d a ( Fit , f u n c i ó n ( x ) { 10
l <- x@ f i t$ e s t i m a t e [ c ( 3 , 4 ) ] 11
res <- c ( l [ 2 ] - l [ 1 ] , l [ 1 ] + l [ 2 ] ) 12
re s }) ) , n c o l = 2 , byrow = TRUE) 13
## Shape t r i a n g l e 14
y l a b = e x p r e s i ó n ( b e t a == lambda [ 3 ] + lambda [ 4 ] ) , 17
pch = 19 , cex = 0 . 5 ) 18
se gme nt os ( x0 = 2 , y0 = -2, x1 = 0 , y1 = 0 , 21
lwd = 0 . 8 , l t y = 2 ) 24
se gme nt os ( x0 = - 0 .5 , y0 = - 0 .5 , x1 = 0 . 5 , y1 = - 0 .5 , 25
-
0.
5
+
-1.0
-
1.
5
-
2.
0 -2 -1 0 1 2
Figura 6.10 Triángulo de formas para los rendimientos de las acciones del
FTSE 100.
Referencias
Asquith W. 2016 lmomco-L-momentos, L-momentos censurados, L-momentos recortados, L-
comomentos y muchas distribuciones. Paquete R versión 2.2.2.
Barndorff-Nielsen O. 1977 Distribuciones exponenciales decrecientes para el logaritmo del
tamaño de las partículas Proceedings of the Royal Society London A, vol. 353, pp. 401-
419.
Barndorff-Nielsen O. 1997 Normal inverse Gaussian distributions and stochastic volatility
modelling. Scandinavian Journal of Statistics 24, 1-13.
Barndorff-Nielsen O. 1998 Procesos de tipo gaussiano inverso normal. Finanzas y Estocástica
2, 41-68.
Chalabi Y., Scott D., y Würtz D. 2010 The generalized lambda distribution as an alternative
to model financial returns. Documento de trabajo, Eigenössische Technische Hochschule
y Universidad de Auckland, Zürich y Auckland.
Chalabi Y., Scott D., y Würtz D. 2011 A more intuitive parameterization of the generalized
lambda distribution R/Rmetrics Meielisalp Workshop, Lake Thune, Switzerland.
Cheng R. y Amin N. 1983 Estimación de parámetros en distribuciones continuas
univariantes con un origen desplazado. Journal of the Royal Statistical Society, Series B
(Methodological) 45(3), 394-403.
Eberlein E. y Keller U. 1995 Hyperbolic distributions in finance. Bernoulli 1, 281-299.
Eberlein E. y Prause K. 1998 The generalized hyperbolic model: financial derivatives and
risk measures FDM Preprint 56, Universidad de Friburgo.
DISTRIBUCIONES ADECUADAS PARA LOS 101
RENDIMIENTOS
Freimer M., Mudholkar G., Kollia G., y Lin C. 1988 A study of the generalised Tukey lambda
family. Communications in Statistics - Theory and Methods 17, 3547-3567.
Gilchrist W. 2000 Statistical Modelling with Quantile Functions. Chapman & Hall, Londres.
Hankin R. y Lee A. 2006 A new family of non-negative distributions. Australia and New
Zealand Journal of Statistics 48, 67-78.
Karian Z. and Dudewicz E. 1999 Fitting the generalized lambda distribution to data: a
method based on percentiles. Communications in Statistics - Simulation and Computation
28(3), 793-819.
Karian Z. y Dudewicz E. 2000 Fitting Statistical Distributions: The Generalized Lambda
Distribution and Generalised Bootstrap Methods. Chapmann & Hall, Nueva York.
Karian Z., Dudewicz E., y McDonald P. 1996 The extended generalized lambda distribution
system for fitting distributions to data: history, completion of theory, tables, applications, the
'final word' on moment fits. Communications in Statistics - Simulation and Computation
25, 611-642.
Kim T. y White H. 2004 On more robust estimation of skewness and kurtosis. Finance
Research Letters 1(1), 56-73.
King R. y MacGillivray H. 1999 A starship estimation method for the generalised lambda
distributions. Australia and New Zealand Journal of Statistics 41(3), 353-374.
King R., Dean B. y Klinke S. 2016 gld: Estimación y uso de la distribución lambda
generalizada (Tukey). Paquete R versión 2.3.3.
Luethi D. y Breymann W. 2013 ghyp: Un paquete sobre la distribución hiperbólica
generalizada y sus casos especiales. Paquete R versión 1.5.6.
McNeil A. y Ulman S. 2011 QRMlib: Proporciona código en lenguaje R para examinar los
conceptos de la Gestión Cuantitativa del Riesgo. Paquete R versión 1.4.5.1.
McNeil A., Frey R. y Embrechts P. 2005 Quantitative Risk Management: Concepts, Tech-
niques and Tools. Princeton University Press, Princeton, NJ.
Owen D. 1988 La nave estelar. Communications in Statistics - Simulation and Computation
17, 315-323.
Pfaff B. y McNeil A. 2016 QRM: Proporciona un código en lenguaje R para examinar los
conceptos de la gestión cuantitativa del riesgo. Paquete R versión 0.4-13.
Prause K. 1997 Modelling finacial data using generalized hyperbolic distributions FDM
Preprint 48, University of Freiburg.
Prause K. 1999 How to use NIG laws to measure market risk FDM Preprint 65, University
of Freiburg.
Ramberg J. y Schmeiser B. 1974 An approximate method for generating asymmetric random
variables. Communications of the Association for Computing Machinery 17, 78-82.
Ramberg J., Pandu R., Dudewicz E. y Mykytka E. 1979 A probability distribution and its
uses in fitting data. Technometrics 21(2), 201-214.
Ranneby B. 1984 El método del espacio máximo: Un método de estimación relacionado con
el método de máxima verosimilitud. Scandinavian Journal of Statistics 11(2), 93-112.
Scott D. 2015 GeneralizedHyperbolic: La distribución hiperbólica generalizada. Paquete R
versión 0.8-1.
Scott D. y Dong C. Y. 2015 VarianceGamma: La distribución gamma de la varianza. Paquete
R versión 0.3-1.
102 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
Scott D. y Grimson F. 2015 SkewHyperbolic: La distribución t hiperbólica sesgada de
Student. Paquete R versión 0.3-2.
Su S. 2005 A discretized approach to flexibly fit generalized lambda distributions to data.
Journal of Modern Applied Statistical Methods 4(2), 408-424.
Su S. 2007 Ajuste de distribuciones lambda generalizadas simples y mixtas a los datos mediante
métodos discretizados y de máxima verosimilitud: GLDEX in R. Journal of Statistical
Software 21(9), 1-17.
Tukey J. 1962 El futuro del análisis de datos. The Annals of Mathematical Statistics 33(1), 1-67.
Würtz D., Setz T. y Chalabi Y. 2014 fBasics: Rmetrics - Mercados y estadísticas básicas.
Paquete R versión 3011.87.
7
7.1 Preliminares
La teoría del valor extremo (EVT) es una rama de la estadística. Su objeto es la
modelización de las grandes desviaciones de la mediana de una distribución. La
EVT no es en absoluto una disciplina joven: sus raíces se remontan a la década de
1920. Sin embargo, el interés por la EVT y su aplicación a la modelización de los
riesgos de los mercados financieros ha aumentado recientemente entre los
profesionales; la razón de esta evolución podría ser el creciente número de
episodios de agitación en los mercados financieros.
Este capítulo comienza con los fundamentos teóricos de la EVT. Se presentan
tres enfoques para modelar los valores extremos: el método de los máximos en
bloque, el método de los picos sobre el umbral y los procesos de Poisson. Esta
exposición no es en absoluto exhaustiva, y su propósito es únicamente ayudar al
lector a hacerse una mejor idea de cómo se implementan estos métodos en R. Para
un tratamiento más exhaustivo del tema se remite al lector a las monografías de
Coles (2001), Embrechts et al. (1997), Leadbetter et al. (1983), y McNeil et al.
(2005, Capítulo 7).
La sección 7.3 ofrece una sinopsis de los paquetes disponibles actualmente en R.
Aunque hay bastante coincidencia entre los diversos modelos de EVT y sus
implementaciones en R, una comparación de los distintos paquetes revela sutiles
diferencias, debilidades y puntos fuertes. Es de esperar que el usuario obtenga una
visión de lo que ya está implementado y cómo. Una vez hecho esto, podrá utilizar
los paquetes como desee. Todos los paquetes presentados están disponibles en
CRAN y pueden instalarse rápidamente ejecutando
install.packages("foo") para el paquete foo.
El capítulo concluye con algunas aplicaciones empíricas de la EVT, en las que
los distintos métodos se aplican a los datos del mercado financiero. La atención se
centra en cómo se comporta la EVT en contraste con el supuesto de pérdidas
distribuidas normalmente.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
104 DISTRIBUCIONES ADECUADAS PARA LOS
RENDIMIENTOS
= P{X1 ≤ z} × - - × P{X n ≤ z}
= {F(z)}n. (7.2)
Pérdid
as
2
1
-1
0 20 40 60 80 100
Figura 7.1 Máximos del bloque, r órdenes mayores y picos sobre el umbral.
TEORÍA DEL VALOR 93
EXTREMO
aumentando el tamaño de la muestra. Sin embargo, se corre el riesgo de tener una
muestra sesgada en el sentido de que las segundas pérdidas más elevadas
posiblemente no se califiquen como eventos extremos o se consideren como tales.
Por último, se ha trazado una línea horizontal discontinua en la figura en el valor de
la ordenada de 2,5. Este valor umbral nos lleva directamente al tema de la siguiente
subsección.
, (7.7)
Por lo tanto, un valor adecuado para u se da cuando esta línea empieza a ser lineal.
Debido al teorema del límite central (CLT), las bandas de confianza pueden
calcularse de acuerdo con la distribución normal, debido al hecho de que las
medias aritméticas se representan en un gráfico LRM.
La mayoría de las veces, los parámetros de la GPD se estiman aplicando el
principio ML, pero también se encuentran otros métodos, como los momentos
ponderados por la probabilidad, en aplicaciones empíricas. La ventaja del primer
método es la posibilidad de trazar el perfil de log-verosimilitud para el parámetro
de forma 𝜉 y calcular las bandas de confianza basadas en este perfil. A diferencia
de las bandas derivadas del supuesto de normalidad para el estimador, éstas son, en
general, asimétricas. Por lo tanto, la inferencia con respecto al signo del parámetro
de forma es más precisa.
Las medidas de riesgo VaR y ES pueden deducirse directamente de la GPD como
sigue:
96 TEORÍA DEL VALOR
EXTREMO
(( )-𝜉 )
𝜎̃ 1-𝛼
VaR𝛼 = q𝛼(F) = u + -1 , (7.10)
𝜉 ̄ F(u)
TEORÍA DEL VALOR 97
1 EXTREMO
1 VaR𝛼 - 𝜉u
ES𝛼 = qx(F)dx = + 𝜎̃ , (7.11)
∫
1-𝛼 𝛼 1-𝜉 1-𝜉
donde F̄ (u) denota el número de no superaciones en relación con el tamaño de la
muestra. De forma análoga a las bandas de confianza para los parámetros de la
distribución, también se pueden derivar intervalos para estas medidas de riesgo.
• POT bivariado
1 La función abba() interactúa con una rutina en C para ajustar modelos espaciales de valores
d a t o s ( s i emens ) 2
## P é r d i d a s 3
S i e L o s s <- -100.0 ∗ s i e m e ns 4
## paquete e v i r : 5
SieGEV 7
## paquete i smev : 11
b i b l i o t e c a ( ismev ) 12
SieGEV2 14
gev . d i a g ( SieGEV2 ) 15
p a r ( mfrow = c ( 2 , 1 ) ) 16
sigma = SieGEV2$mle [ 2 ] , 21
x i = SieGEV2$mle [ 3 ] ) / 2 22
## paquete f E x t r e m e s : 23
biblioteca ( f E x t r e m e s ) 24
SieGEV3 26
10
Má
8
xi
m
os 6
de
l
bl 4
oq
ue
2
0 10 20 30 40
GEV 𝜉 𝜎 𝜇
Estimación 0.287 1.047 2.700
Error estándar 0.117 0.141 0.170
Gráfico de Gráfico de
probabilidad cuantiles
0.
M 0 Empíri
od 0 . co
elo 4
0. 6 10
8
2
0.0 0 .2 0 .4 0 .6 0 .8 1 .0 2 4 6 8 10
Empírico Modelo
Período de retorno z
6 8 10 12 14 16
Nivel de retorno
Pe
rfil
Lo -
g- 86
lik
eli -
ho 90
0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7
od
Parámetro de forma
Figura 7.4 Gráficos de probabilidad logarítmica del perfil para el modelo GEV
ajustado.
Pé 12
rdi
da 10
s
B
M 8
W
(p
or 6
ce
nt 4
aj
es
) 2
1975 1980 1985 1990 1995
biblioteca ( e v i r ) 2
b i b l i o t e c a ( ismev ) 3
## Order s t a t i s t i c s 4
d a t a (bmw) 5
BmwLoss <- -1.0 ∗ bmw ∗ 100 6
r <- 2 11
Añou [ x ] ] , d e c r e c i e n t e = 14
TRUE) , r ) ) ) 15
## P l o t o d o s l o s d a t o s d e l o s p r o d u c t o s 18
bg = " az ul " ) 23
## F i t y d i a g n ó s t i c o s 24
r l a r g . d i a g ( BmwOrderFit ) 26
GEV 𝜇 𝜎 𝜉
Estimación 4.480 1.752 0.303
Error estándar 0.341 0.289 0.159
son significativamente diferentes de cero, pero para 𝜉 sólo al nivel del 10%. El
signo del valor del parámetro indica una distribución de tipo Fréchet, que implica
la posible aparición de pérdidas no limitadas.
La bondad del ajuste puede inspeccionarse visualmente con la función
rlarg.diag(), que devuelve dos gráficos. Primero, se producen gráficos para
las pérdidas más grandes, similares a los de la función gev.diag(), y luego se
devuelven gráficos PP y QQ para r = 1, 2. Estas herramientas de diagnóstico se
muestran en las figuras 7.6 y 7.7, respectivamente.
En general, el gráfico PP indica un ajuste decente. Sin embargo, el gráfico QQ
revela que las pérdidas en el rango del 8% al 10% aproximadamente no se cubren
tan bien. Esto también se refleja en el gráfico del nivel de retorno. Aquí, los valores
para un periodo de retorno de un año están en el límite
124 TEORÍA DEL VALOR
EXTREMO
Gráfico de probabilidad Gráfico de
cuantiles
M
o Emp
d írico
el 26
o 10 14
0.0 0.4 0.2 0 .4 0 .6 0 .8 1 .0
0.8 4 68 10 12 14
Empírico
Modelo
Gráfico de nivel de
retorno Parcela de
Nivel
de f densidad
retorn (
o z
)
10
0.00
30 0.10
1e-01 1e+01 1e+03 0.20
Período de retorno 2 4 6 8 10 12 14
z
Figura 7.6 Gráficos de diagnóstico de los máximos del bloque r: mayores pérdidas.
k=1 k=1
6
0. 10
4 14
0.
8
0. 2
0
0.2 0 .4 0 .6 0 .8 1 .0 4 68 10 12 14
k=2 k=2
0. 4
4 6
0. 8
8
0. 2
0
0.2 0 .4 0 .6 0 .8 1 .0 3 4 5 6 7
Figura 7.7 Gráficos de diagnóstico de los máximos del bloque r: Gráficos PP y QQ.
derecho).
126 TEORÍA DEL VALOR
EXTREMO
Código R 7,3 POT GPD para las
pérdidas de Boeing.
## Loading o f packages 1
biblioteca ( f B a s i c s ) 2
biblioteca ( f E x t r e m e s ) 3
## M a ne j o de datos 4
d a t a ( DowJones30 ) 5
## MRL- pl ot 10
## GPD 12
## D i a g n o s t i c p l o t s 14
p a r ( mfrow = c ( 2 , 2 ) ) 15
p l o t ( BAFit , que = 1 ) 16
p l o t ( BAFit , which = 2 ) 17
p l o t ( BAFit , which = 3 ) 18
p l o t ( BAFit , which = 4 ) 19
## Me di das de ri e sgo 20
8
Ex
ce
6
so
m
ed
io: 4
e
2
ci
=
0,9
0 5
-10 -5 0 5 10
Umbral: u
biblioteca ( f B a s i c s ) 2
d a t a ( nyse ) 3
## F i t o d e l o s d a t o s d e l o s c o n s u l t a d o s 18
1970-01-01 1990-01-01 0 5 10 15 20
ACF
parcial
A
C -0. 100.10 0.25
F
0.0 0.4
0.8
0 510 15 20 25 0 5 10 15 20 25
En esta tabla se presentan las estimaciones para 𝜉 y 𝛽. Los errores estándar estimados
figuran entre corchetes. En las dos columnas de la derecha se indican los números
de excesos declarados y los valores de la log-verosimilitud negativa. Las
estimaciones del parámetro de forma aumentan con la frecuencia de paso (a medida
que se desciende en la tabla), dado que cada frecuencia de paso es una opción
válida. Sin embargo, estas estimaciones puntuales se vuelven menos fiables debido
a la disminución del número de observaciones disponibles para minimizar la log-
verosimilitud negativa, aunque los valores de esta última se recuperan para períodos
de ejecución más largos. Con respecto a la derivación del VaR y/o del ES, estos
resultados implican valoraciones bastante diferentes del riesgo inherente al índice de
la Bolsa de Nueva York. En particular, los procesos puntuales para las series
mensuales, bimensuales, trimestrales y semestrales desclasificadas no indican que sus
intervalos de tiempo se aparten en gran medida de la distribución exponencial, pero
la inferencia extraída de los modelos ajustados difiere notablemente.
TEORÍA DEL VALOR 135
EXTREMO
Referencias
Beirlant J., Goegebeur Y., Segers J. y Teugels J. 2004 Statistics of Extremes: Theory and
Applications. John Wiley & Sons, Chichester, Inglaterra.
Burger M., Jünemann K., y König T. 2015 RUnit:R Unit Test Framework. Paquete R versión
0.4.28.
Coles S. 2001 An Introduction to Statistical Modeling of Extreme Values. Springer Verlag,
Londres, Nueva York.
Deville Y. 2015a Renext: Renewal Method for Extreme Values Extrapolation. Paquete R
versión 3.0-0.
Deville Y. 2015b RenextGUI: GUI para Renext. Paquete R versión 1.3-0.
Embrechts P., Klüppelberg C., y Miksoch T. 1997 Modelling Extremal Events for In-
surance and Finance vol. 33 of Stochastic Modelling and Applied Probability 1st edn.
Springer-Verlag, Berlín.
Embrechts P., Puccetti G. y Rüschendorf L. 2013 Model uncertainty and VaR aggregation.
Journal of Banking and Finance 38(8), 2750-2764.
Ferro C. y Segers J. 2003 Inferencia para grupos de valores extremos. Journal of the Royal
Statistical Society, Series B 65(2), 545-556.
Gilleland E. y Katz R. 2011 Nuevo software para analizar cómo cambian los extremos en el
tiempo. Eos
92(2), 13-14.
Heffernan E. y Stephenson A. 2016 ismev: An Introduction to Statistical Modeling of Ex-
treme Values. Paquete R versión 1.41.
Leadbetter M., Lindgren G., y Rootzén, H. 1983 Extremes and Related Properties of Random
Sequences and Series. Springer-Verlag, Nueva York.
McNeil A. 1999 Teoría del valor extremo para gestores de riesgos Internal Modelling and
CAD II RISK Books pp. 93-113.
McNeil A., Frey R. y Embrechts P. 2005 Quantitative Risk Management: Concepts, Tech-
niques and Tools. Princeton University Press, Princeton, NJ.
Pfaff B. y McNeil A. 2012 evir: Extreme Values in R. Paquete R versión 1.7-3.
Plummer M., Best N., Cowles K. y Vines K. 2006 CODA: Convergence diagnosis and output
analysis for MCMC. R News 6(1), 7-11.
Stephenson A. 2002 evd: Distribuciones de valor extremo. R News 2(2), 0.
Stephenson A. y Ribatet M. 2006 A User's Guide to the evdbayes Package (Version 1.1).
Stephenson A. y Ribatet M. 2014 evdbayes: Bayesian Analysis in Extreme Value Theory.R
package version 1.1-1.
Würtz D. 2013 fExtremes: Rmetrics - Datos extremos del mercado financiero. Paquete R
versión 3010.81.
Würtz D., Setz T. y Chalabi Y. 2014 fBasics: Rmetrics - Mercados y estadísticas básicas.
Paquete R versión 3011.87.
8
Modelización de la volatilidad
8.1 Preliminares
En los dos capítulos anteriores se introdujeron métodos cuantitativos para la
modelización del riesgo en el caso de rendimientos con distribución no normal, es
decir, la teoría del valor extremo y las clases de distribución hiperbólica
generalizada y lambda generalizada. El primer método aborda la modelización de
la cola de un proceso de retorno, mientras que el segundo se centra en capturar
adecuadamente toda la distribución. Con respecto a las medidas de riesgo de valor
en riesgo y de pérdida esperada, se asumió que los rendimientos del mercado
financiero son iid. Por lo tanto, estas medidas de riesgo son incondicionales en el
sentido de que no dependen de la información previa. Como ya se mostró en el
capítulo 3, la agrupación de la volatilidad es uno de los hechos estilizados de los
rendimientos de los mercados financieros. Dado este hecho estilizado, el supuesto
de rendimientos iid se viola claramente. Por lo tanto, este capítulo introduce una
clase de modelo que tiene en cuenta explícitamente la agrupación de la volatilidad.
Como se mostrará, las medidas de riesgo condicional pueden deducirse de estos
modelos. En este caso, el fenómeno de la agrupación de la volatilidad alimenta
directamente las medidas de riesgo derivadas para períodos futuros en el tiempo.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd.
Sitio web complementario: www.pfaffikus.de
MODELIZACIÓN DE LA 117
VOLATILIDAD
extensiones del modelo durante la década posterior al artículo original. Hoy en día,
los modelos ARCH no sólo están bien establecidos en la literatura académica, sino
que también se aplican ampliamente en el ámbito de la modelización del riesgo. En
esta sección, el término "ARCH" se utilizará tanto para el modelo ARCH
específico como para sus extensiones y modificaciones.
El punto de partida de los modelos ARCH es una ecuación de expectativas que
sólo se desvía de la regresión lineal clásica con respecto al supuesto de errores
independientes e idénticamente distribuidos con normalidad:
y = x′ 𝜷 + 𝜖 , (8.1)
t t t
donde 𝜂t denota una variable aleatoria con distribución 𝔇 con valor esperado cero
y varianza unitaria. Los parámetros adicionales de esta distribución se subsumen en
el vector de parámetros 𝜈. Esta notación es más general en el sentido de que ahora
ya no se requiere un proceso de error con distribución normal, sino distribuciones
con exceso no nulo
La curtosis y/o la asimetría pueden intercalarse. En la literatura se encuentra a
menudo la distribución t de Student, la distribución t de Student sesgada o la
distribución de error generalizada.
El segundo componente de los modelos ARCH es la ecuación de la varianza. En
un modelo ARCH de orden q, la varianza condicional se explica por la historia de
los errores al cuadrado hasta el desfase q:
ht = 𝛼0 + 𝛼1𝜖t-1+ - - + 𝛼 𝜖t-qq
2 2
, (8.5)
Ya se puede deducir por qué esta clase de modelo puede captar el hecho
estilizado de la agrupación de la volatilidad: la varianza condicional se explica por
los errores de los períodos anteriores. Si estos errores son grandes en valor
absoluto, resulta un valor grande para la varianza condicional, y viceversa. A modo
de ilustración, la figura 8.1 muestra los gráficos de un proceso de ruido blanco y de
procesos ARCH(1) y ARCH(4) simulados.
Se observa un claro patrón de agrupación de la volatilidad para los procesos
ARCH(1) y ARCH(4), y es más pronunciado para este último. Se podría concluir
118 MODELIZACIÓN DE LA
VOLATILIDAD
que los dos procesos ARCH son más volátiles que el ruido blanco. Sin embargo,
todos los
MODELIZACIÓN DE LA 119
VOLATILIDAD
Ru 0
id 5
o
bl
-
an
10
co 0 1000 2000 3000 4000 5000
A 0
R 5
C
H( -
1) 10
0 1000 2000 3000 4000 5000
A 0
R 5
C
H( -
4) 10
0 1000 2000 3000 4000 5000
Figura 8.1 Gráficos de los procesos simulados de ruido blanco, ARCH(1) y ARCH(4).
es mayor que 3 y, por tanto, tiene más masa de probabilidad en las colas que la
distribución normal. Esto es una prueba más de que con los modelos ARCH se
pueden captar bien los hechos estilizados de los rendimientos de los mercados
financieros.
Una vez analizado el modelo ARCH básico, nos centramos ahora en sus
modificaciones y ampliaciones. Bollerslev (1986) introdujo el modelo GARCH(p,
q) en la literatura. Éste difiere del modelo ARCH en la inclusión de variables
endógenas retardadas en la ecuación de la varianza, es decir, ahora la varianza
condicional no sólo depende de los errores cuadrados pasados, sino también de las
120 MODELIZACIÓN DE LA
VOLATILIDAD
𝜖t = 𝜂tht, (8.12)
122 MODELIZACIÓN DE LA
VOLATILIDAD
El lector se remite a las citas anteriores para obtener más detalles sobre estos casos
especiales. Las estimaciones de los parámetros desconocidos del modelo suelen
obtenerse aplicando el principio de máxima verosimilitud o de cuasi máxima
verosimilitud. En este caso, se aplican técnicas de optimización numérica. Menos
frecuentes son las técnicas de estimación bayesiana del parámetro desconocido en la
investigación aplicada. Una vez obtenido el ajuste del modelo, se pueden calcular
recursivamente las previsiones de las varianzas condicionales y deducir las medidas
de riesgo deseadas junto con los cuantiles de los supuestos.
distribución para el proceso de error a partir de estos.
b i b l i o t e c a ( f Garch ) 2
d a t a (NYSESW) 3
## F u n c i ó n para ES de t -GARCH 6
ESgarch <- f u n c i ó n ( y , p = 0 , 9 9 ) { 7
g f i t <- g a r c h F i t ( f o r m u l a =∼ ga rc h ( 1 , 1 ) , d a t a = y , 8
ES <- sigma ∗ ( d t ( q t ( p , df ) , df ) / ( 1 - p) ) ∗ 12
( ( df + ( q t ( p , df ) ) ^ 2) / ( df - 1) ) 13
d e v o l v e r ( ES ) 14
} 15
## V e c t o r e s d e fecha para el b a c k t e s t 16
nrow ( NYSELOSS) ) ] 18
po
rc 2
en
taj 0
es
-2
-4
10 Pérdi
da
ES
porcen
tajes
5
-5
Referencias
Ardia D. 2008 Financial Risk Management with Bayesian Estimation of GARCH Models: The-
ory and Applications vol. 612 of Lecture Notes in Economics and Mathematical Systems.
Springer-Verlag, Berlín, Alemania.
Ardia D. 2009 Estimación bayesiana de un modelo GARCH asimétrico de umbral de
conmutación de Markov con innovaciones de Student-t. Econometrics Journal 12(1),
105-126.
Ardia D. 2015 bayesGARCH: Bayesian Estimation of the GARCH(1,1) Model with Student-t
Innovations in R. Version 2.0.2.
Ardia D. y Hoogerheide L. 2010 Estimación bayesiana del modelo GARCH(1,1) con
innovaciones Student-t. The R Journal 2(2), 41-47. URL http://journal.r-project.org/.
Bera A. y Higgins H. 1993 Modelos ARCH: Propiedades, estimación y pruebas. Journal of
Economic Surveys 7(4), 305-362.
Black F. 1976 Studies of stock price volatility changes Proceedings of the 1976 Meeting of
Business and Economics Statistics Section, pp. 177-181 American Statistical Association.
Bollerslev T. 1986 Heteroscedasticidad condicional autorregresiva generalizada. Journal of
Econometría 31, 307-327.
Bollerslev T., Chou R. y Kramer K. 1992 Arch modeling in finance. Journal of Econometrics
52, 5-59.
Boswijk H. P. y van der Weide R. 2006 Wake me up before you GO-GARCH. Discussion
Paper TI 2006-079/4, Universidad de Amsterdam e Instituto Tinbergen, Amsterdam.
Boswijk H. P. y van der Weide R. 2009 Method of moments estimation of GO-GARCH
models. Documento de trabajo, Universidad de Ámsterdam e Instituto Tinbergen y Banco
134 MODELIZACIÓN DE LA
VOLATILIDAD
Mundial, Ámsterdam.
MODELIZACIÓN DE LA 135
VOLATILIDAD
Burger M., Jünemann K. y König T. 2015 RUnit:R Unit Test Framework. Paquete R versión 0.4.31.
Ding Z., Granger C. y Engle R. 1993 A long memory property of stock market returns and a
new model. Journal of Empirical Finance 1, 83-106.
do Rego Sousa T., Otiniano C., y Lopes S. 2015 GEVStableGarch. Paquete R versión 1.1.
Eddelbüttel D. y François R. 2011 Rcpp: Integración perfecta de R y C++. Journal of Sta-
tistical Software 40(8), 1-18.
Eddelbüttel D. y Sanderson C. 2014 RcppArmadillo: Aceleración de R con álgebra lineal C++
de alto rendimiento. Computational Statistics and Data Analysis 71, 1054-1063.
Engle R. 1982 Heteroscedasticidad condicional autorregresiva con estimaciones de la varianza de
la inflación del Reino Unido. Econometrica 50(4), 987-1007.
Engle R. 2002 Correlación condicional dinámica. Journal of Business & Economic Statistics
20(3), 339-350.
Engle R. y Bollerslev T. 1986 Modelling the persistence of conditional variances. Econo-
metric Reviews 5, 1-50.
Francq C. y Sucarrat G. 2013 An exponential chi-squared QMLE for log-GARCH models
via the ARMA representation. Documento de trabajo 51783, Universidad de Múnich,
Múnich.
Geweke J. 1986 Modelización de la persistencia de las varianzas condicionales: Un comentario.
Econometric Reviews 5, 57-61.
Ghalanos A. 2015a rmgarch: Multivariate GARCH models. Paquete R versión 1.3-0.
Ghalanos A. 2015b rugarch: Univariate GARCH models. Paquete R versión 1.3-6.
Ghalanos A. y Theussl S. 2015 Rsolnp: Optimización general no lineal mediante el método del
multiplicador de Lagrange aumentado. Paquete R versión 1.16.
Glosten L., Jagannathan R. y Runkle D. 1993 On the relation between expected value and
the volatility of the nominal excess return on stocks. Journal of Finance 48, 1779-1801.
Hafner C. y Herwatz H. 2006 A Lagrange multiplier test for causality in variance. Economía
Cartas 93(1), 137-141.
Hansen P., Huang R. y Shek H. 2012 Realized GARCH: a joint model for returns and real-
ized measures of volatility. Journal of Applied Econometrics 27(6), 877-906.
Higgins M. y Bera A. 1992 A class of nonlinear ARCH models. International Economic
Review 33, 137-158.
Kleiber C. y Zeileis A. 2008 Applied Econometrics with R. Springer-Verlag, Nueva York.
Nakatani T. 2010 Four Essays on Building Conditional Correlation GARCH Models Tesis doctoral
Escuela de Economía de Estocolmo.
Nakatani T. 2014 ccgarch: An R Package for Modelling Multivariate GARCH Models with
Conditional Correlations. Paquete R versión 0.2.3.
Nakatani T. y Teräsvirta T. 2009 Testing for volatility interactions in the constant conditional
correlation GARCH model. Econometrics Journal 12(1), 147-163.
Nakatsuma T. 2000 Análisis bayesiano de modelos ARMA-GARCH: A markov chain sampling
approach. Journal of Econometrics 95(1), 57-69.
Nelson D. 1991 Heteroscedasticidad condicional en los rendimientos de los activos: Un nuevo enfoque.
Econometrica
59(2), 347-370.
Pentula S. 1986 Modelización de la persistencia de las varianzas condicionales: Un comentario.
Econometric Reviews 5, 71-74.
136 MODELIZACIÓN DE LA
VOLATILIDAD
Pfaff B. 2012 gogarch: Modelos GARCH ortogonales generalizados (GO-GARCH). Paquete R
versión 0.7-2.
Schwert G. 1990 Stock volatility and the crash of '87. Review of Financial Studies 3(1), 77-102.
Stock J. y Watson M. 2007 Introduction to Econometrics. Addison Wesley, Boston.
Sucarrat G., Gronneberg S., y Escribano A. 2013 Estimación e inferencia en modelos log-
GARCH univariantes y multivariantes cuando la densidad condicional es desconocida.
Documento de trabajo 49344, Universidad de Munich, Munich.
Taylor S. 1986 Modeling Financial Time Series. John Wiley, Nueva York.
Trapletti A. y Hornik K. 2016 tseries: Análisis de series temporales y finanzas
computacionales. Paquete R versión 0.10-35.
van der Weide R. 2002 GO-GARCH: Un modelo GARCH generalizado multivariado.
Journal of Applied Econometrics 17(5), 549-564.
Würtz D. y Chalabi Y. 2013 fGarch: Rmetrics-Autoregressive Conditional Heteroskedastic
Modelling. Paquete R versión 3010.82.
Ye Y. 1987 Interior Algorithms for Linear, Quadratic, and Linearly Constrained Non-Linear
Programming PhD thesis Department of ESS, Stanford University.
Zakoian J. 1994 Threshold heteroscedasticity models. Journal of Economic Dynamics and
Control 15, 931-955.
9
Modelización de la dependencia
9.1 Resumen
En los capítulos anteriores se han presentado alternativas al modelo gaussiano para
evaluar los riesgos de los precios de mercado de los instrumentos financieros
individuales. Las pérdidas potenciales derivadas de mantener una posición en un
activo se interpretaron como una variable aleatoria, y se derivaron medidas de
riesgo tanto incondicionales como condicionales.
En este capítulo se aborda el tema de la modelización del riesgo financiero en el
contexto de los instrumentos financieros múltiples. En el apartado 9.2 se presenta
el coeficiente de correlación entre dos activos y se investiga su idoneidad como
medida de dependencia entre dos activos. En la sección 9.3 se analizan medidas
alternativas de dependencia, a saber, el uso de correlaciones de rango y el concepto
de cópula. La sección 9.4 ofrece una sinopsis de los paquetes de R que incluyen
específicamente la modelización de cópulas. Por último, la sección 9.5 muestra
cómo los modelos de cópula pueden combinarse de forma fructífera con las
técnicas descritas en los capítulos 6-8. En particular, se propone un modelo de
cópula-GARCH para medir el riesgo de mercado de una cartera.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd. Sitio
web complementario: www.pfaffikus.de
134 MODELIZACIÓN DE LA
DEPENDENCIA
El coeficiente de correlación de Pearson entre dos variables aleatorias X1 y X2 con
varianzas finitas se define como
𝜌(X , X ) = COV(X1X , 2) , (9.1)
1 2 √VAR
(X )√VAR(X
1
)2
donde COV(X1, X2) = E((X1 - E(X1))(X2 - E(X2)) denota la covarianza entre las
variables aleatorias y VAR(X1 ) y VAR(X2 ) son sus varianzas, respectivamente.
Como se desprende de (9.1), el coeficiente de correlación es una medida escalar.
En el caso
de una dependencia lineal perfecta el valor de esta medida es 𝜌(X1 , X2 ) =| 1 , donde
la dependencia lineal perfecta viene dada por X2 = 𝛽 + 𝛼X1 , con 𝛼 ∈ ℝ\0,| 𝛽 ∈ ℝ, o
bien el coeficiente de correlación puede tomar valores en el intervalo -1 < 𝜌(X1 , X2
)<
1. Además, el coeficiente de correlación lineal es invariante con respecto a las
transformaciones lineales afines de las variables aleatorias X1 y X2: 𝜌(𝛼1X1 + 𝛽1,
𝛼2X2 + 𝛽2) = signum(𝛼1𝛼2)𝜌{X1, X2} para 𝛼1, 𝛼2 ∈ ℝ\0, 𝛽1, 𝛽2 ∈ ℝ.
Por lo tanto, el coeficiente de correlación de Pearson representa la fuerza de una relación
lineal.
entre dos variables aleatorias. El razonamiento lógico de que 𝜌(X1 , X2 ) = 0 implica
la independencia entre X1 y X2 sólo es válido en el caso de variables aleatorias con
distribución elíptica multivariante. Dicho de otro modo, la falta de correlación es
sólo una condición suficiente para la independencia y sólo en el caso de las
distribuciones elípticas pueden utilizarse los dos conceptos indistintamente. Las
distribuciones elípticas se caracterizan porque los puntos de la función de densidad
que arrojan los mismos valores representan una elipse; es decir, los cortes
horizontales de la masa de probabilidad tienen forma elíptica.
La implicación para la modelización del riesgo multivariante es que sólo en el
caso de factores de riesgo distribuidos conjuntamente de forma elíptica puede
captarse adecuadamente la dependencia entre ellos mediante el coeficiente de
correlación lineal. Teniendo en cuenta los hechos estilizados de los rendimientos de
los mercados financieros, este supuesto apenas se cumple. Cabe señalar en este punto
que, con respecto a la modelización del riesgo, uno suele estar más preocupado por
la estructura de dependencia en la cola de una distribución de pérdidas
multivariable que por una evaluación de la dependencia global, pero una medida de
correlación sólo representa esto último, en principio.
Además, el coeficiente de correlación lineal no es invariable con respecto a
variables aleatorias no lineales (por ejemplo, transformadas en logaritmos), o si
existe una dependencia no lineal (por ejemplo, cuadrática o cúbica) entre las
variables. Este hecho se ilustrará con los dos ejemplos siguientes.
En primer lugar, se investiga una variable aleatoria normal estandarizada X1 ∼
N(0, 1) con depen-
1
dencia cuadrática X2 = X2 . Entre estas dos variables es evidente
una relación directa; para una realización dada x1 de X1 se puede concluir el valor
de x2 . Sin embargo, si se calcula el coeficiente de correlación lineal entre estas dos
variables,
el resultado sería COV(X1, X2) = E(X1 ⋅ (X2 - 1)) = E(X3 ) - E(X1) = 0, porque
1 1
la asimetría de las variables aleatorias distribuidas normalmente es cero.
El propósito del segundo ejemplo es resaltar el hecho de que la correlación co-
eficiente depende de las distribuciones marginales de las variables aleatorias en
≤ ≤
MODELIZACIÓN DE LA 135
DEPENDENCIA
cuestión y la posibilidad de que el coeficiente de correlación no pueda tomar todos
los valores en el inter- val -1 𝜌 1 si se ve la distribución multivariada de estas
variables aleatorias.
136 MODELIZACIÓN DE LA
DEPENDENCIA
Dadas dos variables aleatorias log-normales X1 ∼ log N(0, 1) y X2 ∼ log N(0, 𝜎2 )
con 𝜎 > 0, el rango factible de valores para el coeficiente de correlación tiene un
límite inferior de 𝜌 m i n = 𝜌(eZ , e−𝜎Z ) y un límite superior de 𝜌 m a x = 𝜌(eZ , e𝜎Z
), donde Z ∼ N(0, 1). El signo del exponente depende de si las variables aleatorias
se mueven en la misma dirección o en direcciones opuestas. En el primer caso
resulta una dependencia positiva (co-monotonicidad), y en el segundo una negativa
(contra-monotonicidad). Por tanto, el límite inferior del coeficiente de correlación
viene dado por
e−𝜎 - 1
𝜌min = √ (9.2)
(e - 1)(e𝜎2 - 1)
y el límite superior viene determinado por
e𝜎 - 1
𝜌max = √ . (9.3)
(e - 1)(e𝜎2 - 1)
siguiente sección.
138 MODELIZACIÓN DE LA
DEPENDENCIA
9.3 Copulae
9.3.1 Motivación
El enfoque de la cópula fue introducido por Sklar (1959). Se pueden encontrar
exposiciones detalladas en los libros de texto de Schweizer y Sklar (1983), Nelsen
(2006), Joe (1997) y McNeil et al. (2005). Sin embargo, sólo desde mediados de la
década de 1990 se han utilizado las cópulas como herramienta para modelizar las
dependencias entre activos en las finanzas empíricas. La palabra "cópula" deriva
del verbo latino copulare y significa "enlazar" o "atar". Lo que se vincula
exactamente con una cópula será el tema del resto de esta subsección.
Las distribuciones marginales de las variables aleatorias distribuidas
conjuntamente, así como su dependencia, están contenidas en su función de
distribución conjunta,
Q = P((X1 - X2)(Y1 - Y2) > 0) - P((X1 - X2)(Y1 - Y2) < 0). (9.7)
La expresión de la probabilidad de (9.7) puede expresarse en términos de
cópulas. Se puede encontrar una derivación detallada en Genest y Favre (2007).
1 1
q↘0 q
para el coeficiente de dependencia de la cola superior.
144 MODELIZACIÓN DE LA
DEPENDENCIA
9.3.3 Clasificación de las cópulas
En las dos subsecciones anteriores se ha ofrecido un breve resumen del concepto
de cópula y su relación con las correlaciones de rango. En esta subsección se
presentan las cópulas de manera más formal y se describe su clasificación en
subcategorías. Se mostrará cómo se puede deducir de ellas la dependencia de la cola
como medida de riesgo. No es el objetivo de este libro proporcionar una exposición
detallada de las cópulas; el objetivo es más bien comprender mejor el concepto
subyacente y aplicar las cópulas como una herramienta para modelar las
dependencias. En Joe (1997) y Nelsen (2006) se pueden encontrar exposiciones
detalladas en los libros de texto.
En general, una cópula se expresa en forma de función de densidad multivariante
u1 ud
C(u) = P(U1 ≤ u1, U2 ≤ u2, ... , Ud ≤ ud ) = --- c(u) du, (9.15)
∫0 ∫0
puede imaginar que se lanza una moneda dos veces. La función de densidad
conjunta de las variables aleatorias independientes
es el producto de las respectivas distribuciones marginales, que es igual a la cópula
de independencia:
146 MODELIZACIÓN DE LA
DEPENDENCIA
d
∏
C(u) = ui = P(U1≤ u1) - - - P(Ud ≤ ud )
i=1
= P(U ≤ u , ... , U ≤ u ) = f (u). (9.19)
1 1 d d
y es cero para todos los demás casos. El dominio de una cópula para el caso d-
dimensional C(u = C(u1, ... , ud )) está entonces limitado por
d
max{∑ ui + 1 - d, 0} ≤ C(u) ≤ min{u1, ... , ud } (9.21)
i=1
𝛿̂ = 2𝜌̂𝜏 , 𝜃̂ = 1 . (9.28)
1 - 𝜌̂𝜏 1 - 𝜌̂𝜏
En la sección 9.2 se argumentó que el coeficiente de correlación lineal no es
adecuado para captar las dependencias entre los factores de pérdida, es decir, que
formas de dependencia muy distintas pueden dar el mismo valor a este coeficiente.
Concluimos esta sección destacando este hecho. La figura 9.1 muestra cuatro
diagramas de dispersión. El tamaño de la muestra para cada uno de los pares de
datos se ha fijado en 2.000 observaciones y las muestras se han generado de forma
que el coeficiente de correlación para cada uno de los cuatro conjuntos es igual a
0.7. A partir de estos diagramas de dispersión, es bastante evidente que las
estructuras de dependencia varían y que el contenido informativo del coeficiente de
correlación con respecto a la dependencia de la cola es bastante limitado. En el
caso de la cópula de Gumbel es evidente una concentración de pares positivos y en
el caso de la cópula de Clayton una agrupación de pares negativos. La cópula t de
Student se caracteriza por una mayor dispersión de pares con signos opuestos.
pospone a la Parte III del libro (Capítulo 13). El paquete está escrito
exclusivamente en R, y las clases y métodos de S4 son
150 MODELIZACIÓN DE LA
DEPENDENCIA
Cópula de Gauss Cópula de Gumbel
4 4
2 2
X2 X2
0 0
-2 -2
-4 -4
-4 -2 0 2 4 -4 -2 0 2 4
X1 X1
2 2
X2 X2
0 0
-2 -2
-4 -4
-4 -2 0 2 4 -4 -2 0 2 4
X1 X1
createCOPViews().
152 MODELIZACIÓN DE LA
DEPENDENCIA
La distribución posterior se genera mediante simulaciones de Monte Carlo a
través de la función COPPosterior(). En este caso, hay que proporcionar un
objeto de distribución multivariante para la distribución global del mercado, así
como un objeto de la clase COPViews. La función devuelve un objeto de la clase
COPResultado para el que se definen métodos que muestran las distribuciones
a priori y marginal a priori de cada activo (densityPlot()), imprimen
información sobre los resultados posteriores (show()) y generan carteras óptimas
a priori y a posteriori (optimalPort- folios.fPort()). La última función
utiliza rutinas contenidas en el paquete fPortfolio (véase Würtz et al. 2014).
Además de estas clases y métodos fundamentales que se ocupan del marco de
agrupación de la opinión de la cópula, el paquete también ofrece funciones de
utilidad para recuperar y manipular las ranuras de los objetos de las dos clases
presentadas.
1 Los modelos GARCH poseen una mayor curtosis que la distribución normal,
por lo que la mayor probabilidad de asistir a rendimientos extremos puede
captarse con estos modelos de volatilidad.
3 A menudo se desea una evaluación del riesgo para los próximos 10 días.
Este es un requisito del Acuerdo de Basilea II (véase el Comité de
Supervisión Bancaria de Basilea 2006, Parte 2, D.4). En la práctica, se utiliza
la desviación estándar derivada de los rendimientos diarios y se multiplica por
un factor de 10. El llamado escalado de la "raíz cuadrada del tiempo" se
menciona explícitamente en el documento que acabamos de citar, pero en un
borrador más re ciente sólo tiene carácter explicativo (véase el Comité de
Supervisión Bancaria de Basilea 2008). Sin embargo, este tipo de escalado
puede dar lugar a una volatilidad muy desestimada si no se aplica a un
proceso homocedástico (véase, por ejemplo, Danielsson y Zigrand 2005).
Por el contrario, las previsiones absolutas de la volatilidad a 10 días pueden
derivarse de los modelos GARCH. 1
1 En aras de la exhaustividad, cabe mencionar que el Comité de Supervisión Bancaria de Basilea aboga
MODELIZACIÓN DE LA 163
DEPENDENCIA
ahora por la utilización del déficit esperado como medida de riesgo con un nivel de confianza del 97,5%
(véase Comité de Supervisión Bancaria de Basilea, 2013, sección 1.4).
164 MODELIZACIÓN DE LA
DEPENDENCIA
5 Para repetir, sólo en el caso de las distribuciones elípticas las correlaciones
representan correctamente la dependencia entre las variables aleatorias. Pero
en la práctica, la suposición de que las variables aleatorias se distribuyen
conjuntamente de forma elíptica rara vez se cumple, por lo que las
dependencias se representan de forma errónea. El enfoque de la cópula evita
este problema al distinguir entre la estructura de la dependencia, por un lado,
y la modelización de las distribuciones marginales, por otro.
Descripción
El enfoque GARCH-cópula fue probablemente introducido por primera vez por
Rockinger y Jondeau (2001). Esta combinación de modelos se ha utilizado desde
entonces no sólo para la modelización del riesgo de cartera, sino también en el
ámbito de los derivados financieros. Por ejemplo, Patton (2006), Jondeau y
Rockinger (2006), Micocci y Masala (2005), Embrechts y Dias (2003), Hsu et al.
(2008), y Chiou y Tsay (2008) han utilizado este enfoque en su investigación
empírica. El modelo GARCH-cópula se basa en el concepto de "funciones de
inferencia para los márgenes". Aquí, la dependencia entre los factores de riesgo
financiero se deduce de las distribuciones marginales, que son los modelos
GARCH especificados.
Los modelos GARCH se introdujeron en el capítulo 8. Ahora nos centramos en
las ecuaciones de expectativa y varianza de los modelos ARMA-GARCH para
procesos de la forma
donde (Zk,t )k∈ℕ,t∈ℤ es una variable aleatoria distribuida en 𝔇k,𝜈 con valor esperado
0 y varianza 1, y Xk denota el rendimiento/pérdida del kº instrumento financiero
contenido en la cartera, k = 1, ... , K. Se necesitan supuestos sobre las
distribuciones de la misma. Los candidatos potenciales son la normal estándar,
la t de Student y su versión sesgada. Las estimaciones de los parámetros
desconocidos del modelo, 𝜁k = (𝜇k, 𝜙k, 𝜃k, 𝛼k, 𝛽k, 𝜈k )′ para k = 1, ... , K, podrían
calcularse aplicando el principio de ML. Cabe destacar de nuevo que las
especificaciones de los modelos GARCH elegidos para cada serie de
rendimiento/pérdida financiera pueden ser diferentes. Esto no se limita al orden del
modelo GARCH, sino que se aplica igualmente a la distribución asumida para
las innovaciones Zk,t . Las estimaciones de los residuos estandarizados de estos
modelos GARCH pueden calcularse como ẑk,t = (xk,t - 𝜇̂k,t)∕𝜎̂ k,t .
La distribución conjunta de los procesos K puede expresarse con respecto a una cópula
MODELIZACIÓN DE LA 165
DEPENDENCIA
Aplicación
El marco GARCH-cópula se aplica ahora a una cartera pasiva ficticia compuesta
por acciones europeas, y se calcula el déficit diario esperado del 95%. Se utiliza el
conjunto de datos EuStockMarkets, que aparece por primera vez en el
capítulo 3. Se supone que la cartera está compuesta en un 40% por el DAX y el
60% restante se distribuye a partes iguales entre el FTSE, el SMI y el CAC. 2
El código R se muestra en el Listado 9.1. En primer lugar, se cargan los paquetes
QRM y fGarch en el espacio de trabajo. Luego se recuperan los datos y se
expresan las pérdidas
b i b l i o t e c a ( f Garch ) 2
## P é r d i d a s 3
∗ 100.0) ) 6
## GARCH 7
g f i t <- l a p l i c a ( l o s s , g a r c h F i t , f or m u l a = ~ g arch ( 1 , 1 ) , 8
gprog <- u n l i s t ( l a p l a d a ( g f i t , f u n c i ó n ( x ) 10
p r e d i c t o ( x , n . ahead = 1 ) [ 3 ] ) 11
gshape <- u n l i s t ( l a p l a d a ( g f i t , f u n c i ó n ( x ) x@ f i t$ c oe f [ 5 ] ) 12
g r e s i d <- as . m a t r i x ( d a t a . frame ( l a p l i c a ( g f i t , 13
f u n c i ó n ( x ) x @ r e s i d u a l s / s q r t ( x@h . t ) ) ) ) 14
## Cópula 15
U <- s a p l a d o ( 1: 4 , f u n c i ó n ( y ) p t ( g r e s i d [ , y ] , df = gshape [ y ] ) ) 16
byrow = TRUE) 21
p f a l l . es 95 27
CAC FTSE
Cu Cuantil
an 8 es de
tile la
4
s muestr
de 0 a
la
-4 -6 -2 2
m
ue -4 -2 0 2 4 -4 -2 0 2 4
str
a Cuantiles teóricos Cuantiles teóricos
0. ACF
8
ACF 0.4
0 .8
0.4
0. 0.
0 0
0 5 10 15 20 0 5 10 15 20
Lag Lag
CAC FTSE
ACF ACF
0.4 0.4
0 .8 0 .8
0. 0.
0 0
0 5 10 15 20 0 5 10 15 20
Lag Lag
con ūi = 1 - ui, para i = 1, 2, y 𝜶 = (k, 𝛾)′. Esta cópula tiene una dependencia de
la cola inferior igual a 𝜆l = 2−1∕𝛾 y una dependencia de la cola superior igual a 𝜆u
= 2 - 21∕k . Para k = 1, la cópula de Joe-Clayton se reduce a la cópula de Clayton, y
para 𝛾 → 0, se acerca a la cópula de Gumbel. La cópula de Joe-Clayton se
caracteriza por una dependencia creciente de la cola superior para valores crecientes
del parámetro k. Sin embargo, esta cópula no tiene en cuenta los eventos extremos.
Dado que una combinación lineal de dos cópulas de Arquímedes es una
La cópula de Arquímedes (véase Nelsen 2006), se puede crear una mezcla de la
cópula de Clayton y de Gumbel en la forma
b i b l i o t e c a ( FRAPO) 2
b i b l i o t e c a (QRM) 3
## R e c u p e r a c i ó n d e datos y e d f 4
d a t o s ( DJ . df ) 5
U <- a pl ic a r ( R, 2 , edf ) 8
d e t a c h ( paquete :QRM) 9
## Cópula de identificación 10
copC < - c l a y t o n C o p u l a ( 2 ) 11
## O b j e t i v o d e f u n c i ó n 13
pi <- params [ 3 ] 17
l d e n s [ que ( i s . i n f i n i t e ( l d e n s ) ) ] <- 0 20
} 21
suma ( l d e n s ) 22
} 23
## O p t i m i z a c i ó n 30
c o n t r o l = l i s t ( f n s c a l e = -1 , t r a c e = 2 ) , 34
h e s s i a n = TRUE) 35
## Varianza - Co v ari an za 36
Clayton-Gumbel 𝛿̂ 𝜃̂ 𝜋̂
Valores estimados 0.7377 1.1147 0.3540
Errores estándar 0.2166 0.0265 0.0927
Referencias
Comité de Supervisión Bancaria de Basilea 2006 International Convergence of Capital
Mea- surement and Capital Standards, A Revised Framework Banco de Pagos
Internacionales Basilea, Suiza.
Comité de Supervisión Bancaria de Basilea 2008 Revisiones propuestas al marco de riesgo
de mercado de Basilea II Banco de Pagos Internacionales Basilea, Suiza.
Comité de Supervisión Bancaria de Basilea 2013 Documento consultivo-Revisión
fundamental de la cartera de negociación: A Revised Market Risk Framework Banco de
Pagos Internacionales Basilea, Suiza.
Black F. y Litterman R. 1990 Asset allocation: Combinando los puntos de vista del inversor
con el equi- librio del mercado. Informe técnico, Goldman Sachs Fixed Income Research.
Burger M., Jünemann K., y König T. 2015 RUnit:R Unit Test Framework. Paquete R versión
0.4.31.
Chiou S. y Tsay R. 2008 A copula-based approach to option pricing and risk assessment.
Journal of Data Science 6, 273-301.
MODELIZACIÓN DE LA 173
DEPENDENCIA
Danielsson J. y Zigrand J. 2005 On Time-Scaling of Risk and the Square-Root-of-Time Rule
efa 2004 Maastricht Meetings paper no. 5399 edn London School of Economics Londres,
Reino Unido.
Deheuvels P. 1979 La fonction de dépendence empirique et ses proprietés: un test non
paramétrique d'indépendence. Académie Royale de Belgique, Bulletin de la Classe des
Sci- ences, 5e 65, 274-292.
Dutang C. 2015 gumbel: Paquete para la cópula de Gumbel. Paquete R versión 1.10-1.
Embrechts P. y Dias A. 2003 Dynamic copula models for multivariate high-frequency data
in finance Discussion Paper, Department of Mathematics, ETH Zurich.
Genest C. y Favre A.-C. 2007 Todo lo que siempre quiso saber sobre la modelización de
cópulas pero temía preguntar. Journal of Hydrologic Engineering pp. 347-368.
Genest C. y Rémillard B. 2004 Pruebas de independencia y aleatoriedad basadas en el proceso de
cópula empírica. Test 13, 335-369.
Genest C., Ghoudi K., y Rivest L.-P. 1995 A semiparametric estimation procedure of depen- dence
parameters in multivariate families of distributions. Biometrika 82(3), 543-552.
Genest C., Quessy J.-F., y Rémillard B. 2006 Local efficiency of a Cramér-von Mises test of
independence. Journal of Multivariate Analysis 97, 274-294.
Genest C., Quessy J.-F., y Rémillard B. 2007 Asymptotic local efficiency of Cramér-von
Mises tests for multivariate independence. The Annals of Statistics 35, 166-191.
Gochez F., Chandler-Mant R., Jin S. y Xie J. 2015 BLCOP: Black-Litterman and Copula
Opinion Pooling Frameworks. Paquete R versión 0.3.1.
Hofert M. y Mächler M. 2011 Nested archimedean copulas meet R: The nacopula package.
Journal of Statistical Software 39(9), 1-20.
Hofert M., Kojadinovic I., Mächler M., y Yan J. 2015 copula: Dependencia multivariada con
cópulas. Paquete R versión 0.999-14.
Hsu C., Wang Y., y Tseng C. 2008 Cobertura dinámica con futuros: Un modelo GARCH basado
en la cópula. Journal of Futures Markets 28, 1095-1116.
Joe H. 1997 Multivariate Models and Dependence Concepts number 73 in Monographs on
Statistics and Applied Probability. Chapman & Hall, Londres.
Joe H. y Xu J. 1996 El método de estimación de las funciones de inferencia de los márgenes
para los modelos multivariantes. Technical Report 166, University of British Columbia,
Department of Statistics. Jondeau E. y Rockinger M. 2006 The copula-GARCH model of
conditional dependencies:
Una aplicación al mercado bursátil internacional. Journal of International Money and Finance 25,
827-853.
Kojadinovic I. y Yan J. 2010 Modelización de distribuciones multivariadas con márgenes
continuos utilizando el paquete R de copula. Journal of Statistical Software 34(9), 1-20.
McNeil A., Frey R. y Embrechts P. 2005 Quantitative Risk Management: Concepts, Tech-
niques and Tools. Princeton University Press, Princeton, NJ.
Meucci A. 2006a Más allá de Black-Litterman en la práctica: Una receta de cinco pasos para
introducir opiniones en mercados no normales. Risk 19(9), 114-119.
Meucci A. 2006b Beyond Black-Litterman: Views on non-normal markets. Risk 19(2), 96-
102.
Meucci A. 2010 El enfoque Black-Litterman: Original model and extensions In The Ency-
clopedia of Quantitative Finance (ed. Cont R.) vol. I John Wiley & Sons Chichester, UK
p. 196.
174 MODELIZACIÓN DE LA
DEPENDENCIA
Micocci M. y Masala G. 2005 Backtesting value-at-risk estimation with non-Gaussian
marginals Working Paper, 8th International Congress on Insurance: Mathematics & Eco-
nomics, Roma.
Nelsen R. 2006 An Introduction to Copulas number 139 in Lecture Notes in Statistics 2nd
edn. Springer Verlag, Nueva York.
Patton A. 2006 Modelling asymmetric exchange rate dependence. International Economic
Review 47(2), 527-556.
Rockinger M. y Jondeau E. 2001 Dependencia condicional de las series financieras: Una
aplicación de las cópulas. Notes d' Études et de Recherche NER 82, Banque de France,
París, Francia.
Schweizer B. y Sklar A. 1983 Probabilistic Metric Spaces. North-Holland/Elsevier, Nueva
York.
Shih J. y Louis T. 1995 Inferencias sobre el parámetro de asociación en modelos de cópula para
datos de supervivencia bivariados. Biometrics 51, 1384-1399.
Sklar A. 1959 Fonctions de répartition à dimensions e leurs marges. Publications de
l'Institut de l'Université de Paris 8, 229-231.
Venables W. N. y Ripley B. D. 2002 Modern Applied Statistics with S 4th edn. Springer,
Nueva York.
Würtz D. y Setz T. 2014 fCopulae: Rmetrics-Bivariate Dependence Structures with Cop-
ulae. Paquete R versión 3011.81.
Würtz D., Setz T. y Chalabi Y. 2014 fPortfolio: Rmetrics-Portfolio Selection and Optimiza-
tion. Paquete R versión 3011.81/r5908.
Yan J. 2007 Disfruta de la alegría de las cópulas: Con un paquete de cópulas. Journal of
Statistical Software
21(4), 1-21.
MODELIZACIÓN DE LA 175
DEPENDENCIA
Parte III
ENFOQUES DE
OPTIMIZACIÓN DE
CARTERAS
10
Optimización robusta de la
cartera
10.1 Resumen
En el capítulo 5 se presentaron las carteras de Markowitz y su aplicación en R. Se
abordaron los problemas que se pueden encontrar al optimizar directamente carteras
de este tipo. En particular, se afirmó que el uso de estimadores de muestra para los
rendimientos ex- pectos y la matriz de covarianza puede dar lugar a resultados de
cartera subóptimos debido al error de estimación. Además, en las simulaciones a
posteriori suelen observarse ponderaciones extremas de las carteras y/o oscilaciones
erráticas en la combinación de activos. En general, este hecho empírico no es
deseable debido a los costes de transacción. Desde un punto de vista estadístico,
estos artefactos pueden atribuirse principalmente a la sensibilidad de los es-
timadores de muestra ordinarios con respecto a los valores atípicos. Estos puntos
de datos atípicos influyen en las estimaciones de dispersión en menor medida que
las medias, ceteris paribus. Por ello, pero no sólo por esta razón, se aboga por las
carteras de varianza mínima en comparación con las carteras de varianza media
(véanse las referencias del capítulo 5). Por lo tanto, sería deseable disponer de
estimadores que reduzcan el impacto de los valores atípicos y, por lo tanto,
produzcan estimaciones que sean representativas del grueso de los datos de la
muestra, y/o técnicas de optimización que incorporen directamente los errores de las
estimaciones. Lo primero puede lograrse utilizando estadísticas robustas y lo
segundo empleando técnicas de optimización robustas.
En las dos secciones siguientes se presentan estos dos medios desde un punto de
vista teórico. Luego se discuten las fuentes en R. El capítulo concluye con
aplicaciones empíricas en forma de una simulación de Monte Carlo y
comparaciones de back-test, en las que estas optimizaciones de carteras robustas se
comparan con soluciones de carteras basadas en estimadores muestrales ordinarios.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd. Sitio
web complementario: www.pfaffikus.de
164 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
10.2 Estadísticas robustas
10.2.1 Motivación
Ya se ha señalado en el capítulo 3 que el supuesto de normalidad no suele
cumplirse en los datos de rentabilidad de los mercados financieros (véase también
Pfaff 2010, capítulo 1). La violación de este supuesto se justifica por razones
empíricas por los hechos estilizados para los rendimientos simples y multivariados.
Pero también se demostró en el capítulo 6 que el supuesto de normalidad se viola
en menor medida cuanto menor es la frecuencia de los datos (véase también Pfaff
2010, capítulo 2).
Es justo decir que en el trabajo empírico la media aritmética y la covarianza
muestral se emplean ampliamente para estimar los correspondientes momentos
teóricos de localización y dispersión de la población. Estos estimadores pueden
derivarse del principio de ML y son asintóticamente eficientes y consistentes.
Además, se distribuyen normalmente de forma asintótica. Sin embargo, cuando no
se cumple el supuesto de distribución, los estimadores pierden sus propiedades
deseables. De hecho, la media aritmética -como estimador de la localización de una
población- es sensible a las observaciones extremas, de modo que la estimación no
refleja bien el grueso de los datos. Del mismo modo, la dependencia entre dos
variables aleatorias puede verse muy distorsionada por un solo par de datos
periféricos. A la luz de esto, sería deseable recurrir a métodos y técnicas que sean
relativamente inmunes a dichos valores atípicos y/o a las violaciones de los
supuestos del modelo subyacente, pero que aún puedan ofrecer resultados
razonables para la mayoría de las observaciones de una muestra. El campo de la
estadística robusta se ocupa de este tipo de problemas y ofrece soluciones en forma
de estimadores robustos y de inferencia basada en ellos. Se pueden encontrar
exposiciones en libros de texto, por ejemplo, en Huber (1981), Hampel et al.
(1986), Rousseeuw y Leroy (1987), Staudte y Sheather (1990) y Maronna et al.
(2006).
Anteriormente, el problema de los valores atípicos esbozado anteriormente se resolvía
mediante el recorte-
mación (eliminación de los valores atípicos) o winsorización (igualación de las
observaciones extremas a un valor cuantitativo fijo). De hecho, ambos métodos
pueden considerarse medios de robustecimiento. Por desgracia, el resultado de
estos procedimientos depende en gran medida de la elección subjetiva del
investigador. La mediana podría quizás emplearse como es- timador para la
localización y la desviación media absoluta para la escala. Ambos producen
estimaciones más robustas que los estimadores muestrales ordinarios de la media
aritmética y la desviación estándar. La ventaja de estos estimadores robustos es que
evitan especificar de antemano qué puntos de datos se consideran atípicos. De este
modo, se elimina un elemento subjetivo en el análisis de los datos. Antes de que se
presenten los estadísticos ro- bustos más comunes en la siguiente subsección, cabe
mencionar que hasta ahora no se ha definido con precisión el término "outlier" u
"observación extrema". La razón es sencilla: no hay una forma clara de evaluar si
un punto de datos es un valor atípico o no. La cuestión es siempre relativa y
depende fundamentalmente del modelo/la hipótesis de distribución subyacente. Por
ejemplo, dada la distribución normal estándar y una observación muestral de 5,
OPTIMIZACIÓN ROBUSTA DE LA 165
CARTERA
seguramente se podría clasificar este punto de datos como un valor atípico. Pero,
¿se mantendría esta clasificación cuando se asume una distribución t de Student
con cuatro grados de libertad o una distribución de Cauchy?
166 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
10.2.2 Estimadores robustos seleccionados
La siguiente presentación de los estimadores robustos seleccionados y sus
propiedades se basa en Maronna et al. (2006) y Todorov y Filzmoser (2009). La
medida más utilizada para evaluar la robustez de un estimador es el punto de
ruptura (BP). Esta medida se define como la proporción relativa de valores atípicos
en una muestra tal que el estimador no toma un valor grande arbitrario. Por
definición, el PB puede tomar valores entre 0 y 0,5. La media aritmética tiene un
PB de 0, porque si se sustituye una sola observación por un valor, la estimación de
la localización puede ser arbitrariamente alta. En cambio, la mediana tiene un PB
de 0,5. El límite superior del PB se explica por el hecho de que si más de la mitad
de las observaciones son valores atípicos, la muestra está falseada hasta un grado
tal que no se puede hacer ninguna inferencia con respecto a la población. Otro
criterio para evaluar la idoneidad de un estimador robusto es la eficiencia relativa
(ER). En este caso, la varianza asintótica de un estimador robusto se expresa en
relación con la varianza de un estimador óptimo que se ha derivado bajo una
estricta adhesión al supuesto de modelo/distribución. Como tal, puede interpretarse
como una cifra porcentual que indica en qué medida debe aumentarse el tamaño de
la muestra para que las varianzas de los dos estimadores se igualen.
Clase de estimadores M y MM
Ya en 1964 Huber introdujo la clase de estimadores M. El nombre de la clase
debería indicar la semejanza de este estimador con el principio ML (véase Huber
1964, 1981). Es conveniente restringir la siguiente presentación del estimador a
muestras univariantes. Recordemos que, de acuerdo con el principio ML, los
parámetros desconocidos, 𝜃, se determinan de tal manera que lo más probable es
que hayan producido una muestra iid dada,
{x1, ... , xn}, extraída de la distribución F(x, 𝜃) con función de densidad f (⋅).
Debido a la suposición iid, la distribución conjunta es igual al producto de los
marginales,
se maximiza:que
∏
( n )
𝜃̂ = arg max f (xi, 𝜃) . (10.1)
i=1
Esta amplia clase de estimadores incluye el principio ML (𝜌(⋅) = - log f (x, 𝜃)) y el
OPTIMIZACIÓN ROBUSTA DE LA 167
CARTERA
método de los mínimos cuadrados (LS). En este último caso, la función 𝜌(⋅) es el error
cuadrático.
168 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
La función 𝜌(⋅) debe cumplir los requisitos de simetría, definición positiva y un
mínimo global en cero. Por supuesto, la función debe proporcionar estimaciones
decentes cuando se cumplan los supuestos del modelo/distribución y no verse
afectada negativamente por
casos de violación. La diferencia entre las formas robustas de los estimadores M y
las de los principios ML y LS está en la especificación de 𝜌(⋅). Para los primeros
estimadores, los puntos de datos extremos obtienen un peso menor y, por lo tanto,
son menos i n f l u y e n t e s c o n r e s p e c t o a las estimaciones de los
parámetros. En el trabajo empírico se suelen emplear dos tipos de especificaciones
para 𝜌(⋅). En primer lugar, está la clase de funciones de Huber,
definido {x2
como si |x| ≤ k,
𝜌k(x) = 2
io|
2k x - k si x > k.
Esta función es cuadrática en un reg| n central alrededor de|k|y lineal fuera de él. Para
k → ∞ y k → 0 los estimadores M son idénticos a la media aritmética y la mediana,
respectivamente.
En segundo lugar, la función bi-cuadrada propuesta por Tukey también se encuentra
en el trabajo empírico. Viene dada por
{1
- [1 - (x∕k)2 ]3 si |x| ≤ k,
𝜌 (x) =
Esta función está acotada para1 valores absolutos xgrandes > k. o|f |x. La función
bicuadrada es preferiblek a las funciones de Hubers para distribuciones simétricas
caracterizadas por un exceso de i curtosis, porque la influencia de los valores
atípicos puede suprimirse por completo.
En lugar de optimizar directamente (10.3), a menudo es más fácil encontrar la solución
() =
mediante la ecuación
con el gradiente 𝜓 x𝛿𝜌(x,𝜃) a cero.
𝛿𝜃
La clase de estimadores MM fue introducida originalmente por Yohai (Yohai 1987; Yohai
et al. 1991) en el contexto del análisis de regresión robusta. Lopuhaã (1991, 1992)
adaptó estos estimadores para el análisis de datos multivariantes. En un primer paso, se
estima la dispersión de los datos mediante un estimador M. A partir de ahí, se lleva a
cabo una segunda estimación de tipo M para los parámetros de localización que se
ajusta a la matriz de varianza-covarianza del primer paso.
+
1, ... , N y 𝜎̂ es una métrica robusta.
Los estimadores MVE y MCD fueron introducidos por Rousseeuw (Rousseeuw
1985; Rousseeuw y Leroy 1987). En el caso del estimador MVE, la nube de datos más
pequeña se determina de forma que se incluya al menos la mitad de las
observaciones de la muestra. Esto se consigue utilizando la mediana de 𝜎̂ . La tasa
de convergencia para este estimador es sólo N −1∕3 . En el caso del estimador MCD,
la submuestra robusta con tamaño h > N∕2 se elige de forma que el determinante de
la matriz de varianza-covarianza sea mínimo. El vector de localización se
determina como las p medias aritméticas de los puntos de datos seleccionados,
y el estimador de la matriz de varianza-covarianza se ajusta mediante factores de
corrección, de forma que la estimación resultante Σ̂ sigue la distribución normal. El
PA es máximo para h = int[(N + p + 1)∕2], pero se puede elegir cualquier
valor en el intervalo [(N + p + 1)∕2, N]. Davies (1987) introdujo la clase de
estimadores S. La letra "S" significa escala. Con respecto a la optimización
anterior, un estimador M para la escala N
∑N
según 1∕N 𝜌(di) =i=1
𝛿 se inserta, donde 𝜌(⋅) debe ser una función acotada
(por ejemplo, la función bicuadrada) y 𝛿 ∈ (0, 1).
El estimador Stahel-Donoho
El estimador Stahel-Donoho (SDE) se debe a Stahel (1981) y Donoho (1982). Según
este procedimiento, el grado de periferia se determina en términos de un pro
jección de la matriz de datos X con un vector a ∈ ℝp . Este vector se define para unas
observaciones x dadas, una ubicación robusta 𝝁̂ , y un estimador de escala con respecto
a la totalidad de
conjunto de datos X como
x′a - 𝜇̂(Xa)
t(x, a) = . (10.5)
𝜎̂(Xa)
El grado de los contornos se da como el máximo de (10.5) para todos los vectores a
donde las normas de estos vectores son iguales a 1. Esta solución se utiliza
entonces como esquema de ponderación para X, de manera que se aplica una
función no creciente t(xi).
El estimador OGK
Un problema de los estimadores robustos que poseen la propiedad de invariancia
afín es la optimización no convexa resultante. El estimador propuesto por Maronna
y Zamar (2002) evita este problema estimando las covarianzas entre dos variables
aleatorias como
170 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
( [ ] [ Yj ]2)
1 Yj Yk 2 Yk
sjk = 𝜎 +
4 𝜎(Yj ) 𝜎(Yk ) j k
OPTIMIZACIÓN ROBUSTA DE LA 171
CARTERA
Esta forma de estimación de la dispersión fue introducida por Gnanadesikan y
Kettenring (1972). Si las covarianzas se determinan de acuerdo con (10.6), la
propiedad de invariancia afín se ve compensada por un cálculo más sencillo. Sin
embargo, si se aplicara este estimador de dispersión directamente a los pares de
datos de X, la matriz de varianza y covarianza resultante dejaría de ser positiva
definida. Por esta razón, Maronna y Zamar (2002) propusieron una
ortogonalización de X y, por tanto, el estimador se denomina "Gnanadesikan-
Kettenring ortogonalizado" (OGK). Si un estimador robusto para 𝜎 es
utilizado para las covarianzas por pares sjk, con j = 1, ... , p y k = 1, ... , p,
entonces la matriz de varianza-covarianza resultante también es robusta.
distribución. Por ejemplo, si se supone que cada uno de los rendimientos de los
activos se distribuye normalmente, la fluctuación central
El intervalo de confianza con (1 - 𝛼) viene dado por 𝛿i = Φ-1(𝛼∕2) ⋅
𝜎̂ i ∕ T), donde Φ-1 es la función cuantil, 𝜎̂i la desviación estándar de los
rendimientos del i-ésimo activo, y T denota el tamaño de la muestra. El hecho
estilizado del exceso de curtosis de la re
Los procesos de giro se pueden tener en cuenta, utilizando una distribución t de Student,
para
OPTIMIZACIÓN ROBUSTA DE LA 175
CARTERA
ejemplo. En este caso, se realiza primero una estimación ML para obtener una
estimación del parámetro de grados de libertad 𝜈. A continuación, se determina el
cuantil en el nivel de confianza deseado utilizando esta estimación empírica. Merece
la pena mencionar que en el caso de un conjunto de incertidumbre como el de
(10.8b) no se tienen en cuenta las dependencias entre los márgenes de
incertidumbre de los diferentes activos, sino que se tratan como independientes
entre sí. Para el conjunto de incertidumbre de (10.8c) se define un conjunto de
incertidumbre elíptico. A diferencia del conjunto de incertidumbres de (10.8b),
ahora se supone que las incertidumbres proceden de una distribución elíptica
multivariante; las covarianzas entre los rendimientos de los activos se incluyen
ahora explícitamente en el conjunto de incertidumbres. Por último, pero no por ello
menos importante, cabe señalar que el primer y el segundo conjunto de
incertidumbres pueden combinarse. Los escenarios (por ejemplo estimadores
basados en ML y robustos para los rendimientos desconocidos) estarían entonces
dados por M ∶= {𝝁̂ML , 𝝁̂MCD , 𝝁̂M , 𝝁̂MM , 𝝁̂MVE , 𝝁̂S , 𝝁̂SD , 𝝁̂OGK } y se puede generar
un conjunto de incertidumbre elíptico como
-1
Ue = {𝝁 ∈ ℝN | (𝜇 - 𝜇̄ ) ′Σ̄ (𝜇 - 𝜇̄) ≤ 𝛿̄2}, (10.9)
con st
1 ∑
𝜇̄ = m, (10.10a)
|M| m∈M
1 ∑
Σ̄ = diag(𝜎̄11, ... , 𝜎̄NN ) donde 𝜎̄ii = (mi - 𝜇̄i)2, (10.10b)
|M| -1 m∈M
𝛿̄ = arg max(m - 𝜇̄ ) ′Σ̄ -1(m - 𝜇̄). (10.10c)
m∈M
𝝎 = 𝝎+ - 𝝎-,
𝝎+ ≥ 0,
𝝎- ≥ 0. (10.11)
Por supuesto, la formulación del problema anterior puede modificarse con una
restricción presupuestaria
′𝝎 𝟏 = 1 y/o otras restricciones. Durante la optimización, para los pesos positivos 𝜔i
> 0 los rendimientos son iguales a (𝜇̂i - 𝛿i), y para los pesos negativos los
rendimientos se establecen como (𝜇̂i + 𝛿i). En el primer caso, el iésimo elemento
de 𝝎+ es positivo y el de 𝝎- se fija igual a cero según la restricción de desigualdad,
y viceversa. Los activos con una mayor rentabilidad
La incertidumbre obtendrá una ponderación de la cartera inferior a la de aquellos
para los que la rentabilidad esperada es más segura. La incertidumbre de los
rendimientos esperados también puede limitarse a un
subconjunto U ⊂ N de los activos. En este caso, 𝛿i ∉ U se fijan en cero. Si se
incluyen las restricciones de sólo largo plazo como restricciones laterales, entonces
la formulación del programa matemático
se reduce a la expuesta en (10.7), donde el vector de retorno se establece como 𝝁̂ -
≥
𝜹 con la restricción adicional de no negatividad 𝝎0.
Por último, se aclara el tratamiento de un conjunto de incertidumbre elíptico para
los retornos como en (10.8c). De forma análoga a los enfoques anteriores, este
problema también se resuelve en forma de wo rst-case approach:
PR𝜆 = arg min arg max (1 - 𝜆)√𝝎′Σ𝝎 - 𝜆(𝝎′ 𝝁). (10.12)
𝝎∈Ω 𝝁∈U
Si los rendimientos están distribuidos normalmente de forma multivariable,
entonces (𝝁 - 𝝁̂ )′Σ-1(𝝁 - 𝝁̂ ) se distribuye como 𝜒2 con N grados de libertad. El
escalar 𝛿2 es entonces el valor del cuantil correspondiente para un nivel de
confianza determinado (1 - 𝛼). El vector de retorno estocástico
Por lo tanto, 𝝁 se encuentra en la elipse definida por el nivel de confianza. Ahora se
determina la distancia máxima entre este elipsoide de incertidumbre y el vector de
ubicación empírica, de manera que los rendimientos corresponden al resultado
menos favorable. De (10.12) se desprende que la incertidumbre se limita a los
rendimientos y que la matriz de varianza-covarianza se toma como dada. Por lo
tanto, en un primer paso se puede determinar la distancia máxima utilizando un
enfoque de Lagrange, donde
P̂ =1 Σ̂T es la matriz de varianza-covarianza de los rendimientos empíricos y 𝛾 denota la
Multiplicador lagrangiano:
178 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA [𝛾 ]
L(𝝁, 𝛾) = 𝝎′ 𝝁̂ - 𝝎′ 𝝁 - (𝝁̂ - 𝝁)′P̂ -1
(𝝁̂ - 𝝁) - 𝛿2 . (10.13)
2
OPTIMIZACIÓN ROBUSTA DE LA 179
CARTERA
La solución óptima se encuentra entonces tomando las derivadas parciales de
(10.13) con respecto a 𝝁 y 𝛾 y poniéndolas a cero. Esto da lugar a un sistema de
dos ecuaciones, que se resuelve para 𝝁:
(
𝛿 𝝎)
𝝁= 𝝁̂ - √
P . (10.14)
𝝎′P̂ 𝝎
Después de multiplicar por la izquierda por 𝝎′ se obtiene, para los rendimientos de la cartera,
′𝝎 𝝁 = 𝝎′ 𝝁
̂- 𝛿√𝝎′P̂ 𝝎
= 𝝎′ 𝝁̂- 𝛿 P̂12𝝎 . (10.15)
De esta ecuación se desprende que el rendimiento po||rtfoli|o| en el caso de una
optimización robusta con incertidumbre elíptica es menor que la solución clásica
por el término 𝛿 𝝎 ′ P 𝝎. La raíz cuadrada del valor del cuantil puede
interpretarse
√ como un parámetro de aversión al riesgo con respecto a la
incertidumbre de las estimaciones. Sustituyendo la solución interna de la ecuación
(10.15) en la especificación de optimización robusta como en (10.12), se obtiene
PR𝜆 = arg min arg max (1 - 𝜆)√𝝎′Σ𝝎 - 𝜆(𝝎′ 𝝁)
√ 𝝎 ′ Σ̂
= arg min(1
𝝎∈Ω - 𝜆)√𝝎′Σ𝝎
𝝁∈U - 𝜆(𝝎′ 𝝁) + 𝜆 𝛿 𝝎
√
𝝎∈Ω T
( ) √𝝎′Σ𝝎
= arg min 1 - 𝜆 + 𝜆 𝛿√ - 𝜆𝝎′ 𝝁̂. (10.16)
𝝎∈Ω T
a t ≤ 𝝁̂′ 𝝎 - 𝛿
1
P 2 𝝎|| , (10.21)
1
𝜎max || Σ 2𝝎 ||.
182 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
La primera restricción de desigualdad es la restricción cónica y la segunda es una
restricción cuadrática con respecto al riesgo de la cartera. Por supuesto, la
especificación del problema en (10.21) puede ser modificada por otras restricciones
lineales, tales como restricciones de presupuesto, de no negatividad y/o de límite y
de grupo.
2 En aras de la exhaustividad, cabe mencionar que los estimadores de contracción y embolsados para
El paquete Rsocp
El paquete Rsocp forma parte del conjunto de paquetes Rmetrics (véase Chalabi y
Würtz 2014). En el momento de escribir este artículo, el paquete estaba alojado
únicamente en R-Forge. Dentro del paquete, se implementan funciones de
envoltura para el software socp de Lobo et al. (1997). El algoritmo para resolver
los SOCP se ha desarrollado en C. Estas rutinas en C están interconectadas desde
OPTIMIZACIÓN ROBUSTA DE LA 193
CARTERA
R. Además de estas funciones en lenguaje de alto nivel, los autores proporcionan
scripts de MatLab. El software original todavía está disponible en
http://stanford.edu/∼boyd/old_software/SOCP.html.
194 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
El paquete contiene dos funciones: socp() y socpControl(). La función
for- mer sirve como envoltura del código C subyacente, y para controlar el
comportamiento del algoritmo se puede especificar un objeto de lista creado
por la última función. El SOCP tiene que ser formulado al menos en su forma
primaria (ver (10.18)) y proporciona argumentos para especificar los parámetros de
su forma dual. Si no se proporcionan estos últimos argumentos, se calcula una
solución interna antes de pasar los parámetros del SOCP a la rutina C. Esto se
consigue con las funciones internas .socp.phase1() y .socp.phase2().
La primera de estas funciones devuelve una solución interna para x y la segunda
determina los valores correspondientes para
z. Por cierto, el paquete contiene otra función oculta .SqrtMatrix() para calcular
la raíz cuadrada de una matriz. La guía del usuario (Lobo et al. 1997) y una versión
preliminar de Lobo et al. (1998) se encuentran en el directorio doc del
paquete.
La primera DGP corresponde al caso en que los estimadores clásicos son los
mejores estimadores lineales insesgados para la cópula de Gauss con márgenes
normales; las otras dos DGP reflejan los hechos estilizados de los rendimientos de
los mercados financieros, a saber, el exceso de curtosis y la dependencia de la cola.
Para la distribución t se han elegido cinco grados de libertad, y los tamaños de las
muestras para todas las DGP son de 60, 120 y 240 observaciones. Suponiendo una
frecuencia mensual, esto corresponde a un periodo de tiempo de 5, 10 y 20 años
para los datos de cada una de las optimizaciones de cartera. Para cada DGP se ha
generado un conjunto de 1000 muestras. Se ha supuesto una estructura de
dependencia igualmente correlacionada entre los cinco activos con un valor de 𝜌 =
0,5. La generación de estas muestras aleatorias se muestra en el listado 10.1.
En primer lugar, se cargan los paquetes necesarios en el espacio de trabajo. Las
muestras aleatorias se generan mediante las funciones contenidas en el paquete
copula (véase la sección 9.4.2). A continuación, se crean objetos de cópula para la
cópula de Gauss y la cópula t de Student y se denominan ncop y tcop,
respectivamente. Los DGP se crean utilizando la función mvdc(). Esto requiere
un objeto de clase cópula y un objeto de lista que contenga la información
de los parámetros de las distribuciones marginales asumidas. Los objetos se
OPTIMIZACIÓN ROBUSTA DE LA 195
CARTERA
denominan NcopMargN, NcopMargT y TcopMargT para los tres modelos de
distribución multivariante.
196 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
Código R 10.1 Simulación de cartera: generación de datos.
## Carga de paquetes 1
l i b r a r i a ( cccp ) 2
l i b r a r i a ( c opul a ) 3
biblioteca ( r r c o v ) 4
## C r e a c i ó n de cópulas 5
## C r e a c i ó n d e DGP 8
paramMargins = l i s t ( l i s t ( mean = 0 , sd = 1 ) ) , 10
m á r g e n e s I d é n t i c o s = TRUE) 11
paramMargins = l i s t ( df = 5 ) , 13
m á r g e n e s I d é n t i c o s = TRUE) 14
paramMargins = l i s t ( df = 5 ) , 16
m á r g e n e s I d é n t i c o s = TRUE) 17
Lobj < - l i s t a ( ) 19
## E s t a b l e c e r una semilla 21
s e t . semilla (12345) 22
## G e n e r a c i ó n d e muestras aleatorias 23
Estos objetos se emplean después para extraer las muestras aleatorias. Para ello,
primero se crea un objeto lista, Lobj, y se le asigna el tamaño de la simulación
como su longitud. En segundo lugar, se establece una semilla a efectos de
replicación. En principio, las 1000 muestras aleatorias para cada uno de los DGP
podrían asignarse como elementos de la lista con un bucle for, pero es más propio
de R utilizar lapply() en su lugar. En las tres últimas líneas se utiliza el objeto de
lista Lobj para este fin y los resultados se almacenan en los objetos
rNcopMargN, rN- copMargT y rTcopMargT. Estos objetos de lista constan
de 1000 muestras para cada una de las DGP con 240 filas y cinco columnas para
los rendimientos de los activos ficticios. Los datos de las muestras más cortas
pueden extraerse rápidamente de los elementos de la lista. Como paso siguiente, se
crea una función que devuelve las estimaciones de dispersión para los métodos
clásico y robusto. Esta función puede aplicarse a los conjuntos de datos simulados
para cada uno de los DGP y luego utilizarse para optimizar los portfo- lios de
varianza mínima. La simulación comparativa abarcará los estimadores clásicos y los
M-,
Estimadores robustos MM, S-, MCD, MVE, SD y OGK. La especificación de la función
se muestra en el listado 10.2, donde se utilizan los estimadores del paquete rrcov.
La función se especifica con tres argumentos. El primero, x, se utiliza para el
conjunto de datos aleatorios, el segundo para determinar qué tipo de estimador se
OPTIMIZACIÓN ROBUSTA DE LA 197
emplea, y el CARTERA
198 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
" CovMest " , " CovMMest " , " CovMve " , " CovOgk " , 3
} 8
DGP <- c ( " rNcopMargN " , " rNcopMargT " , " rTcopMargT " ) 2
EST <- c ( " C o v C l a s s i c " , " CovMcd" , " CovMest " , " CovMMest" , 3
" CovMve" , " CovOgk " , " CovSde " , " Cov Sest " ) 4
## C r e a n d o l i s t o b j e t o s p a r a c o m b i n a c i o n e s d e 6
## DGP y t a m a ñ o s d e muestra 7
## v e c t o r i n i t i a l d e l o s d a t o s 8
para ( i i n DGP) { 10
f o r ( j i n SAMPLE) { 11
a s i g n ( objname , l a p l i c a ( e v a l ( as . name ( i ) ) , 15
función ( x ) x [ 1 : j , ] )) 16
} 17
} 18
## C r e a n d o l i s t o b j e t o s con e s t i m a s d e 19
## l o c a c i ó n y d i s p e r s i ó n d e l a s c o m b i n a c i o n e s d e 20
## DGP, muestras y e s t i m a d o r e s 21
## v e c t o r i n i t i a l d e l o s p r o c e d i m i e n t o s 22
f o r ( i i n datnames ) { 24
pa ra ( j i n EST ) { 25
método = j ) ) 30
} 31
} 32
OPTIMIZACIÓN ROBUSTA DE LA 199
CARTERA
El tercero es el argumento de la elipsis que se pasa a do.call() para que el
usuario tenga el control de los argumentos de la función de estimación. En la
primera línea del cuerpo de la función se incluye la coincidencia parcial del
nombre de la función de estimación. En la segunda línea, se aplica la función
determinada por el método de argumentos al conjunto de datos x. Finalmente,
se extrae la estimación del objeto ans mediante la función de acceso
getCov() y se devuelve su resultado.
Esta función puede utilizarse ahora para estimar el segundo momento para cada
uno de los elementos de la lista y para cada uno de los DGP y tamaños de muestra.
El listado 10.3 muestra cómo se puede realizar esta tarea rápidamente. En primer
lugar, se define la dimensión del estudio de simulación: hay tres modelos para las
distribuciones multivariantes, DGP. Estos objetos de lista se crearon en el
Listado 10.1. Cada objeto de lista contiene 1000 elementos en forma de matrices
(240 × 5). A continuación, los nombres de las funciones de los estimadores que se
van a utilizar se recogen en el vector de caracteres EST. Por último, se establecen
los tamaños de las muestras en el vector numérico SAMPLE. En la siguiente
sección de código se crean las muestras de diferentes tamaños. En el primer bucle
doble for, se crean los nombres de los objetos y se muestran mediante la función
cat() para que el usuario pueda seguir mejor el progreso del bucle. Además, los
nombres de estos objetos de la lista se guardan en el vector datnames para su
uso en la construcción del segundo bucle for. En la última línea, se utiliza lapply()
para extraer para cada elemento de la lista y para cada DGP el número de filas según
SAMPLE. De este modo, una vez finalizada la ejecución del bucle, se han creado
nueve nuevos objetos de lista. Con estos conjuntos de datos a mano, se puede
proceder ahora a estimar los momentos para cada elemento de la lista. Esto se hace
en el segundo bucle for doble. En primer lugar, se crean los nombres de los
objetos de la lista que almacenarán las estimaciones de la media y la covarianza, y
estos nombres se muestran para permitir el seguimiento del progreso cuando se
ejecuta el bucle for. Al igual que en el primer bucle, los nombres de estos objetos se
guardan en el vector de caracteres objnames. En la última línea, se utiliza
lapply() para aplicar la función Moments() a cada elemento de la lista
para cada uno de los DGP y tamaños de muestra. Tras la finalización con éxito de
este bucle, se han creado un total de 3 × 3 × 8 = 72 objetos de lista y cada uno
contiene una estimación de dispersión. A continuación, se realizan las
optimizaciones de la cartera con respecto a estos 72 objetos, lo que implica un total
de 72 000 optimizaciones que hay que realizar.
Una vez creados todos los objetos de datos necesarios, se puede proceder a las
optimizaciones de la cartera. En el listado 10.4 se ha definido la función
PortMinVar(). La optimización se realiza empleando cccp() del paquete
cccp. La optimización de la varianza mínima tiene lugar bajo las restricciones de
estar completamente invertido (objetos a1 y b1) y con sólo posiciones largas
permitidas (objetos nno1). La función devuelve el vector de pesos. En el siguiente
bucle for se llevan a cabo las optimizaciones y se almacenan las 1000
cifras de riesgo de la cartera para cada una de las combinaciones de DGP,
estimador y tamaño de la muestra. Por último, se calculan la mediana y el rango
intercuartil (IQR) de los riesgos de la cartera.
Los resultados de la simulación se resumen en la tabla 10.1. Las medianas y los
rangos intercuartiles se presentan en las columnas para cada uno de los tres DGP.
200 OPTIMIZACIÓN ROBUSTA DE LA
Los CARTERA
resultados se agrupan por tamaño de la muestra. De esta tabla se pueden
extraer un par de conclusiones. Incluso en el caso de la cópula de Gauss con
márgenes distribuidos normalmente, el estimador clásico de la covarianza no
produce una estructura de cartera de menor riesgo en promedio, y la dispersión de
los riesgos de la cartera tampoco es la más pequeña. Este resultado es válido para
todos los
OPTIMIZACIÓN ROBUSTA DE LA 201
CARTERA
Código R 10.4 Simulación de carteras: optimizaciones de varianza mínima.
## F u n c i ó n para el p o r t a m i n o d e v a r i a d e l a f o l i ó n 1
PortMinVar <- f u n c t i o n ( x ) { 3
k <- nc ol ( x ) 4
A1 <- m a t r i z ( r e p (1 , k ) , nrow = 1 ) 6
b1 <- 1 .0 7
c L i s t = l i s t ( nno1 ) , 9
o p t c t r l = c t r l ( t r a c e = FALSE) ) 10
obtener x ( opt ) 11
} 12
## Conduct o p t i m i s a c i ó n 13
n o m b r e s d e p u e r t o s <- NULL 14
f o r ( i i n objnames ) { 16
a s i g n ( objname , s a p l a d o ( idx , f u n c i ó n ( x ) 21
s q r t ( c r o s s p r o d ( w e i g h t s [ [ x ] ] , o b j [ x ] ) %∗% 22
pesos [ [ x ] ] ) ) ) 23
} 24
i q r n a m e s <- NULL 27
f o r ( i i n po r t n a m e s ) { 28
} 35
b i b l i o t e c a ( FRAPO) 2
l i b r a r i a ( P erformanceAnalytics ) 3
l i b r a r i a ( quadprog ) 4
biblioteca ( r r c o v ) 5
b i b l i o t e c a ( zoo ) 6
## Carga de datos , c a l c u l a d o r e s 7
d a t a ( S tockIndex ) 8
asimetría ( r zoo ) , 14
c u r t o s i s ( r zoo ) 15
) 16
206 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
30
20
10
-
10
-
20
-
30
SP500N225 FTSE100 GDAX HSI
EST <- c ( " C o v C l a s s i c " , " CovMcd" , " CovMest " , " CovMMest" , 2
" CovMve" , " CovOgk " , " CovSde " , " Cov Sest " ) 3
## F u n c i ó n para la espalda 4
" CovMest " , " CovMMest " , " CovMve " , " CovOgk " , 6
} 10
16
P f R e t u r n s <- l a p p l y ( Pf Weights , f u n c t i o n ( x ) 19
n c o l = l ength ( P f R e t u r n s ) ) , periodos ) 22
P o r t O u t <- ( P f R e t u r n s [ , -1] - P f R e t u r n s [ , 1 ] ) 24
xl a b = " " , 27
y la b = EST[ - 1] , 28
ylim = r ange ( P o rt O u t ) ) 30
## s t a t i s t i c a s s o b r e l a s e r v i c i o n e s r e l a t i v a s 31
asimetría ( P o r t O u t ) 33
) 34
CovM CovO
cd gk
012 0123
3
CovM CovS
est de
012 0123
3 -2 -2
CovM CovS
Mest est
01 012
23- 3 -2
2
3- -2
2
Jan Mar Mayo
Co 2
v 1
M 0
ve
-2
Jan Mar Mayo
de nuevo implica la función lapply(). En las dos líneas siguientes, este objeto
lista se transforma en un objeto zoo y se calcula el exceso de rendimiento
de las carteras basado en estimadores robustos en comparación con el estimador de
covarianza clásico. En los dos últimos bloques de código se muestran los excesos de
rentabilidad y se calculan los estadísticos de resumen. El exceso de rendimientos de
la prueba retrospectiva basada en los estadísticos robustos en comparación con los
estimadores clásicos se muestra en la Figura 10.2 y los estadísticos de resumen
pertinentes en la Tabla 10.3. Para las medidas dadas, el resultado de las
optimizaciones robustas es más favorable que el del estimador clásico. El exceso
de rendimiento medio es positivo
Estimador Min 1er cuartil Mediana Medi 3er cuartil Max Skew
a
MCD -1.592 -0.350 -0.003 0.034 0.427 3.768 1.054
M -1.312 -0.314 -0.003 0.039 0.438 3.682 1.279
MM -0.685 -0.166 0.004 0.024 0.195 1.696 1.115
MVE -1.545 -0.372 -0.020 0.021 0.454 2.132 0.143
OGK -1.468 -0.337 0.017 0.037 0.484 2.670 0.363
SDE -1.898 -0.376 0.061 0.035 0.515 2.319 -0.018
S -1.360 -0.294 0.000 0.044 0.423 2.749 0.810
210 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
para todas las carteras robustas, y están sesgadas hacia la derecha. Ciertamente, la
asimetría se ve afectada por el gran exceso de rentabilidad positiva en 2009, pero
incluso si se ignora este punto de los datos resulta una asimetría positiva. Esto
puede concluirse por la diferencia entre el tercer cuartil y el valor absoluto del
primer cuartil, que es mayor que cero para todos los estimadores robustos. En
comparación con los demás estimadores robustos, el rendimiento del estimador
MM es el menos favorable, dando la media más baja y el exceso de rendimiento
máximo. Entre los estimadores robustos con un exceso de rendimiento positivo en
la mediana, los estimadores MCD y MM produjeron asignaciones de cartera que
arrojaron un exceso de rendimiento de mayor asimetría, seguidos por los
estimadores OGK y Stahel-Donoho.
o p t c t r l = c t r l ( t r a c e = FALSE) ){ 3
## R e s t r i c c i ó n d e r i e s g o d e l a c a r t e r a 5
f = SigTerm ) 7
## no n e g a t i v i d a d c o n s t r a i n t e r n a c i ó n 8
## Presupuesto c o n s t r a i n t e r n o 10
A1 <- m a t r i z ( r e p (1 , N) , nrow = 1 ) 11
b1 <- 1 .0 12
## o p t i m i z a c i ó n 13
c L i s t = l i s t ( nno1 , soc 1 ) , o p t c t r l = o p t c t r l ) 15
ge t x ( ans ) 16
OPTIMIZACIÓN ROBUSTA DE LA 211
} CARTERA 17
212 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
estimaciones puntuales de los rendimientos esperados, SigTerm para el primer
término como en (10.7) y (10.16), y optctrl para proporcionar las opciones de
control especificadas por el usuario con respecto a la función cccp(). Por
defecto, este argumento se inicializa de forma que no se imprime la traza del
solucionador. En el cuerpo de la función, primero se determina el número de
activos mediante el recuento de filas de SRoot. En las siguientes líneas, se crean
las restricciones de la cartera con respecto a una cartera totalmente invertida y sólo
a largo plazo. La restricción de riesgo de desviación estándar de la cartera se define
llamando a la función socc. Esta restricción consiste en la raíz cuadrada de la
matriz de covarianza de la varianza como argumento del lado izquierdo y el
término constante SigTerm como límite superior. Esta restricción cónica de
segundo orden se asigna al objeto soc1. Las restricciones de no negatividad se
crean llamando a la función nnoc para crear restricciones con respecto al cono de
ortantes no negativos. Dado que todas las restricciones de cono se formulan como
restricciones inferiores o iguales con respecto a un cono, la matriz diagonal negativa
debe proporcionarse como argumento del lado izquierdo G. Esta restricción se asigna
al objeto nno1. Por último, la exigencia de inversión completa se convierte en una
restricción de igualdad (objetos A1 y b1). La optimización se lleva a cabo
rápidamente llamando a la función cccp(), y el objetivo lineal a minimizar se
establece en menos los rendimientos negativos. El parámetro de ponderación 𝜆
como en (10.7) y (10.16) no tiene que ser proporcionado, dado que es un escalador
y no influye en el resultado de la optimización, sino sólo en el valor de la función
objetivo. El resto de los argumentos que se pasan a cccp() son la restricción de
presupuesto (argumentos A y b), las dos restricciones de cono creadas previamente
y que se convierten en un objeto de lista como argumento cList, y los ajustes
de control para el optimizador (argumento optctrl).
Con esta función de envoltura en el Listado 10.7 uno puede ahora trazar las
fronteras eficientes de la media-varianza y de las carteras robustamente
optimizadas. El código R pertinente para hacerlo se muestra en el Listado 10.8.
En primer lugar, se carga el paquete cccp en el espacio de trabajo. En las líneas
2-8 se definen los parámetros utilizados en las optimizaciones. Éstos consisten en
el recuento de activos y observaciones, el vector de rendimientos esperados
establecido como las medias de columna de rzoo, la matriz de varianza-
covarianza de los rendimientos y la raíz cuadrada de los mismos, y el cuantil del
90% para las incertidumbres de los rendimientos. En las líneas 9-12 se determina
una secuencia de diez parámetros de aversión al riesgo para calcular los puntos de
la frontera eficiente. Éstos se construyen de forma que el rango abarca los riesgos
de desviación estándar de la cartera superiores al 110% del activo menos
arriesgado y al 90% del activo más arriesgado en términos de riesgo de desviación
estándar.
A partir de la línea 14, se definen dos objetos matriciales para almacenar
los resultados de optimización del enfoque clásico de cartera de media-varianza
(objeto MVans) y su contraparte robusta (objeto RCans), respectivamente.
El cálculo de los diez puntos de la frontera eficiente para cada esquema de
optimización se realiza en un bucle for que comienza en la línea 18. En el cuerpo
del bucle, se determina la asignación im- plicada por el enfoque clásico de media-
varianza para un parámetro de aversión al riesgo dado ra[i] y se asigna al objeto
wmv. A continuación, la desviación estándar del riesgo de la cartera asociada, la
OPTIMIZACIÓN ROBUSTA DE LA 213
CARTERA
rentabilidad de la cartera que se espera y la propia asignación se almacenan en la
fila i del objeto matriz MVans. De forma similar, se realiza lo mismo para la
configuración de la contraparte robusta en la parte restante del bucle
214 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
Código R 10.8 Fronteras eficientes para la optimización de la media-
varianza y la contraparte robusta con incertidumbre elíptica de 𝝁.
l i b r a r i a ( cccp ) 1
SR <- sqrm ( S ) 7
d e l t a <- s q r t ( q c h i s q ( 0 . 9 , N a s s e t s ) ) 8
## D e t e r m i n a c i ó n d e l a f e a s i b l e r a d e l a v e r s i ó n 9
nrow = 10 , 15
nc ol = N a s e t s + 2 ) 16
## Computing p o i n t s on e f r o n t i e r e s y a l o c a c i o n e s 17
para ( i i n 1 : 1 0) { 18
## variación-mínima 19
wmv) 23
## c o n t r a p a r t i d a r o b u s t a 24
t h e t a <- ra [ i ] + ( 1 - ra [ i ] ) ∗ d e l t a / s q r t ( Nobs ) 25
wrc <- PMV( SRoot = SR , mu = mu , SigTerm = SigMin / t h a ) 26
wrc ) 29
} 30
cuerpo. Como resultado de este bucle for, se han llenado dos objetos matriz
con respecto a las optimizaciones homóloga clásica y robusta. Como se
desprende de la invocación de la función cccp(), las dos optimizaciones sólo
difieren entre sí con respecto al argumento proporcionado sigTerm.
Ahora, recordemos (10.17) en el que se estableció la relación entre la contraparte
robusta y el parámetro clásico de ponderación del riesgo de varianza media 𝜆. Para
un valor dado del escalar de ponderación del riesgo 𝜃 ∈ [0, 1] en la optimización de
la contraparte robusta, se puede calcular un valor equivalente para el ajuste clásico
de la varianza media. Este es el tema en el Listado 10.9.
OPTIMIZACIÓN ROBUSTA DE LA 215
CARTERA
Código R 10.9 Determinación de la asignación equivalente de media-varianza para una
ponderación de riesgo de contraparte robusta dada.
## P a r á me t r o d e la temperatura para la t a m b i é n 1
t h e t a 2 l a m b d a <- f u n c i ó n ( t a , N a s e t a s , Nobs , l e v e l ) { 2
d e l t a <- s q r t ( q c h i s q ( l e v e l , N a s s e t s ) ) 3
} 6
## r o b u s t a a l o c a c i ó n y e q u i v a l i d a d 7
## u b i c a c i ó n media de la v a r i a n c i a 8
t h e t a <- 0,7 9
## P u n t o RC en la f r o n t a c i ó n e f i c i e n t e 11
l e v e l = 0,9) 15
## E q u i v a l e n t o MV p o i n t e r n o s e n f r o n t i d a d e s 16
## r a n g o s d e d e t e r m i n a c i ó n 2
## p l o t a n d o e f r o n t i d a d d e l a s m u e s t r a s 7
xlim = xlims , 9
ylim = ylims , 10
x l a b = e x p r e s i ó n ( sigma ) , 11
y l a b = e x p r e s i ó n ( mu) ) 12
## S u p e r p o s i c i ó n d e p o i n t e s 13
pa ra ( i i n 1 : nrow ( MVans ) ) { 14
pch = 19) 16
pch = 19) 18
} 19
pch = 23) 24
## Leyenda 25
" P u n t o s RC " , 27
e x p r e s i ó n ( p a s t e ( "RC a l o c a c i ó n c o n " , 28
t h e t a == 0 . 7 ) ) , 29
col = c ( " b la ck " , " b lue " , " r e d " , " d a r k g r e e n " , " o r a n g e " ) ) 33
0.85
0.
80
0.
75
0.
70
4.0 4.5 5.0 5.5 6.0 6.5 7.0
σ
Referencias
Ben-Tal A. y Nemirovski A. 1998 Robust convex optimization. Mathematics of Operations
Research 23(4), 769-805.
Boyd S. y Vandenberghe L. 2004 Convex Optimization. Cambridge University Press, Cam-
bridge.
Burger M., Jünemann K., y König T. 2015 RUnit:R Unit Test Framework. Paquete R versión 0.4.28.
Chalabi Y. y Würtz D. 2014 Rsocp: Una biblioteca de extensión de R para utilizar SOCP desde
R. Paquete R versión 271.1.
Cornuejols G. y Tütüncü R. 2007 Optimization Methods in Finance. Cambridge University
Press, Cambridge.
Davies P. 1987 Comportamiento asintótico de los estimadores S de los parámetros de localización
multivariante y de las matrices de dispersión. The Annals of Statistics 15, 1269-1292.
Donoho D. 1982 Breakdown properties of multivariate location estimators. Informe técnico,
Universidad de Harvard, Boston.
218 OPTIMIZACIÓN ROBUSTA DE LA
CARTERA
Eddelbüttel D. 2013 Seamless R and C++ Integration with Rcpp. Springer, Nueva York.
Eddelbüttel D. y François R. 2011 Rcpp: Seamless R and C++ integration. Journal of Sta-
tistical Software 40(8), 1-18.
Eddelbüttel D. y Sanderson C. 2014 RcppArmadillo: Aceleración de R con álgebra lineal C++
de alto rendimiento. Computational Statistics and Data Analysis 71, 1054-1063.
Fabozzi F., Focardi S., Kolm P. y Pachamanova D. 2007 Robust Portfolio Optimization and
Management. John Wiley & Sons, Nueva Jersey.
Filzmoser P., Fritz H. y Kalcher K. 2014 pcaPP: Robust PCA by Projection Pursuit. Paquete
R versión 1.9-60.
Genz A. y Bretz F. 2009 Computation of Multivariate Normal and t Probabilities Lecture
Notes in Statistics. Springer-Verlag, Heidelberg.
Gnanadesikan R. y Kettenring J. 1972 Robust estimates, residuals and outlier detection with
multiresponse data. Biometrics 28, 81-124.
Hampel F. R., Rochetti E. M., Rousseeuw P. J. y Stahel W. A. 1986 Robust Statistics, The
Approach Based on Influence Functions. John Wiley & Sons, Nueva York.
Huber P. 1964 Estimación robusta de un parámetro de localización. Anales de Estadística Matemática
35, 73-101.
Huber P. J. 1981 Robust Statistics. John Wiley & Sons, Nueva York.
Lee B. y Rowe Y. 2014 tawny: Proporciona varias estrategias de optimización de carteras,
incluyendo la teoría de las matrices aleatorias y los estimadores de contracción. Paquete R
versión 2.1.2.
Lobo M., Vandenberghe L., y Boyd S. 1997 SOCP: Software for Second-order Cone Pro-
gramming, User's Guide Stanford University Stanford. Versión Beta.
Lobo M., Vandenberghe L., Boyd S. y Lebret H. 1998 Applications of second-order cone
programming. Linear Algebra and its Applications 284, 193-228.
Lopuhaã H. 1991 Multivariate 𝜏 - e s t i m a t o r s for location and scatter. Canadian Journal of
Statistics 19, 307-321.
Lopuhaã H. 1992 Estimadores altamente eficientes de localización multivariante con alto
punto de ruptura. Anales de Estadística 20, 398-413.
Maronna R. y Zamar R. 2002 Estimaciones robustas de localización y dispersión de
conjuntos de datos de alta dimensión. Technometrics 44(4), 307-317.
Maronna R., Martin D. y Yohai V. 2006 Robust Statistics: Theory and Methods. John Wiley &
Sons, Nueva York.
Meucci A. 2005 Risk and Asset Allocation. Springer-Verlag, Nueva York.
Nesterov Y. y Nemirovsky A. 1994 Interior-Point Polynomial Methods in Convex Program-
ming vol. 13 of Studies in Applied Mathematics. SIAM, Philadelphia.
Pfaff B. 2010 Modelización de los riesgos financieros: Fat Tails, Volatility Clustering and
Copulae. Frank- furt Allgemeine Buch, Frankfurt am Main.
Pfaff B. 2015 cccp: Cone Constrained Convex Problems. R package version 0.2-4.
Rousseeuw P. 1985 Multivariate estimation with high breakdown point In Mathematical Statis-
tics and Applications (ed. Grossmann W., Pflug G., Vincze I. y Wertz W.) vol. B Reidel
Publishing Dordrecht pp. 283-297.
Rousseeuw P. y Leroy A. 1987 Robust Regression and Outlier Detection. John Wiley &
Sons, Nueva York.
Rousseeuw P., Croux C., Todorov V., Ruckstuhl A., Salibian-Barrera M., Verbeke T., Koller
M. y Mächler M. 2015 robustbase: Basic Robust Statistics. Paquete R versión 0.92-5.
OPTIMIZACIÓN ROBUSTA DE LA 219
CARTERA
Scherer B. 2010 Portfolio Construction and Risk Budgeting 4th edn. Risk Books, Londres.
Schöttle K. 2007 Robust Optimization with Application in Asset Management Dissertation
Technische Universität München München.
Stahel W. 1981 Robuste Schätzungen: Infinitesimale Optimalität und Schätzungen von
Kovar- ianzmatrizen Tesis de doctorado Instituto Federal Suizo de Tecnología (ETH)
Zürich.
Staudte R. G. y Sheather S. J. 1990 Robust Estimation and Testing. John Wiley & Sons, Nueva
York.
Todorov V. y Filzmoser P. 2009 An object-oriented framework for robust multivariate
analysis. Journal of Statistical Software 32(3), 1-47.
Tüntücü R. y König M. 2004 Robust asset allocation. Annals of Operation Reserach 132,
132-157.
Venables W. N. y Ripley B. D. 2002 Modern Applied Statistics with S 4th edn. Springer,
Nueva York.
Wang J., Zamar R., Marazzi A., Yohai V., Salibian-Barrera M., Maronna R., Zivot E.,
Rocke D., Martin D., Maechler M., y Konis K. 2014 robust: Robust Library. Paquete R
versión 0.4-16.
Wang N. y Raftery A. 2002 Nearest neighbor variance estimation (NNVE): Estimación
robusta de la covarianza mediante la limpieza del vecino más cercano (con discusión).
Journal of the American Statistical Association 97, 994-1019.
Wang N., Raftery A., y Fraley C. 2013 covRobust: Robust Covariance Estimation via Nearest
Neighbor Cleaning. Paquete R versión 1.1-0.
Würtz D., Setz T. y Chalabi Y. 2014 fPortfolio: Rmetrics-Portfolio Selection and Opti-
mization. Paquete R versión 3011.81.
Würtz D., Setz T., Chalabi Y., Chen W., y Ellis A. 2009 Portfolio Optimization with R/Rmet-
rics Update 2015 Rmetrics eBooks. Rmetrics Association y Finance Online Publishing,
Zürich.
Yohai V. 1987 Estimaciones de alto punto de ruptura y alta eficiencia para la regresión. The
Annals of Statistics 15, 642-656.
Yohai V., Stahel W. y Zamar R. 1991 A procedure for robust estimation and inference in
linear regression En Directions in Robust Statistics and Diagnostics (Part II) (ed. Sta- hel
W. y Weisberg S.) vol. 34 de The IMA Volumes in Mathematics and its Applications
Springer-Verlag New York pp. 365-374.
11
La diversificación reconsiderada
11.1 Introducción
Casi no hace falta decir que uno de los objetivos de la asignación de la riqueza es la
diversificación de los riesgos. Por ello, la utilidad de un inversor con aversión al
riesgo aumenta cuando la riqueza se asigna a una combinación de activos en lugar
de mantener un único activo de riesgo. Los conceptos y métodos para la evaluación
de los riesgos de mercado se han presentado en la Parte II de este libro. Las
medidas de riesgo derivadas de los modelos estadísticos presentados se han
aplicado a posteriori, es decir, para una asignación de cartera determinada y su
función de pérdida implícita, se puede evaluar el riesgo de la inversión para un
nivel de confianza determinado. En este capítulo y en el siguiente, se presentan
enfoques de optimización de carteras que abordan directamente la cuestión de la
asignación de activos, de forma que se tiene en cuenta directamente el propósito de
la diversificación del riesgo.
Hasta ahora, el término "diversificación" se ha utilizado con bastante ligereza y
los enfoques presentados no han cuestionado la opinión de que la matriz de
varianza-covarianza de los re- giros es un estadístico apropiado para medir la
diversificación, excepto en el capítulo sobre la modelización de las dependencias
(es decir, las cópulas). La diversificación implica al menos dos dimensiones. La
primera dimensión aborda la cuestión de la característica común subyacente con
respecto a la cual los activos son diversos. La segunda aborda la cuestión de cómo
medir el grado de diversificación con respecto a esta característica. Por ejemplo, un
inversor con aversión al riesgo de tipo long-only no estaría en mejor situación si
mantuviera una cartera con fuertes co-movimientos en el signo de los rendimientos
en comparación con una mezcla de activos en la que los rendimientos de los
activos que la componen no comparten esta característica, ceteris paribus. La
matriz de varianza-covarianza de los rendimientos se emplea entonces a menudo
como medida para evaluar el riesgo de los activos y las dependencias entre ellos.
Pero
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
OPTIMIZACIÓN ROBUSTA DE LA 221
CARTERA
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd. Sitio
web complementario: www.pfaffikus.de
LA DIVERSIFICACIÓN 199
RECONSIDERADA
Aquí la diversificación se define simplemente con respecto a las dependencias
globales de los rendimientos, medidas correctamente con la matriz de varianza-
covarianza. En general, esto no es una salvaguarda contra el riesgo per se.
En la sección 11.2 se centra primero en cómo medir el grado de diversificación y
cómo determinar una asignación de cartera tal que sea "la más diversificada". A
continuación, en la sección 11.3, la "diversificación" se caracteriza por la
contribución de los activos que componen la cartera al riesgo global de la misma.
En este caso, la diversificación es favorable si las contribuciones al riesgo no se
concentran en unos pocos activos y, por lo tanto, se considera que una asignación
de cartera está bien diversificada si cada uno de sus componentes contribuye en
igual medida al riesgo global de la cartera. En la sección 11.4, en la que se
reconsidera la diversificación, se construyen carteras óptimas (in)dependientes de
la cola. Ahora, la "diversificación" se utiliza en el sentido de acontecimientos
extremos del mercado, de modo que la atención se desplaza hacia el
comportamiento de la cartera en los descensos generales del mercado. Esto puede
medirse mediante el coeficiente de dependencia de la cola (inferior) (TDC; véase el
capítulo 9). En la sección 11.5, se presentan los paquetes de R en los que se
implementan directamente los enfoques de optimización de carteras o se pueden
emplear para la optimización, y el capítulo concluye con ejemplos en los que se
contrastan las soluciones de los enfoques de cartera más diversificada, de igual
riesgo contribuido y de mínima dependencia de la cola con la asignación de la
cartera de mínima varianza global. Todos los enfoques de optimización tienen un
objetivo común, a saber, minimizar el riesgo del inversor mediante la
diversificación, pero difieren en las dos dimensiones de "diversidad con respecto a
qué característica" y "cómo medirla".
2. "La MDP de sólo largo plazo es la cartera de sólo largo plazo tal que la
correlación entre cualquier otra cartera de sólo largo plazo y ella misma es
mayor o igual que la relación de sus DR".
donde M𝝎∈Ω denota una medida de riesgo lineal homogénea y 𝜔i es el peso del i-
ésimo activo. Como tal, la medida de riesgo M𝝎∈Ω puede ser la desviación
estándar de la cartera, el valor en riesgo o el déficit esperado. Todas estas medidas
tienen en común la característica anterior y, por lo tanto, por el teorema de
homogeneidad de Euler, el riesgo total de la cartera es igual a la suma de las
contribuciones de riesgo definidas en (11.7). Estas contribuciones también pueden
expresarse en forma de porcentaje dividiendo las contribuciones de riesgo
por el valor de M𝝎∈Ω:
CiM𝝎∈Ω
%CiM𝝎∈Ω = × 100. (11.8)
M𝝎∈Ω
por tanto, el problema para una cartera ERC con un long-only y una restricción
presupuestaria puede ser
LA DIVERSIFICACIÓN 207
RECONSIDERADA
se indica
como
PERC ∶ 𝜔 i (Σ𝜔)i = 𝜔j(Σ𝜔)j ∀i, j,
√ 𝜙(z𝛼)
CVaR𝝎∈Ω,𝛼 = -𝝎 𝝁 + , (11.13)
′ 𝝎′Σ𝝎′
𝛼
LA DIVERSIFICACIÓN 209
RECONSIDERADA
donde 𝝁 denota el vector (N × 1) de rendimientos esperados, 𝜙 la función de
densidad normal estándar, y z𝛼 el cuantil 𝛼 de la distribución normal estándar. La
]
contribución marginal del i-ésimo activo viene dada entonces por
𝜙(z𝛼)
C CVaR Σ𝝎)i . (11.14)
= 𝜔 [𝜇 + (
i 𝝎∈Ω,𝛼 i i √𝝎′Σ𝝎′
𝛼
Se demostró en Scaillet (2002) que las contribuciones del CVaR son iguales a
las contribuciones de las pérdidas de la cartera que superan el VaR de la cartera en
el nivel de confianza 𝛼. Por cierto, si se asume además que los rendimientos de los
activos se comportan como una caminata ran- dómica y, por lo tanto, la mejor
previsión para los rendimientos esperados es 𝝁 = 𝟎, entonces la asignación de la
cartera obtenida mediante la equiparación de todas las contribuciones marginales
del CVaR será idéntica a una asignación del CER, independientemente del nivel de
confianza especificado. Esto se debe a que el primer sumando desaparece de la
función objetivo y 𝜙(z𝛼)∕𝛼 es una constante que no afecta a la composición de la
cartera. Sin embargo, (11.14) podría emplearse de forma fructífera en la
optimización de carteras cuando se pone un límite superior a las contribuciones
marginales del CVaR o se exige una asignación bien diversificada con respecto a
las contribuciones de riesgo a la baja de los componentes. Este último objetivo
puede lograrse minimizando la máxima contribución marginal del CVaR:
como se propone en Boudt et al. (2011). Los autores denominaron a este enfoque
"concentración mínima del CVaR" (MCC), ya que resulta que al utilizar este
objetivo en la práctica se obtiene normalmente una solución más equilibrada -no
igual- con respecto a las contribuciones marginales, y el propio nivel de CVaR es
razonablemente bajo, en comparación con una solución en la que se presupuestan
las contribuciones de riesgo (BCC). En lugar de minimizar la máxima contribución
marginal al CVaR, se podría utilizar directamente una medida de divergencia.
[ k ( i )2]-1 ∑ k [ ( )]
𝜆∑(2)
(N, k) = i ⋅ CN i i . (11.21)
L ⋅ ,
i=1
N i=1 N NN
biblioteca ( f Cartera ) 2
biblioteca ( l a t i c a ) 3
## Carga de datos y r e s p o n s a b l e c i m i e n t o d e l o s d a t o s 4
d a t a ( SPISECTOR ) 5
V <- cov ( R) 8
## P o r t f o l i o O p t i m i z a c i o n e s 9
## Combinación de s o l u c i o n e s 14
## P l o t o d e l a s a c t i v i d a d e s 19
o l d p a r <- p a r ( no . r e a d o n l y = TRUE) 20
p a r ( mfrow = c ( 2 , 2 ) ) 21
pch = 19) 23
pch = 19) 25
pch = 19) 28
pch = 19) 31
p a r ( oldpar ) 33
## l a t t i c e p l o t s o f MRC 34
l e v e l s = s o r t ( rownames (MRC) ) ) 36
n i v e l e s = colnames (MRC) ) 38
TECH TECH
FINA FINA
UTIL UTIL
TELE TELE
CONS CONS
HLTH HLTH
CONG CONG
INDU INDU
BASI BASI
0 10 20 30 40 -20 -10 0 10 20
TECH TECH
FINA FINA
UTIL UTIL
TELE TELE
CONS CONS
HLTH HLTH
CONG CONG
INDU INDU
BASI BASI
0 10 20 30
MTD ERC
UTIL
TELE
TECH
INDU
HLTH
FINA
CONS
CONG
BASI
GMV MDP
UTIL
TELE
TECH
INDU
HLTH
FINA
CONS
CONG
BASI
0 10 20 30
Porcentajes
0 10 20 30 0 10 20 30
Porcentajes
## Medidas y c a r a c t e r í s t i c a s d e ri e sgo de l a c a r t e r a 2
## Resumiendo r e s u l t a d o s 10
Cuadro 11.1 Medidas clave de las soluciones de cartera para los sectores de renta
variable suizos.
l i b r a r i a ( c opul a ) 2
## S&P 500 3
d a t a ( INDTRACK6 ) 4
t r i m = TRUE) 7
t r i m = TRUE) 9
escalado 16
l o n g i t u d ( WBeta ) ∗ 100 25
## Rendimiento fuera de la muestra 26
p o r c e n t a j e = FALSE) + 1 28
p o r c e n t a j e = FALSE) + 1 30
## Punto de referencia 31
## Low Beta 34
## TD 38
## R e c o g i d a d e r e s u l t a d o s 42
xl a b = " P e r i o d e s d e l a s m u e s t r a s " ) 4
l e y e n da ("t o p l e f t " , 7
l e ge n d = c ( " S&P 500 " , " Low Beta " , " Lower T a i l Dep . " ) , 8
## Bar p l o t o d e l a p r e s e n t a c i ó n r e l a t i v a 10
a r g s . l e ge nd = l i s t ( x = " t o p l e f t " ) ) 17
abline ( h = 0 ) 18
caja ( ) 19
11 S&P 500
5 Beta baja Dep.
de cola inferior
11
0
Ín
dic
e
de 10
re 5
nt
a
va
ria 10
bl 0
e
0 5 10 15 20 25 30
Períodos fuera de la muestra
10
-5
1 3 5 7 9 11 14 17 20 23 26 29
## Medidas clave ( ex p o s t o ) 2
p e r c e n t e = FALSE , t ri m = TRUE) 18
p e r c e n t e = FALSE , t ri m = TRUE) 20
t i m e A r t i f i c i a l < - t ime Se que nc e ( from = " 1997 -03 -01 " , by = " 7 d " , 22
l e n g t h . o u t = l e n g t h ( LbRetO ) ) 23
km <- f u n c t i o n ( pf , bm , s c a l e = 52 ) { 27
ra <- R e t u r n . a n n u a l i z e d ( pf , s c a l e = s c a l e ) ∗ 100 28
ap <- Prima activa ( pf , bm , s c a l e = s c a l e ) 29
te <- sd ( pf - bm ) ∗ s q r t ( s c a l e ) 30
ir <- ap / t e 31
names ( r e s ) <- c ( " R e t u r n " , " IR " , " Up Ratio " , " DownRatio " ) 35
retorno ( r e s ) 36
} 37
l i b r a r y ( P ortfolioAnalytics ) 2
da t os ( M u l t i A s s e t ) 4
N <- n co l ( R) 6
## D e f i n i c i ó n d e l o s c o n s t r a t a d o r e s y o b j e t i v o s p a r a e l p r e s u p u e
s t o d e l VCaR 7
e n a b l e d = TRUE) 12
a r g u me n t o s = l i s t ( p = 0 , 9 5 ) , 16
e n a b l e d = TRUE) 17
SolCVaRBudget <- o p t i m i z e . p o r t f o l i o ( R = R , 18
c o n s t r a i n t e s = ObjCVaRBudget , 19
o p t i m i z a r _ método = " DEoptim " , 20
i t e r m a x = 50 , 21
s e a r c h _ s i z a = 20000 , 22
t r a c e = TRUE) 23
## C o n c e n t r a c i ó n mínima de CVaR p o r t a l i o 27
min_ c o n c e n t r a t i o n = TRUE, 31
a r g u me n t o s = l i s t ( p = 0 , 9 5 ) , 32
e n a b l e d = TRUE) 33
SolCVaRMinCon < - o p t i m i z e . p o r t f o l i o ( R = R , 34
c o n s t r a i n t e s = ObjCVaRMinCon , 35
o p t i m i z a r _ método = " DEoptim " , 36
i t e r m a x = 50 , 37
s e a r c h _ s i z a = 20000 , 38
t r a c e = TRUE) 39
## GMV P o r t f o l i o 43
## C a r t e r a ERC 47
12
12.1 Resumen
En este capítulo se presentan métodos de optimización de carteras en los que algún
tipo de medida de riesgo y su nivel se incorporan directamente a las ponderaciones
de los instrumentos financieros. Estos enfoques pueden distinguirse de las carteras
de Markowitz en el sentido de que ahora un determinado nivel de VaR o ES no es
el resultado de una asignación eficiente de la cartera, sino un objetivo. De ahí que
el usuario pueda plantearse preguntas como: "¿Cómo deben elegirse las
ponderaciones de la cartera para que el VaR resultante del 99% sea del 3,5%?" En
Alexander y Baptista (1999, 2002, 2004, 2008), así como en De Giorgi (2002), se
ofrece una comparación exhaustiva y concisa entre el VaR medio y las carteras de
varianza media. Este enfoque ha sido investigado recientemente por Durand et al.
(2011). A la luz del Acuerdo de Basilea, estos tipos de optimización de carteras han
atraído el interés de los profesionales, porque los requisitos de adecuación del
capital pueden derivarse de este tipo de medidas de riesgo (véase Alexander y
Baptista 2002, por ejemplo). Rockafellar y Uryasev (2000, 2001) y Uryasev y
Rockafellar (1999) han analizado las optimizaciones de cartera que implican el
déficit esperado.
De forma similar, las carteras pueden optimizarse con respecto a su retirada. Este
tipo de optimización es aplicable cuando una cartera se compara con un índice de
mercado más amplio.
En las dos secciones siguientes, se presentan los enfoques de cartera media-VaR
y media-ES y se contrastan con las carteras clásicas de varianza media. En la
sección 12.4 se presentan las carteras para las que se minimiza algún tipo de
medida de reducción o de objetivo. En la sección 12.5 se presentan los paquetes R
pertinentes, y las aplicaciones de la sección 12.6 concluyen el capítulo.
Financial Risk Modelling and Portfolio Optimization with R, Second Edition. Bernhard Pfaff.
2016 John Wiley & Sons, Ltd. Publicado en 2016 por John Wiley & Sons, Ltd. Sitio
web complementario: www.pfaffikus.de