Está en la página 1de 41

Modelos clásicos de volatilidad y correlación

II.3.1 INTRODUCCIÓN

Este capítulo presenta los modelos de series temporales de volatilidad y correlación que se hicieron populares en
la industria más de una década antes de la publicación de este libro. El objetivo del capítulo es concienciar a los
lectores de los escollos que pueden encontrar al utilizar técnicas estadísticas simples para estimar y pronosticar
el riesgo de cartera.

Comenzamos con los modelos de volatilidad y correlación, popularizados por JP Morgan en la década de 1990 y
aún empleados para construir los datos de Riskmetricstm. En el decenio de 1990 la profesión de gestión de los
riesgos financieros se encontraba aún en sus inicios. Hasta este punto, muy pocos bancos, gestores de fondos,
empresas o consultores utilizaban datos de series temporales para cuantificar y hacer un seguimiento de los
riesgos a los que se enfrentaban. A mediados de la década de 1990, JP Morgan dio a conocer sus datos de
Riskmetrics.

Se trata de estimaciones medias móviles de la volatilidad y la correlación de los principales factores de riesgo,
como los índices de renta variable, los tipos de cambio y los tipos de interés, que se actualizan diariamente y se
podían descargar gratuitamente. Las dos primeras versiones de Riskmetrics aplicaron un análisis de series
temporales incorrecto y tuvieron que ser modificadas, pero al final de la década se puso a disposición de la
industria una correcta, aunque bastante sencilla, metodología de series temporales para construir matrices de
covariancia.

Las volatilidades y correlaciones del rendimiento de los activos financieros y los cambios en las tasas de interés
pueden resumirse en su matriz de covariancia. Existen numerosas aplicaciones financieras para matrices de
covarianza, incluyendo pero no limitado a:

• estimación y previsión de la volatilidad de una cartera lineal;

• estimación del valor en riesgo de las carteras lineales;

• determinación de la asignación óptima de carteras entre un conjunto de activos de riesgo;

• simulación de rendimientos correlacionados en un conjunto de activos o tasas de interés;

• estimación del valor en riesgo de carteras no lineales;

• valoración de opciones de activos múltiples;

• cobertura del riesgo de carteras.

En este capítulo y en el capítulo siguiente de este volumen se describen las formas en que los modelos de series
temporales pueden aplicarse a las matrices de covarianza estimadas y previstas. Es muy importante obtener una
matriz de covarianza que sea lo más precisa posible. Pero a medida que avanzamos encontraremos muchas
fuentes de riesgo modelo en la construcción de una matriz de covarianza. Por lo tanto, encontrar una buena
estimación o previsión de una matriz de covarianza no es una tarea fácil.

El esquema del capítulo es el siguiente. En las secciones II.3.2 y II.3.3 se introducen los conceptos de volatilidad y
correlación y se explica cómo se relacionan con las series cronológicas de rendimientos de los activos financieros
o con las variaciones de los tipos de interés. Declaramos su relación con la matriz de covarianza y probamos la raíz
cuadrada de la regla de escalado de tiempo que se usa para retornos independientes e idénticamente distribuidos
(i.i.d.).

También discutimos las propiedades de la volatilidad cuando los retornos no son i.i.d., derivando una regla de
escalado que se aplica cuando los retornos son autocorrelados, y las propiedades de correlación si dos retornos
no son generados por un proceso normal bivariado i.i.d. . En las secciones II.3.4 a II.3.6 se examinan las
propiedades del método de la media ponderada por igual o del método histórico para estimar la volatilidad
incondicional y la correlación de las series temporales. Explicamos la diferencia entre la correlación de volatilidad
condicional e incondicional y probamos un número de propiedades para los estimadores igualmente ponderados
de los parámetros incondicionales, específicamente los relativos a la precisión de los estimadores.

En las secciones II.3.7 y II.3.8 se introducen modelos medios móviles que se basan en el supuesto de que los
rendimientos de los activos (o factores de riesgo) tienen una distribución normal multivariada y que los
rendimientos se generan mediante un proceso i.i.d. . Esta parte del capítulo pretende dotar al lector de una
apreciación de las ventajas y limitaciones de los modelos de media móvil igualmente ponderada y de media móvil
con ponderación exponencial para estimar (y pronosticar) matrices covariantes. Observamos que:

 La verdadera varianza y covarianza dependen del modelo. Como resultado, existe un grado considerable de
riesgo de modelo inherente a la construcción de una covarianza o matriz de correlación. Es decir, se pueden
obtener resultados muy diferentes utilizando dos modelos estadísticos diferentes, incluso cuando se basan
exactamente en los mismos datos.
 Las estimaciones de la matriz de covarianza verdadera están sujetas a error de muestreo. Incluso cuando dos
analistas utilizan el mismo modelo para estimar una matriz de covarianza, sus estimaciones difieren si utilizan
datos diferentes para estimar la matriz. Tanto el cambio del período muestral como la frecuencia de las
observaciones afectarán a la estimación de la matriz de covarianza.

II.3.2 VARIANZA Y VOLATILIDAD

Esta sección proporciona una comprensión profunda de la naturaleza de la volatilidad y de los supuestos que
hacemos cuando aplicamos la volatilidad para medir el riesgo de los rendimientos de una inversión. La volatilidad
es la desviación estándar anualizada de los rendimientos de una inversión. Nos centramos en las trampas que
surgen al escalar la desviación estándar en una forma anualizada. Por ejemplo, la volatilidad es mucho mayor
cuando hay una correlación en serie positiva entre los retornos que cuando los retornos son i.i.d.

II.3.2.1 La volatilidad y el cuadrado-La definición precisa de la volatilidad de un activo es una medida anualizada
de dispersión en el proceso estocástico que se utiliza para modelar el log returns.1 La medida más común de
dispersión sobre la media de la distribución es la desviación típica . Es una medida de riesgo suficiente para la
dispersión cuando los retornos se distribuyen normalmente.2 La desviación estándar de los retornos diarios de 10
días no es directamente comparable con la desviación estándar de los retornos diarios de registro.

La dispersión aumentará a medida que aumente el período de espera de los retornos. Por esta razón
generalmente transformamos la desviación estándar en términos anualizados, y cotizamos el resultado como un
porcentaje. Supongamos que los registros de un período son generados por un proceso i.i.d. estacionario con
desviación media y estándar . 3 Denotar por rht el retorno de registro durante los siguientes períodos h
observados en el tiempo t, i.e.
Por lo tanto, la desviación estándar del retorno del registro del período h es h veces la desviación estándar del
retorno del registro de un período. Por razones obvias esto se conoce como la regla de la raíz cuadrada del tiempo.
La desviación estándar anualizada se llama volatilidad anual, o simplemente volatilidad. A menudo se supone que
los retornos sucesivos son independientes unos de otros, de modo que, como se ha indicado anteriormente, la
varianza de h-En este caso podemos convertir el riesgo y el retorno en términos anualizados al multiplicarlos por
una constante que se llama factor de anualización, A. Los resultados del registro diario aumentarán con h. Por
ejemplo, A=12 si las devoluciones son i.i.d. y se miden en la frecuencia mensual.4 Conociendo el factor
anualizador, podemos convertir la media, varianza y desviación estándar de i.i.d. regresa a términos anualizados
usando:

II.3.2.2 Hipótesis de volatilidad constante

La hipótesis de que los rendimientos de un período son i.i.d. implica que la volatilidad es constante. Esto sigue
observando que si el factor de anualización para un período log retornos es A entonces el factor de anualización
para h-período log retornos es A/h. Que la desviación estándar de un período log retornos ser σ. Entonces la
volatilidad de los registros de un período es σ√𝐴 y, puesto que la hipótesis i.i.d. implica que la desviación estándar
de los registros de período h es σ√ℎ, la volatilidad de los registros de período h es σ√ℎ *√𝐴/ℎ = σ√𝐴
En otras palabras, el i.i.d. devuelve la asunción no sólo implica la regla de la raíz cuadrada del tiempo, sino que
también implica que la volatilidad es constante. Un proceso de volatilidad constante es un supuesto fundamental
para los modelos de precios de opción tipo Black Scholes de Merton, ya que se basan en la dinámica geométrica
de los precios de movimiento de Brownian. En tiempo discreto, la hipótesis de volatilidad constante es una
característica de los modelos de volatilidad estadística media móvil y de correlación que se examinan más
adelante en este capítulo.

Pero no es realista asumir que los retornos son generados por un proceso i.i.d. . Muchos modelos no hacen esta
suposición, incluidos los modelos estocásticos de precios de opciones de volatilidad y los modelos estadísticos de
volatilidad de GARCH. Sin embargo, la anualización de la desviación estándar descrita anteriormente se ha
convertido en la convención de mercado para cotizar la volatilidad. Se aplica a cada estimación o previsión de
desviación estándar, esté o no basada en una hipótesis i.i.d. para los retornos.

II.3.2.3 Volatilidad cuando las Devoluciones son Autocorrectadas

Supongamos que dejamos de lado la suposición de que las devoluciones de un período son i.i.d. y en su lugar
asumimos que tienen alguna autocorrelación positiva (o negativa). En particular, suponemos que tienen la
representación autoregresiva AR(1) estacionaria introducida en la Sección I.3.7.

donde rt es el retorno diario en el tiempo t yϱ es la autocorrelación, i.e. la correlación entre los rendimientos
adyacentes.5 En el modelo AR(1) la correlación entre los rendimientos de dos períodos separados es ϱ2 y, más
generalmente, la correlación entre los períodos de retorno h es ϱh. En otras palabras, el coeficiente de
autocorrelación del orden hth es ϱh para h=1 2 . Recuerde de (II.3.2) que podemos escribir el retorno de registro
del período-h como la suma de h consecutivos devuelve el registro de un período:

La autocorrelación no afecta al retorno esperado del período h, pero sí afecta a su desviación estándar. Bajo el
modelo AR(1), la varianza del retorno de log del período h es
Así hemos demostrado que cuando las devoluciones se autocorrelación con el primer orden de autocorrelación
coeficiente ϱ entonces el factor de escala para la desviación estándar, para convertirlo en una volatilidad, no es
√ℎ, sino más bien

Ejemplo II.3.2: Estimación de la volatilidad de los fondos de cobertura

Los rendimientos mensuales de un fondo de cobertura durante los últimos tres años tienen una desviación
estándar del 5%. Suponga que los retornos son i.i.d. ¿Cuál es su estimación de volatilidad? Ahora supongamos que
descubre que los rendimientos se han suavizado antes de informar a los inversores. De hecho, las devoluciones
son autocorreladas con autocorrelación 0.25. ¿Cuál es su estimación de volatilidad ahora?

Solución: Si asumimos que las devoluciones son i.i.d., hacemos la anualización habitual. Es decir, tomamos las
desviaciones estándar de los retornos mensuales y multiplicamos por la raíz cuadrada de 12; esto da la estimación
de volatilidad

Pero si utilizamos nuestra información sobre la autocorrelación, nuestra estimación de volatilidad es mucho
mayor. De hecho cuando h=12 y ϱ =25 el factor de escalado (II.3.6) es √19.11 no √12 y nuestra estimación de
volatilidad es por lo tanto

El i.i.d. asunción se hace a menudo cuando no está garantizado. Por ejemplo, los fondos de cobertura
normalmente suavizan sus rendimientos comunicados, y el ejemplo anterior muestra que ignorar esto llevará a
una seria subestimación de la verdadera volatilidad.

II.3.2.4 Las observaciones sobre la volatilidad no son observables.

Sólo podemos estimar y predecir la volatilidad, y esto sólo dentro del contexto de un modelo estadístico supuesto.
De modo que no hay una volatilidad absoluta verdadera’ : lo que es verdadero’ sólo depende del modelo asumido.
Incluso si supiéramos con certeza que nuestro modelo era una representación correcta del proceso de generación
de datos nunca podríamos medir la verdadera volatilidad exactamente porque la volatilidad pura no se negocia
en el mercado.

La estimación de la volatilidad según las fórmulas dadas por un modelo da una estimación de la volatilidad que es
« realizado por el proceso asumido en nuestro modelo. Pero esta volatilidad realizada es todavía sólo una
estimación de lo que la volatilidad había sido durante el período utilizado para la estimación.

Además, la volatilidad es sólo una estadística suficiente para la dispersión de la distribución de los retornos cuando
hacemos una suposición de normalidad. En otras palabras, la volatilidad no proporciona una descripción completa
de los riesgos que asume la inversión, a menos que asumamos que los rendimientos de la inversión se distribuyen
normalmente. En general, necesitamos saber más acerca de la distribución de los retornos de lo que se espera
obtener y de su volatilidad. La volatilidad nos indica la escala y la media nos indica la ubicación, pero la dispersión
también depende de la forma de la distribución. La mejor medida de dispersión estaría basada en la función de
distribución completa de los retornos.

II.3.3 COVARIANCIA Y CORRELACIÓN

Esta sección proporciona una comprensión en profundidad de la naturaleza de la correlación y de los supuestos
que hacemos cuando aplicamos la correlación para medir el riesgo de cartera. Nos centramos en las trampas que
surgen cuando se utiliza la correlación para evaluar el tipo de riesgo que enfrentamos en los mercados financieros
de hoy. Por ejemplo, la correlación de Pearson sólo es apropiada cuando dos retornos tienen una distribución
elíptica de la articulación tal como la distribución normal bivariada.7 De lo contrario da indicaciones muy
engañosas de la dependencia real entre retornos.

Las volatilidades y correlaciones de los activos o factores de riesgo se resumen en una matriz de covariancia. Bajo
el supuesto de que todos los rendimientos del factor de riesgo son i.i.d. y que su distribución conjunta es normal
multivariante, la matriz de covariancia escala con el horizonte de riesgo. Es decir, la matriz de covarianza del h-día
es h veces la matriz del 1-día. Así las varianzas y covarianzas escala con el tiempo, la escala de desviaciones
estándar con la raíz cuadrada del tiempo, y las correlaciones siguen siendo las mismas. La suposición de
rendimientos normales multivariados i.i.d. se hace en las teorías clásicas de Markowitz (1959), Sharpe (1964) y
otros, pero no se justifica empíricamente. Se lograría una mayor precisión permitiendo que las distribuciones
marginales de retornos fueran no normales y posiblemente diferentes entre sí. Por ejemplo, los rendimientos de
un activo pueden tener una distribución t Student, mientras que los rendimientos del otro activo pueden tener
una distribución gamma. Pero entonces la correlación pierde su significado como medida de dependencia. En
cambio, necesitamos una nueva medida de dependencia llamada función copula. Las copulas se introducen y sus
solicitudes de financiación se examinan en el capítulo II.6.

II.3.3.1 Definición de Covarianza y Correlación

La covarianza entre dos retornos es el primer momento central de su función de densidad articular. Es una medida
de la dependencia entre los dos retornos, y se define formalmente en la Sección I.3.4.3. Puesto que la covarianza
depende de la magnitud de los retornos puede ser cualquier número real: positivo, negativo o cero. Así que, así
como estandarizamos la desviación estándar en volatilidad, también estandarizamos la covariancia. Pero ahora,
en lugar de estar relacionado con la escala de las desviaciones estándar a lo largo del tiempo, la estandarización
se realiza de modo que la medida de la dependencia ya no está relacionada con el tamaño de los retornos. Esta
medida se llama correlación.

La correlación se define formalmente en la sección I.3.4.4, y sus propiedades básicas también se analizan allí. La
correlación es igual a la covarianza de los dos retornos divididos por el producto de sus desviaciones estándar.
Siempre se encuentra entre 1 y +1. La correlación negativa perfecta es una correlación de 1. Esto implica que
cuando un retorno aumenta el otro retorno siempre disminuirá y cuando un retorno disminuye el otro retorno
siempre aumentará. La correlación positiva perfecta es una correlación de +1. Esto indica que los retornos siempre
se mueven en la misma dirección. En términos más generales, una correlación positiva implica que hay una
tendencia a que los retornos se muevan en la misma dirección y una correlación negativa indica que los retornos
tienden a moverse en dirección opuesta. Cuando los dos retornos son independientes y tienen una distribución
normal bivariada su covarianza es 0 y también lo es su correlación. Pero si los retornos no tienen una
independencia de distribución normal bivariada no implica necesariamente que la correlación será 0. La siguiente
sección describe esto, y otras trampas que surgen del uso de la correlación como una métrica de dependencia.
II.3.3.2 Escollos de correlación

La métrica de correlación estándar definida anteriormente se llama más precisamente el coeficiente de


correlación de momento de producto de la persona. Desde hace tiempo se sabe que esta métrica de dependencia
sufre de la limitación de ser sólo una medida lineal de asociación que no es lo suficientemente flexible para
capturar dependencias no lineales. Por ejemplo, si X es una variable normal estándar entonces Corr X X2 =0
aunque X y X2 tienen una dependencia cuadrática perfecta. Recientemente un famoso documento de Embrechts
et al. (2002), que comienza con la frase "correlación es un campo de minas para los incautos", ha identificado e
ilustrado varios otros problemas importantes asociados con el coeficiente de correlación momento de producto
de la persona, incluyendo:

 La correlación no es invariante bajo transformación de variables. Ni siquiera es invariante bajo transformaciones


monótonas, como el logaritmo natural. Es decir, la correlación de X1 y X2 no es igual a la correlación de ln X1 e
ln X2 .
 Los valores factibles de correlación dependen de las distribuciones marginales. Por ejemplo, si X1 y X2 son
variables lognormal en lugar de normales, entonces ciertas correlaciones son imposibles. Por ejemplo, si ln X1
es normal y ln (X2) tiene una distribución N (0,4) ¡entonces una correlación de más de dos tercios o menos de -
0,09 es imposible!
 La dependencia positiva perfecta no implica una correlación de uno. Y tampoco la dependencia negativa perfecta
implica una correlación de -18 Con las variables lognormales anteriores, la dependencia positiva perfecta implica
una correlación de dos tercios y la dependencia negativa perfecta implica una correlación de sólo -0,09, ¡que
está muy lejos de -1!
 La correlación cero no implica independencia. Si ln(X) es N(0,σ2) entonces la correlación mínima alcanzable
converge a cero como σ aumenta, aunque la correlación mínima alcanzable es cuando las variables son
perfectamente dependientes negativamente. Además, si X1 y X2 tienen una distribución t bivariada, una
correlación de 0 entre X1 y X2 no implicaría que los riesgos fueran independientes. También los retornos pueden
estar relacionados a través de sus momentos más altos, por ejemplo las volatilidades podrían estar relacionadas
incluso si los retornos esperados no lo están, pero la correlación sólo captura el primer momento de su densidad
conjunta.
 Embrechts et al. (2002) advierten de que se están creando sistemas de gestión de riesgos poco fiables utilizando
una correlación con las dependencias de los modelos entre riesgos muy anormales, como los riesgos de crédito
y los riesgos operacionales, donde las distribuciones están claramente lejos de lo normal y la correlación puede
incluso no estar definida, así que las correlaciones son muy engañosas. El único caso en el que la correlación de
Pearson puede justificarse como medida de la dependencia entre dos rendimientos es cuando las variables
aleatorias tienen una distribución normal multivariante o multivariante. Por lo tanto, a partir de ahora haremos
esta suposición, a menos que se indique lo contrario.

II.3.3.3 Matrices de covarianza


La matriz de covarianza de los rendimientos de un conjunto de activos o factores de riesgo es la piedra angular
del análisis clásico del riesgo y el rendimiento. Se utiliza para estimar la volatilidad de una cartera, simular los
valores de sus factores de riesgo, diversificar las inversiones y obtener carteras eficientes que tengan el equilibrio
óptimo entre el riesgo y el rendimiento. Tanto los gestores de riesgos como los gestores de carteras requieren
matrices de covarianza que pueden incluir muchos activos o factores de riesgo. Por ejemplo, en un sistema
mundial de gestión de riesgos de un gran banco internacional, todas las principales curvas de rendimiento,
índices de acciones, tipos de cambio y precios de los productos básicos se englobarán en una matriz de
covariancia muy dimensional.
Una matriz covarianza V es una matriz nxn con las varianzas de los retornos a lo largo de la diagonal y las
covariancias de los retornos en la diagonal off. En la sección I.2.4.1 se muestra que la matriz de covarianza puede
escribirse en la forma V = DCD, donde D es la matriz diagonal nxn con desviaciones estándar a lo largo de su
diagonal y C es la matriz de correlación nxn. Además, en la sección I.2.4.2 se muestra que la varianza de una
cartera con pesos vectoriales w viene dada por w’Vw. Por lo tanto, la matriz de covarianza proporciona una
manera conveniente de mostrar la información sobre las volatilidades y correlaciones de un conjunto de
retornos y es fácil manipular las fórmulas usando esta matriz.

Ejemplo II.3.3:
Varianza de cartera Una cartera tiene 1 millón de dólares invertidos en el activo 1, 2 millones de dólares
invertidos en el activo 2 y 3 millones de dólares invertidos en el activo 3. Las volatilidades y correlaciones de los
rendimientos de los activos figuran en el cuadro II.3.1. Encuentra la volatilidad de la cartera.

Solución Los pesos del portafolio son:

así que los rendimientos de la cartera tienen varianza anual

Tomando la raíz cuadrada de la varianza anual da la volatilidad de la cartera, 11,67%. El ejemplo anterior muestra
que la matriz de covariancia es todo lo que necesitamos para medir la volatilidad de los rendimientos de una
cartera lineal, asumiendo que sabemos la cantidad invertida en cada activo. De hecho, sólo necesitamos saber
el peso de la cartera. Por supuesto, las matrices de covarianza tienen muchas otras aplicaciones, como hemos
dejado claro en la introducción de este capítulo.

II.3.3.4 Escalamiento de Matrices de Covarianza


Una matriz de covarianza del día-h es la matriz de varianzas y covarianzas de retornos del día-h. En muchas
aplicaciones necesitamos medir la incertidumbre en un horizonte de riesgo relativamente corto, por ejemplo 1
día o 10 días. Una matriz de covarianza de 1 día V1 se estima generalmente a partir de las varianzas y covariancias
de los retornos diarios de registro. Supongamos que los registros diarios son i.i.d. y que su distribución conjunta
es normal multivariante. Entonces la varianza y la escala de covarianza con el tiempo. Entonces, para realizar un
análisis sobre un horizonte de riesgo de h días podemos usar la regla de raíz cuadrada del tiempo para estimar
la matriz de covariancia del h-día como hV1, i.e. la matriz donde cada elemento de V1 se multiplica por h.
Por ejemplo, supongamos que utilizamos algunos datos para estimar las desviaciones estándar de los
rendimientos diarios de dos activos. Estas estimaciones son 0.01 y 0.015, y supongamos que medimos su
correlación a ser -0 5. Usando la regla de la raíz cuadrada del tiempo, las matrices de covarianza de 1 día, 10 días
y 100 días serán

respectivamente. Por el contrario, dada una matriz de covariancia anual, podemos obtener la matriz de
covarianza de 10 días dividiendo cada elemento por 25, asumiendo que hay 250 días de comercio por año. Así
que las volatilidades se dividen por 5 para obtener desviaciones estándar de 10 días, pero las correlaciones
permanecen constantes. A continuación se da un ejemplo numérico. Los dos ejemplos siguientes son similares
a algunos que se han dado en el Volumen I, pero los incluimos en este capítulo para ilustrar las relaciones
anteriores.

Ejemplo II.3.4: Escalado y descomposición de la matriz de covarianza


Las volatilidades y la correlación entre los rendimientos de tres activos se muestran en el cuadro II.3.1. Como de
costumbre, las volatilidades se citan como porcentajes anualizados. Calcule la matriz de covarianza anual.
Entonces asumiendo que los retornos son multivariados normales i.d. y asumiendo 250 días de comercio por
año, derivan de esto la matriz de covarianza de 10 días, i.e. la matriz de covarianza de retornos de 10 días.

Solución Para la matriz de covarianza anual se utiliza la descomposición introducida en la sección I.2.4.1, es decir:

Dado que hay 25 períodos de diez días en 250 días, obtenemos la matriz de covarianza de 10 días dividiendo
cada elemento de V por 25. El resultado es

Así la matriz diagonal de las desviaciones estándar de 10 días es

Pero la correlación C permanece inalterada y la matriz de covarianza de 10 días es


Este ejemplo muestra que podemos derivar la matriz de covariancia para cualquier período del conocimiento de
las volatilidades y correlaciones del retorno. Y por el contrario, dada la matriz de covariancia para cualquier
período, podemos derivar las volatilidades y correlaciones. Pero para usar la regla de la raíz cuadrada del tiempo
de esta manera debemos asumir que las devoluciones son conducidas por procesos i.i.d. con distribuciones de
articulaciones elípticas. Por desgracia, esta hipótesis no es muy realista para la mayoría de los rendimientos de
los activos financieros.

Si queremos ir más allá de la suposición estándar de que los rendimientos son conjuntamente normales i.i.d. y
si no asumimos que su distribución conjunta es elíptica entonces la covariancia y las matrices de correlación no
son métricas apropiadas para el riesgo de cartera. En cambio, la dependencia entre retornos puede ser captada
por una cópula, como se explica en el capítulo II.6.

II.3.4 MEDIAS IGUALMENTE PONDERADAS

En esta sección se describe cómo se estiman y pronostican la volatilidad y la correlación aplicando ponderaciones
iguales a determinados datos de series temporales históricas. Esbozamos una serie de escollos y limitaciones de
este enfoque y, en consecuencia, recomendamos que estos modelos sólo se utilicen como una indicación de la
posible gama de volatilidad y correlación a largo plazo. Como veremos, las estimaciones de un modelo medio
igualmente ponderado son de dudosa validez para la volatilidad a corto plazo y la previsión de correlación.

Para simplificar, asumimos que el retorno medio es cero y que los retornos se miden a la frecuencia diaria, a
menos que se indique específicamente lo contrario. Un rendimiento medio cero es una hipótesis estándar para
las evaluaciones del riesgo basadas en series temporales de datos diarios, pero si los rendimientos se miden a
intervalos más largos, esta hipótesis puede no ser muy realista. En la hipótesis de la media cero, la estimación
de la varianza de los rendimientos igualmente ponderada es la media de los rendimientos cuadrados y la
estimación de la volatilidad correspondiente es la raíz cuadrada de esta cifra, expresada como porcentaje anual.

La estimación igualmente ponderada de la covarianza de dos retornos es la media de los productos cruzados de
retornos, y la estimación igualmente ponderada de su correlación es la relación entre la covarianza y la raíz
cuadrada del producto de las dos varianzas. La ponderación equitativa de los datos históricos fue el primer
método estadístico ampliamente aceptado para predecir la volatilidad y la correlación de los rendimientos de
los activos financieros. Durante muchos años fue la norma del mercado pronosticar la volatilidad media durante
los días h siguientes, tomando una media igualmente ponderada de los rendimientos cuadrados durante los días
h anteriores. Como resultado, este método se llamó la previsión de volatilidad histórica. Hoy en día muchas
diferentes técnicas de predicción estadística se pueden aplicar a los datos históricos de series temporales por lo
que es confuso llamar a este método igualmente ponderado el método histórico. Sin embargo, esta terminología
bastante confusa sigue siendo estándar.
Los cambios percibidos en la volatilidad y la correlación tienen consecuencias importantes para todos los tipos
de decisiones de gestión de riesgos, ya se trate de capitalización, asignación de recursos o estrategias de
cobertura. De hecho, estos parámetros de la distribución de los rendimientos son los componentes
fundamentales de los modelos de evaluación del riesgo de mercado. Por lo tanto, es esencial entender qué tipo
de variabilidad en los rendimientos ha medido el modelo. El modelo histórico’ asume que las devoluciones son
impulsadas por procesos i.i.d. con distribuciones de articulaciones elípticas, de modo que la regla de la raíz
cuadrada del tiempo se aplica, como se describe en la sección anterior. La regla cuadrada-rootof-time establece
que la desviación estándar de un retorno de período-h es la raíz cuadrada de h veces la desviación estándar del
retorno de un período. Esto a su vez implica que tanto la volatilidad como la correlación son constantes. Así que
el normal i.i.d. asunción tiene ramificaciones importantes y vamos a tener cuidado de explicar estos muy
cuidadosamente en el siguiente.
Primero explicamos la metodología y luego obtenemos intervalos de confianza para la varianza media
igualmente ponderada y para la volatilidad correspondiente. A continuación, se muestra que los errores
estándar asociados disminuyen a medida que aumenta el tamaño de la muestra utilizado para estimar la varianza
y la volatilidad. Después de esto pusimos la metodología igualmente ponderada en un marco de series
temporales donde la muestra de estimación, también llamada la ventana de datos, que es la muestra que se
utiliza para estimar la varianza o covarianza, se rueda con el tiempo. A continuación se investigan las propiedades
de estas llamadas estimaciones medias móviles igualmente ponderadas y se examina críticamente su utilidad
para pronosticar la volatilidad.

II.3.4.1 Varianza y volatilidad incondicionales


La metodología para construir una matriz de covarianza basada en medias igualmente ponderadas puede
describirse en términos muy sencillos. Denota la serie temporal de iid retornos por

Aquí el subíndice i denota el activo o el factor de riesgo, y t denota el momento en que se mide cada rendimiento.
Asumiremos que cada retorno tiene cero medio. A continuación, una estimación de la varianza de la ith retorno
en el tiempo t, sobre la base de la T más recientes retornos diarios, es

Dado que la volatilidad es la desviación estándar anualizada, la estimación de volatilidad igualmente ponderada
se obtiene en dos etapas. Primero se obtiene una estimación imparcial de la varianza utilizando una media
igualmente ponderada de los rendimientos cuadrados, y luego estos se convierten en una estimación de la
volatilidad aplicando la regla de la raíz cuadrada del tiempo. Por ejemplo, si las devoluciones se miden a la
frecuencia diaria y suponemos que hay 250 días comerciales al año,

Ejemplo II.3.5:
Estimación media igualmente ponderada de la volatilidad FTSE 100 (I) Los valores diarios de cierre del índice
FTSE 100 entre el viernes 10 de agosto y el viernes 24 de agosto de 2007 figuran en el cuadro II.3.2. Utilizar estos
datos para estimar la volatilidad del índice FTSE 100 al cierre del mercado el 24 de agosto de 2007.
Solución: En la hoja de cálculo para este ejemplo primero calculamos los registros diarios, luego los cuadramos
y luego tomamos su promedio. Como hay diez retornos, dividimos la suma de los retornos cuadrados por 10
para obtener el promedio. Esto nos da una estimación de varianza diaria de 0.000433. Entonces tomamos la raíz
cuadrada de esto y la multiplicamos por el factor anualizador, el cual asumimos que es √250 ya que los retornos
son diarios. El resultado es una estimación de volatilidad del 32,9%.

En el ejemplo anterior hay tres razones por las que utilizamos las devoluciones de registro, i.e. la diferencia en
el registro de los precios, en lugar de las devoluciones ordinarias, i.e. el cambio de precio porcentual:
1. La hipótesis estándar de movimiento geométrico browniano para el proceso de precio implica que son las
devoluciones de troncos y no las devoluciones ordinarias que normalmente se distribuyen. Por lo tanto, el
uso de las devoluciones de registros se ajusta a los supuestos estándar para el precio de las opciones.
2. Las devoluciones de registros son más fáciles de trabajar que las devoluciones ordinarias. Por ejemplo, el
retorno de registro del período h es sólo la suma de h retornos consecutivos de un período. Esta propiedad
conduce a la regla de la raíz cuadrada del tiempo que utilizamos para la anualización de una desviación
estándar en una volatilidad.
3. Hay muy poca diferencia entre los registros devueltos y los retornos ordinarios cuando los retornos se miden
a la frecuencia diaria.

Sin embargo, cuando los rendimientos se miden a la frecuencia semanal o mensual, es habitual utilizar
rendimientos ordinarios en lugar de registros en la estimación de la volatilidad. Si el rendimiento esperado se
supone que es cero entonces (II.3.7) es un estimador imparcial de la varianza. Es decir, E(𝜎̂2) = σ2 y así

Es importante señalar que E(𝜎̂) ≠ σ , i.e. la raíz cuadrada de (II.3.7) no es un estimador imparcial de la desviación
estándar. Sólo la estimación de la varianza es imparcial. Si no se asume que el retorno esperado es cero,
necesitamos estimar esto a partir de la muestra, y esto coloca una restricción (lineal) en la varianza estimada a
partir de los datos de la muestra. En ese caso, para obtener una estimación imparcial debemos utilizar
donde 𝑟𝑖̅ es la media aritmética de retorno de la serie ith, tomada sobre toda la muestra de puntos de datos T.
Esta forma de desviación media del estimador puede ser útil para estimar la varianza utilizando datos mensuales
o incluso semanales durante un período en el que los rendimientos medios son significativamente diferentes de
cero. Sin embargo, con los datos diarios el rendimiento medio suele ser muy pequeño. Por otra parte, los errores
inducidos por otros supuestos son enormes en relación con el error inducido por asumir que la media es cero,
como veremos a continuación. Por lo tanto, normalmente utilizamos el formulario (II.3.7).

Ejemplo II.3.6:

Estimación media igualmente ponderada de la volatilidad FTSE 100 (II) Volver a estimar la volatilidad FTSE 100
utilizando los mismos datos que en el ejemplo II.3.5, pero esta vez no asumen que el rendimiento esperado es
cero. Solución En la hoja de cálculo para este ejemplo primero calculamos la media muestral de los resultados del
registro y luego tomamos los retornos de desviación media, los cuadramos y los sumamos, y luego dividimos el
resultado por 9, ya que hay diez retornos en la muestra. Luego tomamos la raíz cuadrada y anualizamos la
estimación de desviación estándar usando el factor de anualización √250 como antes. El resultado es una
estimación de volatilidad igualmente ponderada del 34,32%. Esto es muy diferente de la volatilidad del 32,9% que
obtuvimos en el ejemplo anterior, basado en la hipótesis de retorno medio cero, ya que la muestra es pequeña y
hay un error de muestreo considerable. Con una muestra grande la diferencia sería mucho menor.

Las fórmulas (II.3.7) y (II.3.10) son estimadores de la varianza incondicional. En otras palabras, lo que estamos
estimando es la varianza media global o a largo plazo. Del mismo modo, la estimación de volatilidad (II.3.8) es una
estimación de volatilidad incondicional. Así tenemos una estimación de la volatilidad a largo plazo, incluso cuando
utilizamos sólo diez días de datos como en el ejemplo anterior. Sólo porque sólo utilizamos una pequeña muestra
de datos recientes, esto no implica que nuestra estimación representa una varianza condicional.

II.3.4.2 Covarianza y correlación incondicional

Una estimación igualmente ponderada de la covarianza de dos retornos en el tiempo t, basada en los retornos
diarios más recientes, es

Como se mencionó anteriormente, normalmente ignoraríamos el ajuste de desviación media con datos diarios y
la fórmula (II.3.11) se basa en el supuesto de que ambos rendimientos tienen cero expectativa, en cuyo caso
proporciona una estimación imparcial de la covarianza. Pero con datos de baja frecuencia debemos hacer los
siguientes ajustes a (II.3.11):

1. Base el cálculo en los rendimientos ordinarios en lugar de los rendimientos de registro.

2. Tome la suma de los productos cruzados de las desviaciones medias de los rendimientos.

3. Utilizar T 1 en lugar de T en el denominador.


La fórmula (II.3.11) proporciona una estimación de la covarianza incondicional, que es una covarianza media a
largo plazo, mientras que la covarianza condicional es el valor instantáneo de este parámetro. La estimación de
correlación igualmente ponderada se obtiene de la siguiente manera. El primero obtiene tres estimaciones
imparciales: de las dos varianzas y de la covarianza. Utilizamos promedios igualmente ponderados de retornos
cuadrados y productos cruzados de retornos, y el mismo número de puntos de datos cada vez. A continuación,
estos se convierten en estimaciones de correlación mediante la aplicación de la fórmula

Estimación de correlación igualmente ponderada

Ejemplo II.3.7: Correlación igualmente ponderada de la FTSE 100 y S&P 500 Utilizar los datos del cuadro II.3.3, que
se utiliza en el mismo período que los datos FTSE 100, para estimar la correlación entre el índice FTSE 100 y S&P
500.

Solución En la hoja de cálculo para este ejemplo estimamos la varianza de los rendimientos del índice S&P 500,
utilizando el mismo método que para los rendimientos FTSE 100 en el ejemplo II.3.5. Por cierto, la estimación de
volatilidad para el S&P 500 es sólo del 18,72%. Esto es típico de la forma en que operan estos dos mercados. ¡Los
Estados Unidos estornudan y el Reino Unido se resfría! De todos modos, necesitamos las dos estimaciones de
varianza para el ejemplo, y estos son 0.0004329 para el índice FTSE y 0.0001401 para el índice S&P. Aplicamos la
fórmula (II.3.11) para obtener la estimación de covarianza, que es 0.0001239, y luego dividimos esta estimación
por la raíz cuadrada del producto de las varianzas. Esto da una estimación de correlación de 0,5032.

Sin embargo, es importante señalar aquí que los datos sobre el FTSE 100 y el S&P 500 utilizados en el ejemplo
anterior no son contemporáneos. Los mercados del Reino Unido cierran mucho antes que los estadounidenses,
por lo que las correlaciones basadas en estos datos estarán sesgadas a la baja. Es probable que nuestra estimación
de correlación sería mayor si los datos utilizados fueran sincrónicos. Las correlaciones también tienden a ser
grandes cuando se basan en datos semanales, ya que hay menos movimientos idiosincráticos, que podrían
considerarse como ruido a efectos de estimar correlaciones a largo plazo, que en los datos diarios.
II.3.4.3 Predicción con medias igualmente ponderadas

La matriz de covarianza igual de ponderada incondicional estima en el momento t para un conjunto de retornos
n se denota para i j=1 n, donde cada es dada por (II.3.11). Tenga en cuenta que cuando i=j la fórmula
es equivalente a la fórmula de varianza (II.3.7). Por ejemplo, la estimación de matriz de covarianza para los
rendimientos FTSE 100 y S&P 500 utilizados en el ejemplo anterior es

En el modelo igualmente ponderado, se supone que la previsión de la matriz de covarianza y, por tanto, también
las previsiones asociadas de volatilidades y correlaciones son iguales a sus estimaciones. Esta es la única
posibilidad en el contexto de un modelo igualmente ponderado, que asume que los rendimientos son i.i.d. Dado
que la volatilidad y los parámetros de correlación son constantes en el tiempo, no hay nada en el modelo para
distinguir una estimación de una previsión. Es habitual tomar el horizonte para que la previsión sea determinada
por la frecuencia de los datos utilizados para estimar las volatilidades y correlaciones. Los datos de los retornos
diarios dan un pronóstico de 1 día, los retornos semanales darán el pronóstico de 1 semana, y así sucesivamente.
Por ejemplo, la matriz de covarianza (II.3.13) representa un pronóstico de matriz de covarianza diaria.

Alternativamente, ya que el modelo asume que los retornos son procesos i.i.d. podemos usar la regla de raíz
cuadrada del tiempo para convertir un pronóstico de un período en un pronóstico de matriz de covariancia de
período h, como hicimos en la Sección II.3.2.3. Esta regla implica que obtenemos un pronóstico de matriz de
covarianza del período H a partir de un pronóstico de un período simplemente multiplicando cada elemento de la
matriz de covariancia de un período por h. Por ejemplo, una previsión mensual se puede obtener de la previsión
semanal multiplicando cada elemento por 4. Así, un pronóstico de la matriz de covariancia durante los próximos
cinco días obtenido de (II.3.13) es:

Sin embargo, las previsiones de volatilidad y correlación no han cambiado. Cuando cambiamos de uno período a
h períodos la varianza se multiplica por h pero el factor anualizador se divide por h y los dos ajustes se cancelan
entre sí. Por ejemplo, multiplicamos la estimación de varianza diaria por 5 para obtener una estimación semanal,
pero el factor de anualización para los datos de 5 días es 250/5 = 50, suponiendo 250 días comerciales al año. La
razón por la que la correlación prevista no ha cambiado es que el mismo factor de escalado h aparece tanto en el
numerador como en el denominador en (II.3.12), por lo que se cancelan.

II.3.5 PRECISIÓN DE ESTIMACIONES IGUALMENTE PONDERADAS

Habiendo explicado cómo obtener una estimación igualmente ponderada (que es igual a la previsión) de varianza,
volatilidad, covariancia y correlación, ahora abordamos la exactitud de estas previsiones. Un método estándar
para medir la exactitud de cualquier estimación o pronóstico es construir un intervalo de confianza, i.e. un rango
dentro del cual estemos bastante seguros de que el parámetro « true « yacerá. También podemos derivar una
fórmula para el error estándar del estimador y utilizar nuestros datos para encontrar un error estándar estimado
de la estimación. Esta es la raíz cuadrada de la varianza estimada del estimador.16 El error estándar da una medida
de precisión de la estimación y se puede utilizar para probar hipótesis sobre el valor del parámetro « true’ .
A continuación explicamos cómo construir intervalos de confianza y cómo estimar errores estándar para varianza
y volatilidad igualmente ponderadas, pero antes de avanzar más allá hay un punto muy importante que entender.
¿Qué queremos decir con la verdadera varianza o la verdadera volatilidad? La varianza y la volatilidad no son como
los precios de mercado de los activos financieros, que pueden observarse en el mercado. En general, la varianza
y la volatilidad no son observables en el mercado porque la varianza y la volatilidad no son activos negociados.

Por lo tanto, no podemos decir que la verdadera varianza o volatilidad es la que se observa en el mercado. ¡La
varianza y la volatilidad (y covarianza y correlación) sólo existen en el contexto de un modelo! El parámetro « true’
ya sea varianza, volatilidad, covarianza o correlación « es el parámetro que se asume en el modelo. Es la letra
griega que denota un parámetro de una distribución de probabilidad (o, en el caso de covariancia y correlación,
el parámetro en una distribución bivariada) que nunca conoceremos. Todo lo que podemos hacer es obtener una
muestra y estimar el parámetro (y poner un ˆ sobre él, para denotar que el número citado es una estimación o un
pronóstico). El parámetro « true’ nunca se conocerá con seguridad. Esta es la razón por la que calculamos los
intervalos de confianza « i.e. intervalos que estamos razonablemente seguros contienen el parámetro verdadero
de nuestro modelo supuesto para los retornos (que es el modelo normal multivariante i.i.d. en este capítulo).

II.3.5.1 Intervalos de confianza para la varianza y la volatilidad

A El intervalo de confianza para la varianza σ2 de una media igualmente ponderada puede obtenerse mediante
una aplicación sencilla de la teoría del muestreo. Supongamos que la estimación de la varianza se basa en T
normalmente distribuidos rendimientos con una media asumida de 0. Entonces tendrá un chi-
distribución al cuadrado con grados T de libertad. Así un intervalo de confianza de dos caras 100 (1 -α)% para

toma la forma y el intervalo de confianza asociado para la varianza σ2 es:

Ejemplo II.3.8: Intervalo de confianza para una estimación de varianza Suponiendo que los resultados diarios de
registro en el FTSE 100 se distribuyen normalmente, utilice la muestra dada en el ejemplo II.3.5 para construir un
intervalo de confianza del 95% para la varianza de los retornos. Solución Ya que hemos utilizado T=10 retornos,
los valores críticos del 95% en (II.3.15) son

La sustitución de estos en (II.3.15) con la estimación de varianza 𝜎̂2 = 0.000433 da el intervalo de confianza del
95% [0.000211, 0.001333]. La Figura II.3.1 ilustra los límites superior e inferior de un intervalo de confianza para
un pronóstico de varianza cuando la varianza igualmente ponderada es 1. Vemos que a medida que el tamaño de
la muestra T aumenta, el ancho del intervalo de confianza disminuye, notablemente así como T aumenta de
valores bajos. Por lo tanto, los promedios igualmente ponderados se vuelven más exactos cuando se basan en
muestras más grandes.
Ahora discutimos los intervalos de confianza que se aplican a una estimación de la volatilidad en lugar de la
varianza. Recordemos que la volatilidad, siendo la raíz cuadrada de la varianza, es simplemente una
transformación monótona y creciente de la varianza. En la Sección I.3.2.8 mostramos que los percentiles son
invariantes bajo cualquier transformación estrictamente monótona en aumento. Es decir, si f es alguna función
monotónica creciente de una variable aleatoria X, entonces

La propiedad (II.3.16) nos permite calcular un intervalo de confianza para una volatilidad histórica a partir del
intervalo de confianza para la varianza (II.3.15). Puesto que √𝑥 es una función monotónica creciente de x, uno
simplemente anualiza los límites inferior y superior del intervalo de confianza de varianza y toma la raíz cuadrada.
Esto da el intervalo de confianza de volatilidad. Así, por ejemplo, el intervalo de confianza del 95% para la
volatilidad FTSE 100 basado en el resultado del ejemplo II.3.7 es

Así que estamos un 95% seguros de que la verdadera volatilidad FTSE 100 se encuentra entre el 23% y el 57,7%.
Este intervalo es muy amplio porque se basa en una muestra con sólo diez observaciones. A medida que el tamaño
de la muestra aumenta, obtenemos intervalos de confianza más estrechos.

Ejemplo II.3.9:

Intervalos de confianza para una previsión de volatilidad Una estimación de volatilidad igualmente ponderada
basada en 30 observaciones es del 20%. Buscar una doble cara Intervalo de confianza del 95% para esta
estimación.

Solución La varianza estimada correspondiente es de 0,04 y T=30. Superior e inferior los valores críticos de chi-
squared son:
Poner estos valores en (II.3.15) da un intervalo de confianza del 95% para una previsión de varianza igualmente
ponderada basada en 30 observaciones de [0.07147, 0.02554], y tomando la raíz cuadrada da el intervalo de
confianza para la volatilidad como [16,0%, 26,7%].

II.3.5.2 Error estándar del estimador de varianza

Un estimador de cualquier parámetro tiene una distribución. Una estimación puntual de la volatilidad es sólo la
expectativa de la distribución del estimador de volatilidad. Para medir la exactitud de esta estimación de puntos
utilizamos una estimación del error estándar del estimador, que es la desviación estándar de su distribución. El
error estándar se mide en las mismas unidades que la previsión y su magnitud debe medirse en relación con el
tamaño de la previsión. Indica cuán fiable se considera una previsión.

Los errores estándar para las estimaciones de la varianza media igualmente ponderada se basan en el supuesto
de que los rendimientos subyacentes se distribuyen normal e independientemente con la media 0 y la varianza
σ2. Recordemos que la misma suposición era necesaria para derivar los intervalos de confianza en la sección
anterior. Tenga en cuenta que si Xi son variables aleatorias independientes para i = 1…T entonces f(Xi) también
son independientes para cualquier función diferenciable monotónica f. Por lo tanto, si las devoluciones son
independientes también lo son las devoluciones al cuadrado. Se sigue que cuando aplicamos el operador de
varianza a (II.3.7) obtenemos

Desde para cualquier variable aleatoria X, dejando X=r2t conduce a

Para calcular el lado derecho de arriba observamos que

puesto que hemos supuesto que E(rt) = 0 y que, puesto que hemos asumido que los rendimientos se distribuyen
normalmente,

Por lo tanto, por cada t,

La sustitución en (II.3.17) da
Por lo tanto, la hipótesis de que los rendimientos son generados por un proceso normal de i.d. media cero
produce un error estándar de una estimación de la varianza media ponderada por igual basada en los
rendimientos al cuadrado T de

Cuando se expresa como porcentaje de la varianza, el error estándar estimado es

donde T es el tamaño de la muestra. Por ejemplo, si el tamaño de la muestra es T=32, entonces el error estándar
estimado es del 25% de la varianza estimada.

II.3.5.3 Error estándar del estimador de volatilidad

Dado que la volatilidad es la raíz cuadrada (anualizada) de la varianza, la función de densidad del estimador de
volatilidad es

donde es la función de densidad del estimador de varianza. Por lo tanto, la función de distribución del
estimador de volatilidad media ponderado no es la raíz cuadrada de la función de distribución de la varianza
estimada correspondiente. Así que no podemos simplemente tomar la raíz cuadrada del error estándar de la
varianza y usar esto como el error estándar de la volatilidad. En esta sección se obtiene un error estándar
aproximado para el estimador de volatilidad. Esto se basa en la aproximación

que sostiene para cualquier función f continuamente diferenciable y variable aleatoria X. Para probar (II.3.22),
tomar una segunda expansión de orden de Taylor f sobre la media de X y luego tomar expectativas. Esto nos da

ignorando de nuevo términos de orden superior. Ya que


el resultado (II.3.22) sigue.

Ahora, utilizando (II.3.18) en (II.3.25), obtenemos la varianza del estimador de la volatilidad como

Por lo tanto, cuando se expresa como un porcentaje de la volatilidad,

Por lo tanto, el error estándar del estimador de volatilidad expresado como porcentaje de volatilidad es
aproximadamente la mitad del tamaño del error estándar de la varianza expresado como porcentaje de la
varianza. Por ejemplo, basado en una muestra del tamaño 32, el error estándar estimado de la varianza es el 25%
de la varianza estimada (como se ha visto anteriormente) y el estándar estimado error de la estimación de
volatilidad es del 12,5% de la estimación de volatilidad.

Ejemplo II.3.10: Error estándar de volatilidad

Una estimación de volatilidad igualmente ponderada es del 20%, basada en una muestra de 100 observaciones.
Estimar el error estándar del estimador y encontrar un intervalo para la estimación basado en un estándar-límites
de error. Solución El porcentaje de error estándar es (2T) -1/2, que es aproximadamente del 7,1% cuando T = 100.
Por lo tanto, los límites de error de un estándar para la volatilidad son (1 ±0,071)x 20% en términos absolutos, i.e.
la estimación de intervalo es

Tenga en cuenta que los límites de error estándar para la varianza también se calculan en la hoja de cálculo. Si
(erróneamente) tomamos la raíz cuadrada de estos y expresamos el resultado como un porcentaje obtenemos
[18,53%, 21,37%], y estos no son iguales a los límites de error estándar de volatilidad.

Ya hemos señalado que

y el ejemplo anterior muestra que también

Por desgracia, gran parte del análisis estadístico de la volatilidad se basa en realidad en la estimación de la varianza
y la distribución de la estimación de la varianza, y luego simplemente tomando la raíz cuadrada.
II.3.5.4 Error estándar del estimador de correlación
Es más difícil derivar el error estándar de un estimador de correlación promedio igualmente ponderado . Sin
embargo, podemos usar la conexión entre correlación y regresión para mostrar que, bajo nuestra suposición de
cero-media normal i.i.d. devuelve, la estimación de correlación dividida por su error estándar tiene una
distribución t estudiante con grados T de libertad, y que

Por lo tanto,

Esto significa que la importancia de una estimación de correlación igualmente ponderada depende del número
de observaciones que se utilicen en la muestra.

Ejemplo II.3.11: Comprobación de la importancia de la correlación histórica Se obtiene una estimación de la


correlación histórica de 0,2 utilizando 36 observaciones. ¿Es esto significativamente mayor que 0?

Solución La hipótesis nula es H0: ϱ=0, la hipótesis alternativa es H1: ϱ> 0 y la estadística de la prueba es (II.3.29).
Calculando el valor de esta estadística dados nuestros datos dan

Incluso el valor crítico superior del 10% de la distribución t con 36 grados de libertad es mayor que este valor (de
hecho es 1,3). Por lo tanto, no podemos rechazar la hipótesis nula: 0,2 no es significativamente mayor que 0
cuando se estima a partir de 36 observaciones. Sin embargo, si el mismo valor de 0.2 se hubiera obtenido de una
muestra con, digamos, 100 observaciones nuestro valor t habría sido 2.02, que es significativamente mayor que 0
en el nivel del 2,5% porque el valor crítico del 2,5% superior de la distribución t con 100 grados de libertad es 1,98.

II.3.6 ESTUDIO DE CASO: VOLATILIDAD Y CORRELACIÓN DE LOS TESOROS DE ESTADOS UNIDOS

La matriz de covariancia de las tasas de interés es una cantidad muy importante para el análisis del riesgo de
mercado. Se utiliza para evaluar el riesgo de posiciones sobre instrumentos sensibles a los tipos de interés y de
posiciones sobre futuros, contratos a plazo y opciones en cualquier tipo de activo o instrumento subyacente. Por
ejemplo, para evaluar el riesgo de una cartera internacional de posiciones de futuros sobre índices de acciones
necesitamos una estimación de la matriz de covarianza de tasas de interés en cada país en el que tomemos una
posición sobre un futuro índice de acciones. Existen muchos métodos diferentes para estimar una matriz de
covarianza, y diferentes metodologías pueden dar resultados muy diferentes. Dicho de otra manera, hay un riesgo
de modelo que es inherente a la estimación de la matriz de covarianza. En esta sección En esta sección
consideramos el método más simple posible, el estimador de igual ponderación de la matriz, y esto se obtiene
usando la función de covarianza de Excel. Sin embargo, incluso cuando fijamos la metodología como lo hacemos
aquí, también podemos obtener resultados muy diferentes cuando los datos de entrada se cambian. El modelo
que elegimos es uno en el que se asume que la volatilidad y la correlación son constantes, pero es un hecho muy
conocido que nuestras estimaciones de volatilidad y correlación cambiarán con el tiempo, a medida que cambien
los datos de la muestra. Esta sensibilidad a los datos de la muestra se suma al riesgo del modelo de estimación de
la matriz de covarianza.
En este estudio de caso no discutimos el riesgo de modelo que surge de la elección de la metodología. Fijamos la
metodología para que sea la matriz de covarianza igualmente ponderada y comenzamos estudiando el grado de
riesgo del modelo que surge de la elección de los datos de la muestra. Luego fijamos los datos de la muestra y
mostramos que todavía hay muchas decisiones subjetivas que deben ser hechas con respecto a la forma en que
los datos son manejados y que los resultados pueden ser muy diferentes dependiendo de las elecciones hechas.
Esta es otra fuente importante de riesgo de modelos en la estimación de la matriz de covarianza

II.3.6.1 Eligiendo los Datos


Asumiendo que sabemos qué metodología usar al estimar una matriz de covariancia y en este estudio usamos la
metodología de igual ponderación. Las primeras decisiones que enfrenta el analista son sobre los datos a ser
usados. En esta sección consideramos las decisiones generales de modelización que se relacionan con cualquier
tipo de matriz de covarianza. Por supuesto, habrá preguntas específicas relativas a la generación de datos sobre
el tipo de activo que se está analizando. Para las tasas de interés podemos cuestionar qué instrumentos debemos
usar para estimar la curva de rendimiento y qué metodología de estimación (p. ej., splines cúbicos) se debe aplicar.
Pero esta es una pregunta diferente. A continuación discutimos dos decisiones generales que se aplican a todas
las matrices de covarianza.

Decisión 1: ¿Qué frecuencia de las observaciones debe utilizarse? Se trata de una decisión importante, que
depende del uso final de la matriz de covarianza. Podríamos usar datos de alta frecuencia para estimar una matriz
de covarianza a corto plazo o datos de baja frecuencia para estimar una matriz de covariancia a largo plazo. Si
asumimos que los retornos son procesos normales de i.i.d. podemos usar la regla de la raíz cuadrada del tiempo
para convertir la matriz en matrices con diferentes periodos de espera. Sin embargo, obtendremos resultados
inconsistentes. Por ejemplo, la matriz de covarianza de cinco días que se estima a partir de datos semanales no es
la misma que la matriz de covarianza de fiveday que se estima a partir de datos diarios donde cada elemento se
multiplica por 5.

El problema es que los retornos se vuelven más variables en frecuencias más altas. Con datos de muy alta
frecuencia los retornos pueden ser considerados como demasiado ruidosos. Por ejemplo, las variaciones diarias
pueden no ser relevantes si sólo queremos medir covarianzas durante un período de 10 días. La variación adicional
en los datos diarios no es útil, y la crudeza de la regla del tiempo de inicio cuadrado introducirá un error. Para
evitar el uso de supuestos brutos, es mejor utilizar una frecuencia de datos que corresponda al período de espera
de la matriz de covarianza, si es posible.

Decisión 2: ¿Cuánto tiempo debe utilizarse un período de datos históricos? El método histórico’ igualmente
ponderado proporciona una volatilidad media, o correlación, a lo largo del período muestral elegido. Cuanto más
largo sea el período de datos, menos relevante será el promedio de hoy « i.e. al final de la muestra.

Las decisiones 1 y 2 están vinculadas. Por ejemplo, si tomamos datos trimestrales porque queremos estimar una
matriz de covarianza que se utilizará en un horizonte de riesgo de un cuarto, entonces necesitaríamos un período
de datos de 5 o más años, de lo contrario, el error estándar de las estimaciones será muy grande (véase la sección
II.3.5). Así que nuestra matriz de covarianza trimestral representa un promedio de muchos años. Esto significa que
no será muy útil para hacer previsiones a corto plazo. Un año de historia es una mejor representación de los
mercados de hoy que una historia de 5 años o más. Un año de datos proporciona un montón de observaciones
para medir las volatilidades y correlaciones del modelo histórico con precisión si los datos son diarios. Pero las
variaciones diarias que son capturadas por la matriz pueden no ser información relevante en la frecuencia
trimestral, así que no es sensato aplicar la regla de la raíz cuadrada del tiempo a la matriz diaria. En resumen,
puede haber un equilibrio entre el uso de datos en la frecuencia pertinente y el uso de datos que son relevantes
hoy en día.
II.3.6.2 Nuestros datos
Tomamos datos diarios sobre los tipos de interés del Tesoro estadounidense a vencimiento constante, entre el 4
de enero de 1982 y el 27 de agosto de 2007.25 y no utilizamos todos los vencimientos en la estructura a plazo del
Tesoro estadounidense, sólo los que se muestran en la Figura II.3.2.

Es evidente que las tasas siguieron tendencias marcadas durante el período. De un máximo de alrededor del 15%
en 1982, a finales de 2002, bajo las políticas de Alan Greenspan, las tasas de interés a corto plazo habían bajado
casi al 1%. También los períodos en que la estructura a plazo de las tasas de interés era relativamente plana se
entremezclan con períodos en que la estructura a plazo se inclinaba hacia arriba, a veces con tasas a largo plazo
varios por ciento más altas que las tasas a corto plazo. Durante los regímenes de curva de rendimientos
ascendente, especialmente en el segundo, de 2000 a 2005, los tipos de interés a medio y largo plazo son más
volátiles que los tipos a corto plazo, en términos absolutos. Dado que las estructuras a plazo suelen inclinarse
hacia arriba, las tasas cortas suelen ser mucho más bajas que las tasas a medio y largo plazo, por lo que no está
claro qué tasas son las más volátiles en términos relativos.

II.3.6.3 Efecto del período muestral


Una matriz diaria basada en la totalidad de la muestra que figura en el gráfico II.3.3 reflejaría una media a muy
largo plazo de las volatilidades y correlaciones entre las tasas diarias de tesorería de los Estados Unidos; de hecho,
se trata de una media de 25 años que incluye varios períodos de diferentes regímenes de tipos de interés. Una
media a muy largo plazo es útil para las previsiones a largo plazo y probablemente sea mejor basar la estimación
en datos de menor frecuencia, p. ej., mensualmente.
A continuación, estimaremos una matriz de covarianza diaria que puede ser utilizada, por ejemplo, como un
pronóstico de un día de anticipación. Utilizaremos tres períodos cada uno con cinco años de datos: (A) enero de
1991 a diciembre de 1995; (B) enero de 1996 a diciembre de 2001; y (C) enero de 2001 a diciembre de 2005. Los
períodos A y C son similares en la medida en que la curva de rendimiento tuvo una pendiente ascendente
pronunciada durante la mayor parte del período. Durante el período B, la forma de la curva de rendimiento fue
generalmente más plana y fluctuó entre períodos leves de inclinación ascendente y descendente.

Dado que las sensibilidades de los tipos de interés se suelen medir en puntos básicos, las volatilidades de una
matriz de covariancia de tipos de interés también se suelen expresar en puntos básicos. Las volatilidades que se
estiman a lo largo de los tres períodos muestrales diferentes se muestran en la figura II.3.3. Estos muestran que
los tipos de interés a más largo plazo tienden a tener mayores volatilidades que los tipos cortos.

Las tasas cortas en los Estados Unidos están muy limitadas por los responsables políticos cuando quieren bajar el
nivel general de los tipos de interés. Sin embargo, durante los períodos A y C, el mercado esperaba en general que
los tipos de interés subieran, porque la curva de rendimiento se inclinaba hacia arriba. La tasa a tres meses tiene
una volatilidad de entre 70 y 80 puntos básicos y la tasa a diez años una volatilidad de entre 90 y 95 puntos básicos.
Estas volatilidades se ven afectadas por el período muestral, pero no tanto como las tasas entre vencimientos.
Por ejemplo, la tasa de 1 año tiene una estimación de volatilidad de 86 puntos básicos en el período A pero unos
72 puntos básicos en los períodos B y C. Las cifras exactas de las volatilidades se dan en la hoja de cálculo.

Las correlaciones son, por supuesto, independientes de la unidad de medida. En el cuadro II.3.5 se presentan las
correlaciones estimadas de los tipos de interés a lo largo de los tres períodos. Las tres matrices presentan las
características habituales de una estructura de tipos de interés a plazo: las correlaciones son mayores en el
extremo largo que en el extremo corto y disminuyen a medida que aumenta la diferencia entre los dos
vencimientos. Las correlaciones a corto plazo (p. ej., las correlaciones entre las tasas a corto plazo) son menores
y dependen más del período muestral que las correlaciones a largo plazo. Como era de esperar, las correlaciones
a corto plazo son más bajas en el período medio, cuando la pendiente de la curva de rendimiento fluctuó
considerablemente.
II.3.6.4 Cómo calcular las variaciones de los tipos de interés
En la sección anterior se estimaron las volatilidades y correlaciones de las variaciones diarias de los tipos de
interés. Esto se debe a que el cambio diario en un tipo de interés, que no es un activo negociable, corresponde a
los rendimientos del activo negociable, i.e. el bono cupón cero con el mismo vencimiento que el tipo de interés.
Pero cuando se utilizan datos históricos para estimar y pronosticar matrices de covariancia de tipos de interés hay
otra decisión que tomar:

Decisión 3: ¿Deben medirse las volatilidades y correlaciones directamente en función de las variaciones absolutas
de los tipos de interés, o deben medirse en función de las variaciones relativas y luego convertirse en términos
absolutos?

Si las tasas han estado en tendencia durante el período de datos, es probable que los dos enfoques den resultados
muy diferentes. Al aplicar la metodología de igual ponderación asumimos que las volatilidades y correlaciones son
constantes. Así que uno debe preguntar cuál es el más estable de los dos: cambios relativos o cambios absolutos.
La decisión sobre cómo manejar los datos depende de qué método da los resultados más estables durante el
período muestral. Para los datos que figuran en el gráfico II.3.3, un cambio absoluto de 50 puntos básicos en 1982
fue relativamente pequeño, pero en 2005 habría representado un cambio muy grande. En los países con tipos de
interés muy altos, o cuando los tipos de interés se han mantenido en tendencia durante el período muestral, los
cambios relativos tienden a ser más estables que los cambios absolutos.
Para informar nuestra elección para la Decisión 3 tomamos tanto los cambios diarios relativos (la diferencia en las
tasas logarítmicas) como los cambios diarios absolutos (las diferencias en las tasas, en términos de puntos
básicos). Entonces obtenemos la desviación estándar, correlación y covarianza en cada caso, y en el caso de
cambios relativos traducimos los resultados en términos absolutos. Luego comparamos los resultados basados en
cambios relativos con los resultados basados en cambios absolutos.

Las estimaciones de volatilidad y correlación se basan en el período comprendido entre el 1 de enero de 2006 y
el 27 de agosto de 2007, los datos más recientes de la muestra, y el cuadro II.3.6 compara los resultados. En agosto
de 2007, el Banco de la Reserva Federal de los Estados Unidos redujo drásticamente las tasas de interés a corto
plazo debido a la crisis crediticia que rodeaba a los préstamos hipotecarios de alto riesgo. Por ejemplo, la tasa a
tres meses era un poco más del 5% el 24 de julio de 2007, ¡pero el 20 de agosto de 2007 era sólo del 3,12%! Estos
recortes relativamente importantes de las tasas a corto plazo tienen un efecto considerable en las estimaciones
de volatilidad y correlación que figuran en el cuadro II.3.6. Note que la correlación entre la tasa de 3 meses y otras
tasas es muy baja, y la volatilidad de la tasa de 3 meses es muy alta.

Pero no hubo una tendencia significativa en los tipos de interés respecto de la muestra de 2006 a 2007. La historia
predominante de estas matrices es que se ven muy afectadas por los recortes de los tipos de interés a corto plazo
en agosto de 2007. Los tipos de interés ya eran bastante bajos cuando se hicieron los recortes, por lo que las
variaciones relativas de los tipos de interés a corto plazo en ese momento eran enormes. Por lo tanto, puede ser
más razonable suponer que las volatilidades y correlaciones deben medirse en función de los cambios absolutos
durante este período. En resumen, hay cuatro decisiones cruciales que se deben tomar al estimar una matriz de
covarianza:
1. ¿La frecuencia de los datos debe ser diaria, semanal, mensual o trimestral?
2. ¿Qué período de datos históricos debe utilizarse?
3. ¿Debemos basar la matriz en cambios relativos o absolutos?
4. ¿Qué modelo estadístico debemos emplear: con la misma ponderación, con ponderación exponencial o
GARCH?
Hemos demostrado que las tres primeras decisiones dan lugar a una cantidad considerable de riesgo de modelo.
Pero en el resto de este capítulo y en el siguiente veremos que el mayor riesgo del modelo surge de la elección de
la metodología estadística.

II.3.7 MEDIAS MÓVILES IGUALMENTE PONDERADAS

Se calcula una media móvil sobre una muestra de estimación rodante. En otras palabras, usamos una ventana de
datos que tiene un tamaño de muestra fijo y es rodada a través del tiempo, cada día añadiendo la nueva vuelta y
quitando la más antigua. En el caso de medias móviles igualmente ponderadas, el tamaño muestral, también
llamado período de retrospectiva o período de promedios, es el intervalo de tiempo sobre el cual calculamos el
promedio de los rendimientos cuadrados (para la varianza) o los productos cruzados medios de los rendimientos
(para la covarianza). En el pasado, varias grandes instituciones financieras han perdido mucho dinero porque
utilizaron el modelo de promedio móvil con la misma ponderación de manera inapropiada. No me sorprendería
si se perdiera mucho más dinero debido al uso inexperto de este modelo en el futuro. El problema no es el modelo
en sí mismo, después de todo, es una fórmula estadística perfectamente respetable para un estimador imparcial.
Los problemas surgen de su aplicación inadecuada dentro de un contexto de series temporales.

II.3.7.1 Efecto de los cúmulos de volatilidad Un argumento (falaz) es el siguiente: las predicciones a largo plazo no
deberían verse afectadas por fenómenos a corto plazo, como el agrupamiento de la volatilidad, donde el mercado
se volvió turbulento durante varias semanas antes de volver a la normalidad. Esto ocurre con bastante frecuencia
en algunos mercados financieros y en los mercados de valores y productos básicos en particular. Así pues, para
las previsiones a largo plazo deberíamos utilizar un promedio a lo largo de un período histórico muy largo. Por
otra parte, las predicciones a corto plazo deben reflejar las condiciones actuales del mercado, por lo que sólo
deben utilizarse los datos recientes sobre los rendimientos. Algunas personas utilizan un período de promedio
histórico de días T para pronosticar días T futuros; otras utilizan períodos históricos ligeramente más largos que
el período de previsión. Por ejemplo para un pronóstico de 10 días algunos practicantes podrían mirar hacia atrás
30 días o más.

Pero este enfoque aparentemente sensato en realidad induce un gran problema. Si sólo se incluye un rendimiento
extremo en el período de promedios, la previsión de volatilidad será muy alta. Pero entonces de repente saltará
hacia abajo a un nivel mucho más bajo en un día en que absolutamente nada sucedió en los mercados. Sólo pasó
a ser el día en que el retorno extremo cayó fuera de la muestra de estimación en movimiento. Y todo el tiempo
que este retorno extremo permanece dentro de la ventana de datos la previsión de volatilidad sigue siendo alta.
Por ejemplo, supongamos que el tamaño de la muestra es de 100 días de datos diarios y que un retorno extremo
ocurrió hace tres meses. Entonces ese retorno tiene el mismo efecto sobre la volatilidad ahora que si hubiera
ocurrido ayer.

Ejemplo II.3.12: Volatilidad histórica de MIB 30


Figura II.3.4 ilustra los precios de cierre diarios del índice de acciones MIB 30 italiano entre principios de enero
de 2000 y finales de diciembre de 2007 y los compara con los precios del índice S&P 500 durante el mismo
período.28volatilidades históricas diarias, de 60 días y de 90 días de estos dos índices bursátiles y compararlos
gráficamente.

Solución En la hoja de cálculo para este ejemplo construimos tres diferentes con la misma ponderación
estimaciones de volatilidad media móvil para el índice MIB 30, con T=30 días, 60 días y 90 días respectivamente.
El resultado se muestra en la Figura II.3.5. La gráfica correspondiente para el El gráfico correspondiente al índice
S&P 500 se muestra en la hoja de cálculo de este ejemplo. Centrémonos en primer lugar en la primera parte del
período de datos y en el período posterior a los ataques terroristas del 11 de septiembre de 2001 en particular. El
índice italiano reaccionó a las noticias mucho más que el S&P 500. La estimación de volatilidad basada en datos
de 30 días saltó del 15% a casi el 50% en un día, y luego continuó aumentando aún más, hasta el 55%. Una vez
más, ¡Estados Unidos estornuda y Europa se resfría! Entonces, de repente, exactamente 30 días después del
evento, la volatilidad de 30 días volvió a caer al 30%. Pero no pasó nada especial en los mercados ese día. La
drástica caída de la volatilidad fue sólo un fantasma de los ataques del 11 de septiembre. No reflejó en absoluto
las condiciones subyacentes del mercado en ese momento.

Características similares son evidentes en las series de volatilidad de 60 días y 90 días. Cada serie salta
inmediatamente después del evento 9/11 y luego, 60 o 90 días después, salta de nuevo. El 9 de noviembre de
2001, los tres diferentes períodos de retrospectiva dieron estimaciones de volatilidad del 30%, 43% y 36%, ¡pero
todas ellas se basan en los mismos datos subyacentes y en la misma hipótesis i.i.d. para los rendimientos! Otras
características fantasmas de este tipo son evidentes más adelante en el período, por ejemplo en marzo de 2001 y
marzo de 2003. Más adelante en el período, la elección del período de retrospectiva no hace tanta diferencia: las
tres estimaciones de volatilidad se sitúan en torno al nivel del 10%.

II.3.7.2 Escollos del Método del Promedio Móvil Igualmente Ponderado Los problemas encontrados al aplicar este
modelo provienen no de los pequeños saltos que a menudo se encuentran en los precios de los activos financieros
sino de los grandes saltos encontrado. Cuando se utiliza un período de promedio largo, la importancia de un único
evento extremo se promedia dentro de una muestra grande de retornos. Por lo tanto, una estimación de
volatilidad media móvil a muy largo plazo no responderá en gran medida a un choque corto y agudo en el mercado.
En el ejemplo II.3.12, este efecto fue claramente visible en 2002, donde sólo la volatilidad de 30 días aumentó
significativamente en unas pocas semanas.

Las volatilidades a largo plazo aumentaron, pero les tomó varios meses responder a las caídas del mercado en el
MIB30 durante mediados de 2002. En este momento había un cúmulo de volatilidad y el efecto del cúmulo fue
hacer que las volatilidades a largo plazo aumentaran (eventualmente), y después tomaron un tiempo para volver
a los niveles normales. No fue hasta finales de 2003 que las tres series de volatilidad En la figura II.3.5 se ha vuelto
a alinear.

Incluso cuando sólo hay un evento extremo en el mercado esto influirá en el día T estimación media móvil para
días T exactos hasta que ese retorno cuadrado muy grande cae fuera de la ventana de datos. Por lo tanto, la
volatilidad saltará, para exactamente días T, y luego caen dramáticamente el día T+1, aunque no pasó nada en el
mercado en ese día. Este tipo de fantasma’ característica es simplemente un artefacto del uso de igual
ponderación. El problema es que extremo los acontecimientos son tan importantes para las estimaciones actuales,
si se produjeron ayer o si se produjeron hace mucho tiempo. Un solo gran retorno al cuadrado sigue siendo tan
importante Hace días como ayer. Afectará a la volatilidad del día T o a la estimación de correlación para días T
exactos después de que se experimentara el retorno, y exactamente en la misma medida. ¡Exactamente T+1 días
después del evento extremo la estimación de volatilidad media móvil igualmente ponderada cae misteriosamente
hacia abajo al nivel más o menos correcto, es decir, siempre que no hayamos tenido otro retorno extremo en el
ínterin!

Tenga en cuenta que el más pequeño es T, i.e. el número de puntos de datos en la muestra de estimación, más
variable serán las estimaciones de volatilidad histórica con el tiempo. Cuando las estimaciones se basan en un
tamaño de muestra pequeño que no será muy preciso. Cuanto mayor sea el tamaño de la muestra, más precisa
será la estimación, ya que el error estándar de la estimación de volatilidad es proporcional a 1/ √𝑇. Por esta razón,
una media móvil corta será más variable que una media móvil larga. Por lo tanto, una volatilidad histórica de 30
días (o correlación) siempre será más variable que una volatilidad histórica de 60 días (o correlación) que se basa
en los mismos datos de rendimiento diario.

Es importante darse cuenta de que cualquiera que sea la longitud de la muestra de estimación y cada vez que se
hace la estimación, el método ponderado por igual siempre está estimando el mismo parámetro: la volatilidad
incondicional (o correlación) de los rendimientos. Pero esta es una constante que no cambia sobre el proceso. Por
lo tanto, la variación en las estimaciones históricas del día-T sólo puede atribuirse a un error de muestreo: no hay
nada más en el modelo que explique esta variación. No es un modelo de volatilidad variable en el tiempo, aunque
algunos usuarios tratan de forzarlo en ese marco.

El problema con el modelo de promedio móvil igualmente ponderado es que trata de hacer un estimador de una
volatilidad constante en un pronóstico de una volatilidad variable en el tiempo (¡!). Del mismo modo, trata de
hacer un estimador de una correlación constante en un pronóstico de una correlación variable en el tiempo. Este
modelo es realmente sólo adecuado para las previsiones a largo plazo de i.d. volatilidad incondicional, o
correlación, por ejemplo, durante un período de entre seis meses y varios años. En este caso, la muestra de
estimación debe ser lo suficientemente larga para incluir una variedad de saltos de precios, con una frecuencia
relativa que represente las expectativas del modelista de la probabilidad de saltos de precios futuros de esa
magnitud durante el horizonte temporal previsto.

II.3.7.3 Tres maneras de prever la volatilidad a largo plazo


Cuando las opciones de precios son la volatilidad a largo plazo la más difícil de prever. El comercio de opciones a
menudo se concentra en opciones de vencimiento corto, y las opciones a largo plazo son mucho menos líquidas.
Por lo tanto, no es fácil prever una volatilidad implícita a largo plazo. La volatilidad a largo plazo es la mayor
incertidumbre, pero es el determinante más importante de los precios de las opciones a largo plazo. Para
pronosticar una media a largo plazo de la volatilidad utilizando el modelo con la misma ponderación, es normal
utilizar una estimación grande del tamaño de la muestra T en la estimación de la varianza. Los intervalos de
confianza para los estimadores de volatilidad histórica que se derivaron en la Sección II.3.5 proporcionan una
indicación útil de la exactitud de estos pronósticos de volatilidad a largo plazo y los errores estándar aproximados
que hemos derivado una indicación de la variabilidad de la volatilidad a largo plazo. En la Sección II.3.5.3 hemos
demostrado que la variabilidad de las estimaciones disminuye a medida que aumenta el tamaño de la muestra.
Por lo tanto, una volatilidad a largo plazo que se prevé a partir de este modelo puede resultar muy útil.

Consideremos ahora tres hipotéticos modelos históricos de volatilidad a los que llamaremos Tom, Dick y Harry.
Cada uno de ellos proporciona previsiones diarias de la volatilidad del FTSE 100 en un horizonte de riesgo a un
año. Tom es un estadístico clásico que cree que los datos históricos son todo lo que uno necesita para predecir el
futuro. Él basa su pronóstico en un promedio igualmente ponderado de retornos cuadrados durante los últimos
12 meses de datos diarios. Imagine que es enero de 2008. En agosto de 2007 el índice FTSE 100 se estrelló, cayendo
un 25% en el espacio de unos pocos días. Así que algunos saltos muy grandes ocurrieron durante la muestra. Tom
incluye los retornos del accidente de agosto de 2007 en su cálculo, por lo que su pronóstico de volatilidad será
alto. El hecho de que utiliza el período de choque en su muestra implica que Tom tiene una creencia implícita de
que otro salto de igual magnitud ocurrirá durante el horizonte previsto.

El tiempo avanza y Tom todavía está pronosticando la volatilidad de un año usando su modelo medio móvil. Pero
en agosto de 2008 los datos de agosto anterior caerán de su muestra. Suponiendo que no se produjera más
accidente después de agosto de 2007, en agosto de 2008 Tom cambia bruscamente su creencia implícita de que
se producirá otro accidente durante los próximos 12 meses. De repente decide que otro accidente es muy
improbable, sólo porque no hubo accidente durante los últimos 12 meses.

Dick es otro estadístico clásico, pero tiene tendencias bayesianas. En lugar de adoptar pasivamente creencias que
están totalmente implícitas en los datos de la muestra histórica, admite un elemento de elección subjetiva en la
formación de sus creencias. En enero de 2008 no cree que pueda producirse otro desplome del mercado en su
horizonte de previsión, y permite que esta creencia subjetiva modifique su método de previsión de volatilidad.
Excluye los datos del accidente de agosto de su muestra. Todavía utiliza datos históricos para predecir la
volatilidad, pero filtra los rendimientos extremos de una manera ad hoc, de acuerdo con sus creencias subjetivas,
antes de que se utilice en el modelo clásico. Durante un período diferente Dick es el tipo de modelador que
también puede añadir en algunos grandes rendimientos artificiales si siente que el mercado no ha sido lo
suficientemente volátil en el pasado reciente.

Harry es un Bayesiano de gran alcance. En el marco bayesiano de volatilidad incierta el modelo de igual
ponderación tiene un papel importante que desempeñar. Utiliza medias móviles igualmente ponderadas sólo para
determinar un posible rango de volatilidad a largo plazo, que denotamos por [ σ min,σ máx]. Él estima el límite
inferior σ min usando un largo período de datos históricos, pero con todos los retornos muy extremos eliminado.
¡Entonces él estima el máximo del límite superior σ máx usando los mismos datos históricos pero ahora con los
retornos muy extremos retenidos « de hecho él incluso agrega algunos más para la buena medida!

Entonces Harry formaliza sus creencias sobre la volatilidad a largo plazo con una distribución de probabilidad
subjetiva sobre el rango [ σ min,σ máx]. En algunos momentos puede tener muy poca información objetiva sobre
la economía y así sucesivamente, y por lo tanto puede sentir que cada valor en el rango es igualmente probable.
En ese caso, sus creencias estarían representadas por una distribución uniforme en el rango. En otras ocasiones
puede tener más noticias sobre lo que los analistas creen que es probable que suceda en los mercados. Por
ejemplo, puede creer que la volatilidad es más probable que sea hacia la mitad del rango, en cuyo caso podría
considerar el uso de una distribución normal truncada para representar sus creencias.

Cualquiera que sea la distribución que Harry utiliza para representar sus creencias, su ventaja como analista de
riesgo de mercado es que puede llevar a cabo esta distribución para el resto del análisis. Por ejemplo, podría
obtener estimaciones puntuales de las exposiciones a largo plazo con estructuras similares a las opciones, tales
como certificados de compra de acciones sobre el patrimonio neto de una empresa o bonos convertibles. Usando
su distribución de volatilidad subjetiva, estas estimaciones puntuales podrían darse con un intervalo de confianza,
o un error estándar, expresando la confianza de Harry en el pronóstico que está proporcionando. En el momento
de escribir es mi experiencia que la mayoría de los modelos de volatilidad son como Tom. Hay algunos como Dick
pero muy pocos como Harry. Sin embargo, los bayesianos como Harry deberían ser muy apreciados por sus
comerciantes y gerentes, así que creo que se volverán más comunes en el futuro.

II.3.8 MEDIAS MÓVILES CON PONDERACIÓN EXPONENCIAL

Un promedio móvil con ponderación exponencial (EWMA) da más peso a las observaciones más recientes. Es
decir, como los retornos extremos se mueven más adelante en el pasado cuando la ventana de datos se mueve,
se vuelven menos importantes en el promedio. Por esta razón, los pronósticos de EWMA no sufren las
características de fantasmas que encontramos en promedios móviles con la misma ponderación.

II.3.8.1 Metodología estadística En cualquier serie temporal de datos puede definirse una media móvil ponderada
exponencialmente. Supongamos que en la fecha t hemos registrado datos hasta el tiempo t-1. El promedio
ponderado exponencialmente de estas observaciones se define como

Donde ʎ es una constante, 0 < ʎ < 1, llamado el suavizado constante o, a veces, la descomposición parámetro.
Desde ʎ n 0 como n ∞ , la media ponderada exponencialmente coloca insignificante peso en las observaciones
en el pasado. Y desde

tenemos, para grande t

Esta fórmula se utiliza para calcular las estimaciones de EWMA de


• varianza, donde tomamos x para ser el retorno al cuadrado; y covarianza
• donde tomamos x para ser el producto cruzado de los dos retornos.
Al igual que con medias móviles igualmente ponderadas, es normal utilizar retornos diarios al cuadrado y
productos cruzados de retornos diarios, no en forma de desviación media, es decir.

Las fórmulas anteriores pueden reescribirse en forma de recursiones que se utilizan más fácilmente en los
cálculos:

Una notación alternativa, cuando queremos hacer explícita la dependencia de la constante de suavizado, es

Las fórmulas anteriores se aplican de la siguiente manera:


• Convertimos la varianza EWMA (II.3.32) a la volatilidad EWMA tomando la raíz cuadrada anualizada, siendo la
constante anualizadora el número de retornos por año.
• Para encontrar la correlación EWMA la covarianza (II.3.34) se divide por la raíz cuadrada del producto de las dos
estimaciones de varianza EWMA, todas con el mismo valor de ʎ.

También podemos calcular una beta EWMA, i.e. una estimación EWMA de la sensibilidad de un stock (o cartera)
rendimiento del índice de mercado. La covarianza entre los rendimientos de acciones (o carteras) y los
rendimientos de mercado se divide por la estimación de EWMA para la varianza de mercado, ambos con el mismo
valor de :

En la sección II.1.2.3 ya se dan ejemplos numéricos del cálculo de la correlación de mercado EWMA, la beta de
mercado y la volatilidad relativa.

II.3.8.2 Interpretación de Lambda


Hay dos términos en el lado derecho de (II.3.33). El primer término es Esto determina la intensidad de
la reacción de la volatilidad a los acontecimientos del mercado: cuanto menor es ʎ la mayor reacción de la
volatilidad a la información del mercado en el retorno de ayer. El segundo término es . Esto determina la
persistencia de la volatilidad: independientemente de lo que ocurra en el mercado, si la volatilidad fue alta ayer
seguirá siendo alta hoy. Cuanto más cerca está ʎ de 1, más persistente es la volatilidad después de un choque de
mercado.

Por lo tanto, un alto ʎ da poca reacción a los acontecimientos reales del mercado, pero gran persistencia en la
volatilidad; y un bajo da volatilidades altamente reactivas que desaparecen rápidamente. Una restricción
desafortunada de los modelos EWMA es que asumen que los parámetros de reacción y persistencia no son
independientes; la fuerza de la reacción a los acontecimientos del mercado está determinada por 1-ʎ y la
persistencia de los choques está determinada por ʎ. Pero esta suposición, en general, no se justifica
empíricamente.

El efecto de utilizar un valor diferente de ʎ en EWMA previsiones de volatilidad puede ser bastante sustancial. Por
ejemplo, en el gráfico II.3.6 se comparan dos estimaciones/previsiones de volatilidad de EWMA del índice S&P
500, con ʎ= 0 90 y ʎ= 0 96. Podemos ver en la figura que hay varios casos en que las dos estimaciones de EWMA
difieren hasta en 5 puntos porcentuales.

Gráfico II.3.6 Estimaciones de la volatilidad de EWMA para S&P 500 con diferentes lambdas

Entonces, ¿cuál es el mejor valor a utilizar para la constante de suavizado? ¿Cómo debemos elegir? Esta no es una
pregunta fácil.30 Se pueden considerar métodos estadísticos: por ejemplo, se podría elegir, para minimizar el
error cuadrático medio de raíz entre la estimación de varianza EWMA y el retorno al cuadrado. Pero más a menudo
se elige subjetivamente. Esto se debe a que el mismo valor de tiene que ser utilizado para todos los elementos en
una matriz de covarianza EWMA, de lo contrario la matriz no está garantizado para ser positivo semidefinitivo. Si
el valor de lambda se elige subjetivamente, los valores suelen oscilar entre aproximadamente 0,75 (la volatilidad
es altamente reactiva pero tiene poca persistencia) y 0,98 (la volatilidad es muy persistente pero no muy reactiva).

II.3.8.3 Propiedades de los Estimadores EWMA


Una estimación de volatilidad EWMA reaccionará inmediatamente después de un retorno inusualmente grande;
entonces el efecto de este retorno sobre la estimación de volatilidad EWMA disminuye gradualmente con el
tiempo. La reacción de las estimaciones de volatilidad de EWMA a los eventos del mercado por lo tanto persiste
con el tiempo y con una fuerza que se determina por la constante de suavizado ʎ . Cuanto mayor es el valor de ʎ
mayor peso se coloca en las observaciones en el pasado más suave la serie se convierte.

El gráfico II.3.7 compara la volatilidad EWMA del índice MIB con ʎ= 0.95 y la volatilidad ponderada a 60 días. La
estimación de EWMA da una mayor volatilidad que la estimación con la misma ponderación, pero vuelve a los
niveles típicos más rápido que la estimación con la misma ponderación, ya que no sufre de las características
fantasma « discutido anteriormente.

Gráfico II.3.7 EWMA frente a volatilidad igualmente ponderada

Una de las desventajas de utilizar EWMA para estimar y pronosticar matrices de covarianza es que el mismo valor
de ʎ se utiliza para todas las varianzas y covarianzas en la matriz. Por ejemplo, en una matriz grande que abarca
varias clases de activos, el mismo ʎ se aplica a todos los índices de acciones, tipos de cambio, tipos de interés y/o
materias primas de la matriz. Esta restricción se aplica comúnmente simplemente porque garantiza que la matriz
será positiva semi-definida. Pero, ¿por qué todos estos factores de riesgo tienen una reacción y persistencia
similares a las sacudidas? De hecho, los métodos más avanzados dan EWMA positivo matrices semidefinidas sin
imponer que la misma ʎ genera todos los elementos en la matriz.

II.3.8.4 Previsión con EWMA La media ponderada exponencialmente proporciona una metodología para calcular
una estimación de la varianza en cualquier momento, y denotamos esta estimación , utilizando el subíndice t
porque la estimación cambia con el tiempo. Pero el estimador EWMA está basado en un modelo i.i.d. devuelve.
La varianza verdadera de los retornos en cada punto es constante, no cambia con el tiempo. Es decir, EWMA no
es un modelo para la varianza condicional 2 t . Sin un modelo adecuado no está claro cómo deberíamos convertir
nuestra estimación actual de la varianza en una previsión de la varianza sobre algún horizonte futuro.

Sin embargo, podría especificarse un modelo EWMA para la varianza condicional como
Esta es una versión restringida del modelo GARCH normal simétrico univariante (introducido en el capítulo
siguiente), pero las restricciones son tales que la volatilidad condicional prevista debe ser constante, i.e. σ t 2 = σ2
para todas las t. Así, después de todo, incluso si especificamos el modelo (II.3.37) que reduce al modelo i.i.d. para
devoluciones. Por lo tanto, el modelo de devoluciones para estimador EWMA es igual que el modelo para el
estimador de varianza media y covariancia ponderado por igual, i.e. que los retornos son generados por múltiples
variables normales i.i.d. procesos. El hecho de que nuestro Las estimaciones son variables en el tiempo,
simplemente debido a una ponderación exponencial de los datos muestrales. El modelo subyacente para la
dinámica de los retornos es el mismo que en el caso medio!

Una previsión de volatilidad EWMA debe ser una constante, en el sentido de que es la misma para todos los
horizontes temporales. El modelo EWMA pronosticará la misma volatilidad media, tanto si la previsión es para los
próximos 10 días como para el próximo año. La previsión de volatilidad media, a lo largo de cualquier horizonte
de previsión, es igual a la estimación actual de volatilidad. Este no es un modelo de pronóstico muy bueno.
Observaciones similares se aplican a la covarianza EWMA. Podemos considerar EWMA como una versión simplista
de GARCH bivariante. Pero entonces, usando el mismo razonamiento que arriba, vemos que la previsión de
correlación EWMA, sobre cualquier horizonte de riesgo, simplemente es igual a la estimación de correlación
EWMA actual. Así que de nuevo estamos reducidos a un modelo de correlación constante.

El horizonte de base para la previsión viene dado por la frecuencia de los datos « retornos diarios dará la matriz
de covarianza de 1 día, los retornos semanales darán la matriz de covariancia de 1 semana y así sucesivamente.
Entonces, dado que los retornos se asumen como i.i.d. se aplicará la regla del tiempo de inicio cuadrado. Así que
podemos convertir una matriz de covarianza de 1 día en un pronóstico de h-día multiplicando cada elemento del
1-día EWMA covariance matriz por h.

Puesto que la elección de ʎ por sí mismo es ad hoc algunos usuarios eligen diferentes valores de ʎ para la previsión
sobre diferentes horizontes. Por ejemplo, en la metodología Riskmetricstm que se describe a continuación se
utiliza un valor relativamente bajo de ʎ se utiliza para las previsiones a corto plazo y un valor más alto de ʎ se
utiliza para las previsiones a largo plazo. Sin embargo, se trata simplemente de una norma ad hoc.

II.3.8.5 Errores estándar para los pronósticos de EWMA


En esta sección utilizamos el supuesto de que los rendimientos subyacentes son multivariados normal e
independientemente distribuidos con cero medio para obtener una medida de precisión para los pronósticos de
EWMA. Nuestra suposición implica, para todos t y para todos s ≠ t, que

Ahora utilizamos estos supuestos para derivar errores estándar para los pronósticos EWMA. Aplicamos el
operador de varianza a (II.3.31) y por lo tanto calculamos la varianza del estimador de varianza EWMA como

Por lo tanto,
Esto da el error estándar estimado del estimador de varianza EWMA como porcentaje de la estimación de varianza
EWMA. Como se explicó en la subsección anterior, el modelo estándar para EWMA es que las devoluciones son
normales y i.i.d. En la Sección II.3.4.3 hemos demostrado que un supuesto normal i.i.d. implica que

Así que podemos usar (II.3.40) con (II.3.38) para aproximar el error estándar del estimador EWMA para la
volatilidad. La sustitución (II.3.38) por (II.3.40) da

Así pues, el error estándar estimado de la previsión de volatilidad del EWMA, expresado como porcentaje de dicha
previsión, es

El gráfico II.3.8 muestra el error estándar estimado de las previsiones de varianza EWMA, expresado como
porcentaje de la previsión de varianza (línea negra) y la previsión de volatilidad EWMA, expresado como
porcentaje de la previsión de volatilidad (línea gris). Ambos están graficados en función de lambda. Valores más
altos de lambda dan estimaciones EWMA más precisas. Esto es lógico, ya que cuanto mayor sea el valor de lambda
mayor será la muestra efectiva de datos.

Gráfico II.3.8 Errores estándar de los estimadores EWMA


Una única previsión de volatilidad puede ser muy engañosa. Una previsión completa es una distribución que capta
nuestra incertidumbre sobre la cantidad que se está pronosticando. Y siempre que se aplique una varianza o una
previsión de volatilidad al precio de un instrumento o a la medición del riesgo de una cartera, el error estándar de
la previsión puede traducirse en un error estándar para la aplicación. Por ejemplo, podemos utilizar el error
estándar de EWMA para obtener un error estándar para una estimación de valor en riesgo. Esto hace que uno sea
consciente de la incertidumbre que se introduce en un precio de opción o un valor-estimación de riesgo mediante
posibles errores en la previsión de la matriz de covarianza.

II.3.8.6 Metodología Riskmetricstm


En el CD-ROM de Riskmetricstm (http://www.riskmetrics.com) están disponibles tres matrices de covarianza muy
grandes, cada una de ellas basada en una metodología media móvil diferente. Estas matrices abarcan todos los
tipos de activos, incluidos los bonos del Estado, los mercados monetarios, los swaps, los índices de divisas y
acciones para 31 monedas y los productos básicos. Los abonados tienen acceso a todas estas matrices actualizadas
diariamente y las matrices de fin de año también están a disposición de los abonados que deseen utilizarlas en el
análisis de escenarios. Después de unos días los conjuntos de datos también están disponibles gratuitamente para
uso educativo.
El grupo Riskmetrics es el líder del mercado en datos de riesgo de mercado y crédito y modelización para bancos,
gestores de activos corporativos e intermediarios financieros. Es muy recomendable que los lectores visiten el CD-
ROM, donde encontrarán una cantidad sorprendentemente grande de información en forma de publicaciones y
datos gratuitos. Por ejemplo, en el momento de redactar las publicaciones de Market Risk que cualquiera puede
descargar son las siguientes:

 El documento técnico de Riskmetrics de 1996. Preparado mientras que Riskmetrics todavía formaba parte de
JP Morgan, sigue siendo un clásico muy citado en el campo y proporciona una clara introducción a los
fundamentos de la computación y el uso de valor en riesgo.
 Volver a Riskmetrics: La evolución de un estándar. Actualización y suplemento del documento técnico de
Riskmetrics de 1996, que refleja la gama más amplia de técnicas de medición y estadísticas que ahora forman
parte de las mejores prácticas. Proporciona una cobertura completa de Monte Carlo y simulación histórica,
exposiciones no lineales, pruebas de estrés, e información de riesgo orientada a la gestión de activos
 Documento técnico de Longruntécnical. Esto describe varios enfoques desarrollados por Riskmetrics para la
previsión a largo plazo y la simulación de los precios de los activos financieros.
 Gestión de riesgos: Guía práctica. Una introducción no técnica a la gestión de riesgos, abordando las cuestiones
básicas a las que se enfrentan los gestores de riesgos al implementar un proceso de gestión de riesgos a nivel
de toda la empresa.
 Documento Técnico de Corporatemetrics. Describe el enfoque de Riskmetrics para medir y gestionar el riesgo
de mercado en el entorno corporativo. Aborda las necesidades particulares de las sociedades no financieras,
como la valoración de las ganancias y el riesgo de flujo de efectivo a lo largo de un horizonte de varios años y
la divulgación reglamentaria de las operaciones con derivados.

Las tres matrices de covarianza proporcionadas por el grupo Riskmetrics se basan en un historial de rendimientos
diarios en todas las clases de activos mencionadas anteriormente:

1. Matriz reguladora. Esto toma su nombre del requisito (desafortunado) de que los bancos deben utilizar
al menos 250 días de datos históricos para la estimación del valor en riesgo. Por lo tanto, esta métrica es
una matriz media igualmente ponderada con n = 250. Las volatilidades y correlaciones construidas a partir
de esta matriz representan previsiones de volatilidad media (o correlación) durante los próximos 250 días.
2. Matriz diaria. Se trata de una matriz de covarianza EWMA con ʎ= 0.94 para todos los elementos. No es
diferente a un promedio igual de ponderado con n = 25, excepto que no sufre de las características de
fantasma’ causadas por eventos de mercado muy extremos. Las volatilidades y correlaciones construidas
a partir de esta matriz representan previsiones de volatilidad media (o correlación) durante el día
siguiente.

3. Matriz mensual. Esta es una matriz de covarianza EWMA con ʎ=0,97 para todos los elementos y luego
multiplicado por 25 (i.e. usando la regla de la raíz cuadrada del tiempo y asumiendo 25 días al mes). Las
mediciones de riesgo utilizan las volatilidades y correlaciones construidas a partir de esta matriz para
representar previsiones de volatilidad media (o correlación) durante los próximos 25 días.

La principal diferencia entre los tres métodos es evidente tras los grandes movimientos del mercado: la previsión
reglamentaria producirá un efecto fantasma de este evento, y no reacciona tanto como las previsiones diarias o
mensuales. El pronóstico que es más reactivo a las noticias es el pronóstico diario, pero también tiene menos
persistencia que el pronóstico mensual.
En el gráfico II.3.9 se comparan las estimaciones de la volatilidad del FTSE 100 sobre la base de cada una de las
tres metodologías Riskmetrics y utilizando datos diarios del 3 de enero de 1995 al 4 de enero de 2008. se supone
que estas estimaciones son las previsiones a lo largo de un día, un mes y un año. En tiempos volátiles, las
estimaciones diarias y mensuales están muy por encima de las previsiones reglamentarias, y lo contrario ocurre
en períodos más tranquilos.

Gráfico II.3.9 Comparación de las previsiones de riesgo de volatilidad FTSE 100

Durante la mayor parte de 2003, la estimación reglamentaria de la volatilidad media durante el año siguiente fue
aproximadamente un 10% superior a las dos estimaciones a corto plazo. Sin embargo, durante este período se
redujo drásticamente y, de hecho, las previsiones reglamentarias entre junio de 2003 y junio de 2004 eran
totalmente erróneas. Por otra parte, en agosto de 2007 las previsiones diarias fueron superiores al 30%, las
previsiones mensuales fueron del 25%, pero las previsiones reglamentarias para el año siguiente fueron inferiores
al 15%.

Cuando los mercados han estado tranquilos durante algún tiempo, por ejemplo durante todo el 2005, las tres
previsiones son similares. Pero durante y directamente después de un período volátil no son grandes diferencias
entre las previsiones reglamentarias y las dos previsiones del EWMA, y estas diferencias son muy difíciles de
justificar. Ni la media ponderada la metodología EWMA se basa en un modelo de pronóstico adecuado. Uno
simplemente asume el estimación actual es la previsión de volatilidad. Pero la estimación actual es una medida
basada en datos históricos recientes. Así que ambos de estos modelos de el supuesto de que el comportamiento
de la volatilidad futura es el mismo que su comportamiento anterior, y es una visión muy simplista.

II.3.8.7 Orthogonal EWMA versus RiskMetrics EWMA

Las matrices de covarianza EWMA en Riskmetrics se obtienen aplicando modelos medios móviles ponderados
exponencialmente directamente a un gran conjunto de retornos de factores de riesgo (p. ej., bonos del Estado,
tipos del mercado monetario, índices de acciones, tipos de cambio y productos básicos). Era necesario imponer
una restricción severa « que la constante de suavizado ʎ es la misma para todos los elementos de la matriz « de
lo contrario no puede ser semidefinitivo positivo. Por lo tanto, se supone que todos los factores tienen la misma
reacción a las perturbaciones del mercado. Las mediciones de riesgo ʎ serán de 0,94 en su matriz diaria y de 0,97
en su matriz mensual. Pero como hay más de 400 factores de riesgo en las matrices de covarianza de Riskmetrics,
debe haber muchos factores de riesgo para los cuales la elección de ʎ es inapropiada.

Una alternativa es utilizar la versión ortogonal EWMA (O-EWMA) del modelo ortogonal GARCH (O-GARCH), que
se desarrolla en Alexander (2001b). En este enfoque, el EWMA no se aplica directamente a los rendimientos de
los factores de riesgo fundamentales propiamente dichos, sino a los primeros componentes principales de una
matriz de covarianza igualmente ponderada de los rendimientos de los factores de riesgo. Sólo necesitamos
calcular las varianzas EWMA de los principales componentes porque se supone que sus covarianzas EWMA son
cero. No tenemos que usar la misma constante ʎ de suavizado para cada una de estas estimaciones de varianza
EWMA. E incluso si lo hiciéramos, la matriz O-EWMA final no tendría la misma constante de suavizado para todos
los factores de riesgo. El enfoque O-EWMA tiene las siguientes ventajas sobre la metodología Riskmetrics:

 La matriz es siempre positiva semidefinida, incluso cuando la constante de suavizado es diferente para
cada componente principal.
 En comparación con las matrices EWMA de Riskmetrics, se imponen relativamente pocas restricciones a
los movimientos de volatilidad; la reacción en volatilidad no es la misma para todos los factores de riesgo,
y tampoco lo es la persistencia. Tampoco las constantes de suavizado son las mismas para todas las series.
En su lugar los parámetros en las ecuaciones de varianza y covarianza se determinarán por las
correlaciones entre los diferentes factores de riesgo en la matriz (porque éstos se derivan de W*, la matriz
de vectores propios).
 Tomando sólo los primeros componentes principales, suficientes para representar, digamos, el 90% del
95% de la variación, los movimientos que no son capturados en la matriz de covariancia O-EWMA pueden
ser atribuidos a un ruido insignificante que preferiríamos ignorar, especialmente al calcular estimaciones
de correlación. Al eliminar este ruido, la matriz de covarianza es más estable con el tiempo que las
matrices EWMA de Riskmetrics
 El método ortogonal es computacionalmente eficiente porque calcula sólo k varianzas en lugar de
m(m+1)/2 varianzas y covariancias del sistema original, y típicamente k será mucho menos que m.
 Debido a que se basa en PCA, O-EWMA también cuantifica cuánto riesgo está asociado con cada factor
estadístico, que puede ser una gran ventaja para los gestores de riesgos como su la atención se dirige a
las fuentes de riesgo más importantes.

II.3.9 RESUMEN Y CONCLUSIONES

La volatilidad y la correlación son parámetros que se aplican para medir el riesgo de las inversiones en activos
financieros y en carteras de activos financieros. La medida estándar de la volatilidad se obtiene anualizando la
desviación estándar de los rendimientos mensuales, semanales o diarios utilizando la regla de la raíz cuadrada del
tiempo. La correlación es la covarianza entre dos retornos divididos por el producto de sus desviaciones estándar.
Las volatilidades y correlaciones de un conjunto de rendimientos de activos se resumen en una matriz de
covariancia. Este capítulo ha descrito el tipo más simple de matrices de covarianza, que se generan utilizando
medias móviles igualmente ponderadas (también llamadas matrices históricas) o medias móviles ponderadas
exponencialmente (matrices EWMA Algunos supuestos muy sólidos sobre la distribución de los rendimientos
están implícitos en el uso de estas matrices, y si estos supuestos no se satisfacen entonces nuestras estimaciones
del riesgo de cartera que se obtienen utilizando estas matrices pueden ser muy inexactas. Dos supuestos
importantes de matrices covariantes medias móviles son que los retornos son generados por procesos i.i.d. y que
la distribución conjunta de un conjunto de retornos es elíptica. ¿Cuáles son las consecuencias si estas suposiciones
no se sostienen?

 Si los rendimientos de una inversión no son i.i.d. entonces la medida estándar de volatilidad puede
subestimar sustancialmente el riesgo de la inversión. Debe ajustarse para tener en cuenta la
autocorrelación en los retornos. En la Sección II.3.2.3 hemos derivado una regla de escalado de desviación
estándar cuando las devoluciones son autocorreladas.
 Si los rendimientos de dos inversiones no son generados por una distribución normal bivariada o una
distribución t bivariada, entonces la correlación entre los rendimientos nos dice muy poco acerca de su
dependencia real. En la Sección II.3.3.2 destacamos las trampas de usar correlación cuando los retornos
no son i.i.d. con una distribución elíptica.

Los modelos de media móvil proporcionan una estimación de la matriz de covarianza actual, y esta estimación se
utiliza como previsión. El período de tiempo básico de las previsiones viene determinado por la frecuencia de los
datos. Por ejemplo, si los retornos básicos se miden a la frecuencia diaria obtenemos una matriz de covariancia
de 1 día y si los retornos son semanales obtenemos una matriz de covariancia de 5 días. Sin embargo, podemos
transformar un pronóstico de un período en un pronóstico de la matriz de covarianza durante los siguientes
períodos h usando la regla de la raíz cuadrada del tiempo; es decir, simplemente multiplicamos cada elemento de
la matriz de un período por h.

Para pronosticar la volatilidad de la cartera, la correlación y las matrices de covarianza utilizamos a menudo
histórico datos solamente « sin incluir nuestras opiniones personales sobre el futuro « aunque hay amplia
evidencia de que la historia es sólo una parte de la historia. Por otra parte, sabemos que la multivariante normal
i.i.d. asunción que subyace a estos simples modelos móviles promedio es muy a menudo por las características
empíricas de los retornos. La media móvil o el enfoque histórico de la estimación y previsión de las volatilidades
y correlaciones ha sido muy popular entre los profesionales desde la década de 1990. Pero el enfoque adolece de
varios inconvenientes, entre ellos los siguientes:

 La previsión de volatilidad/correlación sobre todos los horizontes futuros se considera simplemente como la
estimación actual de volatilidad, porque la hipótesis subyacente en el modelo es que los rendimientos son i.d.
• La única opción frente al usuario es en los puntos de datos a utilizar en la ventana de datos. Las previsiones
elaboradas dependen fundamentalmente de esta decisión, pero no existe un procedimiento estadístico para
elegir el tamaño de la ventana de datos, sino que se trata de una decisión puramente subjetiva.
• Después de un movimiento extremo del mercado, las previsiones de volatilidad y correlación exhibirán una
característica llamada fantasma de ese movimiento extremo que sesgará severamente la volatilidad y las
previsiones de correlación al alza.
• La extensión de este sesgo y el tiempo durante el cual este sesgo afecta los resultados depende del tamaño de
la ventana de datos.

El modelo histórico puede proporcionar una previsión útil de la volatilidad o correlación media durante los
próximos años, pero no puede predecir bien a corto plazo. De hecho, hemos argumentado que la única
información útil que se puede obtener utilizando esta metodología es una indicación de la posible gama de una
volatilidad o correlación media a largo plazo. A mediados de la década de 1990 JP Morgan lanzó el paquete de
datos y software Riskmetricstm. Su elección de la volatilidad y la metodología de predicción de correlación
ayudaron a popularizar el uso de medias móviles ponderadas exponencialmente (EWMA). Este enfoque
proporciona pronósticos útiles para la volatilidad y la correlación a muy corto plazo, como el día o la semana
siguientes. Sin embargo, es de uso limitado para la previsión a largo plazo. Las razones son las siguientes:

• La previsión de volatilidad/correlación sobre todos los horizontes futuros se toma simplemente como el
estimación actual de la volatilidad, porque la hipótesis subyacente en el modelo es que las devoluciones son i.i.d.
• La única opción frente al usuario es sobre el valor de la constante de suavizado, ʎ . A menudo se hace una
elección ad hoc, p.ej. el mismo ʎ se toma para todas las series y se elige una ʎ superior para una previsión a más
largo plazo. Las previsiones dependerán fundamentalmente de la elección de ʎ, sin embargo no existe un
procedimiento estadístico para explicar cómo elegirlo.

Los modelos de media móvil ponderados de manera igual y exponencial asumen que los rendimientos son i.i.d., y
bajo el supuesto adicional de que son multivariantes normalmente distribuidas hemos derivado errores estándar
e intervalos de confianza para igual y exponencialmente ponderada volatilidad media móvil y previsiones de
correlación. Pero las observaciones empíricas sugieren que los rendimientos de los activos financieros casi nunca
son independientes e idénticos, y mucho menos distribuidos normalmente. Por estas razones, cada vez más
profesionales basan sus previsiones en modelos GARCH, que se introducen en el próximo capítulo.

También podría gustarte