Está en la página 1de 21

Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

2. ANÁLISIS ESTADÍSTICO DEL RIESGO

2.1 Análisis estadístico de las series, pruebas de normalidad

En riesgo de mercado los cálculos realizados para obtener un análisis estadístico de los
factores de riesgo se hace a través de variaciones de los precios de acciones divisas o
tasas de interés. El cálculo de las variaciones permite obtener los rendimientos de una
serie de tiempo de los factores de riesgo a estudiar, y así proceder en el cálculo de la
exposición al riesgo de mercado. Las variaciones pueden ser absolutas, relativas y
logarítmicas.

Variación Absoluta: La variación absoluta de una serie de tiempo se obtiene como la


diferencia entre dos valores observados en este periodo de tiempo consecutivo. Esta
diferencia se da en las mismas unidades que la serie original. Es decir: ∆X = X t +1 − X t

Una variación absoluta positiva indica que la serie evoluciona temporalmente con lo que
se refiere al periodo estudiado de manera creciente, por ser mayor el dato registrado en
el tiempo t+1 que el dato del tiempo t. Si una variación absoluta es negativa indica una
evolución decreciente en el periodo donde se realizó la medida de la variación.

Variación relativa: La variación relativa permite medir las variaciones de la variable


en tasa discreta, para que se reflejen las características de cada serie y eliminar las
diferencias de escalas y sean comparables entre si. La variación relativa se representa
con % X y se define así:
∆X X t +1 − X t
%X = =
Xt Xt

Variación Logarítmica: Esta variación permite medir las variaciones de la variable en


tasa continua. Se define así:
X 
% X = ln t +1 
 Xt 
A continuación se presenta un ejemplo con las tres formas de variación:

VARIACION VARIACION VARIACION


FECHA 2007 IGBC
ABSOLUTA RELATIVA LOGARITMICA
Enero 10,796.03
Febrero 10,113.12 -682.9 -6.33% -6.53%
Marzo 10,686.39 573.3 5.67% 5.51%
Abril 10,807.68 121.3 1.13% 1.13%
Mayo 10,184.36 -623.3 -5.77% -5.94%
Junio 10,637.66 453.3 4.45% 4.35%
Julio 11,107.54 469.9 4.42% 4.32%
Agosto 10,728.74 -378.8 -3.41% -3.47%
Septiembre 10,434.43 -294.3 -2.74% -2.78%
Octubre 10,630.34 195.9 1.88% 1.86%
Noviembre 11,115.78 485.4 4.57% 4.47%
Diciembre 10,694.18 -421.6 -3.79% -3.87%

Una de las características de la rentabilidad logarítmica es que trabaja con rendimientos


acumulados de tal forma que la sumatoria de las rentabilidades mensuales para el caso
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

del IGBC es igual a la rentabilidad obtenida con los datos del mes de diciembre respecto
al mes de enero.



  = 




Con datos numéricos sería: ∑


  = (-6.53% + 5.51% + … +4.47% -3.87%) = -0.95%

 .
  =   = -0.95%
 .

Esto se puede hacer teniendo en cuenta que la rentabilidad logarítmica es tratada como
tasa continua, por tanto es una tasa nominal, y es posible sumar las rentabilidades
periódicas para obtener la rentabilidad en el periodo de tenencia.

Para el caso de la rentabilidad relativa, el manejo es diferente debido a que se trabaja


como tasa discreta, entonces la rentabilidad en el periodo de tenencia es igual a la tasa
compuesta de las rentabilidades periódicas, para este caso sería,

  ..

= .
 = -0.94%

-0.94% = 1 − 6.33%#1 + 5.67%# … 1 + 4.57%#1 − 3.79%# − 1

Algunos datos estadísticos:

Las medidas de posición son aquellas que nos brindan un resumen de la información
que se recoge en la distribución de frecuencias.

Moda: valor de las variables que más se repite.

Media: Es el promedio aritmético de las observaciones, se obtiene con el cociente de la


suma de todos los datos y el número de ellos.

Mediana: Es el valor que divide las observaciones en dos con igual cantidad de datos a
los lados siendo esta la mitad.
Desviación estándar: La desviación estándar es la raíz cuadrada positiva de la varianza
y tiene la ventaja que está en las mismas unidades de medida que las observaciones de
los factores de riesgo.

Cuartiles: Son los valores que dividen la distribución una vez ordenada esta de menor a
mayor en cuatro partes iguales de 25%. Los más usados son el cuartil Q1, Q2 y Q3. El
primer cuartil es el menor valor que es mayor que una cuarta parte de los datos. El
segundo cuartil es la mediana y el tercer cuartil es el menor valor que es mayor que tres
cuartas partes de los datos.

El Rango: Nos muestra los valores comprendidos entre el valor máximo y el valor
mínimo de las observaciones de la serie de tiempo. El rango es la diferencia entre el
valor de las observaciones menor y el menor. Mientras mayor sea el rango mayor la
dispersión.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

El rango intercuartílico (RI): Es la diferencia entre el tercer y el primer cuartil, este


rango refleja una franja del 50 % de las observaciones y además, indica donde están más
concentrados los datos de una serie de tiempo de los factores de riesgo evaluados, si en
el 50% central o a los extremos.

Utilizando el ejemplo del cuadro1, al analizar el IGBC con variaciones relativas, el


resumen estadístico es el siguiente:

VARIACION RELATIVA IGBC

Media 0.01%
Error típico 1.36%
Mediana 1.13%
Moda #N/A
Desviación estándar 4.52%
Varianza de la muestra 0.20%
Curtosis -1.80
Coeficiente de asimetría -0.14
Rango 11.99%
Mínimo -6.33%
Máximo 5.67%
Suma 0.08%
Cuenta 11
Cuartil1 -3.60%
Cuartil3 4.43%
Rango Intercuartílico 8.04%

El rango en este ejemplo es de 11.99% y el rango intercuartílico es de 8.04% esto indica


que los datos están más concentrados en los extremos que en el centro.

Además de la media y la desviación estándar la curva de la distribución normal tiene


otras dos características importantes que dan la forma de la distribución, el sesgo y la
curtosis. El sesgo es un indicador que mide la simetría de la curva, para una curva
normal perfecta el sesgo será de cero, si este es distinto de cero y es positivo estará
sesgada hacia la derecha o si es negativo será sesgada a la izquierda.

Figura. 7 Coeficiente de asimetría. estadisticatuveras.com

La curtosis es el indicador que mide el nivel de elevamiento de la curva respecto de la


horizontal. La curtosis de una distribución normal perfecta es igual a 0 (para Excel).
Con la curtosis podemos identificar la existencia de una concentración de valores es
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

decir leptocúrtica, una concentración normal o mesocúrtica y una baja concentración o


platicúrtica.

Figura. 8 Curtosis

Para el ejemplo que se está trabando, la variación del IGBC mensual, presenta una
asimetría negativa, sesgo a la izquierda y apuntamiento también negativo, platicúrtica.

Distribución Normal: Es la distribución de probabilidad mas empleada, también


conocida como Gaussiana. La distribución normal hace parte de una familia de
distribuciones que tienen la misma forma general, acampanada.

Son simétricas concentrando una gran proporción de probabilidad en su parte media


más que en sus colas. La distribución normal tiene un papel primordial en el campo de
la estadística, en especial en la medición de los riesgos en las finanzas.

Distribución Normal

Los parámetros más relevantes que definen la distribución normal son la media y la
desviación estándar. En estadística es posible demostrar que aun cuando la muestra no
es suficientemente grande, la distribución de la muestra es aproximadamente normal,
sin que importe la distribución de la totalidad. Por ello la distribución normal es
importante en el desarrollo de las finanzas y la administración de riesgos.

La función de densidad normal es simétrica con respecto a la media y por ello solo se
necesita tabular las áreas de cualquier lado de la media. Esas áreas tabuladas son valores
de z, donde z es la distancia de un valor x respecto de la media, expresada en unidades
de desviación estándar. Si la variable aleatoria x es el rendimiento del precio de
acciones, tasas de interés o tipos de cambio, entonces será posible cambiar esa variable
aleatoria normal en z.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

x−µ
El valor de z en una distribución normal poblacional es igual a: z = ; para una
σ
x− x
muestra: z = .
s
n
Para una distribución normal, las probabilidades para ciertos rendimientos o variaciones
alrededor de la media son conocidas:

• El área bajo la curva a una desviación estándar alrededor de la media cubre


aproximadamente el 68%
• Para dos desviaciones estándar el área es del 95% aproximadamente
• Y para tres desviaciones estándar cubre un 99.7%

Una herramienta importante para saber si un conjunto de datos procede o no de una


distribución normal son los gráficos de probabilidad normal. Consiste en enfrentar, en
un gráfico único, los datos que han sido observados frente a los datos teóricos que se
obtendrían de una distribución normal. Si la distribución de la variable coincide con la
normal, los puntos se concentrarán en torno a una línea recta, aunque conviene tener en
cuenta que siempre tenderá a observarse mayor variabilidad en los extremos.

Entre las pruebas de normalidad mas aplicadas está la de Jarque Bera y la de


Kolmogorov – Smirnov.

La prueba de Jarque Bera, trabaja con dos medidas de forma, la curtosis y el coeficiente
de asimetría,
La prueba de hipótesis se plantea:
H0 : La variable se comporta como una distribución Normal
H1 : La variable NO se comporta como una distribución Normal

El valor crítico se calcula con la prueba chi cuadrada con el nivel de significancia
seleccionado (por ejemplo 5%) y 2 grados de libertad.

El estadístico de prueba se determina con la fórmula,

 Coef .. Asimetría 2 Curtosis 2 


B = n +  , donde n es el número de datos.
 6 24 
Si el estadístico de prueba es inferior al valor crítico, se acepta Ho, de lo contrario se
rechaza.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

Con Los datos de la rentabilidad relativa del IGBC mensual desde julio de 2001 a julio
2008, los resultados estadísticos son:

IGBC Mensual desde Julio 2001

Media 3.04%
Error típico 0.95%
Mediana 2.53%
Moda #N/A
Desviación estándar 8.71%
Varianza de la muestra 0.76%
Curtosis 1.85
Coeficiente de asimetría 0.48
Rango 54.30%
Mínimo -18.34%
Máximo 35.96%
Cuenta 84
El estadístico de prueba de Jarque Bera B=15.22
Para el valor crítico con la distribución Chi cuadrada con dos grados de libertad y 5% de
significancia de obtiene VC=5.99. Por tanto no hay razones para aceptar que la
distribución de los datos de las rentabilidades del IGBC presenta un comportamiento
norma. Se rechaza Ho.

La prueba de K-S, es una prueba de bondad de ajuste, es válido únicamente para


variables continuas, compara la función de distribución de probabilidad acumulada
teórica con la observada, y calcula un valor de discrepancia, que corresponde a la
distancia máxima en valor absoluto entre la distribución observada y la distribución
teórica, proporcionando asimismo un valor de probabilidad. Si este p es superior al nivel
de significancia seleccionado se verifica un ajuste a la distribución normal, por tanto, no
habrá razones estadísticas para suponer que los datos no proceden de una distribución
normal, mientras que si p es muy pequeña, no será aceptable suponer este modelo
probabilística para los datos.

Todo el contenido del análisis estadístico se puede realizar a través del sistema SPSS. El
es un paquete estadístico de análisis de datos. Este puede realizar desde un simple
análisis descriptivo hasta análisis multivariantes de datos. El programa permite abrir
fuentes de datos existentes, crear gráficos estadísticos, definir variables, crear variables,
almacenar datos, realizar un análisis descriptivo, análisis estadístico, análisis de
frecuencias, tablas de frecuencias e interpretación de resultados que brindan la
posibilidad de realizar el proceso en menor tiempo con mejores herramientas y mayor
certeza de los resultados.

En la mayoría de los paquetes estadísticos, como el SPSS, aparece programado el


procedimiento para realizar las pruebas de normalidad, este simplemente arroja el
resultado y con un editor permite realizar su interpretación y proporciona tanto el valor
del test como el p-valor correspondiente para analizar su interpretación.

Para los datos del IGBC mensual los resultados de SPSS fueron:
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
RentIGBC .096 84 .054 .965 84 .023
a. Lilliefors Significance Correction

En este caso, la prueba de hipótesis que se plantea es:


Ho: La variable se comporta como una distribución Normal
H1: La variable no se comporta como una distribución normal

Aplicando el p value que se obtiene en el test de normalidad, se compara el nivel de


significancia que para este caso estamos usando el 5% con la probabilidad que genera el
test, este dato es el “Sig.”, cuyo valor es 0.054 ó 5.4%.

Si el “Sig.” es mayor al nivel de significancia utilizado, entonces no hay razones para


rechazar la hipótesis nula, y por tanto la distribución de rentabilidades del IGBC se
comporta como una normal.

Se puede observar que la prueba K-S sí aprobó la distribución normal de los datos,
mientras que la prueba Jarque Bera no. Esto es porque la prueba K-S no se afecta por
los datos que sean muy atípicos, cuando estos son pocos.

Histograma de frecuencias

En este grafico se representa en el eje de las abscisas los valores de la variable


agrupados en intervalos de igual anchura y en el eje de las ordenadas la frecuencia
absoluta correspondiente a ese intervalo.

IGBC Mensual desde Julio de 2001

40
35
30
Frecuencia

25
20
15
10
5
0
...
63

93

23

54

84
58

28

98

67

or
0

1
0

ay
71

37

03

70

63

96

30

63

97

m
79

82

86

89

92
3

3
83

23

62

02

y
05

11

17

23

29
.1

.1

.0

.0

0.

0.

0.

0.

0.
-0

-0

-0

-0

Clase

Gráfico de caja y bigotes

Esta herramienta permite estudiar la simetría de los datos y detectar valores atípicos.
Este gráfico divide los datos en cuatro áreas de igual frecuencia. La caja central es el
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

lugar donde se encuentra el 50% central de los datos, esta tiene una línea vertical en el
interior de la caja que índica la mediana. Si esta línea está en el centro de la caja no hay
asimetría. Partiendo del centro de cada lado vertical de la caja se dibujan los dos bigotes.

El gráfico de caja incluye dos categorías de datos con valores distantes. Datos con
valores mayores que 3 longitudes de caja del borde superior o inferior, que se llaman
valores extremos (se denotan con un asterisco); y están los datos con valores entre 1.5 y
3 longitudes de caja del borde superior o inferior, que se llaman valores atípicos (se
denotan con un círculo). Los datos con el valor más grande y el más pequeño son los
extremos de los bigotes.

El dato 31 y 58 corresponden a los valores atípicos de la distribución, que corresponden


a 35.96% y -18.33%.

Gráfico de normalidad Q-Q

El grafico de normalidad Q-Q nos ayuda a determinar si un conjunto de datos se ajusta a


una distribución normal de forma razonable. Se representa en el eje de abscisas los
valores de la variable (Xi) y en el eje de ordenadas las frecuencias relativas acumuladas
de dichos valores (Fi). La normalidad de los datos será perfecta cuando el gráfico de los
puntos (Xi, Fi) resulte ser una línea recta situadas sobre la diagonal del primer cuadrante.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

Para los datos del IGBC, se obtiene el siguiente gráfico.

Gráfico de dispersión

Se trata de un gráfico que permite ver la relación entre dos o más variables. Se
representan gráficamente los pares de valores de dos variables. En función de la nube de
puntos podemos intuir la existencia de correlación lineal entre las variables, no lineal o
aleatoriedad.

Rentabilidad IGBC desde Julio de 2001


40.0%

30.0%

20.0%

10.0%

0.0%
dic-99 abr-01 sep-02 ene-04 may-05 oct-06 feb-08 jul-09
-10.0%

-20.0%

-30.0%
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

2.2.2 Modelos para medición: Volatilidad histórica, con suavizamiento exponencial


EWMA y modelos Arch - Garch

Para algunos autores la volatilidad se puede interpretar como la velocidad de los


movimientos de la variable (tasa de interés, tipo de cambio o precio de acciones). Un
mercado cuyos precios se mueven lentamente son llamados mercados de baja
volatilidad, los mercados cuyos precios se mueven a gran velocidad son mercados de
alta volatilidad.

Una variable de mercado tiende a tener una volatilidad media o promedio a largo plazo.
Cuando la volatilidad aumenta por encima de la media, se podría esperar que en algún
momento vuelva a ella y de igual manera frente a una caída. Hay un constante
movimiento por encima y debajo de la media.

Cuando a la variable que representa el riesgo de mercado se le calcula la variación ó


cambio de dicha variable, para llevar a cabo cualquiera de las técnicas de cuantificación
se debe tener claro que la volatilidad es la desviación estándar de los rendimientos de un
activo o portafolio. Representa una medida de dispersión de los rendimientos respecto a
la media, por tanto, es importante conocer las diversas volatilidades existentes para
lograr el cálculo de la cuantificación del riesgo.

La volatilidad puede ser calculada a través de volatilidad histórica, volatilidad con


supuesto de media cero, volatilidad dinámica, volatilidad implícita para el cálculo de la
desviación estándar, y la que se obtienen con modelos heterocedásticos, Arch – Garch.

2.2.2.1 Volatilidad Histórica: Es un método que hace referencia en el pasado


inmediato, es decir las observaciones en su totalidad tienen el mismo peso especifico y
el calculo esta basado en las observaciones históricas. La volatilidad histórica se calcula

con la formula σ 2 = ∑
(x − µ )2 para una población, y si es una muestra
N

s2 = ∑
(x − x ) , donde n es el tamaño de la muestra.
2

n −1

A continuación se muestra un ejemplo para el cálculo de la volatilidad histórica:


Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

FECHA 2007 IGBC ri


Enero 10,796.03
Febrero 10,113.12 -6.33%
Marzo 10,686.39 5.67%
Abril 10,807.68 1.13%
Mayo 10,184.36 -5.77%
Junio 10,637.66 4.45%
Julio 11,107.54 4.42%
Agosto 10,728.74 -3.41%
Septiembre 10,434.43 -2.74%
Octubre 10,630.34 1.88%
Noviembre 11,115.78 4.57%
Diciembre 10,694.18 -3.79%

Desviación Estándar Histórica: 4.52%

Como los datos están mensuales, la desviación estándar es mensual. Para calcular la
desviación anual se aplica el principio de estadística que dice “La varianza es
proporcional al tiempo” , entonces, se multiplica por 12 , para este caso la volatilidad
anual es del 15.64%.

Desviación con supuesto de media cero: investigaciones han demostrado que cuando
se trabaja con rendimientos o variaciones es mejor considerar para el cálculo de la

desviación estándar únicamente los rendimientos al cuadrado, es decir σ =


∑ ri 2
.
n
Revisemos el ejemplo:
FECHA 2007 IGBC ri ri^2
Enero 10,796.03
Febrero 10,113.12 -6.33% 0.40%
Marzo 10,686.39 5.67% 0.32%
Abril 10,807.68 1.13% 0.01%
Mayo 10,184.36 -5.77% 0.33%
Junio 10,637.66 4.45% 0.20%
Julio 11,107.54 4.42% 0.20%
Agosto 10,728.74 -3.41% 0.12%
Septiembre 10,434.43 -2.74% 0.08%
Octubre 10,630.34 1.88% 0.04%
Noviembre 11,115.78 4.57% 0.21%
Diciembre 10,694.18 -3.79% 0.14%

Desviación Estándar Histórica 4.52%


4.31%
con supuesto de media cero:

2.2.2.2 Volatilidad dinámica o con suavizamiento exponencial, EWMA: El uso del


suavizamiento exponencial en las observaciones históricas por un periodo de tiempo
determinado, por lo general un periodo anual, es la forma de capturar el dinamismo de
la volatilidad en los mercados.

Este método le da mayor peso a las observaciones más reciente que a las más alejadas
en el tiempo, teniendo en cuenta que en las finanzas para tomar decisiones se tiene
memoria corta. Esto es una ventaja sobre el promedio simple de las observaciones o
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

volatilidad histórica ya que la volatilidad dinámica captura de forma rápida variaciones


fuertes en los precios debido a su ponderación, por esto es posible realizar mejores
pronósticos en épocas de alta volatilidad.

Este modelo depende de un parámetro λ conocido como factor de decaimiento que se


encuentra entre 0 y 1. Este parámetro determina los pesos aplicados a las observaciones
y la cantidad de datos para estimar la volatilidad que sea efectivo utilizar. Cuanto más
pequeño sea λ mayor peso tendrán los datos mas recientes, mientras si λ es igual a 1 el
modelo asigna pesos uniformes a las observaciones convirtiéndolo en volatilidad
histórica.

La fórmula que se aplica en este caso es σ = (1 − λ )∑ λi−1ri2 , donde i es el conteo de


los rendimientos históricos, y deben estar numerados desde el más reciente al más
antiguo.
La obtención de la fórmula anterior se da con el siguiente análisis:

La varianza para el día t utilizando suavizamiento exponencial está dada por la


expresión σ t2 = (1 − λ )rt 2−1 + λσ t2−1

De la ecuación anterior se puede deducir que:

σ t2 = (1 − λ )rt 2−1 + λ [(1 − λ )rt 2−2 + λσ t2− 2 ]


σ t2 = (1 − λ )rt 2−1 + λ (1 − λ )rt 2−2 + λ2σ t2−2
σ t2 = (1 − λ )rt 2−1 + λ (1 − λ )rt 2−2 + λ2 [(1 − λ )rt 2−3 + λσ t2−3 ]
σ t2 = (1 − λ )rt 2−1 + λ (1 − λ )rt 2−2 + λ2 (1 − λ )rt 2−3 + λ3σ t2−3
σ t2 = (1 − λ )rt 2−1 + λ (1 − λ )rt 2− 2 + λ2 (1 − λ )rt 2−3 + λ3 [(1 − λ )rt 2− 4 + λσ t2− 4 ]
σ t2 = (1 − λ )rt 2−1 + λ (1 − λ )rt 2−2 + λ2 (1 − λ )rt 2−3 + λ3 (1 − λ )rt 2−4 + λ4σ t2−4
σ t2 = (1 − λ )rt 2−1 + λ (1 − λ )rt2− 2 + λ2 (1 − λ )rt2−3 + λ3 (1 − λ )rt2−4 + λ4 (1 − λ )rt2−5 + λ5 (1 − λ )rt2−6 + ... + λn (1 − λ )rt 2−n−1 + λn+1σ t2−n−2

Como λ es un factor que toma valores entre 0 y 1, al estar elevado a una potencia muy
grande, el último término de la ecuación tiende a cero. Por tanto la ecuación se puede
expresar de la siguiente forma:

σ t2 = λ0 (1 − λ )rt2−1 + λ (1 − λ )rt2−2 + λ2 (1 − λ )rt2−3 + λ3 (1 − λ )rt2−4 + λ4 (1 − λ )rt 2−5 + λ5 (1 − λ )rt 2−6 + ... + λn (1 − λ )rt2−n−1

Se puede factorizar, entonces,

σ t2 = (1 − λ )[λ0 rt 2−1 + λ1 rt 2− 2 + λ2 rt 2−3 + λ3 rt 2−4 + λ4 rt 2−5 + λ5 rt 2−6 + ... + λn rt 2−n −1 ]


σ t2 = (1 − λ )[λ1−1 rt 2−1 + λ2−1 rt 2− 2 + λ3−1 rt 2−3 + λ4−1 rt 2−4 + λ5−1 rt 2−5 + λ6−1 rt 2−6 + ... + λn −1 rt 2−n ]
n
σ t2 = (1 − λ )∑ λi −1 rt 2−i
i =1
Lo que se debe tener en cuenta es que los datos más recientes tengan la mayor
ponderación. Entonces la fórmula se puede expresar como:

σt = (1 − λ )∑ λi −1ri2
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

A partir del cálculo de la volatilidad para el día t es posible calcular la correspondiente


al día t+1,

σ t +1 = (1 − λ )rt 2 + λσ t2

A continuación se observa un ejemplo para el cálculo de volatilidad con suavizamiento


exponencial λ = 0.90:

LAMBDA λ 0.9000000
RMSE Error 0.0018743
A B A*B

VARIACION
FECHA 2007 i IGBC ri ri^2 λ ^(i-1) λ ^(i-1)*ri^2
LOGARITMICA

Enero 10,796.03
Febrero 11 10,113.12 -6.33% -6.53% 0.40% 0.34868 0.00140
Marzo 10 10,686.39 5.67% 5.51% 0.32% 0.38742 0.00124
Abril 9 10,807.68 1.13% 1.13% 0.01% 0.43047 0.00006
Mayo 8 10,184.36 -5.77% -5.94% 0.33% 0.47830 0.00159
Junio 7 10,637.66 4.45% 4.35% 0.20% 0.53144 0.00105
Julio 6 11,107.54 4.42% 4.32% 0.20% 0.59049 0.00115
Agosto 5 10,728.74 -3.41% -3.47% 0.12% 0.65610 0.00076
Septiembre 4 10,434.43 -2.74% -2.78% 0.08% 0.72900 0.00055
Octubre 3 10,630.34 1.88% 1.86% 0.04% 0.81000 0.00029
Noviembre 2 11,115.78 4.57% 4.47% 0.21% 0.90000 0.00188
Diciembre 1 10,694.18 -3.79% -3.87% 0.14% 1.00000 0.00144

Desviación Estándar Dinámica con suavizamiento Exponencial y Lambda Óptimo 3.38%

Método RMSE (Root Mean Squared Error): A través de este método se puede
obtener una lambda óptima que minimice el error pronosticado de la varianza. La
metodología se basa en encontrar el menor RMSE para diferentes valores de lambda
que busca el menor factor de decaimiento que minimice la medida del pronóstico. Se
muestra un ejemplo para el cálculo utilizando el método descrito.

∑ (r − λ *Varianza )
2 2

RMSE =
i

n
El ejemplo muestra paso a paso la metodología utilizada para el cálculo de la volatilidad
dinámica con lambda óptima.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

LAMBDA λ 0.8970254
RMSE Error 0.0018741
A B A*B C

VARIACION
FECHA 2007 i IGBC ri ri^2 λ ^(i-1) λ ^(i-1)*ri^2 Varianza λ*Varianza (A - C)^2
LOGARITMICA

Enero 10,796.03
Febrero 11 10,113.12 -6.33% -6.53% 0.40% 0.33732 0.00135 0.000139 0.000125 1.5028E-05
Marzo 10 10,686.39 5.67% 5.51% 0.32% 0.37605 0.00121 0.000263 0.000236 8.8624E-06
Abril 9 10,807.68 1.13% 1.13% 0.01% 0.41922 0.00005 0.000269 0.000241 1.2647E-08
Mayo 8 10,184.36 -5.77% -5.94% 0.33% 0.46734 0.00155 0.000429 0.000385 8.6518E-06
Junio 7 10,637.66 4.45% 4.35% 0.20% 0.52099 0.00103 0.000535 0.000480 2.2526E-06
Julio 6 11,107.54 4.42% 4.32% 0.20% 0.58080 0.00113 0.000652 0.000585 1.8666E-06
Agosto 5 10,728.74 -3.41% -3.47% 0.12% 0.64747 0.00075 0.000730 0.000654 2.5865E-07
Septiembre 4 10,434.43 -2.74% -2.78% 0.08% 0.72180 0.00054 0.000785 0.000705 2.2943E-09
Octubre 3 10,630.34 1.88% 1.86% 0.04% 0.80465 0.00028 0.000815 0.000731 1.4311E-07
Noviembre 2 11,115.78 4.57% 4.47% 0.21% 0.89703 0.00187 0.001007 0.000904 1.3965E-06
Diciembre 1 10,694.18 -3.79% -3.87% 0.14% 1.00000 0.00144 0.001155 0.001036 1.6165E-07

Desviación Estándar Dinámica con suavizamiento Exponencial y Lambda Óptimo 3.40% Suma 3.8636E-05

Para el ejemplo trabajado, la volatilidad que se espera en el siguiente mes (enero 2008)
es:

σ t +1 = (1 − 0.8970254) * (−3.79%)2 + 0.8970254 * (0.034) 2

σ t +1 =3.44%

Volatilidad para tasas de interés, Para las tasas de interés es importante tener en
cuenta en su metodología que existe volatilidad de rendimientos (variaciones relativas o
logarítmicas) y volatilidad de variaciones absolutas, para que la una sea equivalente a la
otra se utiliza la siguiente conversión:

σ = σ r * i , donde σ es la desviación de las variaciones absolutas y σ r es la desviación


de los rendimientos.

También se maneja el concepto de desviación de precios ( σ precios ) que evalúa la


volatilidad del activo de renta fija en términos de precios, en este caso se incluye el
concepto de duración modificada, como otra medida de volatilidad para este tipo de
activos.

Entonces,

σ precios = σ r * i * D m , y en el caso de estar trabajando con la desviación de las


variaciones absolutas, σ precios = σ * D m .

Veamos el siguiente caso:

Para el Tes con vencimiento en el 2020,


Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

TFIT15240720
Variación Variación
FECHA 2007
Tasa Absoluta Relativa
Enero 9,31%
Febrero 9,75% 0,44% 4,73%
Marzo 9,84% 0,09% 0,92%
Abril 9,94% 0,10% 1,02%
Mayo 9,85% -0,09% -0,91%
Junio 9,89% 0,04% 0,41%
Julio 9,87% -0,02% -0,20%
Agosto 10,49% 0,62% 6,28%
Septiembre 10,11% -0,38% -3,62%
Octubre 10,08% -0,03% -0,30%
Noviembre 10,20% 0,12% 1,19%
Diciembre 10,31% 0,11% 1,08%

La desviación estándar con suavizamiento exponencial para los dos casos es:

Volatilidad
Variación Absoluta 0,1391%
Variación Relativa 1,4106%

Entonces,
*+,-./,/0-012324ó6 789:9;<=2 ≅ *+,-./,/0-012324ó6 ?@;2=A2 ∗ C-D-

0,1391% ≅ 1,1406% ∗ 10,31%


2.2.2.3 Volatilidad ARCH – GARCH

(Elaborado por Ing. Fra Sandra Milena Díaz Figueroa)

En el mercado financiero es fácil obtener el precio de una acción, el precio de un activo


subyacente, el precio de ejercicio del activo subyacente, el tiempo de expiración de una
opción, las tasas de interés, pero la volatilidad debe ser pronosticada ya que no existe un
marco de referencia para consultarla.

La volatilidad juega un papel muy importante al momento de evaluar el riesgo de un


determinado activo, por lo tanto su estimación es necesaria para todas las personas
involucradas en los mercados financieros (emisores, inversores, administradores de
portafolios, de productos derivados y de riesgos).

Una metodología muy aplicada para el cálculo de la volatilidad y que permite predecir
comportamientos futuros basados en el comportamiento histórico es el modelo ARCH
(Autoregresive Conditionally Heteroscedastic) el cuál fue desarrollado por Engle (1982)
y el modelo GARCH (generalización del modelo ARCH) que fue extendido por
Bollerslev al agregarle una media móvil.

Engle junto a Clive Granger, obtuvieron el premio nobel de economía en 2003 por
haber desarrollado métodos de análisis de las series temporales con volatilidad variante
en el tiempo (ARCH) y métodos de análisis de series temporales con tendencias
comunes (cointegración).
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

La volatilidad es uno de los indicadores mas utilizados para la cuantificación de riesgos


de mercado, ya que representa una medida de dispersión de los rendimientos. El
mercado financiero presenta una creciente competitividad, por lo tanto contar con
instrumentos de análisis capaces de señalar el posible curso del comportamiento de los
factores de riesgo, es un punto clave, para construir herramientas que permitan una
mejor anticipación de los resultados.

Existen modelos muy sencillos para predecir la volatilidad futura basados en las
variaciones que presenta la rentabilidad en el pasado, sin embargo asumen que la
volatilidad es estable en el tiempo fenómeno conocido como homocedasticidad,
subestimando el riesgo asociado. Para el caso de las series económicas y financieras esta
condición no se cumple ya que su varianza es cambiante en el tiempo, fenómeno
conocido como heteroscedasticidad.

Los modelos ARCH y GARCH están diseñados para modelar y pronosticar la


volatilidad variable en una serie de tiempo, con el análisis de éstos modelos se puede
llegar a fijar el precio de un activo, así como crear dinámicas de cobertura y de esta
forma apoyar en los requerimientos de las situaciones de planificación y toma
decisiones acordes, logrando un cubrimiento seguro del riesgo e incrementando la
confianza en los resultados obtenidos estimando el riesgo de mercado.

A partir del análisis de las series de tiempo para el precio de una acción se determinan
las características de las series para aplicar el modelo ARCH y GARCH con el fin de
obtener los parámetros necesarios para el cálculo de la volatilidad por medio de este
modelo.

Posteriormente se halla la volatilidad para la serie utilizando las metodologías Histórica-


Clásica y Dinámica para establecer de manera comparativa diferencias entre la forma de
calcular la volatilidad según el método ARCH y GARCH y las metodologías
tradicionales, cuyo propósito es identificar el más eficiente.

Análisis de la series de tiempo, implica la realización de pruebas que permiten


determinar su comportamiento y de esta manera llegar hasta la aplicación del modelo
ARCH y GARCH. A partir de la aplicación de las Pruebas de Estacionariedad, se puede
obtener un diagnóstico de la serie y determinar el comportamiento de la misma. Dentro
de las pruebas, se encuentran la prueba gráfica, que abarca la normalidad de la serie y el
histograma de la misma, la prueba de raíz unitaria para verificar si la serie sigue un
proceso de caminata aleatoria y corroborar si el término error está correlacionado con
su pasado lo cual determina si es o no estacionaria y la elaboración y análisis del
Correlograma para determinar la existencia de Autocorrelación entre los datos.

Con base en el correlograma de la serie se estima la mayor cantidad de modelos


posibles para identificar correctamente los órdenes AR (p) y MA (q). En este sentido,
se obtienen los residuos y se realiza una regresión con su retardo como variable
explicativa con el propósito de establecer si su varianza o dispersión permanecen
constantes en el tiempo, por lo tanto se aplica la prueba del Q estadístico para
determinar si los residuos están correlacionados.

Teniendo la identificación del modelo ARMA, se aplican las pruebas de


heteroscedasticidad con el propósito de definir si las variables pueden ser explicadas por
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

sus valores pasados y por los términos estocásticos de error, para ello se aplica el test
LM, que indica que los residuos pueden ser explicados en función del mismo residuo
rezagado un periodo.

Para evidenciar la presencia de comportamientos heteroscedásticos, se recurre a la


determinación del rezago de los residuos al cuadrado. Con esta prueba se puede
comprobar la existencia de un proceso ARCH en donde la varianza cambia con el
tiempo.

Ahora con la obtención del modelo que cumple con las características de
heteroscedasticidad se aplica el modelo ARCH y GARCH, el cual recoge la no
estacionariedad de la serie. Con base en este modelo se obtienen los parámetros w, α y
β y se calcula la volatilidad reemplazando estos coeficientes en el modelo propuesto en
Excel con el fin de aplicar la ecuación que permita obtener la varianza.

Con el propósito de contrastar la aplicación de la metodología ARCH y GARCH, para


el cálculo de la volatilidad, se estima la metodología Histórica-Clásica y la Metodología
Dinámica, el objetivo es evaluar los resultados obtenidos y determinar cuál de las
metodologías se acerca al pronóstico de la volatilidad real, para con ello decidir cual es
la herramienta más confiable para aplicar al momento de la toma de decisiones cuando
se evalúan factores de riesgo de mercado.

Análisis del precio de la acción suramericana, A partir de la serie histórica de la


acción Suramericana, representada por el valor del precio de cierre diario se realizará el
respectivo análisis de comportamiento para luego calcular la volatilidad mediante tres
metodologías y así evaluar la más efectiva.

El análisis inicia desde la observación del comportamiento de la serie donde se pretende


determinar si la serie presenta estacionariedad lo que implica que tanto su media como
su varianza no cambian con el tiempo. La importancia de esta observación radica en
que permite saber si la tendencia en la serie de tiempo es predecible y no variable
proceso conocido como tendencia determinista o si la tendencia no es predecible el
proceso se denota tendencia estocástica.

Con base en el análisis gráfico se puede dar una aproximación sobre el comportamiento
de la serie estudiada, donde se pueden encontrar características de tendencia, ciclo o
estacionalidad y residuo.

Una de las pruebas más eficientes es la prueba de raíz unitaria. Para aplicar esta prueba
se plantea la hipótesis nula: H0 = la serie presenta raíz unitaria y H1: la serie no presenta
raíz unitaria. Por lo tanto, se toma el valor de τ (tau) estadístico y se compara con los
valores críticos estimados de los parámetros de interés en cada uno de los niveles de
significancia, en donde si el valor de τ (tau) excede al valor crítico se rechaza la
hipótesis nula.

De acuerdo al modelo desarrollado, representado en la Tabla 1, el valor absoluto de τ


(tau) es igual a 21,55569 el cual excede a los valores críticos en 1%, 5% y 10%, es decir,
se rechaza la hipótesis nula, por lo tanto la serie es estacionaria.

Prueba de Raíz Unitaria - Rendimientos Suramericana


Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

Ahora se procede a utilizar la metodología de Box-Jenkins (BJ) con el objetivo de


identificar y estimar un modelo estadístico que pueda ser interpretado como generador
de la información, ya que se supone que sus características son constantes a través del
tiempo y particularmente, en periodos de tiempo futuro, logrando de esta forma obtener
una base válida para realizar la respectiva predicción.

Dentro de las herramientas importantes para encontrar los valores apropiados de p, q y d


están la Función de Autocorrelación Simple (FAS) y la Función de Autocorrelación
Parcial (FAP) por medio del correlograma resultante. Por lo tanto, en la tabla que
representa los rendimientos de la Acción Suramericana se puede observar que la FAP
en los rezagos 1, 6, 9, 11 muestran ser estadísticamente diferentes de cero.
A partir de esta información se realizó la estimación de varios modelos para identificar
correctamente los órdenes AR (p) y MA (q). Para ello se tuvo en cuenta en cada
modelo que los coeficientes estimados fueran significativos, que los residuos
presentaran una distribución normal, que en el correlograma de los residuos los
coeficientes de autocorrelación simple y autocorrelación parcial se encontraran dentro
del intervalo de confianza y que los criterios de información como son el Akaike y
Schwarz, presentaran los menores valores.

Correlograma para los Rendimientos de Suramericana

La siguiente tabla, representa la estimación del modelo escogido:


Modelo ARMA para los Rendimientos de Suramericana
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

A partir del modelo ARMA, (6, 1) se realiza una regresión de los residuos en función de
su retardo como variable explicativa, con el objeto de definir si las variables pueden ser
explicadas por el rezago de los residuos al cuadrado y de esta manera comprobar la
existencia de un proceso ARCH en donde la varianza cambia con el tiempo,
permitiendo obtener los parámetros w, α y β para calcular el valor de la varianza del
modelo. Para ello se aplica la prueba conocida como el Test ARCH LM:

Test ARCH LM – Residuos Suramericana

La prueba plantea como hipótesis nula que no hay presencia de heteroscedasticidad,


contraste en el que se utiliza el Test de White. Para evaluar este test se toma el valor de
(n * R2), si es mayor que el valor obtenido en la tabla de distribución X2, se rechaza la
hipótesis confirmando la existencia de Heteroscedasticidad. En este sentido, el valor de
(n* R2) corresponde a 223,0984 lo que supera el valor de la tabla de distribución con 2
grados de libertad igual a 5,9914, comprobando que la serie sigue un proceso ARCH en
donde la varianza del error cambia con el tiempo.

Estimación del modelo Arch – Acción suramericana


Luego de la identificación, selección y estimación del modelo que se ajusta a las
características de comportamiento heteroscedastico, se procede a aplicar el proceso
ARCH y GARCH para obtener los parámetros necesarios que describen el
comportamiento de la varianza en la serie desarrollada. Con la estimación de estos
parámetros, se pretende obtener la volatilidad de la serie aplicando la metodología
ARCH y GARCH.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

Modelo ARCH y GARCH – Acción Suramericana

A partir del modelo ARCH y GARCH se obtienen los parámetros para calcular la
volatilidad ARCH-GARCH:

Volatilidad ARCH y GARCH – Acción Suramericana

Gráfico 3. Volatilidad ARCH y GARCH vs. Rendimientos - Suramericana


Apuntes de Clase – Administración del riesgo- Gloria Macías Unab

0,2500

0,2000

0,1500

0,1000

0,0500

0,0000

-0,0500

-0,1000

-0,1500

-0,2000

-0,2500

Banda (-) Rendimientos Banda (+)

Al comparar las dos metodologías se puede observar que el modelo ARCH y GARCH
satisface el comportamiento de los rendimientos reales frente a la volatilidad
pronosticada, permitiendo obtener unas bandas mucho más efectivas comparada con las
registradas por la metodología dinámica que calcula la volatilidad teniendo en cuenta el
comportamiento de la volatilidad del día anterior formando unas bandas de confianza
mucho mas estáticas y dejando por fuera los periodos de altas fluctuaciones.

También podría gustarte