Documentos de Académico
Documentos de Profesional
Documentos de Cultura
En riesgo de mercado los cálculos realizados para obtener un análisis estadístico de los
factores de riesgo se hace a través de variaciones de los precios de acciones divisas o
tasas de interés. El cálculo de las variaciones permite obtener los rendimientos de una
serie de tiempo de los factores de riesgo a estudiar, y así proceder en el cálculo de la
exposición al riesgo de mercado. Las variaciones pueden ser absolutas, relativas y
logarítmicas.
Una variación absoluta positiva indica que la serie evoluciona temporalmente con lo que
se refiere al periodo estudiado de manera creciente, por ser mayor el dato registrado en
el tiempo t+1 que el dato del tiempo t. Si una variación absoluta es negativa indica una
evolución decreciente en el periodo donde se realizó la medida de la variación.
del IGBC es igual a la rentabilidad obtenida con los datos del mes de diciembre respecto
al mes de enero.
=
.
=
= -0.95%
.
Esto se puede hacer teniendo en cuenta que la rentabilidad logarítmica es tratada como
tasa continua, por tanto es una tasa nominal, y es posible sumar las rentabilidades
periódicas para obtener la rentabilidad en el periodo de tenencia.
..
=
.
= -0.94%
Las medidas de posición son aquellas que nos brindan un resumen de la información
que se recoge en la distribución de frecuencias.
Mediana: Es el valor que divide las observaciones en dos con igual cantidad de datos a
los lados siendo esta la mitad.
Desviación estándar: La desviación estándar es la raíz cuadrada positiva de la varianza
y tiene la ventaja que está en las mismas unidades de medida que las observaciones de
los factores de riesgo.
Cuartiles: Son los valores que dividen la distribución una vez ordenada esta de menor a
mayor en cuatro partes iguales de 25%. Los más usados son el cuartil Q1, Q2 y Q3. El
primer cuartil es el menor valor que es mayor que una cuarta parte de los datos. El
segundo cuartil es la mediana y el tercer cuartil es el menor valor que es mayor que tres
cuartas partes de los datos.
El Rango: Nos muestra los valores comprendidos entre el valor máximo y el valor
mínimo de las observaciones de la serie de tiempo. El rango es la diferencia entre el
valor de las observaciones menor y el menor. Mientras mayor sea el rango mayor la
dispersión.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
Media 0.01%
Error típico 1.36%
Mediana 1.13%
Moda #N/A
Desviación estándar 4.52%
Varianza de la muestra 0.20%
Curtosis -1.80
Coeficiente de asimetría -0.14
Rango 11.99%
Mínimo -6.33%
Máximo 5.67%
Suma 0.08%
Cuenta 11
Cuartil1 -3.60%
Cuartil3 4.43%
Rango Intercuartílico 8.04%
Figura. 8 Curtosis
Para el ejemplo que se está trabando, la variación del IGBC mensual, presenta una
asimetría negativa, sesgo a la izquierda y apuntamiento también negativo, platicúrtica.
Distribución Normal
Los parámetros más relevantes que definen la distribución normal son la media y la
desviación estándar. En estadística es posible demostrar que aun cuando la muestra no
es suficientemente grande, la distribución de la muestra es aproximadamente normal,
sin que importe la distribución de la totalidad. Por ello la distribución normal es
importante en el desarrollo de las finanzas y la administración de riesgos.
La función de densidad normal es simétrica con respecto a la media y por ello solo se
necesita tabular las áreas de cualquier lado de la media. Esas áreas tabuladas son valores
de z, donde z es la distancia de un valor x respecto de la media, expresada en unidades
de desviación estándar. Si la variable aleatoria x es el rendimiento del precio de
acciones, tasas de interés o tipos de cambio, entonces será posible cambiar esa variable
aleatoria normal en z.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
x−µ
El valor de z en una distribución normal poblacional es igual a: z = ; para una
σ
x− x
muestra: z = .
s
n
Para una distribución normal, las probabilidades para ciertos rendimientos o variaciones
alrededor de la media son conocidas:
La prueba de Jarque Bera, trabaja con dos medidas de forma, la curtosis y el coeficiente
de asimetría,
La prueba de hipótesis se plantea:
H0 : La variable se comporta como una distribución Normal
H1 : La variable NO se comporta como una distribución Normal
El valor crítico se calcula con la prueba chi cuadrada con el nivel de significancia
seleccionado (por ejemplo 5%) y 2 grados de libertad.
Con Los datos de la rentabilidad relativa del IGBC mensual desde julio de 2001 a julio
2008, los resultados estadísticos son:
Media 3.04%
Error típico 0.95%
Mediana 2.53%
Moda #N/A
Desviación estándar 8.71%
Varianza de la muestra 0.76%
Curtosis 1.85
Coeficiente de asimetría 0.48
Rango 54.30%
Mínimo -18.34%
Máximo 35.96%
Cuenta 84
El estadístico de prueba de Jarque Bera B=15.22
Para el valor crítico con la distribución Chi cuadrada con dos grados de libertad y 5% de
significancia de obtiene VC=5.99. Por tanto no hay razones para aceptar que la
distribución de los datos de las rentabilidades del IGBC presenta un comportamiento
norma. Se rechaza Ho.
Todo el contenido del análisis estadístico se puede realizar a través del sistema SPSS. El
es un paquete estadístico de análisis de datos. Este puede realizar desde un simple
análisis descriptivo hasta análisis multivariantes de datos. El programa permite abrir
fuentes de datos existentes, crear gráficos estadísticos, definir variables, crear variables,
almacenar datos, realizar un análisis descriptivo, análisis estadístico, análisis de
frecuencias, tablas de frecuencias e interpretación de resultados que brindan la
posibilidad de realizar el proceso en menor tiempo con mejores herramientas y mayor
certeza de los resultados.
Para los datos del IGBC mensual los resultados de SPSS fueron:
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
Tests of Normality
a
Kolmogorov-Smirnov Shapiro-Wilk
Statistic df Sig. Statistic df Sig.
RentIGBC .096 84 .054 .965 84 .023
a. Lilliefors Significance Correction
Se puede observar que la prueba K-S sí aprobó la distribución normal de los datos,
mientras que la prueba Jarque Bera no. Esto es porque la prueba K-S no se afecta por
los datos que sean muy atípicos, cuando estos son pocos.
Histograma de frecuencias
40
35
30
Frecuencia
25
20
15
10
5
0
...
63
93
23
54
84
58
28
98
67
or
0
1
0
ay
71
37
03
70
63
96
30
63
97
m
79
82
86
89
92
3
3
83
23
62
02
y
05
11
17
23
29
.1
.1
.0
.0
0.
0.
0.
0.
0.
-0
-0
-0
-0
Clase
Esta herramienta permite estudiar la simetría de los datos y detectar valores atípicos.
Este gráfico divide los datos en cuatro áreas de igual frecuencia. La caja central es el
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
lugar donde se encuentra el 50% central de los datos, esta tiene una línea vertical en el
interior de la caja que índica la mediana. Si esta línea está en el centro de la caja no hay
asimetría. Partiendo del centro de cada lado vertical de la caja se dibujan los dos bigotes.
El gráfico de caja incluye dos categorías de datos con valores distantes. Datos con
valores mayores que 3 longitudes de caja del borde superior o inferior, que se llaman
valores extremos (se denotan con un asterisco); y están los datos con valores entre 1.5 y
3 longitudes de caja del borde superior o inferior, que se llaman valores atípicos (se
denotan con un círculo). Los datos con el valor más grande y el más pequeño son los
extremos de los bigotes.
Gráfico de dispersión
Se trata de un gráfico que permite ver la relación entre dos o más variables. Se
representan gráficamente los pares de valores de dos variables. En función de la nube de
puntos podemos intuir la existencia de correlación lineal entre las variables, no lineal o
aleatoriedad.
30.0%
20.0%
10.0%
0.0%
dic-99 abr-01 sep-02 ene-04 may-05 oct-06 feb-08 jul-09
-10.0%
-20.0%
-30.0%
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
Una variable de mercado tiende a tener una volatilidad media o promedio a largo plazo.
Cuando la volatilidad aumenta por encima de la media, se podría esperar que en algún
momento vuelva a ella y de igual manera frente a una caída. Hay un constante
movimiento por encima y debajo de la media.
con la formula σ 2 = ∑
(x − µ )2 para una población, y si es una muestra
N
s2 = ∑
(x − x ) , donde n es el tamaño de la muestra.
2
n −1
Como los datos están mensuales, la desviación estándar es mensual. Para calcular la
desviación anual se aplica el principio de estadística que dice “La varianza es
proporcional al tiempo” , entonces, se multiplica por 12 , para este caso la volatilidad
anual es del 15.64%.
Desviación con supuesto de media cero: investigaciones han demostrado que cuando
se trabaja con rendimientos o variaciones es mejor considerar para el cálculo de la
Este método le da mayor peso a las observaciones más reciente que a las más alejadas
en el tiempo, teniendo en cuenta que en las finanzas para tomar decisiones se tiene
memoria corta. Esto es una ventaja sobre el promedio simple de las observaciones o
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
Como λ es un factor que toma valores entre 0 y 1, al estar elevado a una potencia muy
grande, el último término de la ecuación tiende a cero. Por tanto la ecuación se puede
expresar de la siguiente forma:
σ t2 = λ0 (1 − λ )rt2−1 + λ (1 − λ )rt2−2 + λ2 (1 − λ )rt2−3 + λ3 (1 − λ )rt2−4 + λ4 (1 − λ )rt 2−5 + λ5 (1 − λ )rt 2−6 + ... + λn (1 − λ )rt2−n−1
σt = (1 − λ )∑ λi −1ri2
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
σ t +1 = (1 − λ )rt 2 + λσ t2
LAMBDA λ 0.9000000
RMSE Error 0.0018743
A B A*B
VARIACION
FECHA 2007 i IGBC ri ri^2 λ ^(i-1) λ ^(i-1)*ri^2
LOGARITMICA
Enero 10,796.03
Febrero 11 10,113.12 -6.33% -6.53% 0.40% 0.34868 0.00140
Marzo 10 10,686.39 5.67% 5.51% 0.32% 0.38742 0.00124
Abril 9 10,807.68 1.13% 1.13% 0.01% 0.43047 0.00006
Mayo 8 10,184.36 -5.77% -5.94% 0.33% 0.47830 0.00159
Junio 7 10,637.66 4.45% 4.35% 0.20% 0.53144 0.00105
Julio 6 11,107.54 4.42% 4.32% 0.20% 0.59049 0.00115
Agosto 5 10,728.74 -3.41% -3.47% 0.12% 0.65610 0.00076
Septiembre 4 10,434.43 -2.74% -2.78% 0.08% 0.72900 0.00055
Octubre 3 10,630.34 1.88% 1.86% 0.04% 0.81000 0.00029
Noviembre 2 11,115.78 4.57% 4.47% 0.21% 0.90000 0.00188
Diciembre 1 10,694.18 -3.79% -3.87% 0.14% 1.00000 0.00144
Método RMSE (Root Mean Squared Error): A través de este método se puede
obtener una lambda óptima que minimice el error pronosticado de la varianza. La
metodología se basa en encontrar el menor RMSE para diferentes valores de lambda
que busca el menor factor de decaimiento que minimice la medida del pronóstico. Se
muestra un ejemplo para el cálculo utilizando el método descrito.
∑ (r − λ *Varianza )
2 2
RMSE =
i
n
El ejemplo muestra paso a paso la metodología utilizada para el cálculo de la volatilidad
dinámica con lambda óptima.
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
LAMBDA λ 0.8970254
RMSE Error 0.0018741
A B A*B C
VARIACION
FECHA 2007 i IGBC ri ri^2 λ ^(i-1) λ ^(i-1)*ri^2 Varianza λ*Varianza (A - C)^2
LOGARITMICA
Enero 10,796.03
Febrero 11 10,113.12 -6.33% -6.53% 0.40% 0.33732 0.00135 0.000139 0.000125 1.5028E-05
Marzo 10 10,686.39 5.67% 5.51% 0.32% 0.37605 0.00121 0.000263 0.000236 8.8624E-06
Abril 9 10,807.68 1.13% 1.13% 0.01% 0.41922 0.00005 0.000269 0.000241 1.2647E-08
Mayo 8 10,184.36 -5.77% -5.94% 0.33% 0.46734 0.00155 0.000429 0.000385 8.6518E-06
Junio 7 10,637.66 4.45% 4.35% 0.20% 0.52099 0.00103 0.000535 0.000480 2.2526E-06
Julio 6 11,107.54 4.42% 4.32% 0.20% 0.58080 0.00113 0.000652 0.000585 1.8666E-06
Agosto 5 10,728.74 -3.41% -3.47% 0.12% 0.64747 0.00075 0.000730 0.000654 2.5865E-07
Septiembre 4 10,434.43 -2.74% -2.78% 0.08% 0.72180 0.00054 0.000785 0.000705 2.2943E-09
Octubre 3 10,630.34 1.88% 1.86% 0.04% 0.80465 0.00028 0.000815 0.000731 1.4311E-07
Noviembre 2 11,115.78 4.57% 4.47% 0.21% 0.89703 0.00187 0.001007 0.000904 1.3965E-06
Diciembre 1 10,694.18 -3.79% -3.87% 0.14% 1.00000 0.00144 0.001155 0.001036 1.6165E-07
Desviación Estándar Dinámica con suavizamiento Exponencial y Lambda Óptimo 3.40% Suma 3.8636E-05
Para el ejemplo trabajado, la volatilidad que se espera en el siguiente mes (enero 2008)
es:
σ t +1 =3.44%
Volatilidad para tasas de interés, Para las tasas de interés es importante tener en
cuenta en su metodología que existe volatilidad de rendimientos (variaciones relativas o
logarítmicas) y volatilidad de variaciones absolutas, para que la una sea equivalente a la
otra se utiliza la siguiente conversión:
Entonces,
TFIT15240720
Variación Variación
FECHA 2007
Tasa Absoluta Relativa
Enero 9,31%
Febrero 9,75% 0,44% 4,73%
Marzo 9,84% 0,09% 0,92%
Abril 9,94% 0,10% 1,02%
Mayo 9,85% -0,09% -0,91%
Junio 9,89% 0,04% 0,41%
Julio 9,87% -0,02% -0,20%
Agosto 10,49% 0,62% 6,28%
Septiembre 10,11% -0,38% -3,62%
Octubre 10,08% -0,03% -0,30%
Noviembre 10,20% 0,12% 1,19%
Diciembre 10,31% 0,11% 1,08%
La desviación estándar con suavizamiento exponencial para los dos casos es:
Volatilidad
Variación Absoluta 0,1391%
Variación Relativa 1,4106%
Entonces,
*+,-./,/0-012324ó6 789:9;<=2 ≅ *+,-./,/0-012324ó6 ?@;2=A2 ∗ C-D-
Una metodología muy aplicada para el cálculo de la volatilidad y que permite predecir
comportamientos futuros basados en el comportamiento histórico es el modelo ARCH
(Autoregresive Conditionally Heteroscedastic) el cuál fue desarrollado por Engle (1982)
y el modelo GARCH (generalización del modelo ARCH) que fue extendido por
Bollerslev al agregarle una media móvil.
Engle junto a Clive Granger, obtuvieron el premio nobel de economía en 2003 por
haber desarrollado métodos de análisis de las series temporales con volatilidad variante
en el tiempo (ARCH) y métodos de análisis de series temporales con tendencias
comunes (cointegración).
Apuntes de Clase – Administración del riesgo- Gloria Macías Unab
Existen modelos muy sencillos para predecir la volatilidad futura basados en las
variaciones que presenta la rentabilidad en el pasado, sin embargo asumen que la
volatilidad es estable en el tiempo fenómeno conocido como homocedasticidad,
subestimando el riesgo asociado. Para el caso de las series económicas y financieras esta
condición no se cumple ya que su varianza es cambiante en el tiempo, fenómeno
conocido como heteroscedasticidad.
A partir del análisis de las series de tiempo para el precio de una acción se determinan
las características de las series para aplicar el modelo ARCH y GARCH con el fin de
obtener los parámetros necesarios para el cálculo de la volatilidad por medio de este
modelo.
sus valores pasados y por los términos estocásticos de error, para ello se aplica el test
LM, que indica que los residuos pueden ser explicados en función del mismo residuo
rezagado un periodo.
Ahora con la obtención del modelo que cumple con las características de
heteroscedasticidad se aplica el modelo ARCH y GARCH, el cual recoge la no
estacionariedad de la serie. Con base en este modelo se obtienen los parámetros w, α y
β y se calcula la volatilidad reemplazando estos coeficientes en el modelo propuesto en
Excel con el fin de aplicar la ecuación que permita obtener la varianza.
Con base en el análisis gráfico se puede dar una aproximación sobre el comportamiento
de la serie estudiada, donde se pueden encontrar características de tendencia, ciclo o
estacionalidad y residuo.
Una de las pruebas más eficientes es la prueba de raíz unitaria. Para aplicar esta prueba
se plantea la hipótesis nula: H0 = la serie presenta raíz unitaria y H1: la serie no presenta
raíz unitaria. Por lo tanto, se toma el valor de τ (tau) estadístico y se compara con los
valores críticos estimados de los parámetros de interés en cada uno de los niveles de
significancia, en donde si el valor de τ (tau) excede al valor crítico se rechaza la
hipótesis nula.
A partir del modelo ARMA, (6, 1) se realiza una regresión de los residuos en función de
su retardo como variable explicativa, con el objeto de definir si las variables pueden ser
explicadas por el rezago de los residuos al cuadrado y de esta manera comprobar la
existencia de un proceso ARCH en donde la varianza cambia con el tiempo,
permitiendo obtener los parámetros w, α y β para calcular el valor de la varianza del
modelo. Para ello se aplica la prueba conocida como el Test ARCH LM:
A partir del modelo ARCH y GARCH se obtienen los parámetros para calcular la
volatilidad ARCH-GARCH:
0,2500
0,2000
0,1500
0,1000
0,0500
0,0000
-0,0500
-0,1000
-0,1500
-0,2000
-0,2500
Al comparar las dos metodologías se puede observar que el modelo ARCH y GARCH
satisface el comportamiento de los rendimientos reales frente a la volatilidad
pronosticada, permitiendo obtener unas bandas mucho más efectivas comparada con las
registradas por la metodología dinámica que calcula la volatilidad teniendo en cuenta el
comportamiento de la volatilidad del día anterior formando unas bandas de confianza
mucho mas estáticas y dejando por fuera los periodos de altas fluctuaciones.