Está en la página 1de 24

1

Modelos AMA para medición de RO

Presentador por
Elkin Mauricio Sanchez Laguado

Presentado a
Gloria Inés Macías

Facultada de Ingeniería
Ingeniería financiera
Universidad autónoma de Bucaramanga
2020
2

Contenido

Modelo De Medición Interna (IMA).....................................................................................3

Aplicación del modelo IMA con un Modelo Binomial............................................................4

Modelo de Distribución de Pérdidas LDA............................................................................7

Características y supuestos.............................................................................................8

Convolución..................................................................................................................... 9

Métodos para encontrar la distribución de pérdidas agregadas, LDA............................11

Aplicación del modelo LDA............................................................................................13

Referencias....................................................................................................................... 23
3

Modelo De Medición Interna (IMA)

En el desarrollo del enfoque IMA (Internal Measurement Approach), el Comité (2001b) se

basó en la experiencia previa de los modelos internos de medición del riesgo de crédito. De

esta forma, el modelo IMA establece una relación lineal entre la pérdida esperada (expected

loss, EL) y la pérdida no esperada (unexpected loss, UL). El procedimiento común, para

determinar la carga de capital por riesgo operacional mediante este enfoque, es el siguiente:

 El primer paso es combinar las ocho líneas de negocio establecidas por el Comité

con los siete tipos de riesgo operacional a través de la matriz de combinaciones

“línea de negocio (i) / tipo de riesgo (j)”.

 Dentro de cada combinación, el supervisor determina un Indicador de Exposición

(Exposure Indicator, EI ij ): aproximación al tamaño (cantidad) de la exposición al

riesgo operacional de cada línea de negocio con respecto a cada tipo de riesgo.

 Para cada celda –además del Indicador de Exposición– los bancos deben

determinar, sobre la base de datos internos de pérdidas, los siguientes parámetros:

(i) (Probability of Loss Event), representa la probabilidad de un evento de pérdida

en una línea i por un tipo de riesgo j; (ii) (Loss Given that Event), severidad media

cuando se produce el evento; (iii) (Risk Profile Index), índice del perfil de riesgo;

determina el perfil de riesgo específico del banco en comparación con la industria. -

El producto de EI, PE, LGE y RPI ofrece como resultados la pérdida esperada (EL),

esto es:
4

 El capital requerido para cada combinación (K IMAij ) se obtiene como el producto

de un parámetro denominado gamma (γ ij ) y EL ij . Por tanto, y asumiendo que la

pérdida no esperada es directamente proporcional a la pérdida esperada, el factor

gamma convierte la pérdida esperada en una carga de capital:

 Finalmente, el capital regulatorio (K IMAij ) por riesgo operacional de una entidad

financiera, en su conjunto sería igual a la suma de los productos resultantes:

Aplicación del modelo IMA con un Modelo Binomial

Parámetros:

 EL ij = N: Indicador de Exposición, se materializa en el modelo por el número de

eventos susceptibles de generar pérdidas operacionales, durante un intervalo de

tiempo establecido; el Comité (2006a: 151) propone un horizonte temporal de un

año.

 PE ij = p: Probabilidad de que acontezca una pérdida operacional. Por lo que (1-p)

representará la probabilidad de que la pérdida sea igual a 0.

 LGE ij = L: Denota la cuantía esperada de la pérdida una vez ocurrido el evento. L

es una variable aleatoria de media, µ L , y desviación típica, σ L

 EL ij = µ: Pérdida esperada.

Si suponemos L constante y asumimos la independencia entre los eventos de

pérdidas, los parámetros N y p y la variable aleatoria L corresponderán a una


5

distribución Binomial B(N, p) bajo el supuesto (0, L). La pérdida esperada (EL)

durante 1 año, se expresaría de la siguiente forma:

Recordemos que, en la modelización del riesgo de mercado, es frecuente la

utilización del enfoque paramétrico basado en la asunción de normalidad. Bajo esta

hipótesis, el capital puede estimarse como un múltiplo de la desviación típica. Así,

por ejemplo, para un nivel de confianza estadística del 95%, existe un 5% de

probabilidad de incurrir en una pérdida superior a 1,65 veces la desviación típica de

la cartera o para un intervalo de confianza del 99,9%, un 0,1% de probabilidad de

que la pérdida sea superior a 3,1 veces la desviación típica. Sin embargo, al igual

que ocurre con el riesgo de crédito, la distribución de pérdidas operacionales no

sigue una ley Normal; ya que, existe una mayor concentración de eventos a la

izquierda de la media. Este aspecto se puede resolver incrementando el

multiplicador, en función del grado de asimetría positiva que tenga la distribución

(véase Trujillo, 2002). En el caso del riesgo operacional, autores como Alexander y

Pézier (2001), estiman k en un valor aproximado2 a 7. En consecuencia, el capital

requerido se determinaría así:

El multiplicador k lo podemos formular como:


6

Conocido L y para una p relativamente pequeña3 , la desviación típica de las

pérdidas será, aproximadamente:

Operando, esto nos llevaría a poder obtener gamma en función del multiplicador k:

En consecuencia, si (N·p) representa el número medio de eventos que provocan

pérdidas operacionales y suponemos k constante, podemos afirmar que: para

sucesos de alta frecuencia (p grande) gamma resultará pequeña y, por el contrario,

para riesgos de baja frecuencia (p pequeña) gamma será mayor. Para una mejor

comprensión de esta metodología, en la tabla 1 reflejamos los datos y parámetros


7

correspondientes a dos casillas de la matriz: Banca Minorista/Ejecución y Entrega

de Procesos y Banca Corporativa/Fraude Interno. En la primera celda podrían

encuadrarse las “diferencias de caja”, esto es un tipo de pérdida de alta frecuencia y

bajo impacto. En sentido amplio, para esta tipología de eventos la gamma estimada

será bastante inferior a 1; por lo que, el valor de KIMA obtenido –(γ·EL)– será

menor que la pérdida esperada, como podemos observar en la tabla 1. En cambio, la

segunda combinación – por ejemplo, aquella asociada a las “actividades no

autorizadas” (caso Barings o Sumitomo)– se asocia a pérdidas de baja frecuencia y

alta severidad. Ahora en cambio, gamma tendrá un valor superior a la unidad, lo

cual conduce a un nivel de KIMA mayor que la pérdida esperada (EL).

Modelo de Distribución de Pérdidas LDA

Los orígenes del LDA se ubican en las aplicaciones actuariales, desarrolladas por la

industria de seguros durante muchos años (Bühlmann, 1970). Es una de las ideas más

naturales importadas de técnicas actuariales, para ser aplicadas en situaciones específicas

que caracterizan el riesgo operacional, y en particular cuando hay escasez de datos.

Diversos estudios que se han hecho acerca de datos empíricos convergen en que esa escasez

de datos tiene un impacto dramático en la carga de capital, por lo que, en metodologías

diferentes al LDA, se impone la necesidad de usar, para el tratamiento de ellos,

procedimientos muy sofisticados.

El principal objetivo del modelo LDA es proveer un estimado del riesgo operacional para

una entidad y sus unidades de negocio, basado en una distribución de pérdida que refleja
8

los datos de pérdidas subyacentes. El LDA se basa en la recopilación de los datos de

pérdidas históricas (frecuencia y severidad), que se registran internamente en las

organizaciones, los cuales son complementados con datos externos. Estas pérdidas son

clasificadas en una matriz que relaciona las líneas de negocio de la organización y los

eventos operacionales de pérdida. Aunque Basilea propone ocho líneas de negocio y siete

tipos de eventos estándar para la construcción de esa matriz, cada firma tiene la libertad de

considerar sus propias líneas y eventos, de tal forma que se adecuen a la estructura y

necesidades de la organización, como es el caso particular de una firma comisionista. Esta

asignación debe hacerse en un número pequeño pero suficiente, de tal forma que la matriz

resultante se pueda manejar adecuadamente.

Características y supuestos

En el LDA la pérdida total se define como una suma aleatoria de las distintas pérdidas:

donde   es la pérdida total en la celda   de la matriz de pérdidas. Las   se calculan
como:

Con variable aleatoria que representa el número de eventos de riesgo en la celda

(frecuencia de los eventos) y es el monto de la pérdida en la celda (severidad del evento).

En consecuencia, las pérdidas son resultado de dos diferentes fuentes de aleatoriedad; la

frecuencia y la severidad.
9

En esencia el modelo LDA tal como se utiliza en el riesgo operativo o en ciencias

actuariales asume los siguientes supuestos dentro de cada clase de riesgo:

a) y la variable frecuencia es una variable aleatoria independiente de la variable

aleatoria severidad.

b) las observaciones de tamaño de pérdidas (severidad) dentro de una misma clase se

distribuyen idénticamente.

c) las observaciones de tamaño de pérdidas (severidad) dentro de una misma clase

son independientes.

El primer supuesto admite que la frecuencia y la severidad son dos fuentes independientes

de aleatoriedad. Los supuestos 2 y 3 significan que dos diferentes pérdidas dentro de la

misma clase son homogéneas, independientes e idénticamente distribuidas (Frachot et al.,

2004).

Convolución

Se denomina convolución a una función, que, de forma lineal y continua, transforma una

señal de entrada en una nueva señal de salida. La función de convolución se expresa por el

símbolo.

En el caso del modelo LDA La primera etapa consiste en ajustar distintos modelos de

distribución probabilística a una serie datos históricos de pérdidas operacionales

desglosadas por su tipología para una determinada línea de negocio y evento de pérdida. En

definitiva, se trata de encontrar la distribución de probabilidad que mejor se ajuste a los

datos observados y estimar sus parámetros. Lee, 2001; Cruz, 2002; González, 2004;
10

Shevchenko y Donnelly, 2005 y Carrillo y Suárez, 2006, proponen la distribución

Lognormal o la de Weibull como las más recomendables a la hora de modelar la severidad,

aunque en la práctica ninguna distribución simple se ajusta a los datos satisfactoriamente;

de ahí la necesidad de recurrir a una mixtura de distribuciones para variables aleatorias

continuas.

Sea   el monto de la pérdida en la celda   de la matriz de pérdidas (severidad del

evento). Variable que sigue una distribución de probabilidad     la cual se define como:

Ahora la modelación de la frecuencia es una variable aleatoria discreta que representa el

número de eventos observados durante un período de tiempo establecido, con una

determinada probabilidad de ocurrencia. Lee, 2001; Cruz, 2002; González, 2004 y

Shevchenko, 2005, proponen la distribución de Poisson como una candidata con muchas

ventajas a la hora de modelar dicha variable; también recomiendan contemplar otras

alternativas como la binomial o la binomial negativa.

Sea   una variable aleatoria que representa el número de eventos de riesgo en la celda   

de la matriz de eventos (frecuencia de los eventos). Variable que sigue una distribución de

probabilidad   la cual se define como:


11

La combinación de las distribuciones de frecuencia y severidad es lo que genera la

distribución de pérdidas agregadas y se realiza mediante una convolución con simulaciones

de Montecarlo, por ejemplo. La convolución se da por el proceso que se genera al mezclar

la distribución de frecuencia, que es una variable aleatoria discreta, con la distribución de

severidad, que es una variable aleatoria continua.

Métodos para encontrar la distribución de pérdidas agregadas, LDA

para la obtención de la distribución de pérdidas agregadas, se proponen cuatro posibles

técnicas:

 La transformada rápida de Fourier (Klugman, Panjer y Willmot, 2004).

La Transformada rápida de Fourier, conocida por la abreviatura FFT (del inglés Fast

Fourier Transform) es un algoritmo eficiente que permite calcular la transformada

de Fourier discreta (DFT) y su inversa. La FFT es de gran importancia en una

amplia variedad de aplicaciones, desde el tratamiento digital de señales y filtrado

digital en general a la resolución de ecuaciones en derivadas parciales o los

algoritmos de multiplicación rápida de grandes enteros. Cuando se habla del

tratamiento digital de señales, el algoritmo FFT impone algunas limitaciones en la

señal y en el espectro resultante ya que la señal muestreada y que se va a

transformar debe consistir de un número de muestras igual a una potencia de dos.

La mayoría de los analizadores de FFT permiten la transformación de 512, 1024,

2048 o 4096 muestras. El rango de frecuencias cubierto por el análisis FFT depende

de la cantidad de muestras recogidas y de la proporción de muestreo.


12

La transformada rápida de Fourier es de importancia fundamental en el análisis

matemático y ha sido objeto de numerosos estudios. La aparición de un algoritmo

eficaz para esta operación fue un hito en la historia de la informática.

 El algoritmo recursivo de Panjer (Panjer, 1981).

Entre los años 1983 y 1992, Panjer y Willmot estudiaron las propiedades de la v.a.

definida en:

Este estudio suministró como resultado el algoritmo de Panjer y la solución analítica

para la función de distribución de S, denotada como gk.

Teorema 2. Si la distribución primaria es un miembro de la clase (a, b), entonces g0

= PN (f0) y

donde fk denota la distribución secundaria.

 El enfoque de simulación por Montecarlo (Klugman, Pan-jer y Willmot, 2004).

El método de Montecarlo permite resolver problemas matemáticos mediante la

simulación de variables aleatorias. John Von Neumann, en los años 40 y con los

primeros ordenadores, aplica la simulación para resolver problemas complejos que

no podían ser resueltos de forma analítica. Montecarlo y su casino están

relacionados con la simulación. La ruleta, juego estrella de los casinos, es uno de los
13

aparatos mecánicos más sencillos que nos permiten obtener números aleatorios para

simular variables aleatorias.

 La aproximación de la pérdida simple (Böcker y Klüp-pelberg, 2005).

Aplicación del modelo LDA

Uno de los objetivos desarrollados en la investigación fue la implementación del modelo

LDA para una entidad financiera. La principal dificultad encontrada en una exploración

inicial de la información disponible fue la carencia de datos, ya que éstos en su momento

debieron haber sido producto del registro de unos eventos de frecuencia y severidad de

pérdidas. Pero tal escasez ha sido una característica muy generalizada en las entidades

financieras, inclusive a escala mundial, cuando se ha intentado implementar la

cuantificación del riesgo operacional. Para superar ese inconveniente se recurrió a un panel

de expertos, a partir de los cuales se generó información acerca de la frecuencia y severidad

de eventos de pérdida, haciendo é nfasis en lo relacionado con una línea específica de

negocios. Esa etapa inicial fue desarrollada en el año 2005. Aunque posteriormente se ha

avanzado significativamente tanto en la modelación, como en la estructuración de bases de

datos, también se ha complicado la obtención de ese tipo de información, dado que esto se

ha convertido en ventaja competitiva para las entidades financieras.

Estimación de la distribución de probabilidad para la severidad

Como ocurre en muchas aplicaciones de riesgo operacional, para estimar la distribución de

probabilidad para la severidad, se tienen dos posibilidades básicas:


14

a. Dados  , representando la severidad del evento de riesgo   en la línea de negocio  ,

registrados históricamente por la entidad(al menos durante 5 años), se trata de ajustar a esos

datos una distribución de probabilidad  , que pueda ser utilizada como modelo

probabilístico explicativo de la severidad para el siguiente año.

b. A partir de la información obtenida de los expertos, asumir que dichos datos siguen un

modelo probabilístico   determinado, dependiendo de características específicas, tales

cantidad y calidad de los mismos.

Dada las características de los datos obtenidos, que se presentan en la tabla 1, se decidió

implementar la segunda opción planteada. En la tabla se observa que los expertos

determinaron mínimos y máximos para la severidad, lo cual conduce a establecer rangos

para cada evento de riesgo en la línea considerada. Para estos datos, y siguiendo las

recomendaciones de autores como Lee, 2001; Cruz, 2002; González, 2004; Shevchenko y

Donnelly, 2005 y Carrillo y Suárez, 2006, se asumen las distribuciones uniforme y

triangular como potenciales distribuciones para la severidad del siguiente período.

Tabla 1. Fuente: Elaboración de los autores


15

Fuente: elaboración propia

En la tabla 2, se presentan los valores esperados para cada una de las distribuciones que se

definieron en @Risk. Dichas esperanzas corresponden a la severidad promedio.

Tabla 2.
16

Fuente: elaboración propia

Utilizando @Risk se generó una simulación con 1000 iteraciones. A partir de los datos

obtenidos se obtuvo la distribución de probabilidad que representa el perfil de riesgo para la

severidad del siguiente año. Esta distribución se muestra en la gráfica 1.

Estimación de la distribución de probabilidad para la frecuencia

Para la distribución de probabilidad para la frecuencia se tiene una situación análoga a la

presentada en la tabla 1, para la severidad. Pero a diferencia de lo anterior, en este caso, la

gama de distribuciones potenciales, que deben ser discretas, es mucho más reducida.

Específicamente, y según la experiencia en el campo actuarial, y en concordancia con los

autores citados en el apartado anterior, se ha encontrado que la distribución de Poisson es la

que mejor explica el fenómeno en la línea bajo estudio. En la tabla 3 se tienen las

frecuencias promedio planteadas por los expertos. A partir de esos datos se obtuvo la
17

distribución de probabilidad que representa el perfil de riesgo para la frecuencia del

siguiente año. Esta distribución se muestra en la gráfica 2.

Fuente: elaboración propia

Gráfica 1. Fraude externo / 

Fuente: elaboración propia

Gráfica 2. Fraude externo / 


18

Tabla 3.

Fuente: elaboración propia

Estimación de la distribución de pérdidas

A diferencia de los modelos utilizados para evaluar riesgo de mercado y riesgo de crédito,

los modelos para la estimación del riesgo operacional tienen unas características muy

específicas: Se deben combinar variables aleatorias continuas y discretas; la pérdida

agregada es una variable incierta, y la relación entre variables es no lineal. Estas

características complican la estimación de la distribución de pérdidas por métodos

analíticos, y por lo tanto se recurre a simulación Montecarlo, porque se considera, entre los

métodos no analíticos, como el más simple y flexible, cuando se dispone de una plataforma

adecuada. Dicha metodología implica la convolución de las distribuciones de frecuencia y

severidad para luego generara la distribución de pérdidas.


19

Los resultados obtenidos aplicando SMC se muestran en la tabla 4. En ella se tienen,

respectivamente, los valores esperados de 1000 iteraciones de las convoluciones entre las

distribuciones de frecuencia y severidad, inicialmente tomando una combinación Poisson-

Triangular; y luego una combinación Poisson-Uniforme, para cada evento de riesgo.

Por ejemplo, el 18. Significa que para el siguiente año, la pérdida esperada por fraude

externo es 18.000.000 de pesos. En forma análoga se interpretan los otros datos.

Esta información sería esencial para la entidad, no sólo porque las provisiones requeridas

por la normativa, expresadas en términos de activos ponderados por riesgo, están en

función de esas pérdidas, sino también para tener menor incertidumbre en su capital de

trabajo.

Tabla 4.

Fuente: elaboración propia


20

Fuente: elaboración propia

Gráfica 3. Fraude externo / 

Los totales en las columnas de la tabla anterior indican, respectivamente, la pérdida

operacional total esperada para el siguiente año en la línea de negocio, según cada modelo.

En la figura 3. Se muestra la correspondiente función de distribución de pérdidas para el

evento fraude externo.

Cálculo de la carga de capital

Después de estimar las distribuciones de probabilidad de la frecuencia y de la severidad, el

proceso de la carga de capital se hace con una de las dos definiciones planteadas

anteriormente. Los resultados respectivos se muestran en la tabla 4. En las columnas cinco

y seis se muestra la carga de capital aplicando la definición dos. Siempre será preferible

para cada entidad disponer del modelo que genere la mínima pérdida operacional total, ya

que los supervisores aceptarán este cálculo siempre que la entidad demuestre claramente
21

que su modelo de cálculo satisface los criterios de solidez para modelos de medición

avanzada, establecidos por Basilea II.

Intervalos de confianza

El procedimiento anterior proporciona una cuantificación de la carga de capital que por

naturaleza es incierta. Se puede conjeturar que los reguladores esperarán que la estimación

no esté lejos de su valor real. Esto es un punto crucial en la modelación del riesgo

operacional debido a que la falta de datos normalmente puede traducirse en cierta

inexactitud en la cuantificación de la carga de capital. Como consecuencia de lo anterior, el

intervalo de confianza es la herramienta básica para justificar la estimación de la carga de

capital, dado que se deben hacer numerosas simulaciones cuando se carece de datos.

La inexactitud de la carga de capital se asocia directamente a la inexactitud de los

estimadores de los tres parámetros subyacentes de las distribuciones de probabilidad. Esto

implica que para la construcción de un intervalo de confianza para la carga de capital se

puede realizar de la siguiente forma:

Primero, obtener (en algunos casos, aproximada) la distribución de los estimadores

subyacentes; luego, correr un número suficientemente de simulaciones de estas

distribuciones y finalmente, para cada simulación, obtener su distribución empírica para

calcular la carga de capital.

En las tablas cuatro y cinco se presenta la normalización para la pérdida esperada en el

evento y línea considerados; y en la tabla cinco se muestra las correspondientes pruebas de

normalidad.
22

Fuente: elaboración propia

Gráfica 4. Histogramfor MEAN

Fuente: elaboración propia

Gráfico 5. Quantile-Quantile Plot

Tabla 5. Tests for Normality for MEAN


23

Fuente: Resultados de @Risk


24

Referencias

(2008). Jiménez R, Enrique., Feria D, José M., Martín M, José L. Enfoque de Medición de
Riesgo Operacional en la Banca. Tomado de:
https://www.researchgate.net/publication/28263258_Enfoques_de_Medicion_de_Riesgo_
Operacional
(2019). Retrieved 4 September 2019, from
https://www.researchgate.net/profile/Luis_Masmela2/publication/304232124_Distribu
cion_Poisson-
Pascal_generalizada_utilizando_el_algoritmo_de_Panjer/links/5ca148e592851cf0aea5
6795/Distribucion-Poisson-Pascal-generalizada-utilizando-el-algoritmo-de-Panjer.pdf
(2019). Retrieved 4 September 2019, from
https://previa.uclm.es/profesorado/licesio/Docencia/mcoi/Tema4_guion.pdf
Franco Arbeláez, L., & Murillo Gómez, J. (2019). Loss Distribution Approach (LDA):
actuarial methodology apply to operational risk. Retrieved 4 September 2019, from
http://www.scielo.org.co/scielo.php?script=sci_arttext&pid=S1692-
33242008000200011
Sugrades, L. (2019). Convolución. Retrieved 4 September 2019, from
http://www.dimages.es/Tutorial%20A.I/definitions/convolucion.htm
Transformada rápida de Fourier. (2019). Retrieved 4 September 2019, from
https://es.wikipedia.org/wiki/Transformada_rápida_de_Fourier
Villalba, G., Hormiga, S., & Herrera, L. (2019). Modelo LDA para medición avanzada de
riesgo operacional*. Retrieved 4 September 2019, from
http://www.redalyc.org/jatsRepo/818/81855411002/html/index.html

También podría gustarte