Está en la página 1de 283

Introducci on a la teor a del riesgo

Luis Rinc on Departamento de Matem aticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M exico DF

Agosto 2012

Pr ologo
El presente texto contiene material b asico para un curso introductorio a ciertos temas de la teor a del riesgo aplicada a seguros. Est a basado en el curso semestral de Teor a del Riesgo que el autor ha impartido a estudiantes de u ltimo semestre de la carrera de Actuar a en la Facultad de Ciencias de la UNAM. La intenci on es que este libro sea de alguna ayuda para los numerosos alumnos de las distintas escuelas de actuar a y matem aticas aplicadas de pa ses de habla hispana, y contribuya tambi en a apoyar el traA bajo docente de sus profesores. El texto fue escrito en el sistema L TEX y las ilustraciones fueron elaboradas usando el paquete pstricks. El material que se presenta fue compilado enteramente de las fuentes bibliogr acas que aparecen al nal del texto. La u ltima versi on disponible de este texto en su formato digital puede encontrarse en la p agina web http://www.matematicas.unam.mx/lars Agradezco sinceramente los comentarios, correcciones y sugerencias que he recibido por parte de alumnos y profesores para mejorar este material. En particular agradezco a uno de los revisores an onimos, quien dedic o bastante tiempo en la lectura cuidadosa del texto y quien sugiri o importantes mejoras para la versi on nal. Agradezco tambi en el apoyo otorgado por parte de la UNAM DGAPA a trav es del proyecto PAPIME PE103111, con el cual pudo ser posible el desarrollo y la edici on de este trabajo. Toda comunicaci on dirigida al autor puede enviarse a la cuenta de correo que aparece abajo.

Luis Rinc on Agosto 2012 Ciudad Universitaria UNAM lars@ciencias.unam.mx

Contenido
1. El modelo individual y el modelo colectivo 1.1. Introducci on . . . . . . . . . . . . . . . . . . 1.2. Modelo individual . . . . . . . . . . . . . . 1.3. F ormula de De Pril . . . . . . . . . . . . . . 1.4. Modelo colectivo . . . . . . . . . . . . . . . 1.5. Modelo colectivo Poisson . . . . . . . . . . . 1.6. Ejercicios . . . . . . . . . . . . . . . . . . . 1 . 1 . 3 . 9 . 18 . 25 . 33 45 45 53 55 56 61 69 69 71 80 83

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

2. F ormula de Panjer y m etodos de aproximaci on 2.1. F ormula de Panjer . . . . . . . . . . . . . . . . . 2.2. Aproximaci on normal . . . . . . . . . . . . . . . 2.3. Aproximaci on gama trasladada . . . . . . . . . . 2.4. Aproximaci on de Edgeworth . . . . . . . . . . . . 2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . 3. Principios para el c alculo de primas 3.1. Propiedades . . . . . . . . . . . . . . 3.2. Principios generales . . . . . . . . . . 3.3. Primas y funciones de utilidad . . . 3.4. Ejercicios . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

4. Reaseguro 91 4.1. Reaseguro proporcional . . . . . . . . . . . . . . . . . . . . . 93 4.2. Reaseguro no proporcional . . . . . . . . . . . . . . . . . . . . 95 4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101 iii

iv

Contenido 109 . 110 . 117 . 123 127 . 127 . 130 . 132 . 134 . 140 . 143 . 154 . 156 163 . 163 . 167 . 175 . 177 . 180 . 184 . 191 197 . 197 . 202 . 208 . 213 . 218 . 227 . 233 . 235 . 240 . 243 245

5. Teor a de la credibilidad 5.1. Credibilidad cl asica . . . . . . . . . . . . . . . . . . . . . . . 5.2. Credibilidad Bayesiana . . . . . . . . . . . . . . . . . . . . . 5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6. Procesos estoc asticos 6.1. Conceptos elementales . . . . . . . . . 6.2. Filtraciones y tiempos de paro . . . . 6.3. Caminatas aleatorias . . . . . . . . . . 6.4. Cadenas de Markov . . . . . . . . . . 6.5. Proceso de Poisson . . . . . . . . . . . 6.6. Cadenas de Markov a tiempo continuo 6.7. Martingalas . . . . . . . . . . . . . . . 6.8. Ejercicios . . . . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

7. Teor a de la ruina: tiempo discreto 7.1. Un proceso de riesgo a tiempo discreto . . . 7.2. Probabilidad de ruina con horizonte innito 7.3. Probabilidad de ruina con horizonte nito . 7.4. Coeciente de ajuste . . . . . . . . . . . . . 7.5. Desigualdad de Lundberg . . . . . . . . . . 7.6. Severidad de la ruina . . . . . . . . . . . . . 7.7. Ejercicios . . . . . . . . . . . . . . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

8. Teor a de la ruina: tiempo continuo 8.1. Modelo cl asico de Cram er-Lundberg . . . . . . . 8.2. Probabilidad de ruina con horizonte innito . . . 8.3. Probabilidad de ruina con horizonte nito . . . . 8.4. Severidad de la ruina . . . . . . . . . . . . . . . . 8.5. El coeciente de ajuste . . . . . . . . . . . . . . . 8.6. Desigualdad de Lundberg . . . . . . . . . . . . . 8.7. Aproximaci on de De Vylder . . . . . . . . . . . . 8.8. F ormula de Pollaczek-Khinchin . . . . . . . . . . 8.9. Probabilidad de ruina con reclamaciones tipo fase 8.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . Ap endice: Formulario y resultados varios

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

Contenido Bibliograf a Indice anal tico

v 271 274

Cap tulo 1

El modelo individual y el modelo colectivo


En este cap tulo se presenta una introducci on al esquema del seguro y al concepto general de riesgo. Se presentan adem as las perspectivas individual y colectiva para modelar el riesgo correspondiente al conjunto de reclamaciones que afronta una compa n a aseguradora. Se estudian tambi en algunas propiedades y relaciones entre estas dos perspectivas. En el resto del texto se adopta el modelo colectivo como modelo fundamental.

1.1.

Introducci on

El t ermino riesgo tiene muchas acepciones dependiendo del area de estudio que se trate y en t erminos imprecisos puede denirse como la posibilidad de experimentar ciertos eventos de inter es y las consecuencias derivadas de dichos eventos. Los riesgos pueden tener un sentido positivo o negativo, pero en general tienen una connotaci on de p erdida. El objetivo es identicar los riesgos, ponderarlos con base en sus consecuencias, decidir la aceptaci on o no de los mismos y tomar provecho de su existencia. Por lo tanto no se trata necesariamente de evitarlos o de protegerse contra ellos. El quehacer cotidiano del hombre, ya sea en el ambito personal o profesional, implica necesariamente y a cada momento hacer frente a ciertos riesgos, y ello puede tener consecuencias no deseadas, pero tambi en puede ofrecer oportunidades. Por ejemplo, el comprar un boleto de loter a conlleva el riesgo de perder el 1

1. El modelo individual y el modelo colectivo

importe pagado por el boleto, pero al mismo tiempo la posibilidad de ganar una gran cantidad de dinero. Cada uno de nosotros pondera estas dos posibilidades de manera distinta y toma una decisi on al respecto. Otro ejemplo en donde es evidente la evaluaci on (a veces inconsciente) de los riesgos es cuando una persona decide viajar en avi on. En este caso se considera primordial la rapidez y comodidad del viaje, y se desde na convenientemente cualquier posibilidad de accidente. Como hemos mencionado, el t ermino riesgo se dene de manera distinta dependiendo de la disciplina de estudio. En ingenier a, por ejemplo, puede denirse el riesgo como el producto de la probabilidad de que un evento no deseable ocurra y el da no esperado debido a la ocurrencia del evento, es decir, Riesgo=(Probabilidad de un accidente)(Da nos como consecuencia del accidente). En nanzas puede denirse el riesgo en t erminos de la variaci on o volatilidad de una inversi on, o tambi en como la posible p erdida en una inversi on; en general, se considera que una inversi on en la bolsa de valores (tasa de inter es variable) es m as riesgosa comparada con una inversi on en un banco (tasa de inter es ja). Finalmente, en seguros, el riesgo puede denirse como el monto de las reclamaciones totales de los asegurados. Veremos a continuaci on con m as detalle este u ltimo caso pues es al que est an dirigidos principalmente los modelos matem aticos que estudiaremos. A grandes rasgos, la forma en la que opera un seguro es la siguiente: un grupo de personas reconocen que est an expuestas a sufrir alg un tipo de siniestro en sus bienes o en sus personas, y que dichos siniestros pueden causarles consecuencias irreparables, como la p erdida de sus vidas, o bien, p erdidas econ omicas considerables. Al contratar un seguro (es decir, rmar una p oliza de seguro), cada una de estas personas paga por adelantado una cantidad de dinero (generalmente peque na) llamada prima a una compa n a aseguradora, quien se compromete a resarcir monetariamente a todas aquellas personas aseguradas que sufrieron alg un siniestro durante el tiempo de vigencia del seguro y seg un las condiciones especicadas en la p oliza del seguro. De esta manera, aunque no se conozca de manera individual a las personas que sufrir an un siniestro, el capital obtenido de manera colectiva debe ser suciente para solventar los gastos de los siniestros individuales que se presenten. Es claro que bajo este mecanismo las p erdidas econ omicas

1.2. Modelo individual

individuales se distribuyen en la poblaci on entera de asegurados logrando as garantizar la sobrevivencia nanciera de todos ellos. Naturalmente, para que tal mecanismo de asistencia colectiva sea factible, se deben cumplir varias condiciones, entre ellas, es necesario que el n umero de asegurados sea sucientemente grande, que se establezcan con precisi on las caracter sticas de los siniestros a considerar y que exista buena fe de ambas partes para respetar los acuerdos pactados. Es claro tambi en que el n umero de siniestros, los momentos en los que estos se presentan, as como el monto de las reclamaciones son variables desconocidas dependientes del azar, y que los modelos de la teor a de la probabilidad podr an ser de alguna ayuda en su estudio. En efecto, en las siguientes p aginas estudiaremos algunos modelos matem aticos que han ayudado a entender y controlar en alguna medida el aspecto aleatorio de ciertas variables relevantes en los seguros.

1.2.

Modelo individual

Suponga que se tiene un portafolio de n p olizas individuales de seguros v alidas por un a no como se muestra en la Figura 1.1.

P oliza 1

P oliza 2

....... ....... ....... .......

....... ....... ....... .......

P oliza n

....... ....... ....... .......

Figura 1.1 Sea pj la probabilidad de que el j - esimo asegurado no efect ue ninguna reclamaci on durante el tiempo de vigencia del seguro, y sea qj la probabilidad de que se observe exactamente una reclamaci on. Suponga que la igualdad as de una reclapj qj 1 se cumple, ello signica que no puede haber m maci on por cada asegurado. Tal situaci on puede corresponder, por ejemplo, a los seguros de vida. Dena la variable aleatoria Dj 1 si hay reclamaci on en la p oliza j , 0 si no hay reclamaci on en la p oliza j .

1. El modelo individual y el modelo colectivo

Claramente Dj tiene distribuci on Bernoulli con par ametro qj . El uso de la letra D viene del t ermino en ingl es Death. Observe que el n umero total de reclamaciones est a dado por la variable aleatoria N D1 Dn . Ahora suponga articialmente que cada p oliza efect ua una reclamaci on, y sea la variable aleatoria Cj 0 el monto de la reclamaci on efectuada por la p oliza j . Debido a que los siniestros pueden presentarse con caracter sticas distintas y ello puede derivar en distintos montos de reclamaci on, consideraremos de manera general a Cj no como una constante sino como una variable aleatoria. La letra C proviene del t ermino en ingl es Claim, que se traduce en espa nol como reclamaci on. La verdadera reclamaci on de la p oliza j est a dada por el producto Cj si Dj 1, D j Cj 0 si Dj 0. Observe que esta variable aleatoria puede ser mixta, es decir, no ser continua ni discreta. V ease la Figura 1.2(b) en donde se muestra una posible gr aca de la funci on de distribuci on de esta variable aleatoria. De esta forma se considera como datos en este modelo la colecci on de vectores aleatorios:

D1, C1, . . . , Dn, Cn,


los cuales supondremos independientes. Consideraremos adem as que las variables Dj y Cj tambi en son independientes entre s .

Denici on 1.1 El monto de reclamaciones agregadas, o tambi en llamado agregado de reclamaciones, en el modelo individual, es la variable aleatoria S
n j 1

D j Cj .

(1.1)

en donde D1 , . . . , Dn , C1 , . . . , Cn son variables aleatorias independientes con on Berqj . Cj 0 y Dj con distribuci La variable aleatoria S es el monto que afronta una compa n a aseguradora por concepto de reclamaciones durante el periodo completo del seguro. La

1.2. Modelo individual

ecuaci on (1.1) representa el modelo individual para una p oliza de seguros de las caracter sticas se naladas. El modelo tiene este nombre pues supone conocer las probabilidades de reclamaci on y posible monto de reclamaci on de todos y cada uno de los asegurados de manera individual. Una posible desventaja de este modelo es que presupone que el n umero de asegurados en la cartera se mantiene constante durante todo el tiempo de vigencia del seguro. Desde el punto de vista matem atico, y tambi en desde la perspectiva del negocio del seguro, nuestro objetivo es conocer las caracter sticas de la variable S , a la cual llamaremos riesgo. Notaci on Fj x

Gj x

Funci on de distribuci on de Dj Cj Funci on de distribuci on de Cj

Usando esta notaci on, la funci on de distribuci on F x del riesgo S adquiere la siguiente expresi on en t erminos de convoluciones: F x F1 Fn x, sin embargo esta expresi on es un tanto dif cil de calcular justamente debido a las convoluciones y no la utilizaremos con frecuencia. Por otro lado, es inmediato comprobar que las funciones Fj x y Gj x guardan la siguiente relaci on. Proposici on 1.1 Fj x 1 qj 1 Gj x 0 0, 0 si x si x 0, 0.

Demostraci on. Para cualquier n umero real x Fj x P Dj Cj P Dj Cj x x Dj 0 P Dj

P Dj Cj x Dj 1 P Dj P 0 x Dj 0 pj P Cj p j q j G j x 1 qj 1 Gj x.

x Dj

1 qj

1. El modelo individual y el modelo colectivo

Fj x 1 1 qj x (a) 1 1 qj

Fj x

x (b)

Figura 1.2 En la Figura 1.2 se muestran gr acas de la funci on de distribuci on Fj x en dos casos: uno cuando Gj x es discreta y otro cuando Gj x es continua. on generadora de momentos de Denotaremos tambi en por MX t a la funci una variable X , cuando exista. Como primeros resultados generales presentamos a continuaci on algunas caracter sticas de S .

Proposici on 1.2 Bajo la notaci on e hip otesis del modelo individual se tienen los siguientes resultados. 1. E S 2. VarS 3. MDj Cj t 4. MS t
n j 1 n j 1 n j 1

qj E Cj . qj VarCj pj E 2 Cj .

1 qj 1 MCj t.

1 qj 1 MC t .
j

1.2. Modelo individual Demostraci on. 1. Por la hip otesis de independencia, E S


n j 1

E Dj Cj

n j 1

E Dj E Cj

n j 1

qj E Cj .

2. Primeramente tenemos que VarDj Cj


2 2 E Dj C j E 2 D j C j 2 q j E C j qj2E 2Cj 2 2 qj VarCj E 2 Cj qj E Cj

qj VarCj qj pj E 2 Cj . Por lo tanto, VarS


n j 1 n j 1

VarDj Cj

qj VarCj pj E 2 Cj .

3. Nuevamente condicionando sobre el valor de Dj , MDj Cj t E etDj Cj E etDj Cj Dj


tDj Cj
j

E e Dj 1P Dj p j q j M C t 1 qj 1 MC t.
j

0P Dj

4. Esta igualdad se sigue directamente de la anterior usando la hip otesis de independencia.

Puede considerarse que la variable S tiene una distribuci on binomial generalizada en el siguiente sentido: se tienen n ensayos independientes Bernoulli, en donde la probabilidad de exito en el ensayo j es qj y el valor asociado al resultado exito no es 1 como en el esquema usual sino el monto Cj 0.

1. El modelo individual y el modelo colectivo

Puede comprobarse que cuando qj es constante q y los montos Cj son todos iguales a 1, la variable S tiene distribuci on binn, q , y las f ormula generales demostradas para S se reducen a las de esta distribuci on. Al respecto v ease el ejercicio 15. Es tambi en interesante observar que aunque inicialmente el modelo individual de riesgo que hemos presentado puede aplicarse a esquemas de seguros en donde hay como m aximo una reclamaci on por p oliza, esta u nica reclamaci on puede considerarse como el monto total conformado por la suma de varias posibles reclamaciones efectuadas por una p oliza a lo largo del periodo de vigencia del seguro. De este modo el modelo individual puede tambi en aplicarse al caso de reclamaciones m ultiples. En cualquier caso, los datos que deben tenerse o estimarse estad sticamente para aplicar el modelo individual a una situaci on real son el n umero de asegurados n, las probabilidades de reclamaci on q1 , q2 , . . . , qn , y las distribuciones de probabilidad de los montos C1 , C2 , . . . , Cn .

Aproximaci on normal
Cuando n es grande y el portafolio de asegurados es homog eneo en el sentido de que las variables Dj Cj son id enticamente distribuidas con segundo momento nito, puede usarse el teorema central del l mite para aproximar la distribuci on de S mediante la distribuci on normal, es decir, P S x S E S x E S VarS VarS x E S . VarS P

Esta aproximaci on puede ser adecuada para ciertos riesgos pero tiene la desventaja de que asigna una probabilidad positiva al intervalo , 0, lo cual no es consistente con el hecho de que S 0. Sin embargo, dado que la distribuci on N, 2 se concentra principalmente en el intervalo 4, 4, cuando la esperanza y la varianza de S son tales que E S 4 VarS 0, la probabilidad asignada a la parte negativa del eje es realmente peque na, ello alivia un poco el hecho de que esta distribuci on

rmula de De Pril 1.3. Fo

no tenga soporte en el intervalo 0, . Tal vez la situaci on m as comprometedora sea que la funci on de densidad normal decae muy r apidamente pues existen riesgos cuyas funciones de densidad no cumplen con tal caracter stica. M as adelante mencionaremos esta propiedad de las distribuciones de los riesgos en t erminos de colas pesadas y ligeras. En la siguiente secci on encontraremos una forma recursiva para calcular la funci on de probabilidad de S cuando el monto de las reclamaciones se modela mediante una variable aleatoria discreta.

1.3.

F ormula de De Pril

Presentamos a continuaci on la f ormula de De Pril. Este resultado fue demostrado por Nelson De Pril [12] en 1986 y proporciona una expresi on exacta, aunque recursiva, de la distribuci on de probabilidad de un riesgo en el modelo individual. La f ormula es bastante general aunque presupone que las reclamaciones toman los valores en el conjunto 1, 2, . . .. Este supuesto no es realmente una restricci on fuerte, pues en la pr actica el pago de siniestros se realiza siempre usando alguna unidad monetaria. Por otro lado, la f ormula que encontraremos permite que los riesgos a asegurar no sean homog eneos, sin embargo, estar an determinados a priori, es decir, ser an deterministas y jos. Para establecer la f ormula de De Pril es necesario dividir el portafolio de n asegurados de acuerdo con la tasa de mortalidad y la suma asegurada. Denotaremos por nij al n umero de asegurados que tienen probabilidad de reclamaci on qj y monto de reclamaci on i, en donde i toma valores en 1, 2, . . . , I y j en 1, 2, . . . , J . De esta forma se tiene la tabla de la Figura 1.3 en donde la suma de las entradas es n, es decir, n
I J i 1j 1

nij .

Denotaremos por Yij el monto real reclamado por un asegurado cuya probabilidad de reclamaci on es qj y posible monto reclamado i, es decir, Yij i 0 con probabilidad qj , con probabilidad 1 qj .

En los siguientes c alculos haremos uso de la funci on generadora de probabilidad. El lector encontrar a en el Ap endice (p agina 249) un recordatorio de

10

1. El modelo individual y el modelo colectivo Probabilidades de reclamaci on

Monto de la reclamaci on

1 2 i I nI 1 nI 2
q1 n11 n21 q2 n12 n22


nij nIj

qj

qJ n1J n2J niJ nIJ

Figura 1.3

esta funci on y de algunas de sus propiedades.

Teorema 1.1 (F ormula de De Pril [i]) Sea nij el n umero de p olizas cuyos asegurados tienen tasa de mortalidad qj y suma asegurada i. Suponga que j 1, 2, . . . , J , e i 1, 2, . . . , I . Entonces para el riesgo S que sigue el modelo individual, las probabilidades gx P S x est an dadas por gx g0 en donde hi, k i1k1 1 x
x I x i

gxik hi, k ,
ij

para x

1,

i 1 k 1 I J

1 qj n

i 1 j 1 J j 1

nij

1 qj

qj

k .

Demostraci on. La funci on generadora de probabilidad del monto reclamado Yij por un asegurado con probabilidad de reclamaci on qj y monto

rmula de De Pril 1.3. Fo reclamado i, es

11

E tYij

1 q j q j t i .
I J i 1 j 1

Por lo tanto, usando la hip otesis de independencia, la funci on generadora de probabilidad de la cartera completa es Gt en donde gr P S E tS

r 0

tr g r

1 qj qj tin

ij

r. Tomando logaritmo y despu es derivando, ln Gt


I J i 1 j 1

nij ln1 qj
I J i 1 j 1

qj ti.

d ln Gt dt Por lo tanto, tG t Gt Gt Gt

G t Gt
J I i 1 j 1 J I i 1 j 1 I J i 1 j 1

nij

iqj ti1 . 1 qj qj ti

nij

iqj ti 1 qj qj ti qj ti qj ti 1 1 1 qj 1 qj qj ti 1 qj

nij i

nij i

k 1

jt 1k1 1q k1, q j

k en donde hemos usado la expansi on 1x1 alida para x k 0 x , v Por lo tanto, para valores sucientemente peque nos de t,

1.

tG t

Gt

I J i 1 j 1

nij i

k 1

qj k ik 1k1 1 t . q
j

(1.2)

Dena ahora la funci on hi, k i1k1


J j 1

nij

1 qj

qj

k .

12

1. El modelo individual y el modelo colectivo

La doble suma respecto de los ndices j y k que aparece en la expresi on (1.2) es absolutamente convergente en cualquiera de los dos ordenes que se efect uen estas sumas y el resultado es el mismo. Por lo tanto, es v alido el intercambio en el orden de estas sumas y la expresi on anterior puede escribirse como sigue: tG t G t
I i 1 k 1

tik hi, k .

Sustituyendo las expresiones para G t y Gt en sus correspondientes series de potencias se obtiene

r 1

rtr gr

r 0

tr g r

I i 1 k 1

tik hi, k .

Para x 1, el coeciente de tx en el lado izquierdo es xgx , mientras que en el lado derecho es la suma de los t erminos gxik hi, k , para aquellos valores de i y k tales que 1 ik x. Se pueden primero establecer los posibles valores para i de la siguiente forma: i 1, . . . , x I y por lo tanto los valores para k son k 1, . . . , xi , en donde x I es el valor m nimo entre x e I , y xi es la parte entera del cociente xi. Igualando estos coecientes se tiene que

x I x i

xgx

gxik hi, k , 1,

i 1 k 1

De esta forma se llega a la siguiente expresi on, para x gx 1 x


x I x i i 1 k 1

gxik hi, k .

Por otro lado, como S 0 s olo cuando ning un asegurado efect ua ninguna reclamaci on, para x 0 se tiene que g0
I J

1 qj n

ij

i 1j 1

rmula de De Pril 1.3. Fo

13

Para un mejor entendimiento de la f ormula recursiva de De Pril [i] escribiremos a continuaci on de manera expl cita los primeros t erminos de este desarrollo. g0 g1 g2 g3 . . . Ejemplo 1.1 Para los datos que se muestran en la tabla de la Figura 1.4 en donde se tienen 48 p olizas de seguros con las probabilidades de reclamaci on y los montos de reclamaciones indicados, la correspondiente funci on de densidad para este riesgo es la que se muestra en la Figura 1.5. En el ap endice se encuentra el c odigo en R de una implementaci on de la f ormula de De Pril [i]. Debe tenerse cuidado en la implementaci on num erica de esta f ormula, pues dado su car acter recursivo y que algunas de las probabilidades involucradas pueden ser muy peque nas, pueden generarse resultados incorrectos debido al inevitable redondeo de cifras en una computadora.
Probabilidades de reclamaci on iq 1 2 3 4 5 0.03 1 3 5 2 2 0.04 3 5 3 2 3 0.05 1 4 4 6 4
I J

1 qj n

ij

g0 h1, 1 1 g0 h1, 2 h2, 1 g1h1, 1 2 1 g0 h1, 3 h3, 1 g1 h1, 2 h2, 1 g2h1, 1 3

i 1j 1

Monto de la reclamaci on

Figura 1.4 La f ormula que hemos denominado de De Pril [i] y que se encuentra expresada en el contexto de un portafolio de asegurados individuales, puede

14 gx

1. El modelo individual y el modelo colectivo

0.1

x 2 4 6 8 10 12 14 16 18 20

Figura 1.5

escribirse como un resultado te orico de la teor a de la probabilidad. Este resultado es el contenido de la siguiente proposici on. La f ormula tiene una expresi on m as simple y la demostraci on sigue los mismos lineamientos que la que hemos presentado, sin embargo, escribiremos nuevamente los detalles de la prueba en esta versi on simplicada.

Proposici on 1.3 (F ormula de De Pril [ii]) Sean X1 , X2 , . . . , Xn v.a.i.i.d. con valores en el conjunto 0, 1, 2, . . .. Para cada entero j 0, dena la probabilidad fj P X j , y suponga f0 0. Sea S X1 Xn . Entonces las probabilidades gx P S x se pueden calcular recursivamente mediante la siguiente f ormula: g0 gx

f0 n,
1 f0

x j n 1

j 1

f j g x j ,

para x

1.

rmula de De Pril 1.3. Fo

15

Demostraci on. Primeramente observemos que el evento S 0 ocurre si y s olo si todos los sumandos de S son cero, de modo que por independencia, g0

f0n .

Ahora veamos la forma de obtener la f ormula recursiva. Sean PX t y PS t las funciones generadoras de probabilidad de las variables discretas X y S respectivamente, es decir, PX t PS t E t X E tS


k 0

t k fk , tk g k .

k 0

Por independencia e id entica distribuci on, PS t respecto de t, PS t nPX tn1 PX t. Multiplicando ambos lados por t PX t,

PX tn .

Derivando

PX t t PS t

n PS t t PX t,

que en t erminos de sumas se escribe como sigue

j 0

t j fj

k 1

k tk g k

k 0

tk g k

j 1

j t j fj .

El siguiente paso es identicar el coeciente del t ermino tx para x 1 en cada lado de la ecuaci on. Por ejemplo, para el lado izquierdo el coeciente es el t ermino fj k gk para todos aquellos valores de j 0 y k 1 tales que 1 j k x. Esta doble suma puede escribirse como x j 0 fj x j gxj . De manera similar se encuentra el coeciente del lado derecho. Igualando estos coecientes se llega a la identidad
x 1 j 0

x j fj gxj

x j 1

j fj gxj .

16

1. El modelo individual y el modelo colectivo

Separando el primer sumando del lado izquierdo y a nadiendo en esa misma suma el t ermino correspondiente a j x, que es cero, se obtiene xf0 gx
x j 1

x j fj gxj

x j 1

j fj gxj .

Finalmente se despeja el t ermino gx para llegar a la f ormula anunciada, gx 1 f0


x j n 1

j 1

1 fj gxj ,

1.

Los primeros t erminos de la f ormula de De Pril [ii] se muestran a continuaci on. g0 g1 g2 g3 n f1 f0 n1 , 1 n n 2 n2 f1 f0 f2 f0 n1 , 1 g 1 n f2 g 0 f0 2 2 1 1 n2 2n 1 f1 g 2 f2 g 1 n f3 g 0 f0 3 3 n n n 3 n3 n 2 f1 f0 2! f2 f1 f0 f3 f0 n1 . 3 2 1

f0 n, 1 n f1 g0 f0 1 n1 f

Observe que las expresiones simplicadas tienen una interpretaci on natural en t erminos combinatoriales. Por ejemplo, la expresi on para g2 involucra dos situaciones: la primera cuando dos sumandos distintos de S toman cada uno el valor 1 y el resto toma el valor 0, y la segunda situaci on cuando uno de los sumandos toma el valor 2 y el resto es 0. Los coecientes binomiales dan cuenta de las distintas formas en las que se pueden presentar estos arreglos. Ejemplo 1.2 Sean X1 , X2 , X3 variables aleatorias independientes con id entica distribuci on dada por la tabla que aparece abajo y cuya gr aca se muestra en la Figura 1.6(a). Usando la f ormula de De Pril [ii] encontraremos la distribuci on de S X1 X2 X3 .

rmula de De Pril 1.3. Fo

17

j fj

0 0.5

1 0.2

2 0.3

fj 12 12

gx

0 1 2 (a)

0 1 2 3 4 5 6 (b) Figura 1.6

Observe que la variable suma puede tomar cualquiera de los valores 0, 1, . . . , 6. Usando la misma notaci on que en la f ormula de De Pril se muestran a continuaci on los c alculos para encontrar la funci on de probabilidad de S y la gr aca correspondiente aparece en la Figura 1.6(b). g0 g1 g2 g3 g4 g5 g6

f03 0.125, 1 3f1g0 0.15, f


0

1 f1g1 3f2 g0 0.285, f0 1 1 8 f1 g2 f2 g1 0.188, f0 3 3 1 f2g2 0.171, f0 1 1 3 f1 g4 f2 g3 0.054, f0 5 5 1 1 1 f1 g5 f2 g4 0.027 . f0 3 3

En la secci on de ejercicios el lector puede encontrar algunas aplicaciones de la f ormula de DePril [ii] para obtener la funci on de probabilidad de variables

18

1. El modelo individual y el modelo colectivo

aleatorias que pueden construirse como sumas de variables discretas con distribuci on conocida, por ejemplo, las distribuciones binomial y Poisson.

1.4.

Modelo colectivo

Considere un conjunto de un n umero no determinado de contratos de seguros con vigencia en un periodo de tiempo 0, T . Este periodo puede corresponder a un a no por ejemplo. Sea N la variable aleatoria que denota el n umero de reclamaciones ocurridas en este intervalo y sean las variables positivas Y1 , . . . , YN los montos de estas reclamaciones. Gr acamente una posible realizaci on de tal esquema se muestra en la Figura 1.7.

$ Y2 $ Y3 $ Y1 $ Y4 0 T $ Y5

Figura 1.7

Consideraremos que el n umero de reclamaciones y los montos de estas son variables aleatorias independientes. M as a un, supondremos que las reclamaciones mismas son independientes entre s y que comparten la misma distribuci on de probabilidad.

1.4. Modelo colectivo

19

Denici on 1.2 El monto agregado o monto acumulado de todas las reclamaciones efectuadas es la variable aleatoria S , llamada riesgo, y denida como sigue S
N

Yj ,

(1.3)

j 1

en donde Y1 , Y2 , . . . es una colecci on de variables aleatorias independientes positivas id enticamente distribuidas e independientes de la variable aleato0 se dene S ria N con valores en el conjunto 0, 1, 2, . . .. Cuando N como cero.

Observe que cada sumando es una variable aleatoria y que el n umero de sumandos es tambi en aleatorio. Observe adem as que S puede ser una variable aleatoria mixta, es decir, no ser discreta ni continua, pues cuando los montos de las reclamaciones Y son variables continuas estrictamente positivas, la variable S puede tomar el valor 0 con probabilidad P S 0 P N 0 0, y puede adem as tomar cualquier valor en el intervalo 0, . La ecuaci on (1.3) representa el modelo colectivo para un contrato de seguros, cuyas posibles realizaciones como funci on del tiempo tienen la forma de la gr aca de la Figura 1.8.
S t $ Y3 $ Y2 $ Y1 t

Figura 1.8 A la funci on de distribuci on de cada reclamaci on Y la denotaremos por la letra G. Se asume naturalmente que G0 0, ello equivale a decir que la variable Y es positiva. Adicionalmente usaremos la abreviaci on:

20

1. El modelo individual y el modelo colectivo E Y n

Notaci on

n :

En particular se escribe en lugar de 1 E Y . Nuevamente el problema central es encontrar la distribuci on de probabilidad de S , la cual depende de la distribuci on de Y y de N . Un primer resultado general al respecto es el que aparece a continuaci on. Antes de enunciarlo recordemos que la 0-convoluci on de una funci on de distribuci on G se dene como G0 x 1 si x 0 si x 0, 0.

Proposici on 1.4 La funci on de distribuci on del riesgo S en el modelo colectivo es F x

n G x P N

n.

n 0

Demostraci on. F x

n 0

P S

x N

n P N

P S

x N

0 P N 0

n 1

P Y1 Yn n

x P N

G0 x P N

n G x P N
n 1

n G x P N
n 0

n.

Algunas caracter sticas num ericas de la variable S se muestran a continuaci on.

1.4. Modelo colectivo

21

Proposici on 1.5 Suponiendo que las cantidades y funciones indicadas existen, el riesgo S en el modelo colectivo cumple las siguientes propiedades. 1. E S 2. E S 2 3. 4. E N E Y . E N E Y 2 E N N

1E 2Y . VarS VarN E 2 Y VarY E N . MS t MN ln MY t .

Demostraci on. 1. Condicionaremos sobre el valor de N y despu es usaremos la hip otesis de independencia. El resultado del c alculo es el mismo cuando la variable N inicia en el valor 0 o en el valor 1. E S

n 0

E E

N j 1 n

Yj N Yj N

n P N n P N n

n n

n 0

j 1

n 0

nE Y P N

E N E Y .

22

1. El modelo individual y el modelo colectivo

2. Nuevamente condicionando sobre el valor de N ,

E S 2

n 0

E E E

N j 1 n

Yj 2 N Yj 2 N Yj 2 P N

n P N n P N n

n n

n 0

n 0

j 1 n j 1

n 0

n j 1

E Yj2

n
j,k 1

E Yj Yk P N

n.

j k

Observe que segunda suma es nula cuando n 0 y a su vez la tercera suma se anula cuando n 0 o 1. As , por la id entica distribuci on tenemos que

E S 2

n 0

nE Y 2 P N

n 0

nn 1 E 2 Y P N

E N E Y 2 E N N

1 E 2Y .

3. Por las f ormulas anteriores,

VarS

E S 2 E 2 S

E N E Y 2 E N N

1 E 2Y E 2N E 2 Y E N E Y 2 E 2 Y E N 2 E 2 N E 2 Y E N VarY Var N E 2 Y .

1.4. Modelo colectivo 4. De manera an aloga a los dos primeros incisos, MS t

23

n 0

E erY1 YN N E erY1 Yn P N

n P N n

n 0

MY tn P N

n 0

E MY tN

E eN lnMY t

MN lnMY t.

V ease la secci on de ejercicios para los terceros momentos de S . Consideraremos a continuaci on algunos casos particulares del modelo colectivo.

Modelo binomial compuesto


Cuando el n umero de reclamaciones N tiene una distribuci on binn, p se dice que el riesgo S tiene una distribuci on binomial compuesta, y se escribe S bin compn, p, G, en donde G es la funci on de distribuci on de cada sumando en la denici on de S . Bajo esta hip otesis se tienen los siguientes resultados. Proposici on 1.6 Si N tiene distribuci on binn, p, entonces a) E S b) E S 2 c) VarS d) MS t np. np2 n 1p2 . np2 p2 .

1 p pMY tn.

24

1. El modelo individual y el modelo colectivo

Estas expresiones se siguen f acilmente de las f ormulas generales demostradas antes, basta recordar que si N tiene distribuci on binn, p, entonces E N np, VarN np1 p, y MN t 1 p pet n. V ease la secci on de ejercicios para los terceros momentos de este modelo. Observe que en este caso se tiene una cota superior para el n umero de reclamaciones que pueden efectuarse.

Modelo binomial negativo compuesto


Cuando el n umero de reclamaciones N tiene una distribuci on binomial negativa se dice que el riesgo S tiene una distribuci on binomial negativa compuesta. Esto es, si N bin negk, p, entonces S bin neg compk, p, G, donde nuevamente G hace referencia a la funci on de distribuci on de cada sumando de S . En este caso se cumple lo siguiente. Proposici on 1.7 Si N tiene distribuci on bin negk, p, entonces a) E S b) E S 2 c) VarS d) MS t k 1p 1. k 1p 12 k 11p 12 . k 1p 12 1p 12 . p 1 1 pMY t

Para encontrar estas f ormulas es suciente recordar que si N tiene distribuk 1 pp, VarN k 1 pp2 , y ci on bin negk, p, entonces E N k t on de ejercicios se presenta el tercer MN t p1 1 pe . En la secci on momento de este modelo. En el caso particular cuando k 1, la distribuci de N se reduce a la distribuci on geom etrica de par ametro p y se dice que S tiene distribuci on geom etrica compuesta.

1.5. Modelo colectivo Poisson

25

Modelo Poisson compuesto


Cuando el n umero de reclamaciones N tiene una distribuci on Poisson se dice que el riesgo S tiene una distribuci on Poisson compuesta, y se escribe S Poisson comp, G, en donde es el par ametro de la distribuci on Poisson y G es la funci on de distribuci on de cada sumando de S . Para este modelo se tienen los siguientes resultados. Proposici on 1.8 Si N tiene distribuci on Poisson, entonces a) E S b) E S 2 c) VarS d) MS t . 2 2 2 . 2 . exp MY t 1 .

Nuevamente estas expresiones son consecuencia de las f ormulas generales demostradas antes, y del hecho de que si N tiene distribuci on Poisson, entonces E N , VarN , y MN t expet 1. V ease la secci on de ejercicios para los terceros momentos de este modelo. Observe que el par ametro y la distribuci on de la variable Y determinan por completo al modelo Poisson compuesto. Estudiaremos con m as detalle este modelo en la siguiente secci on.

1.5.

Modelo colectivo Poisson

En esta secci on retomamos el caso cuando el n umero de reclamaciones en el modelo colectivo sigue una distribuci on Poisson. Primeramente explicaremos la forma en la que se puede obtener un modelo colectivo Poisson a partir del modelo individual. Despu es mostraremos c omo este modelo Poisson compuesto aproxima al modelo individual. Finalmente estudiaremos algunas propiedades interesantes y u tiles del modelo colectivo Poisson.

26

1. El modelo individual y el modelo colectivo

Modelo Poisson compuesto asociado al modelo individual


n Considere el modelo individual de riesgo S i j 1 Dj Cj , junto con la notaci on e hip otesis correspondientes. El super ndice i indica que se trata de un modelo individual. A partir de este modelo se construye a continuaci on un modelo colectivo con distribuci on Poisson compuesta. Para ello recuerde que u nicamente se necesita establecer el valor del par ametro de la distribuci on Poisson y la funci on de distribuci on Gx del monto de las reclamaciones. Sean entonces

y G x

n j 1 n j 1

qj , Gj x,

(1.4) (1.5)

qj

on de distribuci on de la variable Cj . Haremos en donde Gj x es la funci algunas observaciones sobre estas deniciones. a) Mediante la primera igualdad se establece que el n umero esperado de reclamaciones en ambos modelos es el mismo. b) En la segunda ecuaci on se dene a la funci on de distribuci on de una reclamaci on en el modelo colectivo como el promedio ponderado de las funciones de distribuci on del monto de todas las reclamaciones en el modelo individual, siendo las ponderaciones los factores q1 , . . . , qn . Como estos n umeros conforman una distribuci on de probabilidad, el promedio resulta ser una funci on de distribuci on. Observamos que al agregar los distintos tipos de riesgo Cj del modelo individual para formar el modelo colectivo con reclamaciones Yj independientes e id enticamente distribuidas, se pierde el comportamiento individual de los riesgos. As , en la proporci on en la que el j - esimo riesgo individual se agrega, esto es qj , as es su contribuci on en la funci on de distribuci on de las reclamaciones en el modelo colectivo.
N De esta forma se construye el modelo colectivo S c j 1 Yj , al cual llamaremos modelo colectivo Poisson compuesto asociado al modelo individual, en donde el super ndice c indica que se trata de un modelo colectivo. Para este modelo particular se cumplen las siguientes igualdades:

1.5. Modelo colectivo Poisson a) E S c b) VarS c c) E Y k d) MY t


n j 1 n j 1 n qj j 1 k E Cj . 2 . qj E Cj

27

qj E Cj .

n qj j 1

MCj t.

Estas expresiones se siguen directamente de resultados previos acerca del modelo Poisson compuesto y de las igualdades (1.4) y (1.5). Por ejemplo, usando integrales de Riemann-Stieltjes (v ease el Ap endice que aparece al nal del texto), el k - esimo momento de una reclamaci on del modelo S c es, E Y
k

y dGy
k

n qj
j 1

y k dGj y

n qj j 1

k . E Cj

De manera an aloga se verican las otras identidades. A modo de comparaci on se tiene que E S i E S c , mientras que VarS i VarS c .

El modelo Poisson compuesto asociado como l mite del modelo individual: primera argumentaci on
Sea S i el riesgo en un modelo individual y sea S c el riesgo del modelo colectivo Poisson compuesto asociado. Demostraremos que este modelo colectivo puede ser obtenido como un proceso l mite en el modelo individual. Consideremos entonces el modelo individual junto con la notaci on e hip otesis usuales. Por resultados previos sabemos que MS i t
n j 1

1 qj MC t 1.
j

Sea k un entero positivo cualquiera. De manera articial y te orica se construye ahora un nuevo portafolio de asegurados con las siguientes caracter sticas:

28

1. El modelo individual y el modelo colectivo

cada p oliza j de las n originales se reemplaza por k subp olizas id enticas, en cada una de las cuales la probabilidad de reclamaci on se dene como qj k , y la funci on de distribuci on del monto de una reclamaci on es la misma Gj y . V ease la Figura 1.9. En consecuencia, el portafolio consiste ahora de kn subp olizas en donde la probabilidad de reclamaci on en cada una de ellas es menor. No es de sorprenderse entonces que al hacer k tender a innito se obtenga un modelo Poisson.

Subp oliza 1 P oliza

..........

....... ....... ....... .......


Subp oliza k

..........

Figura 1.9
i denota el riesgo asociado al portafolio modicado, De este modo, si Sk entonces se tiene que

MS i t
k

n j 1

1 qkj MC t 1k .
j

Se hace ahora tender k a innito y usando el resultado l m 1 xk k se obtiene


k k

ex

l m MS i t
k

n j 1

exp qj MCj t 1
n j 1

exp

qj MCj t

exp MY t 1 MS c t. Puesto que la convergencia de funciones generadoras de momentos es equivalente a la convergencia en distribuci on de las correspondientes variables

1.5. Modelo colectivo Poisson

29

aleatorias, se obtiene entonces que el modelo colectivo Poisson compuesto asociado es el l mite en distribuci on del modelo individual cuando el n umero de p olizas crece y las probabilidades de reclamaci on son cada vez m as peque nas. As , el argumento presentado en esta secci on justica el uso del modelo Poisson compuesto en el caso cuando el portafolio es grande y las probabilidades de reclamaci on son peque nas. Para reforzar esta idea, el argumento informal que presentamos en el siguiente p arrafo tambi en favorece al modelo Poisson compuesto bajo las condiciones l mites mencionadas.

El modelo Poisson compuesto asociado como l mite del modelo individual: segunda argumentaci on
Recordemos nuevamente que la funci on generadora de momentos del riesgo S i es MS i t
n

1 qj MC t 1.
j

j 1

no para valores peque nos Observemos que el t ermino qj MCj t 1 es peque de t. Usando la f ormula ln1 x x x2 2 x3 3 , se puede escribir la aproximaci on ln1 x x. De modo que lnMS i t
n j 1 n

ln1 qj MCj t 1 qj MCj t 1


n qj

j 1

en donde

j 1

MCj t 1 ,

q1 qn . Por lo tanto, MS i t exp


n qj j 1

MCj t 1 .

Esta f ormula corresponde a la funci on generadora de momentos del riesgo con distribuci on Poisson compuesta, en donde los montos de las reclamaqj ciones tienen funci on generadora de momentos n j 1 MCj t.

30

1. El modelo individual y el modelo colectivo

Modelo Poisson compuesto con varios tipos de riesgos


Demostraremos ahora que la suma de riesgos independientes que siguen el modelo Poisson compuesto tambi en es Poisson compuesto. Esta es una propiedad bastante u til y generaliza el resultado de probabilidad que establece que la suma de dos variables aleatorias independientes con distribuci on Poisson tiene nuevamente distribuci on Poisson.

Proposici on 1.9 Sean S1 y S2 dos riesgos independientes con distribuci on Poisson compuesta con par ametros 1 y 2 , y reclamaciones Y 1 y Y 2 con funci on de distribuci on G1 x y G2 x respectivamente. Entonces el riesgo S S1 S2 tambi en sigue una distribuci on Poisson compuesta con par ametro 1 2 , y las reclamaciones tienen funci on de distribuci on Gx 1 2 G 1 x G2 x.

Demostraci on. MS1 S2 t

Por independencia tenemos que MS1 tMS2 t exp1 MY 1 t 1 exp2 MY 2 t 1 1 2 exp MY 1 t MY 2 t 1,

2 1 on generadora de momentos de en donde MY 1 t MY 2 t es la funci 1 2 la funci on de distribuci on Gx G1 x G2 x.

El resultado anterior puede extenderse f acilmente al caso S V ease el enunciado del ejercicio 40 en la p agina 41.

S1 Sn .

Modelo Poisson compuesto con reclamaciones clasicadas


Sea S un riesgo con distribuci on Poisson compuesta de par ametro . Suponga que los montos de las reclamaciones pueden ser clasicadas en m categor as excluyentes y exhaustivas denotadas por A1 , . . . , Am . T picamente estas categor as pueden ser intervalos de valores para las reclamaciones. Sea

1.5. Modelo colectivo Poisson

31

pk P Y Ak 0 tal que p1 pm 1. Sea Nk el n umero de reclamaciones del tipo k . Entonces N N1 Nm y debido a la independencia de los montos en las reclamaciones, el vector N1 , . . . , Nm tiene una distribuci on condicional multinomialp1 , . . . , pm ; n cuando N n, es decir, para enteros no negativos n1 , . . . , nm tales que n1 nm n, la distribuci on multinomial establece que P N1 n1 , . . . , Nm nm N n

n1

nm
n!

nm 1 pn 1 pm

n1 ! nm !

nm 1 pn 1 pm .

La distribuci on no condicional del vector N1 , . . . , Nm es el contenido del siguiente resultado.

Proposici on 1.10 Las variables aleatorias N1 , . . . , Nm son independientes y cada variable Nk tiene distribuci on Poissonpk .

Demostraci on. Sean n1 , . . . , nm enteros no negativos cualesquiera y sea n la suma de todos estos n umeros, es decir, n1 nm n. Entonces P N1 n 1 , . . . , Nm nm P N 1 P N 1 n 1 , . . . , N m n m N n n! n m 1 p pn e m n1 ! nm ! 1 n! n pk nk epk . nk ! k 1 n 1 , . . . , Nm nm , N n nP N n

Se desprende de esta igualdad que la variable Nk tiene distribuci on marginal Poissonpk . De esta identidad se verica tambi en la independencia. Observe que, condicionadas al evento N n, las variables N1 , . . . , Nm no son independientes, mientras que sin tal condici on, lo son. Por otro lado, como los montos de las reclamaciones son independientes de N , el riesgo de

32

1. El modelo individual y el modelo colectivo

tipo k est a dado por la variable Sk en donde Yj


Nk k Yj , j 1

k es una variable aleatoria con funci on de distribuci on


G k x P Yj x Yj

Ak

P Yj x, Yj Ak . P Yj Ak

Por lo anterior, el riesgo Sk tiene distribuci on Poisson compuesta con par ametros pk y Gk x. En particular, cuando Ak xk1 , xk , con 0 x0 x1 xm , la funci on de distribuci on Gk x tiene la siguiente forma: Gk x

0 si x xk , Gx Gx k1 si xk1 x G x G x k k1
1 si x xk .

xk ,

Modelo Poisson compuesto mixto


Cuando el n umero de reclamaciones N tiene una distribuci on Poisson y el par ametro es a su vez una variable aleatoria, se dice que el riesgo S tiene una distribuci on Poisson compuesta mixta. Algunas caracter sticas de este modelo se muestran a continuaci on. Proposici on 1.11 Si N tiene distribuci on Poisson en donde es una variable aleatoria con funci on de distribuci on F , entonces a) P N b) E S c) E S 2 d) VarS e) MS t n

n dF . n!

E . E 2 E 2 2 . Var2 E 2 . M MY t 1.

1.6. Ejercicios

33

Para obtener las identidades que aparecen en esta proposici on es suciente condicionar sobre el valor de . V ease la secci on de ejercicios para los terceros momentos de este modelo.

Comentarios y referencias
Hemos presentado dos modelos de riesgo con caracter sticas distintas: el modelo individual y el modelo colectivo. En ambos casos se trata de una variable aleatoria a la cual le hemos llamado riesgo y que engloba el total de reclamaciones de un conjunto de asegurados durante un intervalo de tiempo arbitrario pero jo. Con el objetivo de cuanticar y tener control de estos riesgos, el problema central ha sido encontrar las caracter sticas num ericas de estas variables aleatorias y mejor a un, la distribuci on de probabilidad de ellas. As , hemos encontrado varias expresiones para algunas caracter sticas num ericas de estos dos modelos de riesgo. Hemos tambi en encontrado que, bajo ciertas condiciones, las f ormulas de De Pril pueden aplicarse para calcular la distribuci on de probabilidad exacta de un riesgo que sigue un modelo individual. Para completar estos primeros resultados, en el siguiente cap tulo veremos la f ormula de Panjer que nos permitir a aplicar un mecanismo recursivo para calcular la distribuci on de probabilidad exacta de un riesgo que sigue el modelo colectivo. El lector puede encontrar otras exposiciones sobre el modelo individual y colectivo en las siguientes referencias: Bowers et al. [7], Gerber [15], Klugman et al. [23].

1.6.

Ejercicios
Modelo individual 1. Considere el modelo individual para un portafolio de n p olizas de seguros. Bajo la notaci on e hip otesis usuales, demuestre que el n umero esperado de reclamaciones es q1 qn . 2. Para un modelo individual de riesgo, encuentre la distribuci on de probabilidad del n umero total de reclamaciones en una cartera de n asegurados cuando Dj tiene distribuci on Berq , es decir, qj q 0 es constante.

34

1. El modelo individual y el modelo colectivo 3. Considere el modelo individual de riesgo en donde Dj tiene distribuci on Berq , es decir, qj q 0 es constante. Suponga adem as que 0, es decir, se trata de una cada reclamaci on Cj es constante c misma suma asegurada para todos. Encuentre una expresi on para la esperanza y la varianza de S . 4. Considere el modelo individual para un portafolio de n p olizas de seguros de vida. Suponga que el j - esimo asegurado tiene una suma asegurada constante cj . Demuestre que: a) E S b) VarS
n

qj c j . qj pj c 2 j.

j 1 n

j 1

5. Demuestre que si f1 x, . . . , fn x son funciones diferenciables que no se anulan, entonces n n n fj x d fj x fj x . dx j 1 f x j j 1 j 1 Use esta f ormula y la expresi on encontrada para MS t en el modelo individual de riesgo para encontrar nuevamente E S y VarS . 6. Para un riesgo S que sigue el modelo individual demuestre que: a) E S2
n j 1 n

2 q j E C j

i j

qi qj E Ci E Cj .
2 qi qj E Ci E Cj

b) E S 3

3 q j E C j 3

j 1

qi qj qk E Ci E Cj E Ck .

i j

i,j,k

distintos

7. Suponga que D y C son dos variables aleatorias independientes tales que D tiene distribuci on Berq y C se distribuye exp. Calcule y graque la funci on de distribuci on de la variable aleatoria mixta DC .

1.6. Ejercicios

35

8. Para el modelo individual, suponga que Dj tiene distribuci on Berq , es decir, qj q 0 es constante. Encuentre la distribuci on del on de proriesgo S cuando n 3 y Cj tiene la siguiente distribuci babilidad: P Cj P Cj P Cj 1 2 3 0.6, 0.3, 0.1.

9. Considere un portafolio de 21 p olizas individuales de seguros de vida v alidas por un a no como se indica en la tabla que aparece abajo. Usando el modelo individual calcule E S y VarS .
Tasa de mortalidad qj 0.04 0.05 0.06 Suma asegurada $2 $3 $4 $5 1 1 2 1 0 2 3 3 1 1 2 4

10. Sean qj,0 , qj,1 y qj,2 las probabilidades de que el j - esimo asegurado presente 0, 1 y 2 reclamaciones respectivamente durante el tiempo de vigencia del seguro. Suponga que cada una de las posibles reclamaciones de la p oliza j es constante zj y que qj,0 qj,1 qj,2 1. Encuentre f ormulas para E S y VarS en el modelo individual. 11. Una compa n a aseguradora tiene una cartera con p olizas de seguros de vida y diferentes sumas aseguradas como se muestra en la tabla que aparece abajo. Calcule E S y VarS usando el modelo individual.
Suma asegurada $10,000 $20,000 $30,000 N umero de p olizas 50 75 100 Probabilidad de reclamaci on 0.0040 0.0035 0.0030

36

1. El modelo individual y el modelo colectivo 12. Considere el modelo individual de riesgo para una cartera de n 56 asegurados divididos en cinco subgrupos de la siguiente forma: 11 asegurados con probabilidad de reclamaci on q 0.01, 7 asegurados con q 0.015, 20 asegurados con q 0.02, 10 asegurados con q 0.025 y 8 asegurados con q 0.03. Todos ellos con suma asegurada $100. Calcule el valor esperado del agregado de reclamaciones del riesgo correspondiente a esta cartera de asegurados. 13. Para el modelo individual, suponga que Dj tiene distribuci on Berq , es decir, qj q 0 es constante, y que cada reclamaci on Cj tiene distribuci on exp. Encuentre la distribuci on de probabilidad del riesgo S .
n 14. Considere el modelo individual de riesgo S j 1 Dj Cj , en donde C1 , C2 , . . ., Cn son constantes posiblemente distintas todas ellas, y cada Dj tiene distribuci on Berqj para j 1, 2, . . . , n.

a) Demuestre que la funci on de probabilidad de la variable Dj Cj es 1 qj si x 0, q si x Cj , fDj Cj x 0j en otro caso. b) Dena Sj Sj 1 Dj Cj para j 2, 3, . . . , n y S1 D 1 C1 . Demuestre que la funci on de probabilidad de la variable Sj puede calcularse recursivamente de la siguiente forma: para j 2, 3, . . . , n, fSj x

1 q j f S x q j f S x C j .
j 1 j 1

15. Considere el modelo individual de riesgo en donde todas las tasas de muerte qj son una misma probabilidad q y los montos de las reclamaciones son iguales a 1. Verque que las f ormula generales de la Proposici on 1.2 se reducen a las de la distribuci on binomialn, q , es decir, b) VarS a) E S nq . nq 1 q .

1.6. Ejercicios c) MDj Cj t 1 q qet .

37

d) MS t

1 q qet n .

F ormula de De Pril 16. Demuestre que la f ormula recursiva de De Pril [ii] produce efectivamente una funci on de probabilidad. 17. A partir de la f ormula de De Pril [ii] y siguiendo la misma notaci on de dicho enunciado, demuestre que: b) VarS a) E S nE X . nVarX .

18. Sean X1 , X2 , X3 , X4 variables aleatorias independientes con distribuci on com un como aparece en la tabla de abajo. Encuentre la distribuci on de X1 X2 X3 X4 . j fj 0 0.1 1 0.2 2 0.3 3 0.4

19. Sean X1 , . . . , Xn variables aleatorias independientes con distribuci on Berp. Mediante la f ormula de De Pril [ii] compruebe que la on binn, p. variable S X1 Xn tiene distribuci 20. Sean X1 y X2 dos variables aleatorias independientes con id entica distribuci on Poisson. Use la f ormula de De Pril [ii] para demostrar que X1 X2 tiene distribuci on Poisson2. 21. Sean X1 y X2 dos variables aleatorias independientes con id entica distribuci on binn, p. Use la f ormula de De Pril [ii] para demostrar on bin2n, p. que X1 X2 tiene distribuci x n m nm Sugerencia: . j j x x j 0 22. Variaci on de la f ormula de De Pril [ii]. Suponga que las variables aleatorias X1 , . . . , Xn en la f ormula de De Pril [ii] son estrictamente positivas y toman valores en el conjunto 1, 2, . . ., con f1 P X

38

1. El modelo individual y el modelo colectivo 1 0. Demuestre que la distribuci on de S es la siguiente: a) gn b) gxn X1 Xn ahora

f1n .
1 f1

x j n 1 j 1

fj 1 gxnj ,

para x

1.

V ease el siguiente ejercicio para una extensi on de esta f ormula. 23. Extensi on de la f ormula de De Pril [ii]. Suponga que las variables aleatorias X1 , . . . , Xn son independientes e id enticamente distribuidas pero ahora con valores en el conjunto m, m 1, . . . para alg un entero m 1. Sea nuevamente S X1 Xn , fj P X j para j m, con fm 0, y gx P S x para x nm. Demuestre que: a) gnm b) gx

fmn .
1 fm
x nm j 1

j n 1 x nm

fj m gxj ,

para x

nm 1.

Sugerencia: las variables Xi m, para i 1, . . . , n, ahora ya tienen soporte en el conjunto 0, 1, . . ., aplique entonces la f ormula de De Pril [ii] demostrada y un cambio de variable adecuado. Modelo colectivo 24. Para el modelo colectivo de riesgo demuestre que E S 3 E N E Y 3 3E N N

1E Y E Y 2 E N N 1N 2E 3Y .

25. Suponga que las variables Y1 , Y2 , . . . en el modelo colectivo de riesgo son discretas con valores en el conjunto 1, 2, . . .. Sea fj P Y j para j 1, gx P S x para x 0, y pn P N n para n 0. Demuestre que: a) g0 p0 .

1.6. Ejercicios

39

b) gx

n fx pn , para x
n 1

1.

26. A partir de la f ormula encontrada para MS t en el modelo colectivo de riesgo, encuentre nuevamente las expresiones para E S , E S 2 y VarS .
N 27. Considere el modelo colectivo de riesgo S j 1 Yj , en donde on log N tiene distribuci on Poisson y Y sigue una distribuci 2 normalm, . Demuestre que:

b) E Y n d) e) f)

a) E Y

exp 2 2 m.

c) VarY

1 exp 2m. E S exp 2 2 m. VarS exp2 2 2m. E S E S 3 1 exp3 2 2. 3 : VarS 32


2 e

expnm n2 2 2,

1.

28. Transformada de Laplace-Stieltjes. La transformada de LaplaceStieltjes de una variable aleatoria X o de su funci on de distribuci on se dene como la funci on lX t E etX

Sea PN t la funci on generadora de probabilidad de la variable N . Demuestre que para el modelo colectivo de riesgo se cumple la identidad lS t PN lY t. on generadora de probabilidad de una 29. Sea PX t E tX la funci variable aleatoria discreta X . Considere un modelo colectivo de riesgo en donde las reclamaciones son discretas con valores en 0, 1, . . .. Suponiendo la existencia de las funciones involucradas, demuestre que se cumple la identidad PS t PN PX t.

etx dFX x.

40

1. El modelo individual y el modelo colectivo Modelo binomial compuesto 30. Verique la validez de las f ormulas para el modelo binomial compuesto que aparecen en la Proposici on 1.6 de la p agina 23. 31. Para el modelo binomial compuesto, demuestre las siguientes f ormulas: b) E S E S 3 c) 3 : a) E S 3 nn 1p2 n 2p2 32 np3 . np3 3p2 2p2 3 . 0.

E S E S 3 VarS 32

32. Sean S1 y S2 dos riesgos independientes con distribuci on binomial compuesta con par ametros n1 , p; G y n2 , p; G respectivamente. en sigue una distribuci on Demuestre que el riesgo S1 S2 tambi binomial compuesta con par ametros n1 n2 , p; G. Modelo binomial negativo compuesto 33. Verique la validez de las f ormulas para el modelo binomial negativo compuesto de la Proposici on 1.7 en la p agina 24. 34. Para el modelo binomial negativo compuesto, demuestre las siguientes f ormulas: a) E S 3 k k 1k 21p 13 3 3k k 11p 12 2 k1p 13 . k 1p 13 3k 1p 12 2 2k1p 133. 0.

b) E S E S 3 c) 3 :

35. Sea N con distribuci on bin negk, p. Demuestre que: a) P N b) P N 0 pk . n 1 kn 1 p P N n1 n,

E S E S 3 VarS 32

para n

0.

1.6. Ejercicios Modelo Poisson compuesto

41

36. Verique la validez de las f ormulas para el modelo Poisson compuesto que aparecen en la Proposici on 1.8 de la p agina 25. 37. Para el modelo Poisson compuesto, demuestre las siguientes f ormulas: b) E S E S 3 c) 3 : a) E S 3 3 32 2 3 3 . 3 . 3 3 2 0.

E S E S 3 VarS 32

38. Demuestre las f ormulas para el modelo Poisson compuesto asociado de la p agina 26. 39. Sean F1 x y F2 x dos funciones de distribuci on con funciones generadoras de momentos M1 t y M2 t respectivamente. Demuestre on F1 x 1 F2 x es que para cualquier 0, 1, la funci una funci on de distribuci on cuya funci on generadora de momentos asociada es M1 t 1 M2 t. Este resultado fue utilizado en el an alisis de la suma de dos riesgos con distribuci on Poisson compuesta. 40. Sean S1 , . . . , Sn riesgos independientes con distribuci on Poisson compuesta con par ametros 1 , . . . , n , respectivamente. Suponga que los montos de las reclamaciones de estos riesgos son Y 1 , . . . , Y n , con funci on de distribuci on G1 x, . . . , Gn x, respectivamente. Demuestre que el riesgo S S1 Sn tambi en sigue una distribuci on Poisson compuesta con par ametro 1 n , y la funci on de distribuci on de las reclamaciones es Gx 1 n G 1 x Gn x.

41. Sean S1 y S2 dos riesgos independientes, el primero con distribuci on 50, y el segundo con distribuci on Poisson comp1 , F1 con 1 Poisson comp2 , F2 con 2 100, en donde F1 x m nx, 1 para x 0, y F2 x 1 ex para x 0. Encuentre la distribuci on

42

1. El modelo individual y el modelo colectivo de S S1 S2 y la funci on de distribuci on de las reclamaciones del riesgo S . 42. Sean S1 y S2 dos riesgos independientes con distribuci on Poisson 10, y el secompuesta, el primero Poisson comp1 , F1 con 1 gundo Poisson comp2 , F2 con 2 20. Suponga que las reclamaciones de ambos riesgos son de magnitud 50 o 100, y por lo tanto tienen la siguiente funci on de distribuci on: F x

0 si x 50, p si 50 x 100, 1 si x 100.

Suponga que el par ametro p es igual a 12 para el primer riesgo y es 13 para el segundo riesgo. Encuentre la distribuci on de S S1 S2 y la funci on de distribuci on de las reclamaciones del riesgo S . 43. Sea X1 , X2 , . . . una sucesi on de variables aleatorias independientes cada una de ellas con distribuci on Berp y sea X0 0. Sea N otra variable aleatoria con distribuci on Poisson independiente de las anteriores. Dena la variable X
N i 0

Xi .

Demuestre que X tiene distribuci on Poissonp. Esta variable tiene la siguiente interpretaci on: si N representa el total de siniestros ocurridos y cada siniestro es reportado con probabilidad p, entonces X representa el total de siniestros ocurridos y reportados. 44. Sea Y una variable aleatoria con funci on de distribuci on F y , y sean a b dos n umeros tales que F a F b. Demuestre que la funci on de distribuci on condicional de Y dado el evento Y a, b es 0 si y a, F y F a si a y b, F y Y a, b F b F a 1 si y b.

1.6. Ejercicios

43

Aplique este resultado al caso cuando Y tiene distribuci on exp. Encuentre y graque ambas funciones de distribuci on: la original y la condicional. Modelo Poisson compuesto mixto 45. Verique la validez de las f ormulas de la Proposici on 1.11 de la p agina 32. 46. Para el modelo Poisson compuesto mixto, demuestre que: b) E S E S 3 a) E S 3 E 3 3E 2 2 E 3 3 . E E 3 3 3Var2 E 3 .

Esperanza condicional on de probabili47. Sea X, Y un vector aleatorio discreto con la funci dad x y36 si x, y 1, 2, 3, fX,Y x, y 0 en otro caso. b) Compruebe que E E X Y a) Encuentre la distribuci on de la variable aleatoria E X Y . E X 7836.

Cap tulo 2

F ormula de Panjer y algunos m etodos de aproximaci on


En este cap tulo se presenta la famosa f ormula de Panjer. Este resultado proporciona una expresi on exacta, aunque recursiva, de la distribuci on de probabilidad de un riesgo en el modelo colectivo y es v alida cuando la distribuci on del n umero de reclamaciones y los montos cumplen ciertas condiciones. Se presentan adem as algunos m etodos de aproximaci on con validez general para estimar la distribuci on de un riesgo. Estos m etodos generales de aproximaci on pueden ser u tiles cuando no se cumplen las condiciones requeridas para aplicar la f ormula de Panjer.

2.1.

F ormula de Panjer

Primeramente se enuncia la condici on que debe satisfacer el n umero de reclamaciones para obtener la f ormula de Panjer.

45

46

rmula de Panjer y me todos de aproximacio n 2. Fo

Proposici on 2.1 Sea N una variable aleatoria discreta con valores en 0, 1, . . . y sea pk P N k para k 0, 1, . . . Sean a y b dos constante. Entonces la igualdad pk se cumple cuando 1. N es binn, p, con a 2. N es Poisson, con a 3. N es bin negr, p, con a b a k pk1, k 1, (2.1)

p1 p y b n 1p1 p.
0yb . 1p y b

r 11 p.

La demostraci on de este resultado es inmediata despu es de realizar algunos c alculos algebraicos sencillos y se dejan como ejercicio al lector. Toda distribuci on de probabilidad con soporte en 0, 1, . . . que cumple la identidad (2.1) se le llama distribuci on de clase a, b, 0, los t erminos a y b se reeren a las constantes del mismo nombre que aparecen en la f ormula (2.1) y el cero se reere a que la probabilidad de inicio de la f ormula recursiva es aquella que tiene sub ndice cero, es decir, p0 . Observe que la identidad (2.1) es muy atractiva, pues permite generar la distribuci on de probabilidad de estas variables aleatorias discretas de una forma recursiva: se calcula primero p0 , a partir de ella se obtiene p1 , a partir de p1 se obtiene p2 , y as sucesivamente. Supondremos entonces que la distribuci on del n umero de reclamaciones cumple con la condici on (2.1) y la proposici on establece que tal condici on es v alida para las tres distribuciones se naladas. En el ejercicio 48 en la p agina 61 se pide demostrar el resultado rec proco de la proposici on anterior, es decir, que las u nicas distribuciones discretas de probabilidad no degeneradas que cumplen (2.1) son las tres mencionadas. Recordando la notaci on e hip otesis del modelo colectivo de riesgo S N Y , denido en el cap tulo anterior, tenemos las siguientes hip otesis j j 1 y notaci on adicionales: supondremos que las reclamaciones Yj son tales que

rmula de Panjer 2.1. Fo

47

P Yj 1, lo cual no es ning un problema pues puede considerarse que las reclamaciones se efect uan en unidades monetarias, cualesquiera que estas sean. En los c alculos que haremos a continuaci on usaremos los siguientes s mbolos: Notaci on pk fr gr f k
r

P Y

P N

P S

P Y1 Yk r

k r

k r 1 r r,

0, 1, . . . 1, 2, . . . k r 1, 2, . . . 0, 1, . . .

En particular, para 1

k1

k1 fr
Adem as, g0 P S P S r 0

f k f r
0 r N

r 1 i 1

fik fri .
1, k

P N

p0 y para r k P N

gr

k 1

P S

k fr pk .
k 1

Proposici on 2.2 Bajo la notaci on e hip otesis anteriores, se cumplen las siguientes igualdades: 1. E Y1
k j 1

Yj
r 1

r , para k k

1.

k 2. pk fr

pk1

i 1

a bi f k1 fi, r ri

para k

2.

48 Demostraci on.

rmula de Panjer y me todos de aproximacio n 2. Fo Para el primer inciso, por id entica distribuci on,
k j 1

E Y1

Yj

1 k

k i 1

E Yi
k i 1

k j 1

Yj

1 E k r . k

Yi

k j 1

Yj

Para el segundo inciso desarrollamos el lado derecho,


r 1

pk1

i 1

a bi f k1fi r ri

pk1 pk1 pk1 pk1

i 1 r

a bi P Y2 Yk r a bi P Y1 r a
bi P Y1 r
k j 1

r iP Y1 r i

i, Y2 Yk i, Yj r

i 1 r i 1

i 1

a bi P Y1 r
bY1 r
k j 1

k j 1

Yj

k r f r

pk1 E a pk1 a

Yj

k rfr

k pk fr

b k f k r

Ahora estamos listos para enunciar y demostrar la f ormula de Harry Panjer [27], publicada en 1981.

rmula de Panjer 2.1. Fo

49

Teorema 2.1 (F ormula de Panjer) Para un riesgo S que sigue el modelo colectivo en donde las reclamaciones Y son de la clase a, b, 0, la probabilidad gr P S r est a dada por gr g0 en donde p0 P N
r i 1

a bi fi gri, r
P Y

para r

1.

p0 , 0 y fi i para i 1.

Demostraci on. el caso r 1, gr

Hemos observado antes que g0

P N

p0 . Para

k 1

P S

r N

k P N

k pk fr

k 2

k 1

p1 fr

k pk fr 1 r
k 2i 1 r 1 k1 a bi pk1 fr i fi r

a b p0 fr a b p0 fr a b p0 fr
r i 1

i 1 r 1 i 1

a bi fi r

k 2

pk1 fri

k1

a bi f i g r i r

a bi fi gri. r

50

rmula de Panjer y me todos de aproximacio n 2. Fo

Observe que cuando las reclamaciones son constantes y unitarias, es decir, f1 P Y 1 1, entonces S N y la f ormula de Panjer se reduce on a la f ormula recursiva (2.1) de las distribuciones a, b, 0. A continuaci escribimos expl citamente los primeros t erminos de la f ormula recursiva de Panjer: g0 g1 g2 g3 . . . Ejemplo 2.1 Consideremos el caso cuando N sigue una distribuci on Poisson de par ametro 3.5 y el monto de las reclamaciones tiene la siguiente funci on de densidad: r fr 1 0.1 2 0.1 3 0.2 4 0.3 5 0.3 p0

a a a

P N 0 b f1g0 1 b f1g1 a 2 b f1g2 a 3

2b f 2 g 0 2 2b 3b f2 g1 a f3 g0 3 3

Entonces la f ormula de Panjer produce la funci on de probabilidad para S que se muestra en la Figura 2.1. El c odigo en R correspondiente se encuentra en el ap endice.

Aproximaci on en el caso de reclamaciones continuas


Cuando los montos de las reclamaciones toman valores continuos, puede usarse el siguiente m etodo de discretizaci on de estos montos para poder aplicar la f ormula de Panjer. Se toma cualquier unidad monetaria 0 y se denen las variables aleatorias enteras: Yj y Yj nf n : Yj sup n : Yj 0. Entonces, Yj Y j . n , n ,

en donde tambi en se dene nf Y j

rmula de Panjer 2.1. Fo

51

gr

0.03

r 5 10 Figura 2.1 15 20

Por ejemplo, para la situaci on que se muestra en la Figura 2.2 se tiene que Y j 4 y Y j 3, y efectivamente se cumple que 3 Yj 4.
Yj 0 2 3 4 5

Figura 2.2 Se denen entonces los siguientes riesgos cuyas reclamaciones ahora son enteras: S Entonces se cumple que S S S, (2.2)
N j 1

Y j,

N j 1

Y j.

de donde obtendremos el siguiente resultado.

52

rmula de Panjer y me todos de aproximacio n 2. Fo

Proposici on 2.3 Para cualquier x P S x P S

0, x P S x.

Demostraci on.

Por (2.2) se cumple la contenci on de eventos

entonces se tiene que P S

P S

x x

P S

P S

x y por lo tanto, x.

x ,

Para la segunda desigualdad, se observa la contenci on de los eventos

S
y se procede de manera an aloga.

x ,

Esto provee de cotas superior e inferior, calculadas usando la f ormula de Panjer, para la funci on de distribuci on del riesgo. Conforme m as peque na sea la unidad monetaria mejor es la aproximaci on. Debe observarse, sin embargo, que surge una dicultad t ecnica para aquellas reclamaciones Yj con valores en 0, , pues estas reclamaciones llevan a la denici on Y j 0, lo cual no es un caso contemplado en el esquema de la f ormula de Panjer. En una situaci on real, el monto de las reclamaciones es grande comparado con el valor del par ametro , de modo que la probabilidad de que una reclamaci on tome un valor entre 0 y es realmente muy peque na. Existe tambi en un caso particular simple que es cuando 1, es decir, se aproximan las reclamaciones mediante valores enteros. Ejemplo 2.2 (Aproximaci on con reclamaciones enteras) Para cada valor de una reclamaci on Yj existe un entero n 0 tal que n Yj n 1, y por lo tanto, Y j n, y Y j n 1. Entonces se tienen nuevamente las relaciones S para cualquier x 0, P S x P S x P S S S y en consecuencia x ,

n normal 2.2. Aproximacio

53

en donde S y S son riesgos con reclamaciones enteras para los cuales puede aplicarse la f ormula de Panjer y obtener su distribuci on (exceptuando un peque no error obtenido por el caso Y j 0). En cualquier caso podemos ser prudentes y tomar las reclamaciones de manera sobreestimada: para n 0, Yj n1 cuando Y

n, n 1.

De esta forma cualquier valor continuo de una reclamaci on en el intervalo n, n 1 se considera como si fuera de magnitud n 1. Por lo tanto, los montos de las reclamaciones est an siendo ligeramente sobrevaluadas: si on de distribuci on de una reclamaci on Y cualquiera, Gx denota la funci entonces P Y j n 1 Gn 1 Gn, n 0, 1, 2, . . .

En las siguientes secciones estudiaremos algunos m etodos generales para aproximar la distribuci on de probabilidad de un riesgo en el modelo colectivo. Estas aproximaciones son muy generales y no presuponen el cumplimiento de las hip otesis para la validez de la f ormula de Panjer, es decir, el n umero de reclamaciones no necesariamente tiene una distribuci on en la clase a, b, 0, ni el monto de las reclamaciones es necesariamente discreto. Por otro lado, el problema de estimar el error en estas aproximaciones es muy general y no nos ocuparemos de ello.

2.2.

Aproximaci on normal

Si la distribuci on de probabilidad del n umero de reclamaciones N se concentra mayormente en valores grandes, entonces el teorema central del l mite sugiere aproximar la distribuci on del riesgo S mediante la distribuci on normal. Suponga que la esperanza de S es m y la varianza es 2 . Entonces, para x 0, P S x Sm xm xm . P

Derivando esta expresi on se encuentra una f ormula aproximada para la funci on de densidad de S .

54

rmula de Panjer y me todos de aproximacio n 2. Fo

Proposici on 2.4 (Aproximaci on normal) Sea S es una riesgo con me2 dia m y varianza nita . Para cualquier x 0, f S x 1 xm . (2.3)

Esta aproximaci on hace uso u nicamente de la media y la varianza del riesgo, y en general no es una buena aproximaci on a menos que la densidad del riesgo presente la forma de campana o bien el n umero de reclamaciones tenga una distribuci on tal que sea razonable aplicar el teorema central del l mite, esto es, cuando la distribuci on de probabilidad se concentre en un conjunto de valores grandes de la variable aleatoria. Por ejemplo, dada cualquier 0 sucientemente peque na, la aproximaci on podr a ser buena si los par ametros de la distribuci on de N son tales que P N 30 1 .

Se puede particularizar la aproximaci on normal cuando la distribuci on de N es conocida, por ejemplo, cuando el n umero de reclamaciones N sigue una distribuci on Poisson con par ametro , la aproximaci on (2.3) adquiere la expresi on 1 x . fS x 2 2 Otro caso particular se obtiene cuando N es binn, p, entonces la expresi on (2.3) se reduce a la f ormula siguiente P S x x np . np2 2 p

En el caso cuando N es bin negr, p se tiene que (2.3) es P S x x r1 pp . r1 p2 p 1 p2 p2

n gama trasladada 2.3. Aproximacio

55

2.3.

Aproximaci on gama trasladada

En algunos casos el histograma creado a partir de las observaciones hist oricas de un riesgo puede presentar un aspecto semejante a la forma de la distribuci on gama. Esta semejanza sugiere aproximar la distribuci on del riesgo S por la distribuci on de la variable aleatoria k Z, en donde k es una constante y Z es una variable aleatoria con distribuci on gama, . En los ejemplos concretos que hemos presentado en donde se ha calculado la distribuci on exacta del riesgo, usando la f ormula de De Pril o la f ormula de Panjer, puede constatarse que la distribuci on de algunos riesgos tienen alg un parecido con la distribuci on gama. Es por ello que se propone este m etodo de aproximaci on. Para llevar a cabo este procedimiento se deben escoger adecuadamente valores para los tres par ametros k, y , que determinan la distribuci on de k Z . Supongamos entonces conocidas o estimadas las siguientes cantidades: b) VarS c) a) E S m. 2. 3 .

E S E S 3 VarS 32

La correspondiente media, varianza y coeciente de asimetr a (de Fisher) de la variable aleatoria aproximante k Z son: b) Vark Z c) a) E k Z k . 2 .

La idea es hacer que las distribuciones de S y k Z coincidan en el sentido de que las tres cantidades mencionadas sean las mismas para las dos distribuciones. Haciendo coincidir estas cantidades se obtiene el sistema de ecuaciones 2 m, 2, 3 , k 2

E k Z E k Z 3 Vark Z 32

2 .

56 cuya soluci on es

rmula de Panjer y me todos de aproximacio n 2. Fo

2 , 3

4 2, 3

2 . 3

De esta forma se tiene la siguiente aproximaci on.

Proposici on 2.5 (Aproximaci on gama trasladada) La distribuci on del riesgo S en el modelo colectivo puede aproximarse mediante la distribuci on de la variable aleatoria m en donde Z se distribuye gama 2 3

Z,

2 4 . , 2 3 3

Pueden sustituirse las expresiones generales para la media, varianza y coeciente de asimetr a de un riesgo que sigue el modelo colectivo para obtener f ormulas un poco m as particulares de esta aproximaci on. Debe hacerse notar que la aproximaci on gama es en esencia la aplicaci on del m etodo de momentos para la estimaci on de par ametros y naturalmente el m etodo puede aplicarse a cualquiera otra distribuci on de probabilidad conocida que tenga alguna semejanza o parecido con la distribuci on del riesgo en estudio.

2.4.

Aproximaci on de Edgeworth

Considere un cierto riesgo S modelado mediante una variable aleatoria con esperanza m, varianza 2 y tal que su funci on generadora de momentos existe. Dena la variable Z S m , cuya esperanza es cero y varianza es 1. Sea MZ r la funci on generadora de momentos de Z . La serie de Taylor de la funci on ln MZ r alrededor de cero es ln MZ r a0 a1 r a2 2 a3 3 a4 4 r r r , 2! 3! 4!

n de Edgeworth 2.4. Aproximacio


dk dr k

57

. Calculando las derivadas en donde los coecientes son ak r 0 y evaluando en cero se encuentra que los primeros cinco coecientes son: a0 a1 a2 a3 a4 . . . 0,

ln MZ r

E Z E Z
2 3

1, E Z , E Z 4 3,

0,

La aproximaci on de Edgeworth consiste en truncar la serie de Taylor de un t ermino adecuado. Por ejemplo, la aproxila funci on ln MZ r hasta alg maci on hasta la cuarta potencia de r es ln MZ r Entonces MZ r 1 a3 a4 exp r2 r3 r4 2! 3! 4! a3 3 a4 4 r 2 2 e exp r r . 6 24 1 2 a3 3 a4 4 r r r . 2! 3! 4!

Ahora se usa la serie ex 1 x x2 2! x3 3! en el segundo factor y se obtiene la aproximaci on MZ r er er


2

2 1 a3 r3 a4 r4 a3 r6
6

24 72 a3 3 r2 2 a4 4 r2 2 a3 3 6 r 2 2 . 24 r e 72 r e r e 6

(2.4)

El siguiente paso es invertir cada t ermino de esta ecuaci on encontrando una distribuci on aproximada para Z . El resultado que utilizaremos es el siguiente.

58

rmula de Panjer y me todos de aproximacio n 2. Fo

Proposici on 2.6 Si x es la funci on de densidad de la distribuci on normal est andar, entonces para cualquier entero n 0,

erx 1n n x dx

r n er

2 .

Demostraci on.

Primeramente tenemos que para n

0,

erx x dx

er

2 ,

on generadora de momentos de la distribuci on nores decir, er 2 es la funci mal est andar. Multiplicando por r tenemos que re
r2 2

rerx x dx d rx e x dx dx erx x dx.

Es decir, rer 2 es la transformada de Laplace de x. Procediendo de manera an aloga, multiplicando sucesivamente por r, se llega a la f ormula anunciada. En particular, se ha demostrado que rer 2 es la transformada de Laplace de x. En este caso usamos el t ermino transformada de Laplace y no on funci on generadora de momentos, pues la funci on x no es una funci 2 2 n r de densidad. Entonces el resultado anterior establece que la funci on r e es la transformada de Laplace de 1n n x. El siguiente paso es invertir cada uno de los t erminos de la igualdad (2.4), aunque realmente que no se est a calculando de manera formal la inversa de la funci on generadora de momentos (o transformada de Laplace) sino que se est a usando el hecho de que si dos distribuciones de probabilidad tienen la misma funci on generadora
2

n de Edgeworth 2.4. Aproximacio

59

de momentos, entonces las distribuciones coinciden. As , invirtiendo t ermino a t ermino la igualdad (2.4), se obtiene fZ z z a3 3 a4 4 a2 z z 3 6 z . 6 24 72 (2.5)

Recordemos que hemos denido Z S m , por lo tanto la funci on de densidad de S m Z est a dada por f S x 1 xm fZ ,

y de esta forma se llega al siguiente resultado:

Proposici on 2.7 (Aproximaci on de Edgeworth) Sea S un riesgo con 2 media m, varianza y cuya funci on generadora de momentos existe. Entonces la funci on de densidad de S puede aproximarse de la siguiente forma: f S x 1 x m a3 3 x m a4 4 x m a2 3 6 x m . 6 24 72

Derivando directamente la funci on de densidad x de la distribuci on normal est andar puede demostrarse que 4 x 6 x 3 x

3x x3 x, 3 6x2 x4 x, 15 45x2 15x4 x6 x.

Estas expresiones pueden sustituirse en la aproximaci on de Edgeworth para obtener una expresi on en t erminos de u nicamente la funci on x. Observe que el primer sumando en la aproximaci on de Edgeworth corresponde a la funci on de densidad normal con media m y varianza 2 . No es dif cil vericar adem as que cuando el riesgo S sigue una distribuci on normal, la aproximaci on de Edgeworth es exacta, pues produce como resultado la misma distribuci on con los mismos par ametros.

60

rmula de Panjer y me todos de aproximacio n 2. Fo

La aproximaci on de Edgeworth puede expresarse tambi en en t erminos de la funci on de distribuci on de la siguiente forma: integrando (2.5) se obtiene FZ z z a3 3 a4 a2 z 4 z 3 6 z , 6 24 72

considerando la identidad FS x FZ x m , se tiene que la aproximaci on de Edgeworth para un riesgo S en t erminos de la funci on de distribuci on es FS x xm a3 3 x m a4 4 x m a2 3 6 x m , 6 24 72

en donde derivando directamente la funci on z puede demostrarse que 4 z 6 z 3 z

z2 1 z, z3 3z z, z5 10z3 15z z.

Comentarios y referencias
Hemos dedicado este peque no cap tulo a la presentaci on de la f ormula de Panjer. Dentro de su ambito de aplicaci on, esta importante f ormula proporciona un mecanismo recursivo para calcular de manera exacta la distribuci on de probabilidad de un riesgo que sigue el modelo colectivo. Debe tenerse cuidado en la implementaci on en computadora de esta f ormula, pues podr an presentarse problemas num ericos por cuestiones de redondeo o baja precisi on en los c alculos. Cuando las hip otesis para aplicar la f ormula de Panjer no se cumplen, se cuenta con algunos m etodos para aproximar la distribuci on del riesgo y hemos presentado s olo unos pocos de ellos, dejando de lado el problema general de establecer condiciones bajo las cuales los m etodos de aproximaci on mencionados son adecuados. El material de este cap tulo est a basado en las notas de Schmidli [34]. Otras referencias en el tema son: Dickson [13] y Rolski et al. [32].

2.5. Ejercicios

61

2.5.

Ejercicios
Distribuciones de la clase a, b, 0

48. Las cuatro distribuciones de la clase a, b, 0. Sea pk : k 0 una distribuci on de probabilidad en la clase a, b, 0, es decir, se trata de una distribuci on discreta con soporte el conjunto 0, 1, . . . y tal que cumple la relaci on pk a bk pk1 para k 1, en donde a y b son dos constantes. Observe que tomando el caso particular cuando k 1, se llega a la conclusi on de que las constantes deben satisfacer la desigualdad a b 0. a) Demuestre que en el caso a b en cero, es decir, p0 1. 0, la distribuci on se concentra 0 es la

b) Demuestre que si a b 0 y a 0 entonces pk : k distribuci on Poisson con b 0. c) Demuestre que si a b k 1, pk 0ya

0 entonces para cualquier

ak b b b b k k 1 2 1 p0 . k! a a a a

(2.6)

on iterativa es d) Observe que si a b 0 y a 0, y si la relaci v alida para cualquier k 1 como hemos supuesto, entonces necesariamente los valores de las constantes a y b deben ser tales que exista un entero n 1 tal que a b n 0 y a n1 b 0.

Dena r 1 ba e incorpore este valor en (2.6). Concluya que pk : k 0 es la distribuci on bin negr, p con p 1 a.

Y por lo tanto se debe tener que pk 0 para k n 1, n 2, . . . De la igualdad anterior obtenga n ba 1. Compruebe la validez de la ecuaci on (2.6) para 0 k n e incorpore on all el valor de n. Concluya que pk : k 0 es la distribuci binomialn, p con p aa 1.

62

rmula de Panjer y me todos de aproximacio n 2. Fo 49. Funci on generadora de probabilidad de una distribuci on en la clase a, b, 0. Sea N una variable aleatoria con distribuci on de probabilidad en la clase a, b, 0. a) Demuestre que la correspondiente funci on generadora de proN babilidad PN t E t satisface la ecuaci on diferencial

1 at PN t a b PN t.

(2.7)

b) Demuestre que la soluci on a la ecuaci on (2.7) con condici on inicial PN 1 1 y para a 0, 1 es PN t

1 at 1a

aba
.

c) En particular, demuestre que i) P N 0 ii) l m P N


a 0

1 aaba 0 eb .

para a

0.

50. F ormula para la esperanza de una distribuci on en la clase a, b, 0. Sea N una variable aleatoria con distribuci on de probabilidad en on elemental de esperanza, o la clase a, b, 0. A partir de la denici bien, usando la f ormula (2.7) del ejercicio anterior, demuestre que para a 1, ab . E N 1a F ormula de Panjer 51. Compruebe que la f ormula recursiva de Panjer efectivamente produce una funci on de probabilidad. 52. A partir de la f ormula recursiva de Panjer compruebe nuevamente que E S E N E Y .

2.5. Ejercicios

63

53. F ormula recursiva para los momentos de S . Use la f ormula de Panjer y la misma notaci on e hip otesis de dicho resultado para demostrar que para a 1 y para n 1, E S
n

1a

n 1 i 0

n a i

1 b n i

E S i E Y ni .

54. F ormula recursiva para la funci on de distribuci on de S en un caso particular. En general es dif cil encontrar una expresi on recursiva para la funci on de distribuci on F x de un riesgo S en el modelo colectivo. Sin embargo, para el siguiente caso particular es posible encontrar dicha relaci on: usando la notaci on e hip otesis de la f ormula de Panjer y en el caso cuando N tiene una funci on de probabilidad geop, es decir, pk P N k 1 pk p, para k 0, demuestre que para x 1, F x p 1 p
x j 1

fj F x j .

55. Suponga que un riesgo S sigue un modelo colectivo en donde N 2 y el monto de tiene una distribuci on Poisson de par ametro las reclamaciones tiene la funci on de probabilidad que aparece en la tabla de abajo. Use la f ormula de Panjer para encontrar la funci on de probabilidad de S . r fr 1 1/2 2 1/2

56. Suponga que un riesgo S sigue un modelo colectivo en donde N tiene una distribuci on geom etrica de par ametro p 12, y el monto de las reclamaciones tiene la funci on de probabilidad que aparece en la tabla de abajo. Use la f ormula de Panjer para encontrar la funci on de probabilidad de S . r fr 1 1/2 2 1/2

64

rmula de Panjer y me todos de aproximacio n 2. Fo Aproximaci on normal 57. Sea S un riesgo con distribuci on gaman, en donde n es un entero. a) Asigne valores a los par ametros n y y calcule la aproximaci on normal para S . b) Para nes comparativos y con ayuda de alg un paquete computacional, graque tanto la funci on de densidad gama como la densidad normal aproximante. c) Duplique el valor de n y graque nuevamente las dos funciones. Mejor o la aproximaci on? 58. Suponga que un cierto riesgo S tiene una distribuci on Poisson compuesta con par ametro 50, en donde los montos de las reclamaciones siguen una distribuci on uniforme(0, 10). Use la aproximaci on normal para encontrar el valor de la prima p tal que: b) P S a) P S p p 0.05. 0.01.

59. Suponga que un riesgo S sigue una distribuci on Poisson compuesta 40 y los montos de las reclamaciones tienen con par ametro distribuci on exp con 10. Use la aproximaci on normal para estimar la probabilidad P S E S . 60. Suponga que un riesgo S sigue una distribuci on Poisson compuesta con par ametro 30 y los montos de las reclamaciones tienen distribuci on Pareto4, 3. Use la aproximaci on normal para comprobar que el valor de la prima p que cumple la condici on P S p 0.01 es p 38.0194 . 61. Suponga que un riesgo S sigue un modelo colectivo Poisson de par ametro y las reclamaciones tiene la funci on de probabilidad que aparece en la siguiente tabla: r fr 1 1/3 2 1/3 3 1/3

2.5. Ejercicios

65

a) Suponga 30. Use la f ormula de Panjer para encontrar la funci on de probabilidad de S . b) Calcule la aproximaci on normal para S . c) Con ayuda de un paquete computacional graque la funci on de probabilidad de S y la densidad normal aproximante. d) Suponga ahora aproximaci on? 60 y repita los incisos anteriores. Mejor o la

Aproximaci on gama trasladada 62. Sea S un riesgo con distribuci on gama, . Demuestre que: a) E S 3 2 3 .

b) la aproximaci on gama trasladada para S es exacta. 63. Compruebe que la aproximaci on gama trasladada para un riesgo con distribuci on exponencial es exacta. 64. Durante la derivaci on de la aproximaci on gama trasladada se usa el hecho de que la variable aleatoria k Z , en donde Z tiene una distribuci on gama, , tiene media, varianza y coeciente de asimetr a k , 2 y 2 respectivamente. Demuestre estas f ormulas. 65. Durante la derivaci on de la aproximaci on gama trasladada se llega al sistema de ecuaciones k m, 2 2 y 2 3 , en donde k , y son las inc ognitas. Demuestre que la soluci on a este 2 y 23 . sistema es efectivamente k m 2 3 , 43 66. Encuentre una expresi on para la aproximaci on gama trasladada cuando el riesgo sigue una distribuci on: a) Poisson compuesta. b) binomial compuesta. c) binomial negativa compuesta.

66

rmula de Panjer y me todos de aproximacio n 2. Fo 67. Suponga que Z tiene una distribuci on gama, . Demuestre que si 2 es un n umero entero natural, entonces 2Z tiene una distribuci on 2 2 . 68. Suponga que un riesgo S sigue un modelo colectivo Poisson de par ametro 10 y las reclamaciones tienes la funci on de probabilidad que aparece en la siguiente tabla: r fr 1 1/8 2 1/4 3 1/4 4 1/4 5 1/8

a) Use la f ormula de Panjer para encontrar la funci on de probabilidad exacta de S . b) Calcule la aproximaci on gama trasladada para S . c) Con ayuda de un paquete computacional graque la funci on de probabilidad exacta de S y la densidad aproximante.

Aproximaci on de Edgeworth 69. Demuestre que la aproximaci on de Edgeworth para un riesgo con distribuci on normal con media m y varianza 2 produce esta misma distribuci on con los mismos par ametros. Recuerde que si Z tiene una distribuci on normal est andar, entonces los momentos impares de esta variable aleatoria se anulan y para cualquie n umero natural n, 2n! . E Z 2n 2n n! 70. Suponga que S tiene una distribuci on Poisson compuesta de par ametro 0 y que se desea usar la aproximaci on de Edgeworth para S . Demuestre que ak

dk ln MZ r k dr r

k 2 k2 , para k

2, 3, 4.

2.5. Ejercicios En consecuencia, P S x x 3 2 32 3 x 6 2 2 2 x 2 4 4 24 2 2 2 3 x 2 . 6 372 2

67

71. Suponga que S tiene una distribuci on Poisson compuesta de par ametro 0 y que se desea usar la aproximaci on de Edgeworth para S . Suponga adicionalmente que el monto de las reclamaciones y por siguen una distribuci on Pareto4, 3. Demuestre que 4 lo tanto la f ormula del ejercicio anterior no puede aplicarse. 72. Sea S un riesgo con distribuci on exp. a) Calcule la aproximaci on de Edgeworth de S . b) Asigne un valor al par ametro y con ayuda de un paquete computacional graque tanto la funci on densidad exponencial como la funci on aproximante. 73. Suponga que un riesgo S sigue un modelo colectivo Poisson de 10 y las reclamaciones tienes la funci on de propar ametro babilidad que aparece en la siguiente tabla: r fr 1 1/2 2 1/4 3 1/8 4 1/16 5 1/16

a) Use la f ormula de Panjer para encontrar la funci on de probabilidad exacta de S . b) Calcule la aproximaci on de Edgeworth para S . c) Con ayuda de un paquete computacional graque la funci on de probabilidad exacta de S y la densidad aproximante.

Cap tulo 3

Principios para el c alculo de primas


Hemos mencionado antes que una prima es un pago por adelantado que un asegurado realiza a una compa n a aseguradora para obtener una cobertura parcial o completa contra un riesgo determinado, en los t erminos y condiciones que establece la p oliza del seguro. En este cap tulo vamos a estudiar algunas reglas generales para calcular el valor de una prima tomando en consideraci on u nicamente los aspectos matem aticos del riesgo, es decir, no consideraremos cuestiones administrativas o mercadol ogicas del negocio del seguro, las cuales en situaciones pr acticas son indispensables de considerar. Denotaremos por p, pS o pS a la prima para cubrir un riesgo S . De esta manera, a la f ormula para calcular una prima se le puede considerar como una funci on num erica de la variable aleatoria S o de su distribuci on.

3.1.

Propiedades

Qu e propiedades es razonable que cumpla una funci on pS para el c alculo de las primas? Vamos a enunciar a continuaci on algunas propiedades generales que son deseables que posea cualquier m etodo para calcular primas. 69

70

lculo de primas 3. Principios para el ca

Simplicidad
El c alculo de la prima debe ser f acil de calcular. La simplicidad en el c alculo de la prima es deseable que se cumpla por varias razones, entre ellas est a el aspecto pr actico del c alculo mismo, as como el de lograr una cabal comprensi on del c alculo de la prima por parte del asegurado y del resto de las personas involucradas en los procesos t ecnicos, administrativos y legales del seguro.

Consistencia
Si un riesgo se incrementa en una constante, entonces la prima debe reejar ese cambio increment andose en la misma cantidad, es decir, si c 0 es una constante, entonces pS c pS c.

Aditividad
La prima de un portafolio consistente en dos riesgos independientes debe ser la suma de las primas individuales, es decir, pS1 S2 pS1 pS2 ,

cuando S1 y S2 son dos riesgos independientes. Es claro que cuando se cumple esta propiedad, el intentar combinar o separar los riesgos no resulta en ninguna ventaja o provecho ni para el asegurado ni para el asegurador.

Invarianza de escala
Si a 0 es una constante, entonces paS a pS ,

es decir, si la cuanticaci on del riesgo S cambia de escala y se considera ahora el riesgo aS , la prima para este nuevo riesgo debe ser a pS , esto equivale a la prima original modicada con la misma escala.

3.2. Principios generales

71

Cota inferior
La prima debe tener siempre como cota inferior la prima pura de riesgo, es decir, p E S . Sin embargo, en algunas situaciones es necesario suponer que las primas deben tener siempre un recargo positivo y se considera la condici on m as restrictiva p E S . A menos que se establezca lo contrario, la propiedad de cota inferior se entender a en el sentido p E S , la cual es m as f acil de vericar en los m etodos de c alculos de primas que estudiaremos.

Cota superior
Si un riesgo est a acotado superiormente, entonces la prima para cubrir este riesgo tambi en debe tener la misma cota superior, es decir, si S M para alguna constante M 0, entonces pS M.

3.2.

Principios generales

Recordemos que la prima pura de riesgo est a dada por p E S . Esta es la prima destinada a solventar exclusivamente la reclamaci on del riesgo, sin embargo veremos a continuaci on la posible situaci on catastr oca que podr a presentarse cuando se toma p E S . Considere un portafolio homog eneo de n p olizas de seguro de un mismo riesgo y v alidas por un tiempo determinado. Suponga que se cobra una misma prima p por cada p oliza y que Sj representa el monto de las reclamaciones efectuadas por la p oliza j , las cuales se presuponen independientes y con id entica distribuci on. Si u es el capital inicial de la aseguradora, entonces el capital de la misma al t ermino de la vigencia de las p olizas es Xn u np u
n j 1 n j 1

Sj

p Sj .

72

lculo de primas 3. Principios para el ca

Tenemos entonces las siguientes dos situaciones: on anterior se oba) Cuando p E S , al tomar esperanza en la ecuaci tiene E Xn u n p E S u. Es decir, en promedio la compa n a aseguradora permanece con su capital inicial, sin embargo puede de, casi seguramente, mostrarse que cuando n l m sup Xn
n

l m inf Xn n

Esto quiere decir que el capital Xn puede oscilar y tomar valores grandes, tanto negativa como positivamente. Este resultado es parte del Teorema 6.3.1 del texto de Rolski et al [32] y su demostraci on hace uso de algunos elementos de caminatas aleatorias. b) Cuando p E S , por la ley de los grandes n umeros,
n

l m

1 Xn n

l m

E p S

1 l m p Sj n nj 1
n

1 u p Sj n j 1
n

p E S . As , para que este l mite sea el indicado la variable Xn tiene que diverger a innito o menos innito dependiendo del signo de p E S . Por lo tanto Xn tiene el siguiente comportamiento l mite en el sentido casi seguro, si p E S , l m Xn n si p E S . En vista de estos resultados, es natural y deseable suponer p E S . Esta condici on se conoce con el nombre de condici on de ganancia neta (net prot condition) y debe prevalecer en cualquier m etodo para calcular p. En general no existe un mecanismo de c alculo para la prima que sea el mejor pues existen varias condiciones que afectan la forma de calcular primas, entre ellas, las restricciones legales y nancieras, las condiciones del asegurado,

3.2. Principios generales

73

las condiciones de la propia aseguradora y de las otras aseguradoras, as como las condiciones del mercado del seguro. Todos estos son factores que determinan, directa o indirectamente, el valor de una prima para cubrir un riesgo particular en una situaci on real. Estudiaremos a continuaci on algunas formas particulares para el c alculo de primas. A estos procedimientos se les denomina con el t ermino de prinicipios. Principio del valor esperado Este principio es uno de los m as sencillos y establece que la prima puede calcularse de la siguiente forma: p

1 E S ,

en donde 0 es una constante llamada factor de recargo (safety loading). Es decir, se trata de la reclamaci on promedio mas un porcentaje de esta. En el factor de recargo se encuentran inmersos los costos administrativos y comerciales del seguro, as como los m argenes de utilidad de la aseguradora. La forma simple en la se expresa este principio es una de sus caracter sticas principales, sin embargo puede observarse que una desventaja de esta f ormula es que asigna la misma prima a dos riesgos con distinta distribuci on pero con media com un, y no toma en cuenta otro aspectos, por ejemplo, si las varianzas de los riesgos fueran distintas, entonces las primas tal vez deber an ser distintas. Principio de la varianza Este principio hace uso de la esperanza y la varianza del riesgo. En este caso el factor de recargo 0 se aplica sobre el valor de la varianza de la siguiente forma: p E S VarS . Principio de la desviaci on est andar Sea nuevamente 0 una constante. En este principio el factor de recargo se aplica sobre la desviaci on est andar del riesgo como indica la f ormula que aparece abajo. A diferencia del principio de la varianza, en este caso las unidades de medici on del riesgo y de la prima coinciden. Y es evidente que

74

lculo de primas 3. Principios para el ca

la prima calculada mediante este principio produce una prima menor o igual a aquella calculada mediante el principio de la varianza. p Principio de utilidad cero Este principio hace uso de una funci on de utilidad, esto es, una funci on v x denida sobre 0, o un subconjunto de este intervalo y con valores en R, que cumple las propiedades que se mencionan a continuaci on, y cuya gr aca en t erminos generales se muestra en la Figura 3.1. a) Es estrictamente creciente. b) Es c oncava. Una funci on con estas caracter sticas puede usarse para modelar el valor o utilidad que una persona o instituci on asocia a un bien monetario o material. En el ap endice el lector encontrar a un exposici on breve sobre algunas propiedades de este tipo de funciones. Suponiendo diferenciabilidad, la primera condici on se escribe v x 0, y la segunda condici on signica que v x 0. A veces se a nade la condici on v 0 0 pues toda funci on de utilidad (denida en x 0) puede modicarse de tal forma que cumpla esa condici on sin afectar el resultado en los procesos de decisi on que se llevan a cabo usando estas funciones. La nueva funci on de utilidad ser a v x v 0. V ease la secci on sobre este tema en el ap endice.
v x

E S

VarS .

Figura 3.1: Funci on c oncava. El principio de utilidad cero establece que la prima para cubrir un cierto riesgo S es aquel n umero p que satisface la ecuaci on v u E v u p S , (3.1)

3.2. Principios generales

75

en donde u es el capital inicial de la aseguradora. Es decir, la utilidad que representa para la aseguradora el capital inicial u debe ser id entica a la utilidad esperada al cubrir el riesgo. As , el c alculo de p est a dado impl citamente por la ecuaci on (3.1) y para que la prima est e bien denida supondremos el caso cuando esta ecuaci on tiene una u nica soluci on p. Debemos mencionar, sin embargo, que no es sencillo resolver de manera exacta ecuaciones de la forma (3.1), pero pueden usarse m etodos num ericos para conocer p de manera aproximada. El siguiente ejemplo es un caso muy particular y at pico en donde se puede calcular con facilidad la soluci on p de (3.1). Ejemplo 3.1 Considere la funci on de utilidad ux 1 ex , con 0. La prima se calcula como aquel valor de p que es soluci on de la ecuaci on 1 eu E 1 eupS .

Despu es de algunos c alculos sencillos, de la identidad anterior se obtiene la expresi on 1 p (3.2) ln MS . Se presentan a continuaci on algunos ejemplos de funciones de utilidad. a) Funci on de utilidad exponencial. v x v x 1 ex , x x2 , ln x, x , 0. 12.

b) Funci on de utilidad cuadr atica. 0, para 0 x

c) Funci on de utilidad logar tmica. v x v x 0.

d) Funci on de utilidad de potencia fraccional. 0 1. Demostraremos a continuaci on que el principio de utilidad cero produce primas que cumplen la condici on p E S . Por la desigualdad de Jensen en el caso de funciones c oncavas, v u E v u p S v E u p S

v u p E S .

76

lculo de primas 3. Principios para el ca

Como v es una funci on estrictamente creciente, es uno a uno, y por lo 1 en es estrictamente creciente. Al aplicar tanto su inversa v existe y tambi entonces la inversa se preserva la desigualdad anterior y se obtiene p E S . La igualdad se logra, por ejemplo, cuando S es constante. Principio del valor medio Este principio hace uso de una funci on de valor, esto es, una funci on v x que cumple las propiedades que aparecen abajo y cuya gr aca general se muestra en la Figura 3.2. a) v 0 0.

b) Es estrictamente creciente. c) Es estrictamente convexa.


v x

Figura 3.2: Funci on convexa. El principio del valor medio establece que la prima p debe calcularse a partir de la igualdad (3.3) v p E v S . Esta identidad signica que la compa n a aseguradora asigna el mismo valor a la prima que al promedio del valor de la reclamaci on y por lo tanto es indiferente a cualquiera de las dos situaciones. Como la funci on v x es estrictamente creciente, es uno a uno, su inversa por lo tanto existe y es tambi en estrictamente creciente. De hecho, la inversa de cualquier funci on de utilidad que se anula en cero es un ejemplo de una funci on de valor. As , la prima mediante este principio se puede escribir de la siguiente forma: p v 1 E v S .

3.2. Principios generales

77

Por la desigualdad de Jensen para la funci on convexa v , E v S v E S , o bien por la misma desigualdad para la funci on c oncava v 1 , v 1 E X 1 E v X . Ambos caminos llevan a la desigualdad p E S .

ex Ejemplo 3.2 Considere la funci on de valor v x Bajo este principio, la igualdad (3.3) se escribe ep 1 que lleva a la siguiente soluci on, que es id entica a (3.2), p Principio exponencial 1 ln MS .

1, con 0. E eS 1, lo
(3.4)

Este es el principio de utilidad cero aplicado a la funci on de utilidad v x x 1e 0. Y coincide tambi en con el principio del valor medio , con aplicado a la funci on de valor v x ex 1, con 0. Hemos visto que la prima calculada bajo estos principios es p 1 ln MS .

Observe que en este caso la prima no depende del capital inicial u. Puede vericarse directamente que p E S , lo cual hemos demostrado antes de manera general. Principio del porcentaje 0 una constante. El principio del porcentaje sugiere que la prima Sea p puede calcularse mediante la expresi on que aparece abajo. El signicado geom etrico de esta f ormula se muestra en la Figura 3.3. p nf x 0 : P S x .

De esta forma la probabilidad de que el riesgo exceda el monto de la prima debe ser peque no o ajustable mediante el par ametro . A este principio tambi en se le conoce tambi en como principio de p erdida m axima. Por ejemplo, si S sigue una distribuci on exponencial de par ametro , entonces P S x ex . Y por lo tanto p es aquel valor num erico tal que ep ,

78

lculo de primas 3. Principios para el ca

f x

x p

Figura 3.3
1 ln . As , para este ejemplo particular, se cumple la condies decir, p 1 1 ci on p ln E S si, y s olo si, e1 . Esto muestra , es decir, que el principio del porcentaje no produce en general primas que cumplen la condici on de ganancia neta.

Principio de Esscher Antes de establecer este principio es necesario denir primero la transformada de Esscher de una distribuci on de probabilidad para la cual existe la funci on generadora de momentos. Transformada de Esscher. Sea S un riesgo con funci on de densidad f x, funci on de distribuci on F x y para la cual existe la funci on generadora 0. La transformada de de momentos MS h, para algunos valores de h Esscher con par ametro h de f x es la funci on x g x 1 ehx f x. MS h (3.5)

Es inmediato comprobar que esta funci on es efectivamente de densidad. Por ejemplo, puede demostrarse que la transformada de Esscher de la distribuci on exponencial es nuevamente la distribuci on exponencial pero con par ametro distinto (ejercicio 87). Cuando el par ametro h es cero se obtiene la funci on de densidad original. La denici on de transformada de Esscher puede denirse de manera an aloga para variables aleatorias discretas.

3.2. Principios generales

79

El principio de Esscher establece que la prima para cubrir el riesgo S es la esperanza de esta nueva funci on de densidad, es decir, p MS h 0 E SehS . E ehS 1

x ehx f x dx

Denotemos por ph a esta funci on. Es claro que p0 E S y puede on creciente de h, v ease el ejercicio 90. Por demostrarse que ph es una funci lo tanto, ph p0 E S . Esto demuestra que se cumple la condici on de ganancia neta y que mientras mayor es el par ametro h mayor es la prima. Habiendo denido la forma de calcular primas bajo este principio, vamos a hacer algunas observaciones acerca de la funci on de densidad (3.5), la cual es la funci on de densidad original ponderada por la funci on creciente x ehx MS h. La correspondiente funci on de distribuci on de (3.5) es G x MS h 1

x
0

ehy f y dy.

A esta funci on tambi en se le llama la transformada de Esscher de la funci on de distribuci on F x. Sea S una variable aleatoria asociada a esta funci on de distribuci on. Algunos c alculos sencillos muestran que la funci on generadora de momentos de esta nueva variable aleatoria est a dada por MS t Principio del riesgo ajustado Este principio, as como el de Esscher, est a basado en una transformaci on de la distribuci on del riesgo. Para un riesgo S con funci on de distribuci on on de distribuci on de la siguiente forma F x se dene una nueva funci Gx 1 1 F x1 , MS t h . MS h

en donde 1 es un par ametro conocido como el ndice del riesgo. Puesto que 1 F x es un n umero entre 0 y 1, y 1, se cumple que 1 G x

1 F x1 1 F x.

(3.6)

80

lculo de primas 3. Principios para el ca

Esto signica que la cola de la distribuci on del riesgo est a siendo sobre estimada por la cola de la nueva distribuci on. Esta sobre estimaci on es usada para denir la prima para cubrir S . En la Figura 3.4 se muestra el orden que guardan las funciones Gx y F x.

F x Gx x

Figura 3.4 As , la prima por el principio del riesgo ajustado para el riesgo S se dene como la esperanza de la nueva funci on de distribuci on, es decir,

p
0

1 Gx dx

Se verica entonces la condici on p

E S , pues
0

1 F x1 dx.
E S .

p
0

1 F x dx

1 F x dx

Puesto que hemos revisado algunos m etodos particulares para calcular primas y que contamos con una lista de propiedades deseables que deben cumplir los m etodos, surge el problema de determinar si se cumplen o no se cumplen las propiedades para cada uno de los m etodos enunciados. Tal tarea es el contenido del ejercicio 94. Algunas de estas comprobaciones son inmediatas, algunas otras requieren un poco mas de trabajo. En la tabla que hemos colocado en este ejercicio se ha omitido la propiedad de simplicidad, pues tal caracter stica es subjetiva.

3.3.

Primas y funciones de utilidad

Hemos mencionado que el principio de utilidad cero establece que la prima que una aseguradora est a dispuesta a cobrar a un asegurado para cubrir un

3.3. Primas y funciones de utilidad cierto riesgo S es aquel n umero p que satisface la ecuaci on v1 u1 E v1 u1 p S ,

81

(3.7)

en donde u1 es el capital inicial de la aseguradora y v1 x es una funci on de utilidad . Denotemos por p a esta prima puesto que en realidad la aseguradora estar a contenta en cobrar una prima p que sea mayor o igual a p , es decir, desde el punto de vista de la aseguradora y bajo el criterio de utilidad cero, la prima p es la m nima prima a cobrar, y por lo tanto p p . En contraparte, un asegurado con capital inicial o riqueza u2 y con funci on de utilidad v2 x, considera que puede aceptar contratar un seguro para cubrirse contra el riesgo S cuando, de acuerdo al principio de utilidad cero, la prima p est a dada por v2 u2 p E v2 u2 S . (3.8)

El posible valor de p soluci on de esta ecuaci on representa el punto de balance (misma utilidad) para el asegurado entre la decisi on de contratar el seguro o no contratarlo. Denotemos ahora por p a la soluci on de (3.8). Nuevamente ese valor es en realidad la prima m axima que el asegurado est a dispuesto a pagar para cubrirse contra S , pues es claro que una prima menor o igual a tal valor es conveniente para el. De esta manera el principio de utilidad cero establece las condiciones de ambas partes para tomar un decisi on respecto a rmar o no rmar el contrato del seguro. Es claro que habr a un acuerdo entre ambas partes si existe un valor de p tal que p p p .

En tal caso se dice que el riesgo es asegurable bajo el criterio y condiciones mencionados. La situaci on se ilustra en la Figura 3.5. Ejemplo 3.3 Suponga que una compa n a aseguradora con capital inicial u1 0 decide asegurar un riesgo S y el c alculo de la prima se determina de acuerdo al principio de utilidad cero usando la funci on de utilidad v1 x 1 e1 x , con 1 0. De este modo, la prima m nima que la aseguradora est a dispuesta a cobrar es p dada por la soluci on de la ecuaci on v1 u1 E v1 u1 p S .

82

lculo de primas 3. Principios para el ca

p Prima de la aseguradora

Prima del asegurado p


Figura 3.5 Resolviendo esta ecuaci on como se ha hecho antes se encuentra que p 1 a dis1 ln MS 1 . Por otro lado, un asegurado con capital inicial u2 est puesto a pagar una prima m axima p para asegurarse contra este riesgo, determinada por la ecuaci on v2 u2 p E v2 u2 S , en donde v2 x es la funci on de utilidad particular v2 x 1 e2 x , con 2 0. La solu1 ci on de esta ecuaci on es p , el riesgo mencionado es 2 ln MS 2 . As asegurable bajo las condiciones mencionadas si, y s olo si, las constantes 1 y 2 satisfacen la relaci on 1 ln MS 1 1 1 ln MS 2 . 2

Comentarios y referencias
Uno de los problemas fundamentales de las compa n as aseguradoras para operar un seguro es determinar la forma de calcular la prima a cobrar para asegurar un riesgo. En este cap tulo hemos estudiado los primeros elementos para resolver este problema desde el punto de vista matem atico y considerando exclusivamente la naturaleza estoc astica del riesgo. As , suponiendo que hemos adoptado un modelo matem atico para representar un riesgo proveniente de una cartera de asegurados y suponiendo que podemos calcular algunas de sus caracter sticas, en este cap tulo hemos visto que no hay una forma u nica de calcular la prima correspondiente, pues en efecto, hemos mostrado varios m etodos del c alculo de primas.

3.4. Ejercicios

83

3.4.

Ejercicios
Desigualdad de Jensen

R 74. Convexidad y desigualdad de Jensen. Una funci on u : a, b es convexa si para cualesquiera n umeros x y en a, b, y para cualquier t 0, 1 se cumple la desigualdad utx 1 ty tux 1 tuy .

Geom etricamente esta desigualdad signica que la recta que une los puntos x, ux y y, uy se encuentra por arriba de la funci on en el intervalo x, y . Cuando u es dos veces diferenciable, la condici on de convexidad se escribe u x 0. La desigualdad de Jensen establece que si u es una funci on convexa y X es una variable aleatoria tal que tanto X como uX tienen esperanza nita, entonces uE X E uX . Demuestre esta desigualdad en el caso cuando u es dos veces diferenciable siguiendo los siguientes pasos: a) Escriba la serie de Taylor de la funci on u alrededor de un punto x0 hasta la segunda derivada. 0 para concluir que ux

b) Use la condici on u x u x0 x x0 .

ux0

es tome esperanza en c) Sustituya x por X , x0 por E X y despu ambos lados.

Funciones de utilidad y el principio de utilidad cero 75. Sean a 0 y 0 constantes. Demuestre que la funci on v x x a1 e denida para x 0, es una funci on de utilidad y que usada bajo el principio de utilidad cero determina que la prima para 1 cubrir un riesgo S debe ser p ln MS . 76. Suponga que una persona con capital u tiene dos opciones de inversi on, las cuales le reportan ganancias o p erdidas dadas por las

84

lculo de primas 3. Principios para el ca variables aleatorias I1 e I2 . Es decir, al cabo de cada una de las inversiones su capital ser a u I1 o u I2 . Suponga que la persona decide tomar la inversi on que le otorga una utilidad esperada mayor, en donde su funci on de utilidad es exponencial. Demuestre que su decisi on es independiente del capital inicial u. Funciones de valor y el principio del valor medio 77. Suponga que un riesgo S tiene distribuci on exp. Use el principio del valor medio para calcular la prima para cubrir este riesgo usando la funci on de valor v x x2 . Principio del valor esperado 78. Suponga que se tiene un portafolio de 350 p olizas de seguros contra robo a casahabitaci on con validez por un a no, como se muestra en la siguiente tabla: Probabilidad de siniestro 0.01 0.02 Reclamaci on unif0, 10 unif10, 20 100 60 150 40

Esto quiere decir, por ejemplo, que se tienen 100 asegurados cuya probabilidad de reclamaci on es 0.01 y cuyo monto de reclamaci on se distribuye unif0, 10. Suponga que nos interesa modelar el agregado de reclamaciones mediante la variable S i usando modelo individual, pero tambi en con la variable S c usando el modelo colectivo Poisson. a) Encuentre la media y la varianza de las variables S i y S c . b) Suponga que para el c alculo de las primas se usa el principio del valor esperado. Calcule el factor de recargo i y c , correspondiente a cada modelo, de tal forma que con probabilidad de 0.95 las primas sean sucientes para hacer frente a las reclamaciones.

3.4. Ejercicios

85

c) Suponga que las probabilidades de reclamaci on se duplican. Encuentre nuevamente los factores de recargo i y c para que con probabilidad de 0.95 las primas sean sucientes para hacer frente a las reclamaciones. Principio de la varianza 79. Usando el principio de la varianza calcule la prima p para cubrir un riesgo S con distribuci on unif0, 1, y encuentre el valor del factor tal que P S p 0.1 . Principio exponencial 80. Use la desigualdad de Jensen para demostrar directamente que la prima calculada mediante el principio exponencial cumple la desigualdad p E S . Principio del porcentaje 81. Usando el principio del porcentaje, calcule la prima para cubrir un riesgo S con distribuci on exp. 82. Mediante el principio del porcentaje calcule la prima para cubrir un riesgo con distribuci on Paretoa, b. 83. Mediante el principio del porcentaje calcule la prima para cubrir un riesgo con distribuci on Weibullr, . 84. Considere un riesgo S con funci on de densidad como aparece abajo. Calcule la prima para cubrir S mediante el principio del porcentaje. f x Transformada de Esscher 85. Calcule la transformada de Esscher de par ametro h tribuci on: 0 de la dis2 x2 2 , e x 0.

86 a) geop.

lculo de primas 3. Principios para el ca c) unifa, b.

b) Poisson.

d) N, 2 .

86. Doble transformada. Sea S un riesgo con funci on de densidad f x y funci on generadora de momentos nita. a) Demuestre que la doble transformada de Esscher con par ametros h1 y h2 de la funci on f x es g x MS h1 h2 1 eh1 h2 x f x.

b) Compruebe que la funci on generadora de momentos de la doble transformada es M t Principio de Esscher 87. Sea S un riesgo con distribuci on exp. a) Demuestre que la transformada de Esscher de par ametro h es la distribuci on exp h, para 0 h . b) Encuentre la prima mediante el principio de Esscher. c) Verique la condici on de ganancia neta. 88. Suponga que la reclamaci on de un cierto riesgo S tiene distribuci on uniforme en el intervalo 0, 1. a) Calcule la transformada de Esscher de par ametro h 1 de esta distribuci on. Graque y compare las dos funciones de densidad. b) Calcule la prima para cubrir este riesgo usando el principio de Esscher de par ametro h 1. c) Calcule la probabilidad de que la prima sea suciente para cubrir una reclamaci on del riesgo. MS t h1 h2 . MS h1 h2

3.4. Ejercicios 89. Sea S un riesgo con distribuci on gama, .

87

a) Demuestre que la transformada de Esscher de par ametro h es la distribuci on gama, h, para 0 h . b) Encuentre la prima mediante el principio de Esscher. c) Verique la condici on de ganancia neta. 90. Condici on de ganancia neta. Sea ph E SehS E ehS la prima para cubrir un riesgo S calculada mediante el principio de Esscher. Demuestre que la funci on diferenciable ph es creciente. En consecuencia, ph p0 E S . Sugerencia: la desigualdad de Cauchy-Schwarz establece que para dos variables aleatorias con segundo momento nito se cumple que E 2 XY E X 2 E Y 2 . Principio del riesgo ajustado 91. Sea S un riesgo con distribuci on exp. a) Demuestre que la transformada del principio del riesgo ajustado de par ametro es la distribuci on exp. b) Encuentre la prima mediante el principio de riesgo ajustado para cubrir el riesgo S . c) Verique la condici on de ganancia neta para 92. Sea S un riesgo con distribuci on Paretoa, b. a) Demuestre que la transformada del principio del riesgo ajustado de par ametro es la distribuci on Paretoa, b. b) Encuentre la prima mediante el principio de riesgo ajustado para cubrir el riesgo S . c) Verique la condici on de ganancia neta para 1. 93. Calcule la prima para cubrir un riesgo S con distribuci on unif0, 1 usando el principio del riesgo ajustado con ndice de riesgo y verique la condici on de ganancia neta. 1.

88 Propiedades

lculo de primas 3. Principios para el ca

94. Complete la siguiente tabla determinando si cada uno de los principios mencionados para calcular primas cumple la propiedad correspondiente. En cada caso demuestre su armaci on o proporcione un contraejemplo. Para simplicar las cosas considere que la propiedad de cota inferior se reere a la desigualdad no estricta p E S .
Consistencia Valor esperado Varianza Desv. est andar Utilidad cero Valor medio Exponencial Porcentaje Esscher Riesgo ajustado Aditividad Invarianza Cota inferior Cota superior

Primas y funciones de utilidad 95. Calcule la prima m axima que un asegurado est a dispuesto a pagar para cubrirse contra un riesgo S que puede tomar los valores 0 y 100, con id entica probabilidad 12. Suponga que como funci on de utilidad se toma la funci on identidad. 96. Considere un riesgo S con distribuci on Poisson con 10. 1 ex con 12 la funci on de utilidad de la Sea v1 x aseguradora. Sea v2 x x 1 la funci on de utilidad del solicitante del seguro. Determine si el riesgo S es asegurable. Observe que en este caso no es necesario conocer el capital inicial del asegurado ni del asegurador. on de utilidad, y sean a y b dos constantes con 97. Sea v x una funci a 0. Demuestre que a v x b es una funci on de utilidad. 98. Suponiendo diferenciabilidad, demuestre que la composici on de dos funciones de utilidad es una funci on de utilidad.

3.4. Ejercicios

89

99. Aversi on al riesgo. Suponga que una persona con capital inicial u tiene la posibilidad de participar en un juego justo en el que a direcibir a una cantidad positiva x con probabilidad 12, o perder cha cantidad con probabilidad 12. En caso de no desear participar en este juego, el capital de la persona no se modica y permanece con el valor u. Suponga que la persona toma la decisi on de participar o no participar en el juego usando el criterio de la utilidad esperada m axima, es decir, tomar a aquella decisi on que le redit ue una utilidad promedio m axima. Demuestre que si la funci on de utilidad usada es estrictamente c oncava, es decir, v x 0, entonces la decisi on ser a siempre no participar en el juego, a pesar de que este es justo. Esto ilustra la interpretaci on de que las funciones de utilidad estrictamente c oncavas representan la utilidad de personas con aversi on al riesgo. 100. Coeciente de aversi on al riesgo. Se dene el coeciente de aversi on al riesgo de una funci on de utilidad v x como la funci on v xv x 0. Calcule este coeciente en el caso de la funci on de utilidad exponencial, cuadr atica, logar tmica y potencia fraccional.

Cap tulo 4

Reaseguro
En este cap tulo estudiaremos algunas ideas simples y generales del reaseguro. El reaseguro se presenta cuando una aseguradora rma un contrato para cubrir ciertos riesgos con otra compa n a aseguradora llamada reaseguradora. De esta manera ambas aseguradoras adquieren la obligaci on de solventar las posibles reclamaciones del riesgo en cuesti on y nos encontramos nuevamente en el esquema general de un asegurado y una aseguradora, en donde debe existir un acuerdo entre ambas partes acerca de las condiciones del contrato, las caracter sticas del riesgo, las condiciones para el pago de la suma asegurada y, por supuesto, el c alculo de la prima correspondiente. Desde el punto de vista de la aseguradora, el reaseguro le ayuda a evitar posibles fuertes montos en las reclamaciones, aunque naturalmente disminuyen sus ingresos por primas pues tiene que compartir estas con la reaseguradora. Consideremos entonces un riesgo S y denotemos por S A la parte del riesgo asumido por el asegurador y sea S R la parte asumida por el reasegurador. Las letras A y R indican los t erminos Asegurador y Reasegurador, respectivamente. Debe entonces cumplirse la igualdad S SA SR.

Los distintos tipos de reaseguro corresponden a las distintas formas en las que esta descomposici on puede llevarse a cabo y tales descomposiciones pueden ser deterministas o aleatorias. El objetivo ahora es estudiar las caracter sticas probabil sticas de las variables aleatorias S A y S R , y si se 91

92

4. Reaseguro

cumplen las condiciones adecuadas, pueden aplicarse los resultados encontrados antes para lograr dicho objetivo. El reaseguro puede tomar por lo menos dos perspectivas: actuar sobre las reclamaciones individuales o sobre el total del riesgo.
Reclamaciones

individuales
Reaseguro Total del

riesgo

Figura 4.1 En ambos esquemas de reaseguro se aplica una funci on continua h del in mismo tal que: tervalo 0, en s b) hx a) h0 0. x.

ax, para Las dos funciones de este tipo que consideraremos son hx a 0, 1, y hx m nx, M , para alguna constante M 0. Gr acamente estas funciones se muestran a la Figura 4.2.
hx ax M x M x hx m nx, M

Figura 4.2 Bajo el esquema de reaseguro, la aseguradora afronta u nicamente el riesgo resultante de aplicar la funci on h al riesgo original o a cada una de sus

4.1. Reaseguro proporcional

93

reclamaciones. Cuando se utiliza la primera de las funciones h mencionadas, el reaseguro se llama proporcional y en el segundo caso se le llama no proporcional. Estudiaremos a continuaci on estos dos tipos de reaseguro aunque debemos mencionar que a pesar de que los nombres de estos dos esquemas de reaseguro podr an sugerir que son los u nicos, esto no es as , pues existen otras formas en las que los riesgos S A y S R pueden determinarse.

4.1.

Reaseguro proporcional

Suponga que una compa n a aseguradora reasegura un riesgo de la forma N Y . En el reaseguro proporcional se usa la funci on hx ax, S j 1 j para alg un valor de la constante a en el intervalo 0, 1. Usando la linealidad de esta funci on, es claro que es equivalente aplicar la funci on a cada reclamaci on por separado o al riesgo completo. Dada una reclamaci on Y , la aseguradora hace frente a una proporci on de esta, aY , y la reaseguradora cubre el porcentaje restante, 1 aY . El riesgo total asumido por la aseguradora es aS , y la reaseguradora cubre 1 aS , es decir, SA SR aS
N j 1

a Yj ,
N j 1

1 aS

1 a Y j .

En este caso, las caracter sticas probabil sticas de S A y de S R se encuentran f acilmente de las de S , pues no es dif cil comprobar los siguientes resultados para S A con an alogos resultados para S R . a) FS A x b) fS A x c) MS A r d) E S A e) VarS A FS xa. 1 fS xa, cuando S es absolutamente continua. a MS ar. a E S E S . VarS . a2 VarS

94

4. Reaseguro

Probabilidad de insolvencia
Comprobaremos a continuaci on que el reaseguro proporcional es conveniente para la aseguradora en el sentido de que la probabilidad de insolvencia bajo este tipo de reaseguro es menor o igual a la probabilidad de insolvencia cuando no hay reaseguro. Suponga que una compa n a aseguradora adquiere un riesgo S durante un cierto periodo y por el cual cobra una prima p. Suponga que esta aseguradora tiene un capital inicial u. La probabilidad de que la compa n a aseguradora no pueda solventar el riesgo es P S p u .

Tal probabilidad se muestra gr acamente en la Figura 4.3. Ahora suponga que la compa n a decide reasegurarse mediante el esquema de reaseguro proporcional. Suponga adem as que el asegurador retiene una parte de la prima original p dada por ap, con 0 a 1, y el reasegurador obtiene la cantidad 1 ap al aceptar reasegurar este riesgo. La probabilidad de que la aseguradora no pueda solventar el nuevo riesgo bajo este esquema es P aS ap u P S P S p u a p u.

fS x

pu

u a

Figura 4.3 De esta forma hemos comprobado que la probabilidad de insolvencia bajo el esquema de reaseguro proporcional es menor o igual a la probabilidad del mismo evento cuando no hay reaseguro. La ventaja para la aseguradora al contratar el reaseguro es que la incertidumbre disminuye pero sus ganancias

4.2. Reaseguro no proporcional

95

tambi en disminuyen al ceder un porcentaje de sus ingresos por primas. Esta propiedad de disminuci on de insolvencia mediante el reaseguro es un tanto m as dif cil de vericar en otros tipos de reaseguro y depender a, en general, del c alculo de la prima para el reaseguro.

4.2.

Reaseguro no proporcional

nx, M para En el reaseguro no proporcional se toma la funci on hx m alguna constante M 0 llamada nivel de retenci on. Distinguiremos dos casos: cuando se aplica esta funci on a cada reclamaci on y cuando se aplica sobre el total del riesgo.

Reaseguro en el riesgo completo (stop loss)


En este caso se aplica la funci on hx m nx, M sobre la totalidad del riesgo para obtener la parte que cubre la aseguradora y el riesgo excedente lo cubre la reaseguradora. De esta manera cada una de las aseguradoras cubren los riesgos: SA S
R

m n S, M ,

m ax 0, S M .

Tras un an alisis puntual de estas funciones puede vericarse la identidad S S A S R , la cual no es evidente a primera vista. As , mediante este mecanismo la aseguradora tiene la certidumbre de que cubrir a un monto m aximo de M para el riesgo S . Es por ello que a este tipo de reaseguro se le llama reaseguro de p erdida m axima (stop loss). Tanto la variable S A como S R son, en general, variables aleatorias mixtas, es decir, no son discretas ni continuas. Por ejemplo, la variable S A tiene una masa de probabilidad en el punto M de valor P S M , es decir, P S A M P S M . Puede demostrarse que su funci on de distribuci on toma la expresi on FS x si x M, FS A x 1 si x M, la cual se muestra en la Figura 4.4 (a) en el caso cuando FS x es continua. Debido a su condici on de variable aleatoria mixta, la funci on de densidad

96

4. Reaseguro

del riesgo S A no puede expresarse como una funci on tradicional sino que es necesario hacer uso de las funciones generalizadas si se desea escribir tal funci on. En estos casos preferiremos trabajar u nicamente con la funci on de distribuci on. Suponiendo que S es absolutamente continua, el n- esimo momento de S A puede expresarse de la siguiente forma: E S
A n

M
0

xn fS x dx M n P S

M .

FS A x 1 1

FS R x

x M (a) (b)

Figura 4.4 Por su parte, la variable S R tiene una masa de probabilidad en el punto 0 de valor FS M , es decir, P S R 0 FS M y su funci on de distribuci on es: 0 si x 0, FS R x FS M x si x 0, la cual se muestra en la Figura 4.4 (b) en el caso cuando FS x es continua. Nuevamente, no es posible escribir la funci on de densidad de S R en t erminos tradicionales y matem aticamente es preferible trabajar con la funci on de distribuci on. En el caso absolutamente continuo el n- esimo momento de S R adquiere la siguiente expresi on: E S
R n

xn fS M

x dx.

Es interesante notar que la variable S R puede tomar el valor 0 con probabilidad positiva y tal situaci on corresponder a a una reclamaci on nula para

4.2. Reaseguro no proporcional

97

la reaseguradora. No es dif cil comprobar que la funci on de distribuci on de R S condicionada a tomar valores positivos es, para x 0, FS R
SR 0

P S R

x SR

FS M x FS M . 1 FS M

En el caso absolutamente continuo, diferenciando la identidad anterior se encuentra la funci on de densidad correspondiente. fS R
SR 0

f S M x , 1 FS M

para x

0.

Seguros con deducible jo


Algunos tipos de seguros, como el seguro contra accidentes de autom oviles, contemplan el pago de una cantidad llamada deducible cada vez que el asegurado presenta una reclamaci on ante la compa n a aseguradora. Supongamos que dicho deducible es una cantidad ja de d unidades monetarias y que una reclamaci on se modela con la variable aleatoria Y . Si el monto de la reclamaci on es menor a d, el asegurado cubre la totalidad de la reclamaci on, es decir, no hay reclamaci on para la aseguradora. En cambio, si el monto de la reclamaci on excede el valor de d, entonces el asegurado paga el deducible d y la aseguradora cubre la cantidad restante, es decir, m ax0, Y d. De esta forma, los riesgos para este tipo de p olizas de seguros se modelan con las herramientas que hemos mencionado para el reaseguro de p erdida m axima con nivel de retenci on d.

Reaseguro en cada reclamaci on (excess of loss)


Si se aplica la funci on hx m nx, M a cada reclamaci on Y de un riesgo que sigue el modelo colectivo, entonces el asegurador cubre YA m n Y, M

y el reasegurador cubre el monto restante YR

m n Y, M m ax 0, Y M .
Y

98

4. Reaseguro

Por lo tanto, cada una de las aseguradoras asume los siguientes riesgos: SA SR
N j 1 N j 1

m n Yj , M , m ax 0, Yj

M .

Analizando sumando a sumando estas dos expresiones es inmediato comprobar que S SA SR. A este esquema de reaseguro se le conoce tambi en con el nombre de reaseguro por exceso de p erdida (excess of loss). Observe nuevamente que si se supone una distribuci on continua para la variable aleatoria Yj con soporte el intervalo 0, , entonces las variables m nYj , M y m ax0, Yj M ser an mixtas. La primera de ellas tendr a una masa de probabilidad en el punto M y la segunda en el origen. Observe adem as que las expresiones para S A R y S corresponden exactamente a lo que hemos llamado modelo colectivo de riesgo, es decir, se trata de sumas aleatorias de variables aleatorias no negativas. En la parte inicial del texto hemos encontrado f ormulas y procedimientos que pueden aplicarse para conocer las caracter sticas de estas variables aleatorias.

N umero de reclamaciones
Sea N A el n umero de reclamaciones que un asegurador afronta bajo un reaseguro por exceso de p erdida (excess of loss) con nivel de retenci on M sin recurrir a la reaseguradora, es decir, NA
N j 1

1Yj

Por otro lado, sea N R el n umero de reclamaciones que el reasegurador atiende para este tipo de reaseguro, es decir, NR
N j 1

1Yj

4.2. Reaseguro no proporcional

99

Es claro que se cumple la identidad N N A N R . Observamos adem as que, condicionado al evento N n, cada una de estas variables aleatorias tiene una distribuci on binomial en donde n es el n umero de ensayos y las P Yj M en el primer caso y 1 p probabilidades de exito son p P Yj M en el segundo caso. La distribuci on no condicional de estas variables es el contenido del siguiente resultado en donde supondremos que la distribuci on de N es conocida y corresponde a uno de tres casos. Proposici on 4.1 Sea a P Y j M .

1. Si N tiene distribuci on binn, p, entonces a) N A b) NR binn, ap. binn, 1 ap.

2. Si N tiene distribuci on Poisson, entonces a) N A b) NR Poissona. Poisson1 a.

3. Si N tiene distribuci on bin negk, p, entonces a) N A b) N R bin negk, pp a1 p. bin negk, pp 1 a1 p.

Demostraci on. Vericaremos u nicamente el primer resultado aplicando la f ormula general MS t MN lnMY t cuando el riesgo S es la variable N A y una reclamaci on Y tiene la forma particular 1Yj M , lo cual es una variable aleatoria con distribuci on Bernoulli. Observemos primeramente que MY t E etY 1 a aet .

MN ln1 a aet . Cuando N tiene distribuci on Entonces MN A t n t binn, p tenemos que MN t 1 p pe . Por lo tanto,

1 p p1 a aetn 1 ap apetn . alogamente puede verse que Es decir N A tiene distribuci on binn, ap. An R N tiene distribuci on binn, 1 ap. De la misma forma se demuestran los

MN A t

100

4. Reaseguro

y si N es bin negk, p, entonces M N t

otros casos. Para ello debe recordarse que si N tiene distribuci on Poisson, entonces MN t expet 1,

p1 1 pet k .

A manera de resumen de los tipos de reaseguro mencionados se tiene el diagrama de la Figura 4.5.

Proporcional Reclamaciones individuales Exceso de p erdida (excess of loss) Reaseguro Proporcional Total del riesgo P erdida m axima (stop loss)

Figura 4.5

Comentarios y referencias
Mediante el reaseguro la compa n a aseguradora se permite ceder parte de un riesgo a otra compa n a llamada reaseguradora. Ante tal situaci on, el esquema de asegurado y asegurador cobra vigencia y se replantean los problemas originales ahora para el nuevo asegurado y la nueva aseguradora. En este cap tulo hemos estudiado dos formas de llevar a cabo el reaseguro: el reaseguro proporcional y el reaseguro no proporcional. A pesar de que

4.3. Ejercicios

101

los nombres reaseguro proporcional y reaseguro no proporcional podr an parecer complementarios sugiriendo que son las dos u nicas formas de reaseguro, tal armacion no es correcta, pues existen otros mecanismos mediante los cuales el reaseguro puede efectuarse. Por ejemplo, en el texto de Rolski et al. [32] se explica el reaseguro ECOMOR. As , desde el punto de vista matem atico el esquema de reaseguro genera dos nuevas variables aleatorias susceptibles de estudiarse probabil sticamente: el riesgo que conserva la aseguradora y el riesgo cedido a la reaseguradora. Y por supuesto se renueva el problema del c alculo de la prima para asegurar el riesgo cedido. El tema de reaseguro y varios de sus aspectos es tratado en mayor o menor medida en los textos de teor a de riesgo que se mencionan en la bibliograf a, en particular Bowers et al. [7], Dickson [13] y Kaas et al. [22].

4.3.

Ejercicios
Reaseguro proporcional

101. Para un reaseguro proporcional demuestre que: b) VarS A c) a) E S A a E S . a2 VarS .

E S A E S A 3 VarS A32

E S E S 3 VarS 32 .

102. Considere un riesgo S bajo un esquema de reaseguro proporcional. Es claro que, en general, las variables aleatorias S A aS y S R 1aS no son independientes, de hecho hay una dependencia lineal entre ellas. Demuestre que: b) a) CovS A , S R SA, SR c) S R
1 a a

SA.

a1 aVarS . 1.

103. Suponga que un riesgo S sigue una distribuci on Poisson compuesta con par ametros 100 y F x dada por la distribuci on exponencial de media 500. Bajo un esquema de reaseguro proporcional con

102

4. Reaseguro a 0.7, encuentre la distribuci on y los par ametros de los riesgos A R S aS , y S 1 aS .

104. Suponga que un riesgo S sigue una distribuci on binomial compuesta con par ametros n 100, p 23, y F x dada por F x

si x 50, 0 12 si 50 x 100, 1 si x 100.

Bajo un esquema de reaseguro proporcional con a 0.9, encuentre la esperanza y varianza de los riesgos S A aS , y S R 1 aS . 105. Bajo el esquema de reaseguro proporcional de un cierto riesgo S , el riesgo asumido por el asegurador es S A aS , y la prima recibida es ap. Suponga que el capital inicial de la aseguradora para afrontar dicho riesgo es u. Demuestre que la probabilidad de insolvencia on creciente de a 0, 1. P aS ap u es una funci 106. Suponga que un riesgo S se modela mediante la distribuci on exp. Demuestre que bajo un reaseguro proporcional el riesgo asumido por la aseguradora S A aS tiene distribuci on expa. Cu al es la distribuci on de S R ? 107. Suponga que un riesgo S se modela mediante la distribuci on gamma, . Demuestre que bajo un reaseguro proporcional el riesgo asumido por la aseguradora S A aS tiene distribuci on gama, a. Cu al es la distribuci on de S R ? 108. Suponga que un riesgo S sigue una distribuci on Poisson compues100, y F x dada por la distribuci on gata con par ametros ma, 0 . Bajo un esquema de reaseguro proporcional con a 0.9, encuentre la distribuci on y los par ametros de los riesgos S A aS , y S R 1 aS . 109. Suponga que un riesgo S se modela mediante la distribuci on log 2 normal, . Demuestre que bajo un reaseguro proporcional el riesgo asumido por la aseguradora S A aS tiene distribuci on 2 R log normal ln a, . Cu al es la distribuci on de S ?

4.3. Ejercicios

103

110. Suponga que un riesgo S sigue una distribuci on Poisson compuesta con par ametros 100, y F x dada por la distribuci on log normal, 2 . Bajo un esquema de reaseguro proporcional con a 0.9, encuentre la distribuci on y los par ametros de los riesgos S A aS , y S R 1 aS . Reaseguro de p erdida m axima (stop loss) 111. Demuestre que bajo un reaseguro de p erdida m axima con nivel de retenci on M , los riesgos S A y S R tienen las siguientes funciones de distribuci on: a) FS A x b) FS R x FS x si x 1 si x 0 FS M M, M. si x si x 0, 0.

112. Para un reaseguro de p erdida m axima con nivel de retenci on M y utilizando los resultados del inciso anterior, demuestre que para cualquier entero n 0: a) E S
A n

M
0

xn fS x dx M n P S x n f S M

M .

b) E S R n

x dx.

113. El n- esimo momento limitado. Sea S un riesgo con funci on de supervivencia continua F x P S x. Sea M cualquier constante positiva. Demuestre que para cualquier entero n 1: E S M n

M
0

nxn1 F x dx.

114. Considere un reaseguro de p erdida m axima con nivel de retenci on M para un riesgo S que sigue una distribuci on exp. Demuestre que las funciones generadoras de momentos de los riesgos S A y S R est an dadas por las siguientes expresiones:

104 a) MS A t b) MS R t t 1

4. Reaseguro

tetM ,

para t .

115. Suponga que un riesgo S se modela mediante la distribuci on exp. Demuestre que bajo un reaseguro de p erdida m axima con nivel de retenci on M , se tiene que: a) E S A b) E S R

t eM , para t t

116. Suponga que el riesgo S sigue una distribuci on lognormal, 2 . Bajo un reaseguro de p erdida m axima con nivel de retenci on M , demuestre que E S A n enn
2 2

1 1 eM . 1 M . e

M n1 ln M .

2 ln M n 2

117. Suponga que un riesgo S tiene la distribuci on de probabilidad que aparece en la tabla de abajo. Calcule la distribuci on de probabilidad de los pagos positivos que efect ua una reaseguradora en un reaseguro de p erdida m axima con nivel de retenci on M 350. x P S x 100 0.1 200 0.2 300 0.3 400 0.2 500 0.2

118. Suponga que se establece como funci on de probabilidad para un riesgo S la que aparece en la tabla de abajo. Calcule la distribuci on de probabilidad de los pagos positivos que efect ua una reaseguradora en un reaseguro de p erdida m axima con nivel de retenci on M 30. x 10 20 30 40 50 P S x 0.2 0.3 0.1 0.1 0.3 119. Suponga que el riesgo S sigue una distribuci on Paretoa, b. Bajo el reaseguro de p erdida m axima, demuestre que la distribuci on 0 es nuevamente del riesgo S R condicionada al evento S R Paretoa, b M .

4.3. Ejercicios

105

120. Suponga que el riesgo S sigue una distribuci on exp. Bajo un reaseguro de p erdida m axima con nivel de retenci on M , demuestre que la distribuci on del riesgo S R condicionado a ser positivo es nuevamente exp. Reaseguro en cada reclamaci on (excess of loss) 121. Suponga que se establece como funci on de probabilidad para la variable aleatoria Y la que aparece en la tabla de abajo. Esta variable aleatoria representa el monto de una reclamaci on en un seguro. Considere una reaseguro excess of loss para Y , con nivel de retenci on M 100.
P Y y y 50 0.2 100 0.3 150 0.4 200 0.1

a) Calcule la funci on de probabilidad para las variables Y A R m nY, M y Y m ax0, Y M . b) Calcule las esperanzas de estas variables aleatorias y compruebe que E Y E Y A E Y R . 122. Suponga que el monto de una reclamaci on Y se modela mediante una variable aleatoria con distribuci on exp. Para un valor de retenci on M 0 jo, calcule la funci on de distribuci on y la esperanza de las variables aleatorias m nY, M y m ax0, Y M . 123. Demuestre que la funci on generadora de probabilidad de la variable N R (n umero de reclamaciones que la reaseguradora afronta) en un reaseguro por exceso de p erdida con nivel de retenci on M es PN R t PN 1 p pt,

P Yj M y PN t es la funci on generadora de en donde p probabilidad del n umero total de reclamaciones N . 124. Considere un reaseguro por exceso de p erdida y sean N A y N R el n umero de reclamaciones afrontadas por el segurador y por el reasegurador respectivamente. El total de reclamaciones es N N A N R.

106 Suponga que N tiene distribuci on Poisson.

4. Reaseguro

Suponga ahora que N tiene distribuci on binn, p. Evaluando la probabilidad, por ejemplo, en el valor cero para ambas variables aleatorias, demuestre que: c) N A y N R no son independientes. d) N y N A no son independientes. 125. Suponga que un cierto riesgo S se representa mediante un modelo colectivo. Condicionando sobre los posibles valores de la variable aleatoria N , demuestre que las variables N A y N R tienen la misma distribuci on que N pero con distintos par ametros en los casos cuando N es Poisson, binomial y binomial negativa. Este es un m etodo alternativo de la demostraci on de la Proposici on 4.1 en donde se us o la funci on generadora de momentos. 126. Considere un riesgo S con distribuci on Poisson compuesta de par ametro . Suponga que cada reclamaci on Y tiene distribuci on Paretoa, b. Se adquiere un reaseguro por exceso de p erdida con nivel de retenci on M y por lo tanto la reclamaci on afrontada por nY, M . Demuestre que: la aseguradora es Y A m a) E Y b) E S
A

a) Condicionando sobre el valor de N , demuestre que las variables N A y N R son independientes. b) Compruebe que N A y N no son independientes. Verique, por ejemplo, que P N A 0, N 0 P N A 0 P N 0.

E Y E S

bM bM b

a1

a1

E Y . E S .

N 127. Suponga se tiene un riesgo de la forma S un el moj 1 Yj , seg delo colectivo, en donde cada reclamaci on se modela mediante una variable aleatoria con distribuci on exp. Bajo un reaseguro por exceso de p erdida con nivel de retenci on M , el monto a pagar por la nY, M . Demuestre aseguradora por cada reclamaci on es Y A m que:

4.3. Ejercicios 1 1 eM . 2 2 M 2M M b) E Y A 2 e . e 2 2 1 2M M 1 2M c) VarY A . e e 2 2 d) E Y A E Y . a) E Y A e) VarY A VarY .

107

Usando las f ormulas generales encuentre ahora la esperanza y vaN A nYj , M . rianza de S j 1 m

Cap tulo 5

Teor a de la credibilidad
Considere un cierto riesgo proveniente de un conjunto de asegurados vigentes por un periodo determinado. Si este grupo de asegurados es homog eneo en el sentido de que todos sus miembros tienen las mismas condiciones estoc asticas de realizar una reclamaci on, entonces es razonable aplicar una misma prima a todos ellos. Sin embargo, cuando el grupo no es homog eneo, o bien, surge con el paso del tiempo cierta heterogeneidad entre ellos, habr a subgrupos de bajo riesgo y otros de alto riesgo. Cobrar una misma prima a todos ser a injusto, y no ser a bueno para la aseguradora, pues eventualmente los asegurados de bajo riesgo buscar an un mejor trato con otra aseguradora. La idea fundamental es aplicar primas menores a los asegurados de bajo riesgo y primas mayores a los de alto riesgo, con base en el historial de reclamaciones que cada uno de los asegurados o subgrupos hayan realizado durante los periodos anteriores. En la teor a de la credibilidad se estudian m etodos para el c alculo de primas a trav es de la combinaci on de la experiencia individual (historial de reclamaciones) y la experiencia de grupo (comportamiento te orico). Este cap tulo es breve y u nicamente se exponen algunas ideas introductorias a la credibilidad cl asica y Bayesiana. Una exposici on m as completa de este tema puede encontrarse en los textos [6], [9] y [23].

109

110

5. Teor a de la credibilidad

5.1.

Credibilidad cl asica

Esta perspectiva de la teor a de la credibilidad constituye el primer intento de denir la credibilidad para un conjunto de observaciones de un riesgo. Las ideas que presentaremos en esta primera secci on fueron propuestas inicialmente por A. H. Mowbray en 1914 y desarrolladas despu es por varios actuarios estadounidenses durante la primera mitad del siglo XX. Debido a ello es que a la credibilidad cl asica se le conoce tambi en como credibilidad americana.

Credibilidad completa
Suponga que S representa el riesgo para una aseguradora correspondiente a un asegurado o un conjunto de asegurados con ciertas caracter sticas particulares, y v alido por un periodo jo, por ejemplo, un a no. Sean S1 , . . . , Sm los montos de las reclamaciones efectuadas por este asegurado o grupo de la media muestral o asegurados durante m periodos consecutivos, y sea S promedio de reclamaciones, es decir, S 1 S1 Sm. m

a lo largo del tiempo para Nos interesa estudiar el comportamiento de S un conjunto de asegurados en particular, pues deseamos determinar si la prima que se les cobra a cada uno de ellos es la adecuada. Si se considera que las variables S1 , . . . , Sm son independientes, id enticamente distribuidas y con esperanza nita, entonces la ley de los grandes n umeros garantiza que converge a la constante desconocida E S , conforme el la media muestral S n umero de sumandos crece a innito, v ease la Figura 5.1. como funci Es decir, el comportamiento de S on de m es posiblemente oscilatorio alrededor de E S pero eventualmente va a estabilizarse en ese valor. est La pregunta es, qu e tan grande debe ser m para que S e razonablemente para calcular la cercano al valor desconocido E S ? La intenci on es usar S prima pura de riesgo de un asegurado o grupo de asegurados, siempre y cuando se tenga suciente historial para dar credibilidad a tal estad stica. El siguiente criterio es una posible respuesta a la pregunta planteada.

sica 5.1. Credibilidad cla

111

S E S m

Figura 5.1

Denici on 5.1 Sea S1 , S2 , . . . , Sm una colecci on de v.a.i.i.d. con esperanza nita. Sean k 0, 1 y p 0, 1 dos n umeros jos. Se dice que la media muestral S S1 Sm m tiene credibilidad completa k, p si E S P S kE S

p.

(5.1)

tiene credibilidad completa si dista de La condici on anterior establece que S E S , en menos de kE S con probabilidad mayor o igual a p. Observe que la denici on tiene sentido cuando E S es distinta de cero. Naturalmente se toman valores de k cercanos a cero y valores de p cercanos a 1, t picamente k 0.05 y p 0.9 . El problema es entonces encontrar el valor del n umero de periodos de observaci on m para que se cumpla el criterio (5.1).

Credibilidad completa bajo hip otesis de normalidad


Encontraremos una condici on sobre el n umero de periodos de observaci on m para obtener credibilidad completa cuando S tiene una distribuci on aproxi E S , VarS VarS m y que estos mada normal. Observe que E S valores son desconocidos. Tenemos entonces que, por el teorema central del

112 l mite, la parte izquierda de (5.1) es E S P S kE S

5. Teor a de la credibilidad

E S S kE S VarS m VarS m kE S kE S P Z VarS m VarS m kE S kE S VarS m VarS m k mE S 1. 2 VarS P

Como esta probabilidad debe ser mayor o igual a p seg un el criterio (5.1), se obtiene la desigualdad k m E S VarS 1p . 2

Deseamos encontrar el valor de m m as peque no que cumpla esta desigualdad. Para ello consideraremos que se tiene la igualdad en esta ecuaci on. Sea uq el q -cuantil de la distribuci on normal, es decir uq q . Entonces k m E S VarS u1p2 .

Despejando el par ametro m se obtiene el siguiente resultado.

Proposici on 5.1 Sea S1 , S2 , . . . , Sm una colecci on de v.a.i.i.d. con media y varianza nitas. La media muestral S S1 Sm m alcanza credibilidad completa k, p de manera aproximada cuando m
2 u 1p2 VarS

k 2 E 2 S

(5.2)

Tomando k

0.05 y p

0.9 tenemos que u1p2

u0.95

1.6449. Por lo

sica 5.1. Credibilidad cla tanto la desigualdad (5.2) se reduce a m 1082 VarS . E 2 S

113

El problema a un prevalece puesto que los t erminos E S y VarS no son conocidos. En este punto se introduce otro factor de inexactitud en el an alisis al sustituir E S y VarS por la media y varianza muestrales usando la informaci on que se tenga a disposici on al momento de hacer la estimaci on: E S VarS s 1 1 sj , nj 1
n n

n1

sj s 2 .

j 1

Sustituyendo estos valores en la f ormula se puede conocer una aproximaci on tenga credibilidad compledel n umero de periodos m de historial para que S ta. Observe que cuando p crece, es decir, cuando se desea tener una mayor , entonces el n conanza en la estabilizaci on de S umero de periodos de observaci on m tambi en crece. Por otro lado, si el par ametro k crece, es decir, si se pide que la distancia entre S y E S tenga mayor amplitud, entonces m decrece. Observemos nalmente que, despu es de algunos c alculos sencillos, la aproximaci on para la credibilidad completa (5.2) puede expresarse de la siguiente forma: 2 2 k E S . VarS (5.3) 2 u 1p2 Esto signica que la credibilidad completa se logra cuando la varianza o va ha sido sucientemente reducida. En esta expresi riabilidad de S on el t ermino desconocido E S debe ser sustituido por la media muestral. En general se necesitan muchos periodos de observaci on de un riesgo para obtener la credibilidad completa de la media muestral, y ello no es factible de tenerse en muchos casos. Ejemplo 5.1 Suponga que un riesgo para un grupo de asegurados sigue el modelo colectivo S
N

Yj ,

j 1

114

5. Teor a de la credibilidad

en donde N tiene distribuci on Poisson con desconocido. Suponga adicionalmente que cada reclamaci on individual Y tiene distribuci on exp. De acuerdo con la notaci on previa, el primer y segundo momentos de Y son 1 1 y 2 22 . Entonces VarS Por lo tanto, tomando nuevamente k es m o bien, m 2164. Observe que m representa el total de reclamaciones promedio durante m periodos y tal cantidad es desconocida pues no conocemos . Sin embargo, aproximando m por el estimador N1 N2 Nm , la condici on anterior establece que despu es de 2164 reclamaciones se obtiene credibilidad completa , suponiendo disponibles tales estad para S sticas. As , en este caso el criteerminos del rio de credibilidad completa para S ha quedado expresado en t n umero de reclamaciones promedio m y no del n umero de periodos m. 1082 E S 1 2 , 22 . 0.9, la aproximaci on (5.2)

0.05 y p 22 , 2 2

Credibilidad parcial
para E S se propone la combinaci on lineal conEn lugar del estimador S vexa 1 z E S , zS (5.4)

on en donde z 0, 1 es llamado factor de credibilidad. Mediante una expresi como la propuesta se le otorga credibilidad parcial a la media muestral . Sin embargo, es muy importante notar que la expresi S on (5.4) no es un estimador de la media desconocida E S puesto que depende de ella misma. A pesar de esto, aplicaremos la condici on de credibilidad completa (5.1) a esta expresi on y encontraremos una f ormula para el factor de credibilidad z . As , la condici on (5.1) aplicada a la expresi on (5.4) se reduce a E S P z S kE S

p.

sica 5.1. Credibilidad cla

115

Observe que esta f ormula hace referencia u nicamente al primer sumando de (5.4). Reescribimos la expresi on anterior de la forma siguiente: E S P S k E S z

p.

Esta es la misma condici on para la credibilidad completa s olo que en lugar del par ametro k tenemos ahora k z , es decir, la credibilidad completa k, p 1 z E S es equivalente a la credibilidad completa k z, p para para z S S.

Credibilidad parcial bajo hip otesis de normalidad [i]


, la credibilidad comNuevamente bajo la hip otesis de normalidad para S 1 z E S se obtiene de manera aproximada cuando pleta k, p para z S m z 2 u2 1p2 VarS k2 E 2 S . (5.5)

Considerando igualdad se obtiene una expresi on para el factor de credibilidad k m E S . (5.6) z u1p2 VarS Este valor de z excede el valor de 1 para valores sucientemente grandes de m, por lo tanto se dene el factor de credibilidad como z m n

m E S , 1 . u1p2 VarS
k

(5.7)

La esperanza y varianza de S se aproximan mediante la media y varianza muestrales calculados para un n umero determinado de periodos m. Para los valores de k 0.05 y p 0.9 se tiene que z m n m 32.89

E S , 1 . VarS

116

5. Teor a de la credibilidad

Credibilidad parcial bajo hip otesis de normalidad [ii]


Otro mecanismo para obtener el factor de credibilidad (5.7) es proponiendo stica como estimador de E S a la estad 1 z , zS (5.8)

en donde es la prima que se le cobra al asegurado o grupo de asegurados antes de tener alguna experiencia real de sus reclamaciones. A esta prima se le llama prima de manual, pues es calculada antes de tomar en cuenta el historial de reclamaciones. De acuerdo al criterio (5.3), el estimador (5.8) tiene credibilidad completa cuando su varianza cumple 1 z Varz S k 2 E 2 S u2 1p2

Considerando igualdad y despejando z se encuentra nuevamente la expresi on (5.6). Ejemplo 5.2 Considere nuevamente un riesgo S con distribuci on Poisson N compuesta S on Poisson y Y j 1 Yj , en donde N tiene distribuci tiene distribuci on exp. Para los valores de k y p mencionados antes, la 1 z E S se reduce a condici on de credibilidad parcial (5.5) para z S m 2164z 2 , m46.52, en donde Considerando igualdad y despejando z se obtiene z m se sustituye por el n umero de reclamaciones totales que se hayan presentado en m periodos, siempre y cuando m 46.52. De esta manera la prima pura de riesgo por credibilidad parcial es la combinaci on lineal prima m m E S , S 1 46.52 46.52

es el valor esperado te orico supuesto para el riesgo en donde E S es la experiencia observada. Es interesante notar que el factor de S y S credibilidad z m46.52 es creciente conforme la expresi on m crece, y reduciendo el factor para dando as paulatinamente mayor credibilidad a S la media te orica E S . Cuando m alcanza el valor 2164 (cuya ra z cuadrada es 46.52) la media muestral S alcanza credibilidad completa.

5.2. Credibilidad Bayesiana

117

5.2.

Credibilidad Bayesiana

La credibilidad Bayesiana es otra forma de incorporar el historial de reclamaciones de un grupo de asegurados en el c alculo de las primas. Explicaremos a continuaci on de manera breve la situaci on general en esta perspectiva de la estad stica y despu es aplicaremos estas ideas en dos casos particulares.

Estimaci on Bayesiana
En la estad stica tradicional se considera el problema de estimaci on de un par ametro de una distribuci on de probabilidad dada f x; . Para ello se considera una muestra aleatoria de esta distribuci on y se estudian distintos m etodos para estimar , considerando siempre que este par ametro tiene un valor desconocido y jo. Existe, sin embargo, un punto de vista distinto llamado estimaci on Bayesiana. Desde esta perspectiva se considera que es una variable aleatoria para la cual se asume una distribuci on de probabilidad h llamada a priori. Esta distribuci on reeja cierta informaci on subjetiva o cuantitativa que el observador pueda tener sobre el par ametro . La distribuci on conjunta de una muestra aleatoria de la distribuci on f x; y el par ametro es f x1 , . . . , xm , f x1 , . . . , xm h
m i 1

f xi h.

La distribuci on marginal de la muestra es entonces f x1 , . . . , xm

m
i 1

f xi h d.

Conociendo estas funciones puede ahora calcularse la distribuci on condicional de dada la muestra como sigue: g x1 , . . . , xm f x1 , . . . , xm h f x1 , . . . , xm
m i 1 m

f xi h f xi h d . (5.9)


i 1

118

5. Teor a de la credibilidad

De esta forma la distribuci on a priori h representa cierta informaci on que el observador conoce del par ametro antes de tomar la muestra, y la as llaon modicada mada distribuci on a posteriori g x1 , . . . , xm es la distribuci a la luz de la muestra aleatoria. Teniendo ahora esta distribuci on a posterioripara , uno puede proponer varias formas de estimar este par ametro, una de ellas es simplemente tomar la esperanza de esta distribuci on, es decir, un estimador Bayesiano para es E x 1 , . . . , x m

g x1 , . . . , xm d.

En general, la expresi on que pueda encontrarse para la distribuci on a posteriori para usando la f ormula (5.9) puede ser muy complicada y no ser una distribuci on con la cual estemos familiarizados. Ilustraremos estas ideas con un ejemplo particular en donde el resultado nal, sin embargo, es una distribuci on conocida. Aplicaremos despu es la estimaci on Bayesiana al problema de calcular primas puras de riesgo tomando en cuenta el historial de reclamaciones. Ejemplo 5.3 Suponga que X1 , . . . , Xm es una muestra aleatoria de la distribuci on Berp, y suponga adem as que el par ametro p tiene una distribuci on betaa, b, con a y b conocidos. Observe que el soporte de la distribuon ci on beta es el intervalo 0, 1, de modo que en este sentido tal distribuci es factible para el par ametro p. La densidad conjunta de la muestra y el par ametro es f x 1 , . . . , x m , p f x1 , . . . , xm p hp 1 pm x 1 pmmx pa1 1 pb1 B a, b 1 1 b1 . pamx 1 pmmx B a, b

Integrando respecto a p se obtiene la densidad marginal de la muestra, f x1 , . . . , xm


1 1 1 b1 pamx dp 1 pmmx B a, b 0 B a mx , m mx b . B a, b

5.2. Credibilidad Bayesiana Por lo tanto, la densidad a posteriori para p es g p x1 , . . . , xm

119

1 1 b1 . pamx 1 pmmx B a mx , m mx b

, m mx b, y su esperanza puede usarse Esta es la densidad betaa mx como un estimador Bayesiano para p, es decir, p a mx mab m m a . x 1 mab mab ab

(5.10)

Esta u ltima expresi on para el estimador Bayesiano es interesante pues tiene la misma forma que la que se hab a propuesto en la credibilidad parcial. Observe que en la ecuaci on (5.10) conforme el tama no de la muestra m crece, el estimador Bayesiano para la media toma esa informaci on y le asocia un peso mayor a la media muestral x en detrimento de la media de la distribuci on a priori aa b. Ahora aplicaremos estas ideas al problema del c alculo de primas tomando en cuenta la experiencia de un riesgo. Suponga que las variables S1 , . . . , Sm representan el historial de reclamaciones en m a nos o periodos que se han registrado de un riesgo dado. Suponga adem as que estas variables son independientes y todas ellas tienen una distribuci on com un dependiente de un par ametro desconocido . Por lo tanto la esperanza del riesgo E S es una funci on de este par ametro . Bajo el enfoque Bayesiano se considera que el par ametro es una variable aleatoria para la cual se asume una distribuci on de probabilidad a priori. La esperanza a posteriori de , es decir, E S1 , . . . , Sm , representa una estimaci on para tomando en cuenta el historial S1 , . . . , Sm . As , podemos incorporar este estimador Bayesiano en el c alculo de E S y encontrar la prima pura de riesgo. En los ejemplos que consideraremos E S es directamente el par ametro y por lo tanto su estimaci on es la prima pura de riesgo para S , es decir, E S E S1 , . . . , Sm .

A esta esperanza a posteriori se le llama prima de credibilidad Bayesiana. Los casos que consideraremos para la distribuci on de S son: la distribuci on

120

5. Teor a de la credibilidad

Poisson con media , y la distribuci on normal con media . Encontraremos que en estos casos la prima pura de riesgo tiene la forma de la credibilidad parcial mencionada antes. Ejemplo 5.4 (Modelo Poisson-gama) Este modelo adquiere su nombre a partir de las siguientes hip otesis: se postula que cada una de las variables aleatorias independientes S1 , . . . , Sm tiene distribuci on Poisson con par ametro , el cual se considera aleatorio con distribuci on a priori gama, , con y par ametros conocidos. Observe que en este modelo E S y se considera que los montos de las reclamaciones toman valores enteros. La funci on de densidad a posteriori de es, para x 0, g S1 , . . . , Sm

f S1 , . . . , Sm h

f S1 , . . . , Sm h d Sj !

m Sj e 1e j 1

m Sj e 1e d
0

Sj ! j 1 m S 1 e

mS 1 em d

m m S mS 1 em . mS , m . Por lo tanto la Es decir, la densidad a posteriori es gamamS

prima por credibilidad, esperanza de esta densidad, es prima E S

E S1 , . . . , Sm mS m m S m m z S 1 z ,

5.2. Credibilidad Bayesiana

121

en donde z mm es el factor de credibilidad. Esta cantidad crece mon otonamente a 1 cuando m crece a innito, dando cada vez m as credibili y favoreciendo cada vez menos a la media te dad a la media muestral S orica as que cuando m crece a innito, la media de la distribu . Observe adem ci on a posteriori converge a la media muestral l mite dado por el historial de m 2 reclamaciones, y que la varianza de dada por Var mS converge a cero, lo cual indica que la distribuci on a posteriori se concentra cada vez m as alrededor de su media. Ejemplo 5.5 (Modelo normal-normal) En este modelo se postula que cada una de las reclamaciones S1 , . . . , Sm tiene distribuci on N, 2 , en 2 donde el par ametro es conocido y la media es una variable aleatoria con distribuci on N, 2 , con y 2 conocidos. La primera hip otesis puede ser justicada en el caso cuando los montos anuales se componen de un gran n umero de reclamaciones individuales, para ello no es necesario suponer que las reclamaciones individuales tienen la misma distribuci on. La segunda hip otesis podr a ser razonable si es que los par ametros y 2 son tales que la probabilidad asignada a la parte negativa del eje es muy peque na. Tenemos nuevamente en este caso la situaci on E S y nuestro objetivo es estimar mediante estad stica Bayesiana este par ametro desconocido. La funci on de densidad a posteriori de es g S1 , . . . , Sm

f S1 , . . . , Sm h

f S1 , . . . , Sm h d 1 2 2 1 2 2 e e
m j 1

Sj 2 22 Sj 2 22

1 2 2 1

22
2

m Sj 2 j 1

m j 1

2 2

22 d

Nos concentramos en analizar u nicamente el exponente. Tenemos que

2 2

2 2

1 mS 2 2m 2 2 2 2 2 2 2 2

m 2 Sj j 1

. 2 2 2 2

122

5. Teor a de la credibilidad

Completando el cuadrado en , esta expresi on se puede escribir como sigue S m 1 2 mS 2 m m 2 2 2 2 2 2 Sj 2 2 . m 1 m 1 2 2 2 2 j 1 2 2 2 1 2 2 2 Este exponente aparece tanto en el numerador como en el denominador, y como los u ltimos dos sumandos no dependen de estos desaparecen completamente al efectuar el cociente. Lo que resulta es nuevamente la distribuci on normal g S1 , . . . , Sm

1 exp m 1 2 2 2 1 E S

S m 1 2 m 2 2 2 2 2 m 2

12 1

La media de esta distribuci on es entonces la prima por credibilidad, es decir, prima

E S1 , . . . , Sm S m 12 m 2 2 2 m 2 2 S m 2 2 m 2 2 1 z , zS

m 2 m 2 2 es el factor de credibilidad, el cual tiene en donde z nuevamente comportamiento mon otono creciente a 1 conforme m crece a m 1 1 innito. Observe adem as que Var y que esta cantidad 2 2 converge a cero cuando el tama no de muestra m crece a innito, indicando nuevamente que la distribuci on a posteriori se concentra cada vez m as alrededor de su media. En los ejemplos anteriores ha sucedido que la distribuci on a posteriori ametro de inter es pertenece a la misma familia g x1 , . . . , xm para el par

5.3. Ejercicios

123

de la distribuci on a priori h. Cuando esta situaci on ocurre, se dice que la distribuci on de la muestra y la distribuci on a priori para el par ametro son conjugadas, o que estas dos familias de distribuciones son conjugadas. En nuestros ejemplos, la distribuciones Poisson y gama son conjugadas, as como la distribuci on normal es conjugada consigo misma. Mediante estos dos ejemplos se ha mostrado que la propiedad de conjugaci on para dos familias de distribuciones tiene ventajas, pues al poder identicar la distribuci on a posteriori pueden calcularse sus caracter sticas num ericas mediante las f ormulas conocidas, en particular, su esperanza.

Comentarios y referencias
En este cap tulo hemos planteado el problema de incorporar el historial de reclamaciones de un asegurado o grupo de asegurados en el c alculo de la prima. Nuestra perspectiva ha sido introductoria y u nicamente los elementos iniciales de algunos modelos se han mencionado. Una exposici on m as completa sobre la teor a de la credibilidad puede encontrarse en los textos de Klugman et al. [23] y Boland [6]. El libro de B uhlmann y Gisler [9] est a dedicado completamente al desarrollo de este tema.

5.3.

Ejercicios
Credibilidad completa

128. Lanzamiento de una moneda. Sean S1 , . . . , Sm los resultados de m lanzamientos sucesivos de una moneda con valores 0 y 1, dependiendo si se obtiene una cara de la moneda o la otra. a) Suponiendo que la moneda est a equilibrada, use la aproximaci on normal para encontrar el valor de m para obtener la credibilidad completa k, p para S S1 Smm. Suponga k 0.1 y p 0.9. b) Suponga ahora que no sabemos que la moneda est a equilibrada pero la probabilidad de obtener el valor 1 es tal que 34. Obtenga una aproximaci on del valor de m 14 para la credibilidad completa de la media muestral. Suponga nuevamente k 0.1 y p 0.9.

124

5. Teor a de la credibilidad

129. Encuentre el valor de m para obtener la credibilidad completa k, p S1 Sm m de un riesgo S con distribuci para S on N5, 1. on conoceSuponga k 0.15 y p 0.9. Observe que en esta situaci mos E S y simplemente se pide aplicar la condici on para la credibilidad completa de la media muestral. 130. Suponga que el n umero de observaciones m de un riesgo es jo y se desea que la media muestral de estas observaciones cumpla la condici on (5.2) para la credibilidad completa k, p modicando los valores de k y p. Demuestre que debe cumplirse alguna de las siguientes dos condiciones: a) k b) p u1p2 VarS . mE 2 S 2 VarS

mk2 E 2 S

1.

131. Credibilidad para el n umero de reclamaciones. Sean N1 , . . . , Nm el n umero de reclamaciones durante m periodos de un riesgo S con distribuci on Poisson compuesta, es decir, S
N j 1

Yj ,

en donde N tiene distribuci on Poisson con desconocido. Encuentre un criterio para darle credibilidad completa k, p a N 1 N1 N2 Nm m 0.05 y p 0.9 .

como el verdadero valor de . Suponga k Credibilidad parcial

132. Use la aproximaci on normal para encontrar la prima por credibilidad parcial, a partir de una muestra S1 , . . . , Sm , de un riesgo S con distribuci on Pareto4, 3. Suponga k 0.1 y p 0.9.

5.3. Ejercicios

125

133. Use la aproximaci on normal para encontrar la prima por credibilidad parcial con k 0.1 y p 0.9 considerando el historial de N reclamaciones S1 , . . . , Sm de un riesgo de la forma S j 1 Yj , en donde: a) N se distribuye binn, p con n distribuye exp con 110. 100 y p 10 y p 12, y Yj se 13, y Yj se

b) N se distribuye bin neg, p con distribuye exp con 110. Estimaci on Bayesiana

134. Suponga que el n umero de reclamaciones X de un cierto riesgo sigue una distribuci on Poisson de par ametro . Se considera que el par ametro es desconocido y se le modela como una variable aleatoria con distribuci on exp. Demuestre que la distribuci on a posteriori o no condicional de X es la siguiente distribuci on geom etrica: P X x

x1

para x

0, 1, 2, . . .

135. Suponga que N tiene una distribuci on Poisson, y que condicionada al valor de N la variable X tiene distribuci on binN, p. Demuestre que la distribuci on no condicional de X es Poissonp.

Cap tulo 6

Procesos estoc asticos


En este cap tulo se presenta una introducci on breve al tema de los procesos estoc asticos. Se explican algunos conceptos y propiedades generales de este tipo de modelos matem aticos y se estudian brevemente algunos ejemplos particulares de procesos estoc asticos. Este material ser a usado en la u ltima parte del libro en donde consideraremos algunos modelos estoc asticos dependientes del tiempo aplicados a los seguros. Supondremos como elemento base un espacio de probabilidad , F , P .

6.1.

Conceptos elementales

Denici on 6.1 Un proceso estoc astico es una colecci on de variables aleatorias Xt : t T , parametrizada por un conjunto T llamado espacio parametral. A los valores de estas variables aleatorias los llamaremos estados del proceso.

El conjunto T usualmente se interpreta como un conjunto de tiempos. As , para cada tiempo t se tiene la variable aleatoria Xt , la cual representa el estado o valor del sistema en estudio al tiempo t. Por ejemplo, en nanzas Xt puede representar el precio de un bien o una acci on al tiempo t; 127

128

sticos 6. Procesos estoca

en el contexto de los seguros Xt puede representar el balance al tiempo t de una aseguradora respecto de una cartera de asegurados; en f sica Xt puede modelar la posici on o velocidad de una part cula que se mueve debido a los m ultiples choques con otras part culas circundantes. Se dice que un proceso es a tiempo discreto en caso de que el conjunto de par ametros sea un conjunto discreto, por ejemplo, T 0, 1, 2, . . .. As , el sistema se observa o mide en tiempos discretos. En este caso el proceso consiste de una 0 o sucesi on innita de variables aleatorias que se denota por Xn : n Xn : n 0, 1, 2, . . . y consiste expl citamente de la sucesi on X0 , X1 , X2 , . . .

Xn X5 X3 X1 X2 X0 n 1 2 3 4 5 X4

Figura 6.1

Se dice en cambio que el proceso es a tiempo continuo cuando el conjunto de par ametros consiste de un subintervalo de R, por ejemplo, T 0, , y se considera entonces que el sistema se observa continuamente en el tiempo. En este caso el proceso se puede escribir como sigue:

X t : t

0.

As , tomaremos como convenci on que si el sub ndice es n, el proceso es a tiempo discreto y si es t, el tiempo es continuo. Un proceso estoc astico tambi en puede considerarse como una funci on de dos variables: X:T

R,

6.1. Conceptos elementales

129

tal que para cada t T , la funci on Xt es una variable aleatoria, mientras que para cada en , la funci on t Xt es una trayectoria o realizaci on del proceso. Con este modelo se pretende representar la evoluci on aleatoria de un sistema a lo largo del tiempo. En la Figura 6.1 se muestra una trayectoria de un proceso a tiempo discreto y en la Figura 6.2 se ilustra el caso cuando el tiempo es continuo.
Xt X t2 X t1 X t3 t t1 t2 t3

Figura 6.2 Una de las caracter sticas m as importantes que distingue a los distintos tipos de procesos estoc asticos es el grado de dependencia probabil stica que pudiera establecerse entre las variables aleatorias que conforman el proceso. La especicaci on de estas dependencias nos permitir a denir m as adelante algunos tipos de procesos estoc asticos particulares. Veremos a continuaci on algunas propiedades generales que pueden cumplir los procesos estoc asticos.

Propiedad de Markov
Se dice que un proceso estoc astico a tiempo discreto Xn : n 0 cumple la propiedad de Markov si para cualesquiera estados o valores x0 , x1 , . . . , xn1 se cumple la identidad De esta forma la probabilidad del evento futuro Xn1 xn1 s olo depende del evento Xn xn , mientras que la informaci on correspondiente al evento pasado X0 x0 , . . . , Xn1 xn1 es irrelevante. Puede observarse P Xn1 x n 1 X 0 x 0 , . . . , Xn xn P Xn1 xn1 Xn xn .

130

sticos 6. Procesos estoca

que mediante esta propiedad se est a especicando un tipo de dependencia entre las variables aleatorias del proceso. La propiedad de Markov puede extenderse sin dicultad al caso cuando el proceso es a tiempo continuo y daremos los detalles m as adelante.

Procesos con incrementos independientes


Se dice que un proceso estoc astico a tiempo continuo Xt : t 0 tiene t1 t2 incrementos independientes si para cualesquiera tiempos 0 tn, las variables aleatorias Xt 1 , Xt 2

X t , . . . , Xt X t
1 n

n 1

son independientes. Esto quiere decir que los desplazamientos que tiene el proceso en estos intervalos disjuntos de tiempo son independientes unos de otros. Cuando el proceso es a tiempo discreto la denici on es completamente an aloga.

Procesos con incrementos estacionarios


Se dice que un proceso estoc astico a tiempo continuo Xt : t 0 tiene incrementos estacionarios si para cualesquiera tiempos s t, y para cualquier h 0, las variables aleatorias Xth Xsh y Xt Xs tienen la misma distribuci on de probabilidad. Es decir, el incremento que tiene el proceso entre los tiempos s y t s olo depende de estos tiempos a trav es de la diferencia cos de s y t. Cuando el proceso es a tiempo t s, y no de los valores espec discreto la denici on es nuevamente an aloga. Las propiedades generales de los procesos estoc asticos que hemos mencionado ser an identicadas en los varios modelos estoc asticos que veremos m as adelante.

6.2.

Filtraciones y tiempos de paro

Deniremos en esta secci on el concepto de ltraci on y en particular deniremos la ltraci on generada por un proceso estoc astico. Con estos elementos deniremos el concepto de tiempo de paro. Estos conceptos ser an usados

6.2. Filtraciones y tiempos de paro

131

principalmente en los resultados que mencionaremos sobre martingalas, las cuales constituyen un tipo de proceso estoc astico importante. Denici on 6.2 Dado un espacio de probabilidad , F , P , a una familia on si para 0 s t, se de sub - algebras Ft t 0 de F se le llama ltraci cumplen las contenciones Fs Al espacio , F , P, Ft t
0

Ft

F.

se le llama espacio de probabilidad ltrado.

El concepto de ltraci on puede denirse de manera an aloga tambi en para tiempos discretos. En ese caso se escribe Fn n 0 y naturalmente la condiFm F para 0 n m. El concepto de ci on de monoton a es Fn adaptabilidad de un proceso estoc astico respecto de una ltraci on que se enuncia a continuaci on tambi en tiene su contraparte discreta. Denici on 6.3 Se dice que un proceso a tiempo continuo Xt : t 0 es adaptado a una ltraci on Ft t 0 si para cada t 0, la variable Xt es Ft -medible. Todo proceso estoc astico Xt : t por Ft 0 determina una ltraci on natural dada

Xs : 0

t ,

0.

No es dif cil ver que todo proceso es adaptado a su ltraci on natural. En este caso a la - algebra Ft se le interpreta como la historia del proceso al tiempo t, pues en ella se encuentran todos los posibles eventos o sucesos que el proceso haya tenido hasta ese momento.

132

sticos 6. Procesos estoca

Denici on 6.4 Un tiempo de paro respecto de una ltraci o n F t t 0, tal que t Ft para cada t 0. una funci on :

es

Esto es, un tiempo de paro es una variable aleatoria no negativa, con posible valor innito, tal que puede determinarse la ocurrencia o no ocurrencia del olo con la informaci on o historia del proceso hasta el tiempo evento t s t. Por ejemplo, y sin entrar en mayores detalles t ecnicos, el tiempo aleatorio que transcurre hasta la ocurrencia de un cierto evento es un tiempo de paro, este tiempo aleatorio puede ser, por ejemplo, el tiempo que transcurre hasta la llegada de la n- esima reclamaci on a una compa n a aseguradora. Pueden denirse tambi en tiempos de paro para ltraciones a tiempo discreto de manera completamente an aloga a la denici on anterior. Finalmente mencionaremos que un tiempo de paro es nito si P 0. En las siguientes secciones estudiaremos muy brevemente algunos tipos de procesos estoc asticos que usaremos en la u ltima parte del texto.

6.3.

Caminatas aleatorias

Una caminata aleatoria simple sobre el conjunto de n umeros enteros Z es un proceso estoc astico a tiempo discreto Xn : n 0, 1, . . . que evoluciona de la siguiente forma: iniciando en el estado 0, al tiempo 1 el proceso puede pasar al estado 1 con probabilidad p, o al estado 1 con probabilidad q , en donde p q 1. Se usa la misma regla para los siguientes tiempos, es decir, estando en el estado k , al siguiente instante el proceso pasa al estado k 1 con probabilidad p, o al estado k 1 con probabilidad q . El valor de Xn es el estado donde se encuentra el proceso al tiempo n y puede escribirse como Xn 1 2 n , en donde 1 , 2 , . . . es una sucesi on de variables aleatorias independientes con id entica distribuci on P P

1 1

p, q

1 p.

6.3. Caminatas aleatorias


Xn

133

Figura 6.3

Una posible trayectoria de este proceso se muestra en la Figura 6.3 y es uno de los mejores ejemplos para entender el car acter aleatorio en la din amica de un proceso estoc astico a lo largo del tiempo. La independencia de las variables aleatorias 1 , 2 , . . . tiene como consecuencia que la caminata aleatoria simple cumpla la propiedad de Markov y que sea un proceso estoc astico con incrementos independientes y estacionarios. En t erminos generales el objetivo es estudiar el comportamiento de la v.a. Xn al paso del tiempo. Uno de los elementos fundamentales para estudiar a las caminatas aleatorias est a dado por las probabilidades de transici on. Para cualesquiera enteros i y j , las probabilidades de transici on en un paso de la caminata aleatoria simple son: P Xn1 j Xn i

p si j i 1, q si j i 1, 0 otro caso.

Como estas probabilidades no dependen de n, se dice que son homog eneas en el tiempo, es decir, son las mismas para cualquier valor de n. Pueden considerarse tambi en caminatas aleatorias que inician en cualquier valor entero o que permiten saltar de un estado en s mismo al siguiente instante (es decir, no cambiar de estado), o bien, que los saltos no sean unitarios ni los tiempos en los que efect uan los saltos sean necesariamente tiempos enteros, e incluso pueden denirse caminatas en dimensiones mayores, por ejemplo, en Z2 . Las caminatas aleatorias son procesos que pueden representar versiones discre-

134

sticos 6. Procesos estoca

tas de procesos a tiempo continuo m as complejos. En el siguiente cap tulo estudiaremos algunas caracter sticas de un proceso a tiempo discreto muy similar a una caminata aleatoria que representar a el balance de una aseguradora. Para las caminatas aleatorias se pueden plantear diversos problemas matem aticos, por ejemplo, encontrar la distribuci on de la variable Xn para cualquier valor de n, o encontrar la probabilidad de que en alg un momento la caminata regrese a su posici on de origen, o que nunca tome valores negativos, o alguna otra condici on interesante sobre sus trayectorias. En el texto de Norris [26] o Resnick [29] se puede encontrar la soluci on a algunos de estos problemas, as como un estudio m as completo sobre caminatas aleatorias.

6.4.

Cadenas de Markov

Este tipo de procesos es tambi en de amplia aplicaci on y se cuenta con una teor a matem atica bastante desarrollada.

Denici on 6.5 Una cadena de Markov es un proceso estoc astico a tiempo discreto Xn : n 0, 1, . . . con espacio de estados discreto y tal que 0 y satisface la propiedad de Markov, esto es, para cualquier entero n cualesquiera estados x0 , x1 , . . . , xn1 se cumple la identidad P Xn1 P Xn1 xn1 Xn x n , . . . , X1 xn1 Xn x n . x 1 , X0 x0

A las probabilidades condicionales mencionadas en la denici on anterior se les llama probabilidades de transici on del tiempo n al tiempo n 1, y se les denota por pxn ,xn1 n, n 1. Adicionalmente, se dice que la cadena es estacionaria u homog enea en el tiempo si estas probabilidades no dependen expl citamente de los tiempos particulares n y n 1, sino u nicamente de los estados involucrados. De esta forma, si de manera general se considera la probabilidad de transici on del estado i al estado j de una unidad de tiempo cualquiera a la siguiente unidad de tiempo, la probabilidad de transici on del 1 en como pij , primer estado al segundo se escribe como pij , o pij 1, o tambi

6.4. Cadenas de Markov es decir, sin importar el valor del entero n: pij P Xn j Xn1 i.

135

A estas probabilidades se les llama probabilidades de transici on en un paso. En general se considera como espacio de estados para una cadena de Markov un subconjunto nito de el. Haciendo el conjunto discreto 0, 1, . . . o alg variar los valores de los ndices i y j en este espacio de estados se forma la matriz de probabilidades de transici on en un paso:

p00 p01 p02 p10 p11 p12 p20 p21 p22


. . . . . . . . .

, todas las En la entrada i, j de esta matriz aparece la probabilidad pij . As entradas son n umeros no negativos y la suma de ellos en cada rengl on es 1. A tales matrices cuadradas se les llama matrices estoc asticas. Rec procamente, a partir de una matriz con estas caracter sticas junto con una distribuci on inicial para X0 , se puede construir una cadena de Markov. Es por ello que a una matriz estoc astica tambi en se le puede llamar cadena de Markov. La cadena puede iniciar en un estado particular o en cualquiera de ellos de manera aleatoria por medio de una distribuci on de probabilidad inicial 0, 1, . . ..

Probabilidades de transici on en n pasos


Uno de los problemas que se pueden plantear para las cadenas de Markov es el de encontrar las probabilidades de transici on de un estado a otro estado cualquiera en n pasos sucesivos. Estas probabilidades se denen como sigue pij n P X m n j Xm i .

Por la estacionariedad de las probabilidades de transici on en un paso, el lado derecho de esta identidad no depende realmente del sub ndice m. La soluci on al problema planteado se resuelve a trav es de la igualdad de ChapmanKolmogorov, la cual establece que para cualesquiera estados i y j y cualesquiera tiempos 0 r n, pij n

pik r pkj n r.

136

sticos 6. Procesos estoca

De este modo la probabilidad de pasar del estado i al estado j en n pasos se descompone en la probabilidad de las distintas trayectorias que inician en i y terminan en j , pero que al tiempo intermedio r visitan el estado k , sumando estas probabilidades sobre todos los posibles estados intermedios k . Cuando n 0 se dene pij 0 1 si i 0 si i j. j.

Por lo tanto, aplicando la identidad de Chapman-Kolmogorov n 1 veces tomando siempre como tiempo intermedio r 1, pij n

P P P ij P n ij .

Es decir, la probabilidad buscada pij n es la entrada i, j de la matriz potencia P n . As , el problema de encontrar las probabilidades de transici on en n pasos se reduce al problema de calcular las potencias de la matriz de probabilidades de transici on en un paso. Las cadenas de Markov son modelos ampliamente conocidos y la propiedad de Markov hace que estos procesos sean muy atractivos de estudiar, pues dicha propiedad hace que ciertas probabilidades sean f aciles de calcular, como por ejemplo las probabilidades pij n que acabamos de mencionar. Las cadenas de Markov con frecuencia aparecen dentro de otros modelos estoc asticos de inter es te orico y aplicado. Por ejemplo, el proceso de riesgo a tiempo discreto que presentaremos en el siguiente cap tulo resulta ser una cadena de Markov. En los textos de Karlin y Taylor [20] o Norris [26] el lector puede encontrar una exposici on muy detallada de las cadenas de Markov.

Distribuciones discretas tipo fase


En esta secci on deniremos un tipo de distribuci on de probabilidad discreta que surge a trav es de una cadena de Markov. Para ello, la siguiente caracter stica ser a de inter es.

6.4. Cadenas de Markov

137

Denici on 6.6 Se dice que el estado i de una cadena de Markov es absorbente si pii 1. En caso contrario se dice que el estado es no absorbente.

Esto quiere decir que si en alg un momento la cadena visita un estado absorbente, el proceso permanece en dicho estado el resto del tiempo. Consideremos entonces una cadena de Markov Xn : n 0 con espacio de estados 0, 1, 2, . . . , k , en donde el estado 0 es absorbente y los estados 1, 2, . . . , k son no absorbentes. Esta cadena tiene una matriz de probabilidades de transici on en un paso compuesta por cuatro bloques de la siguiente forma:

1 bT

0 B

en donde e representa el vector rengl on 1, 1, . . . , 1 de dimensi on k . La idea es dejar que la cadena inicie en alguno de los estados no absorbentes 1, 2, . . . , k 1, 2, . . . , k o bien a trav es de una distribuci on inicial sobre esos estados y observar el momento aleatorio (posiblemente innito) en el que el proceso es atrapado en el estado absorbente 0. Esta variable aleatoria resulta ser un tiempo de paro y a la distribuci on de probabilidad de este tiempo de espera hasta la absorci on se le llama distribuci on tipo fase. M as generalmente, tomaremos como distribuci on de probabilidad inicial al vector 0 , 1 , . . . , k , en donde 0 es la probabilidad de que la cadena inicie en el estado absorbente

en donde 0 es el vector rengl on 0, 0, . . . , 0 de dimensi on k , b es el vector reng on b1 , b2 , . . . , bk con no todas sus entradas cero en donde el super ndice T indica transpuesta y B es una matriz cuadrada de k k tal que la matriz completa es estoc astica. Esta u ltima condici on se puede expresar mediante la ecuaci on (6.1) bT BeT eT ,

138 0 y el subvector

sticos 6. Procesos estoca

1 , 2 , . . . , k

denota entonces el vector inicial cuyas entradas son las probabilidades iniciales de los estados no absorbentes. Cuando 0 0 el vector es efectivamente una distribuci on de probabilidad. Cuando 0 0, se tiene que P 0 0 0. Puesto que, partiendo de un estado no absorbente, es posible hacer varias transiciones entre los estados no absorbentes antes de la absorci on, en las f ormulas relacionadas con esta distribuci on tipo fase aparece el subvector y no el vector completo .

Denici on 6.7 A la distribuci on de probabilidad de la variable aleatoria denida por n n 0 Xn 0 m se le llama distribuci on tipo fase discreta con subdistribuci on inicial y submatriz de transici on B . Esto se escribe PH, B .

La notaci on PH para la distribuci on del tiempo de absorci on proviene de las primeras letras del t ermino en ingl es phase. En general no parece f acil encontrar la distribuci on de probabilidad del tiempo de absorci on , sin embargo, como veremos m as adelante, existen f ormulas matriciales sorprendentemente cortas para ciertas caracter sticas de que facilitan el c alculo de probabilidades con este tipo de distribuciones. Antes de mencionar estas f ormulas veamos el ejemplo m as sencillo de distribuci on discreta tipo fase. Ejemplo 6.1 (Distribuci on geom etrica) Considere la cadena de Markov 0 con dos estados: un estado absorbente 0 y un estado no absorbente 1. La matriz de probabilidades de transici on en un paso es

Xn : n

1 0 p 1p

Suponga que la cadena empieza en el estado 1. No es dif cil comprobar que

6.4. Cadenas de Markov la distribuci on del tiempo de absorci on es geop, esto es, P n

139

1 pn1 p

0, 1, 2, . . .

Si se postula como distribuci on inicial a totalidad de los estados 0, 1 con 0 1, es 1 P n 1 pn1 p

entonces la distribuci on de si n si n 0, 1.

0, 1 1 , sobre la

Concluimos esta secci on mencionando algunas f ormulas generales sobre las distribuciones tipo fase discretas. M as adelante veremos este mismo tipo de distribuciones en su versi on continua. a) Usando la identidad (6.1) y el m etodo de inducci on, se puede demostrar que la matriz de probabilidades de transici on en n 1 pasos es 1 0 n P . eT B n eT B n b) Partiendo de un estado no absorbente i, la probabilidad de estar en el estado no absorbente j despu es de n 1 pasos y en el siguiente paso llegar al estado absorbente es, por la ecuaci on de ChapmanKolmogorov, i B n1 ij bT j. Sumando sobre los valores de los ndices i y j se obtiene la funci on de probabilidad del tiempo de absorci on : f n 0 B n1 bT si n si n 0, 1.

c) La funci on de distribuci on del tiempo de absorci on es F n P n 1 P n,

en donde P n es la probabilidad de que al tiempo n la cadena no se encuentre en el estado absorbente. La probabilidad de pasar del estado no absorbente i al estado no absorbente j en n pasos es i B n ij .

140

sticos 6. Procesos estoca La suma sobre i y sobre j no absorbentes de estas probabilidades se puede escribir como B n eT . Por lo tanto, F n 0 1 B n eT si n si n 0, 1.

6.5.

Proceso de Poisson

En esta secci on recordaremos la denici on y algunos aspectos elementales de uno de los procesos estoc asticos de mayor importancia: el proceso de Poisson. Denici on 6.8 Un proceso estoc astico de tiempo continuo Nt : t 0 con espacio de estados el conjunto discreto 0, 1, . . . es un proceso de Poisson de par ametro o intensidad 0 si cumple las siguientes propiedades: a) N0 0.

b) Tiene incrementos independientes. c) La variable incremento Nts Ns tiene distribuci on Poissont, para cualesquiera s 0, t 0.

Observe que la tercera propiedad establece impl citamente que los incrementos del proceso de Poisson son estacionarios, pues la distribuci on de Nts Ns no depende de s. El proceso de Poisson se utiliza para modelar situaciones de conteo de ocurrencias de un evento particular en un intervalo de tiempo dado. Por ejemplo, Nt puede representar el n umero de llamadas recibidas en un n umero telef onico de emergencias, o el n umero de accidentes ocurridos en un cierto lugar o el n umero de clientes que buscan un servicio durante el intervalo de tiempo 0, t. En particular, tomando s 0 en la tercera propiedad en la denici on, se tiene que la variable Nt tiene distribuci on Poissont para cualquier t 0. Esto es P Nt n et

tn ,
n!

0, 1, 2, . . .

6.5. Proceso de Poisson Por lo tanto, y VarNt E Nt t, t.

141

As , para cada tiempo t desconocemos el valor que toma Nt , pero sabemos que Nt tiene distribuci on Poissont. En nuestro caso, usaremos el proceso de Poisson para modelar el n umero de reclamaciones que llegan a una compa n a aseguradora hasta un tiempo t cualquiera. Una posible trayectoria de un proceso de Poisson se muestra en la Figura 6.4.
N t

3 2 1
t

Figura 6.4

Tiempos de estancia exponenciales


No resulta evidente a partir de la denici on que hemos dado del proceso de Poisson, pero la din amica de este proceso es la siguiente: el proceso empieza en el estado cero y permanece en ese estado un tiempo aleatorio exponencial de par ametro , brinca despu es al estado uno y nuevamente permanece en ese nuevo estado otro tiempo exponencial con el mismo par ametro e independiente del tiempo de estancia anterior, despu es brinca al estado dos y as sucesivamente. Es por ello que una posible trayectoria de este proceso tiene las caracter sticas que se muestran en la Figura 6.4: saltos unitarios hacia arriba y tiempos de estancia exponenciales. De este modo pueden denirse las variables T1 , T2 , . . . como los tiempos que transcurren entre un salto y el siguiente. A tales variables aleatorias se les llama tambi en tiempos de interarribo. En el siguiente resultado que enunciamos sin demostraci on, se muestra la relaci on entre la propiedad de Markov del proceso de Poisson y los tiempos de estancia exponenciales.

142

sticos 6. Procesos estoca

Proposici on 6.1 La propiedad de Markov del proceso de Poisson implica que los tiempos de estancia T1 , T2 , . . . son independientes y cada uno de ellos tiene distribuci on exponencial. Rec procamente, dada una sucesi on de v.a.s independientes T1 , T2 , . . . con id entica distribuci on exponencial, el proceso de conteo que puede construirse a partir de esta sucesi on cumple la propiedad de Markov.

P erdida de memoria y sus consecuencias Una de las propiedades que caracterizan de manera u nica a la distribuci on exponencial dentro del conjunto de distribuciones absolutamente continuas es que satisface la propiedad de p erdida de memoria, esto es, si T tiene distribuci on exp, entonces para cualesquiera tiempos s, t 0 se cumple la igualdad P T t s T s P T t.

En otras palabras, condicionada al evento T s, la variable T s sigue teniendo distribuci on exp. Esto signica que, para un valor de s 0 jo, todos los tiempos de interarribo a partir de s, incluyendo el primero, siguen teniendo distribuci on exp, y por lo tanto el proceso de conteo de eventos a partir del tiempo s es nuevamente un proceso de Poisson. A esta propiedad se le conoce como la propiedad de renovaci on del proceso de Poisson. La situaci on se muestra gr acamente en la Figura 6.5.

Nt

Mt

3 2 1

2 1
t s t

Figura 6.5

6.6. Cadenas de Markov a tiempo continuo Por lo tanto, tenemos el siguiente resultado.

143

Proposici on 6.2 Si Nt : t 0 es un proceso de Poisson de par ametro , entonces para cualquier s 0, el proceso dado por Mt Nts Ns es nuevamente un proceso de Poisson con el mismo par ametro.

Observemos que la propiedad de renovaci on se cumple tambi en en los momentos en los que el proceso de Poisson tiene saltos, es decir, si empezamos a estudiar al proceso a partir del momento en el que se observa un salto, ese nuevo proceso es tambi en un proceso de Poisson con el mismo par ametro. Desde el punto de vista matem atico esta propiedad ser a de mucha utilidad cuando estudiemos modelos en donde las reclamaciones que reciba una aseguradora sigan un proceso de Poisson. Otras deniciones equivalentes del proceso de Poisson y algunos otros resultados sobre sus propiedades se pueden encontrar en [31].

6.6.

Cadenas de Markov a tiempo continuo

Este tipo de procesos es una generalizaci on del proceso de Poisson mencionado en la secci on anterior. Ahora los saltos del proceso no son necesariamente unitarios hacia arriba sino que el proceso puede saltar a cualquier otro estado distinto del estado desde donde salta. Una trayectoria de este tipo de procesos se muestra en la Figura 6.6. Vamos entonces a denir cadenas de Markov en donde el tiempo es continuo y las variables toman valores enteros. Consideremos un proceso a tiempo continuo Xt : t 0 que inicia en un estado i1 al tiempo cero. El proceso permanece en ese estado un tiempo aleatorio Ti1 , y despu es salta a un nuevo estado i2 distinto del anterior. El sistema permanece ahora en el estado i2 un tiempo aleatorio Ti2 al cabo del cual brinca a otro estado i3 distinto del inmediato anterior, y as sucesivamente. Los tiempos aleatorios T son los tiempos en los que el proceso permanece constante en alguno de sus estados, y se llaman tiempos de estancia (passage times). Los momentos en donde el proceso tiene saltos son los tiempos Wn Ti1 Tin , para n 1. El

144

sticos 6. Procesos estoca

Xt i4 i2 i1 i3 t Ti1 Ti2 Ti3 Ti4

Figura 6.6 proceso puede entonces escribirse en la forma siguiente:

Xt

i1 si i2 si i3 si . . .

0 t W1 , W1 t W2 , W2 t W3 ,

A un proceso de estas caracter sticas se llama proceso de saltos, y resulta ser una buena versi on continua de las cadenas de Markov a tiempo discreto, pero es necesario requerir de algunas otras condiciones. Supondremos que
n

l m Wn

c.s.

y ello garantiza que para todo t 0, el valor de Xt es nito, c.s. Por otro lado, sin p erdida de generalidad supondremos que el espacio de estados es 0, 1, . . . y que el tiempo de estancia asociado el estado el conjunto S i es la variable aleatoria Ti , la cual supondremos positiva con funci on de distribuci on Fi t. Como en el caso de cadenas a tiempo discreto, se denotar a por pij a la probabilidad de que la cadena pase del estado i al estado j al efectuar un salto. Adicionalmente impondremos la condici on pii 0, y con ello se imposibilita que la cadena salte al mismo estado de partida. Las probabilidades de saltos deben entonces satisfacer las siguientes condiciones: a) pij 0.

6.6. Cadenas de Markov a tiempo continuo b) pii c) 0. pij 1.

145

En forma de matriz, las probabilidades de saltos constituyen una matriz estoc astica de la siguiente forma:

0 p01 p02 p 0 p12 10 p20 p21 0


. . . . . . . . .

Supondremos adem as que los tiempos de estancia Ti1 , Ti2 , . . . son independientes entre s , y tambi en son independientes del mecanismo mediante el cual se escoge el estado j al cual la cadena salta despu es de estar en cualquier otro estado i. M as a un, supondremos que cada variable Ti es nita con probabilidad 1, o bien, es innita con probabilidad 1. En el primer caso se dice que el estado i es no absorbente, y en el segundo caso que es absorbente. El hecho de que Ti se interpreta en el sentido de que el proceso deja de saltar y permanece en el estado i el resto del tiempo, es decir, el estado i es absorbente. Por lo tanto, s olo hay dos tipos de estados: absorbentes o no absorbentes. En otras palabras, con probabilidad uno el tiempo de estancia es nito o con probabilidad uno es innito. Por otra parte, un resultado no trivial establece que un proceso de las caracter sticas arriba especicadas satisface la propiedad de Markov si y s olo si, los tiempos de estancia en los estados no absorbentes tienen distribuci on exponencial. Este es un resultado importante cuya demostraci on omitiremos y que simplica dr asticamente el modelo general planteado. Como deseamos estudiar procesos de saltos que cumplan la propiedad de Markov, pues tal propiedad ayuda a calcular probabilidades con cierta facilidad, tendremos que suponer entonces que el tiempo de estancia en un estado no absorbente i tiene distribuci on expi , con i 0, es decir, Fi t 1 ei t para t 0.

0 en el caso cuando Ti . Observe que puede considerarse que i La propiedad de Markov que consideraremos tiene la siguiente forma: para

146 cualesquiera tiempos 0 p X t n x t n Xt 1 t1 t2

sticos 6. Procesos estoca

tn , xtn1 pXtn x t n Xt 1 x t 1 .

x t 1 , . . . , X t n 1

Supondremos nuevamente que estas probabilidades de transici on son estacionarias en el tiempo, esto signica que para cada s 0 y t 0, se cumple la identidad P Xts j Xs i P Xt j X0 i ,

es decir, no hay dependencia del valor de s. Esta probabilidad se escribe de manera breve mediante la expresi on pij t, para i y j enteros no negativos, es decir, pij t En particular para t es decir, P Xts j Xs i P Xt j X0 i.

0 se dene pij 0 como la funci on delta de Kronecker, pij 0 ij 1 si i 0 si i j, j.

Haciendo variar los ndices i y j en el espacio de estados se obtiene la matriz de probabilidades de transici on al tiempo t, que denotaremos por Pt y en ocasiones se escribe tambi en como P t: Pt

pij t

p00 t p01 t p10 t p11 t


. . . . . .

Puede demostrarse que cuando el espacio de estados es nito, esta matriz es siempre estoc astica, es decir, los elementos de cada rengl on suman 1.

Denici on 6.9 A un proceso de saltos con las caracter sticas y postulados arriba se nalados se le llama cadena de Markov a tiempo continuo.

Observe que en un proceso de Markov a tiempo continuo las probabilidades de saltos pij y las probabilidades de transici on pij t representan aspectos

6.6. Cadenas de Markov a tiempo continuo

147

distintos del proceso. Las primeras son probabilidades de cambio al estado j cuando el proceso se encuentra en el estado i y el proceso tiene un salto, mientras que las segundas son probabilidades de encontrar al proceso en el estado j , partiendo de i, al t ermino de un intervalo de tiempo de longitud t. Observe adem as que un proceso de Markov a tiempo continuo queda completamente especicado por los siguientes tres elementos: una distribuci on de probabilidad inicial en el espacio de estados, el conjunto de los par ametros no negativos i , y las probabilidades de saltos pij . Ejemplo 6.2 (Proceso de Poisson) El proceso de Poisson es una cadena de Markov a tiempo continuo que empieza en cero, es decir, la distribuci on de probabilidad inicial tiene el valor 1 en el estado cero. Los tiempos de estancia son exponenciales de par ametro y las probabilidades de saltos de un estado a otro son pij 1 si j 0 si j i 1, i 1.

Las probabilidades de transici on son pij t et 0

tji si j j i!

i, otro caso.

Ejemplo 6.3 (Cadena de dos estados) Considere el proceso Xt : t 0 con espacio de estados 0, 1 y denido por la siguiente din amica: cuando el proceso entra al estado 0 permanece en el un tiempo exp y luego va al estado 1, entonces permanece en el estado 1 un tiempo exp y despu es regresa a 0, y as sucesivamente. Se postula adem as que los tiempos de estancia en cada estado son variables aleatorias independientes. Para este proceso pueden encontrarse expl citamente las probabilidades de transici on pij t. Puede demostrarse que para cualquier t 0, p00 t et .

148

sticos 6. Procesos estoca

En consecuencia, por complemento o simetr a, et , p01 t p11 t et , et . p10 t En notaci on matricial,

p00 t p01 t p10 t p11 t

et .

Probabilidades de transici on
Hemos mencionado antes que para una cadena de Markov a tiempo continuo las probabilidades de transici on son los n umeros pij t P Xt j X0 i. El problema que puede plantearse es el de encontrar una expresi on para las probabilidades de transici on pij t para cada par de estados i y j , y para cada tiempo t 0. Este es un problema demasiado general y s olo en algunos pocos casos es posible encontrar expl citamente tales probabilidades. Los anteriores dos ejemplos son casos muy sencillos en donde es posible encontrar las probabilidades pij t.

El generador innitesimal
A partir de los par ametros i y pij de una cadena de Markov a tiempo continuo se pueden denir las cantidades gij de la siguiente forma: gij i pij

si i si i

j, j.

A estos n umeros se les conoce con el nombre de par ametros innitesimales del proceso. Haciendo variar los ndices i y j , estos nuevos par ametros conforman una matriz G llamada el generador innitesimal del proceso de Markov, es decir,

0 1 p10 2 p20
. . .

0 p01 1 2 p21 . . .

0 p02 1 p12 2 . . .

6.6. Cadenas de Markov a tiempo continuo

149

Puede demostrarse que el generador innitesimal caracteriza de manera u nica a la cadena de Markov. As , a esta misma matriz se le llama a veces cadena de Markov a tiempo continuo, y es el concepto equivalente a la matriz de probabilidades de transici on en un paso para cadenas a tiempo discreto. Se trata de una matriz con las siguientes propiedades: a) gij b) gii c)
j

0, 0. gij

si i

j.

0.

Ejemplo 6.4 El generador innitesimal para el proceso de Poisson de par ametro es


G

0 0 . . .

0 . . .

0 . . .

0 0

(6.2)

Ejemplo 6.5 El generador innitesimal para la cadena de Markov de dos estados del Ejemplo 6.3 es

(6.3)

Ecuaciones de Kolmogorov
Puede demostrarse que las probabilidades de transici on pij t satisfacen el sistema de ecuaciones diferenciales dado por p ij t

gik pkj t,

0.

Observe que se tiene una ecuaci on diferencial para cada par ordenado de erminos de matrices la igualdad anterior se escribe estados i, j . En t P t G P t.

A este sistema de ecuaciones diferenciales se le conoce como las ecuaciones retrospectivas de Kolmogorov.

150

sticos 6. Procesos estoca

Ejemplo 6.6 (Proceso de Poisson) El sistema de ecuaciones retrospectivas de Kolmogorov para el proceso de Poisson de par ametro est a dado por

piit pij t pi1,j t para i j. Y sabemos que la soluci on es pij t et tj i j i! para i


p ij t

p ii t

j.

Ejemplo 6.7 (Cadena de dos estados) El sistema de ecuaciones retrospectivas de Kolmogorov para la cadena de Markov de dos estados denida en el Ejemplo 6.3 est a dado por p 01 t p 10 t p t
11

p 00 t

p00t p10t, p01t p11t, p10t p00t, p11t p01t.

Pueden resolverse estas ecuaciones y encontrar las expresiones que fueron enunciadas anteriormente. Al sistema de ecuaciones diferenciales dado por la igualdad P t P t G se le llama sistema de ecuaciones prospectivas de Kolmogorov. La diferencia entre este sistema y el sistema retrospectivo mencionado antes es que el orden de los factores en el lado derecho es distinto. M as expl citamente, el sistema prospectivo es el siguiente p ij t

pik t gkj .

En algunos casos los dos sistemas de ecuaciones son equivalentes y su soluci on produce las mismas probabilidades de transici on pij t. En general, el sistema retrospectivo es el que siempre se satisface. Los procesos de nacimiento y muerte son un tipo particular importante de cadena de Markov a tiempo continuo. Este tema y una exposici on m as detallada sobre este tipo de proceso estoc astico puede ser encontrada, por ejemplo, en el texto de Hoel, Port y Stone [19], en Basu [3], en Karlin y Taylor [20] o en Rolski et al. [32]. Concluimos esta secci on deniendo un tipo

6.6. Cadenas de Markov a tiempo continuo

151

de distribuci on de probabilidad que surge a partir de cadenas de Markov a tiempo continuo con espacio de estados nito y que permiten encontrar una f ormula para la probabilidad de ruina en un modelo de riesgo cuando las reclamaciones tienen este tipo de distribuciones. Estudiaremos esta f ormula en la u ltima parte del texto.

Distribuciones continuas tipo fase


Deniremos ahora las distribuciones tipo fase, las cuales tambi en se pueden denir a partir de ciertas cadenas de Markov a tiempo continuo. Sea Xt : t 0 una cadena de Markov a tiempo continuo con espacio de estados 0, 1, 2, . . . , k en donde el estado 0 es absorbente y los estados 1, 2, . . . , k son no absorbentes. Suponga que el generador innitesimal de esta cadena es de la forma:

0 bT

0 B

en donde nuevamente 0 es el vector rengl on 0, 0, . . . , 0 de dimensi on k , b es el vector reng on b1 , b2 , . . . , bk con no todas sus entradas cero y B es una matriz cuadrada de k k tal que la matriz completa G es un generador innitesimal. A la matriz B se le llama matriz de subintensidades. En particular, (6.4) bT BeT 0T , en donde e es el vector rengl on 1, 1, . . . , 1 de dimensi on k . Supondremos que la cadena inicia en cualquiera de sus estados, incluyendo el estado absorbente, a trav es de una distribuci on de probabilidad inicial

0, 1, . . . , k . 1, 2, . . . , k .

Y nuevamente denotaremos por al subvector cuyas entradas corresponden a la distribuci on de probabilidad inicial para estados no absorbentes.

on de probabiCuando 0 0 el subvector es efectivamente una distribuci lidad. Si la cadena inicia en alguno de sus estados no absorbentes, entonces visitar a estados absorbentes un tiempo aleatorio exponencial en cada de uno

152

sticos 6. Procesos estoca

de ellos y despu es posiblemente quedar a atrapado en el estado absorbente 0. La idea es la misma que fue expresada en el caso de cadenas de Markov a tiempo discreto. La diferencia radica en que ahora el tiempo es continuo. A la distribuci on de probabilidad del tiempo de espera hasta la absorci on se le llama nuevamente distribuci on tipo fase.

Denici on 6.10 A la distribuci on de probabilidad de la variable aleatoria denida por nf t 0 Xt 0 se le llama distribuci on continua tipo fase con subdistribuci on inicial y matriz de subintensidades B . Esto se escribe PH, B .

Hemos usado aqu la misma notaci on para las distribuciones tipo fase discretas y continuas. El contexto o especicaci on del modelo determinar a sin ambig uedad si es de un tipo o del otro. Por otro lado, en algunos textos se considera que la totalidad de estados es 1, 2, . . . , k 1 en donde el estado k 1 es absorbente y el resto de los estados es no absorbente. Ambos modelos son equivalentes. Ejemplo 6.8 (Distribuci on Erlang) Sea 0 jo. Considere la cadena 0 con k 1 estados: un estado de Markov a tiempo continuo Xt : t absorbente 0 y k estados no absorbentes 1, 2, . . . , k . Suponga que el generador innitesimal es de la forma:

0 0 0 0 . . .

0 0 0 . . . 0

0 0 . . . 0

0 0 . . . 0


.. .

0 0 0 0 . . .

1. As , la cadena inicia en el estado 1 y perSuponga adem as que X0 manece en dicho estado un tiempo exponencial de par ametro , al t ermino

6.6. Cadenas de Markov a tiempo continuo

153

de este tiempo la cadena salta al estado 1 y permanece all otro tiempo exponencial de par ametro e independiente del primero, y as sucesivamente hasta llegar al u ltimo estado transitorio k . Despu es de estar en este u ltimo estado un tiempo exponencial, la cadena nalmente salta al estado absorbente 0 y permanece all el resto del tiempo. Es claro que el tiempo de absorci on tiene distribuci on Erlangk, pues es la suma de k variables aleatorias independientes con distribuci on exponencial de par ametro . Por lo tanto la funci on de densidad de es f t

tk1 t et , k 1!

0. 1,

En particular, cuando u nicamente hay un estado transitorio, es decir, k se obtiene la distribuci on exponencial.

Del mismo modo que lo hicimos en el caso discreto, mencionaremos ahora algunas f ormulas que se conocen para las distribuciones tipo fase continuas. Las demostraciones de estas propiedades y algunas otras pueden encontrarse en Rolski et al. [32]. Recordemos que la funci on exponencial de una matriz cuadrada A de dimensi on nita se dene mediante la serie de potencias de Taylor: 1 n eA : A . n! n 0 a) Para cada t 0, P t 0 exp tB eT . (6.5)

b) Si 0 0 y la matriz B es no singular, entonces tiene funci on de densidad f t exp tB bT , t 0. c) Si la matriz B es no singular, entonces para cada n E n 1,

1n n! B 1n eT .

Ejemplo 6.9 (Distribuci on Erlang) Considere nuevamente la situaci on del Ejemplo 6.8 en donde el tiempo de absorci on tiene distribuci on Erlangk, .

154

sticos 6. Procesos estoca

El estado inicial es X0 1 y por lo tanto 0 0. Entonces la matriz de subintensidades B es no singular y tiene la forma

0 0 . . .

0 . . . 0

0 . . . 0


.. .

0 0 0 . . .


k k

Las f ormulas arriba mencionadas se reducen a las expresiones conocidas para la distribuci on Erlangk, , es decir, a) P b) f t c) t
k 1

tn , t et
n! t n 0. 1.

0.

n 1

tk1 t et , k 1! n k 1! , E n n k 1!

Estas expresiones se reducen a un m as en el caso exponencial cuando k

1.

En la u ltima parte de este texto usaremos las distribuciones tipo fase para modelar los montos de las reclamaciones y aprovecharemos sus propiedades computacionales para encontrar una f ormula para la probabilidad de ruina en un modelo de riesgo a tiempo continuo. En particular haremos uso de la f ormula (6.5). Se puede encontrar mayor informaci on sobre las distribuciones tipo fase, incluyendo las demostraciones de los resultados arriba enunciados, en el texto de Rolski et al. [32]. En el art culo de Bladt [5] puede tambi en encontrarse una excelente exposici on sobre el uso y aplicaci on de las distribuciones tipo fase en la teor a del riesgo.

6.7.

Martingalas

Las martingalas son un tipo de proceso estoc astico que aparece con frecuencia tanto en la teor a general de procesos como en las aplicaciones. Algunos

6.7. Martingalas

155

resultados desarrollados para martingalas nos ser an de utilidad para presentar una forma de resolver ciertos problemas de la teor a de la ruina. La siguiente es la denici on de martingala, la cual puede tambi en enunciarse para tiempos discretos. Denici on 6.11 Un proceso a tiempo continuo Xt : t 0 que es adaptado a una ltraci on Ft t 0 y que es integrable, es decir, cada variable que conforma el proceso tiene esperanza nita, se llama una martingala si para 0 s t se cumple (6.6) E Xt Fs Xs c.s.

La identidad (6.6) establece un tipo de dependencia probabil stica particular entre las variables aleatorias que conforman una martingala. Este es entonces otro ejemplo de proceso estoc astico. En el Ap endice se encuentra una revisi on breve de la denici on y algunas propiedades de la esperanza condicional como la que aparece en (6.6). Las martingalas son procesos que est an relacionados con los juegos justos. Por ejemplo, si la variable Xt representa la fortuna de un jugador al tiempo t, y quien supondremos apuesta de manera continua, entonces la igualdad anterior se interpreta del siguiente modo: en promedio la fortuna del jugador al tiempo t dada toda la historia del juego hasta el tiempo s anterior a t es la fortuna del jugador al tiempo s, es decir, el juego es justo pues el jugador en promedio no pierde ni gana. Cuando en lugar de (6.6) se cumple E Xt Fs Xs se dice que el proceso es una supermartingala, se trata entonces de un juego desfavorable al jugador pues en promedio su fortuna disminuye. En caso de la desigualdad contraria el proceso es una submartingala, juego favorable al jugador. Cuando se toma esperanza en la ecuaci on (6.6) se obtiene E X t E Xs ,

para 0 s t. Esto quiere decir que todas las variables aleatorias que conforman una martingala tienen la misma esperanza. En particular, si la variable inicial X0 es cero o su esperanza es cero, entonces E Xt 0 para cualquier t 0. Algunos ejemplos sencillos de martingalas aparecen en la secci on de ejercicios. Finalmente enunciaremos un resultado de la teor a

156

sticos 6. Procesos estoca

general de martingalas que ser a usado en la u ltima parte del curso. Recuerde la notaci on x y m nx, y . Teorema 6.1 (Teorema de paro de martingalas). Sea Xt : t 0 una martingala y sea un tiempo de paro, ambos respecto de una ltraci on Ft t 0. Entonces Xt : t 0 es tambi en una martingala, es decir, para cualesquiera 0 s t, E X t

Fs

Xs

c.s.

La demostraci on de este resultado puede encontrarse en [30] o [39]. En el siguiente cap tulo usaremos la teor a de martingalas para estimar la probabilidad de ruina en el modelo cl asico de Cram er-Lundberg.

Comentarios y referencias
Como preparaci on para los modelos din amicos de riesgo que estudiaremos en los siguientes cap tulos, hemos presentado aqu algunos conceptos elementales de los procesos estoc asticos, as como algunos ejemplos particulares de este tipo de modelos matem aticos. Para mayor informaci on sobre estos temas el lector puede consultar cualquiera de los textos sobre procesos estoc asticos que aparecen en la bibliograf a, por ejemplo, Basu [3], Hoel et al. [19], Karlin y Taylor [20], Resnick [29] y Stirzaker [37].

6.8.

Ejercicios
Caminatas aleatorias 0 sobre Z demuestre

136. Para la caminata aleatoria simple Xn : n que para n 1: b) VarXn c) E etXn a) E Xn np q .

pet qet n .

4npq .

6.8. Ejercicios Cadenas de Markov

157

137. Considere una cadena de Markov Xn : n 0 con espacio de estados 0, 1, 2 y con matriz de probabilidades de transici on P

13 13 13 23 0 13 .
14 12 14

Suponga X0 b) P X5 c) P X2 a) P X2

0. Calcule: 1. 1 X3 2. 0.

Ahora suponga que X0 tiene distribuci on 15, 12, 310. Calcule: d) P X3 1 X1 0.

0 con espacio de estados 138. Para la cadena de Markov Xn : n 0, 1, 2, 3, 4 con distribuci on inicial 15, 15, 15, 15, 15 y matriz de probabilidades de transici on

0 13 13 13 0 23 0 0 0 13 0 14 12 14 0 25 0 25 0 15 12 0 0 0 12

calcule: b) P X101 c) P X0 e) P X1 a) P X0 0, X1 X 1 . 1, X2 3. 1, X3 4, X4 1.

3 X100 1.

d) P X1 X0

0, X3

0.

158

sticos 6. Procesos estoca

139. Suponga que Xn : n 0 es una cadena de Markov con espacio de estados 0, 1 y con matriz de probabilidades de transici on

12 12 110 910

El estado 0 representa no contar con un seguro de vida y el estado 1 corresponde a tener alg un seguro de vida. La din amica de contratar o no contratar un seguro de vida para cada persona en periodos sucesivos de tiempo est a dada por la cadena de Markov. Si inicialmente la mitad de la poblaci on est a asegurada, calcule el porcentaje de la poblaci on que estar a asegurada en los periodos 1, 2 y 3 por separado. Proceso de Poisson 140. Suponga que las llegadas de reclamaciones a una compa n a aseguradora siguen un proceso de Poisson de intensidad 5, en donde la unidad de tiempo es un d a, es decir, en promedio llegan 5 reclamaciones por d a. Calcule la probabilidad de que: a) No se reciba ninguna reclamaci on en un d a cualquiera. b) Se reciban m as de 10 reclamaciones en un d a cualquiera. c) Se reciba una sola reclamaci on en los siguientes tres d as. 141. Los clientes ingresan a un establecimiento de acuerdo a un proceso de Poisson a raz on de 10 clientes por hora en promedio. Calcule la probabilidad de que: a) En una hora cualquiera no llegue ning un cliente. b) No llegue ning un cliente en una jornada de 12 horas. c) Se presente exactamente un cliente en todas y cada una de las 12 horas en las que est a abierto el establecimiento en un d a. 142. Superposici on. Demuestre que la suma de dos procesos de Poisson independientes es nuevamente un proceso de Poisson con par ametro la suma de los par ametros. Nota: la operaci on suma debe entenderse en el sentido de superponer los dos procesos puntuales.

6.8. Ejercicios

159

143. Thinning. Sea Nt : t 0 un proceso de Poisson de par ametro 0. Considere una sucesi on de variables aleatorias Y1 , Y2 , . . . independientes, con distribuci on com un Berp e independientes del proceso de Poisson. Dena el proceso Xt : t 0 como aparece abajo, deniendo adem as a Xt como cero cuando Nt es cero. Xt As , el proceso Xt : t Poisson inicial.
Nt k 1

Yk ,

0 representa un subconteo del proceso de 0 es un proceso de Poisson de

a) Demuestre que Xt : t par ametro p.

0 jo. Demuestre que las variables aleatorias Xt y b) Sea t Nt Xt son independientes. En general se cumple que los procesos estoc asticos Xt : t 0 y Nt Xt : t 0 son independientes. 144. Suponga que los accidentes automovil sticos en una cierta ciudad ocurren de acuerdo a un proceso de Poisson con un promedio de cinco accidentes por semana. Suponga adem as que la probabilidad de que en cada accidente haya personas lastimadas que requieran atenci on m edica es 0.2 . Calcule la probabilidad de que: a) En un d a no se presente ning un accidente. b) En una semana no se presente ning un accidente. c) En un mes no se presente ning un accidente con personas lastimadas. 145. Sea Nt : t 0 un proceso de Poisson con par ametro , y sea a 0 una constante. Demuestre que Nat : t 0 es un proceso de Poisson con par ametro a. 146. Considere dos procesos de Poisson independientes de par ametros 1 y 2 . Sea X el n umero de eventos que ocurren en el primer proceso

160

sticos 6. Procesos estoca entre dos eventos sucesivos del segundo proceso. Demuestre que X tiene la siguiente distribuci on geom etrica. P X n 1 2 2

1 2

0.

Cadenas de Markov a tiempo continuo 147. Escriba el sistema retrospectivo de ecuaciones diferenciales de Kolmogorov para las probabilidades p0n t pn t del proceso de Poisson y compruebe que su soluci on es pn t et tn n! Martingalas 148. Martingala del juego de apuestas. Sea 1 , 2 , . . . una sucesi on de variables aleatorias independientes id enticamente distribuidas y con esperanza nita. Para cada entero n 1 dena Xn Demuestre que el proceso a tiempo discreto Xn : n martingala si y s olo si E 0. 1 n . 1 es una

149. Proceso de Poisson centrado. Sea Nt : t 0 un proceso de Poisson de par ametro o intensidad , junto con su ltraci on natural. Demuestre que el proceso centrado Nt t : t 0 es una martingala. 150. Procesos con incrementos independientes. Sea Xt : t 0 un proceso estoc astico a tiempo continuo tal que cada una de sus variables aleatorias tiene esperanza nita. Suponga que el proceso tiene incrementos independientes. Demuestre que el proceso centrado Xt E Xt : t 0 es una martingala. 151. Martingala de de Moivre. Sea 1 , 2 , . . . una sucesi on de variables aleatorias independientes cada una de ellas con la misma distribuci on dada por P y P

1 1

p q

1 p.

6.8. Ejercicios

161

Para cada entero n 1 dena la variable Xn 1 n . Demuestre que el proceso estoc astico a tiempo discreto Yn : n 1 dado por Yn q pXn es una martingala. 0 es una submartingala si y 152. Demuestre que el proceso Xt : t s olo si Xt : t 0 es una supermartingala. 153. Demuestre que un proceso es una martingala si y s olo si es al mismo tiempo una submartingala y una supermartingala.

Cap tulo 7

Teor a de la ruina: tiempo discreto


Este cap tulo contiene una introducci on elemental a uno de los problemas centrales de la teor a del riesgo: el problema de la ruina. Estudiaremos este problema en una versi on discreta. Deniremos primero un proceso de riesgo a tiempo discreto y encontraremos una f ormula general recursiva para la probabilidad de ruina con horizonte innito. Presentaremos tambi en una f ormula para la probabilidad de ruina con horizonte nito, as como el concepto de coeciente de ajuste para este modelo y su aplicaci on en la desigualdad de Lundberg. Estudiaremos tambi en el problema de calcular la distribuci on de probabilidad de la severidad de ruina cuando esta se presenta. Todos estos resultados ser an extendidos en el siguiente cap tulo, en donde se estudiar a el modelo cl asico de riesgo a tiempo continuo.

7.1.

Un proceso de riesgo a tiempo discreto

Deniremos a continuaci on un proceso estoc astico a tiempo discreto que modela de manera simplicada la evoluci on a lo largo del tiempo del capital de una compa n a aseguradora respecto de una cartera de asegurados. Suponga que u 0, 1, 2 . . . es el capital inicial de la aseguradora y que en cada unidad de tiempo la compa n a aseguradora recibe una unidad monetaria por concepto de primas. Si Y1 , Y2 , . . . representan los montos de las reclamaciones en los periodos sucesivos, entonces el capital de la compa n a 163

164 aseguradora al tiempo n ci on.

7. Teor a de la ruina: tiempo discreto 1 es la variable aleatoria Cn denida a continua-

Denici on 7.1 El proceso de riesgo a tiempo discreto Cn : n est a dado por Cn un


n

0 (7.1)

Yj ,

j 1

en donde u 0 es un entero y Y1 , Y2 , . . . son variables aleatorias independientes e id enticamente distribuidas con valores en el conjunto 0, 1, . . . y tales que E Y 1.

Dada la hip otesis de independencia e id entica distribuci on de las variables aleatorias Y1 , Y2 , . . ., puede comprobarse que el proceso Cn : n 0 tiene incrementos independientes y estacionarios. Observamos adem as que se puede escribir Cn u
n

1 Yj ,

j 1

y por lo tanto Cn : n 0 es una caminata aleatoria sobre Z en donde los saltos son de magnitud 1 Yj con valores en el conjunto . . . , 2, 1, 0, 1. Por otro lado, hemos supuesto que las variables aleatorias Y1 , Y2 , . . . son tales que E Y 1, a esta condici on la llamaremos condici on de ganancia neta y establece que por cada unidad de tiempo, la cantidad de dinero recibida por concepto de primas, en este caso una unidad monetaria, es mayor al valor promedio de las reclamaciones. Condici on de ganancia neta E Y 1

Debe observarse que no es realista la hip otesis de que las primas recibidas en cada unidad de tiempo sean unitarias. Se puede considerar un modelo m as aplicable al admitir que el ingreso por primas en cada periodo es un entero cualquiera c 1. En ese caso, mediante un cambio adecuado en la forma en la que se mide el tiempo, esa constante c puede considerarse

7.1. Un proceso de riesgo a tiempo discreto

165

como una unidad monetaria. Sin embargo, tal cambio en el tiempo no se puede aplicar de manera tan inmediata pues afecta tambi en los montos de las reclamaciones. Dado que nuestro objetivo en este cap tulo es presentar de manera simple algunos problemas de la teor a de la ruina en un modelo discreto, mantendremos la hip otesis de primas unitarias pues las f ormulas y resultados adquieren expresiones m as sencillas que en el caso general. En la presente secci on la variable Y representar a a cualquiera de las variables a la funci on de distribuci on Yj que aparecen en la expresi on (7.1), F y ser de Y y la correspondiente funci on de probabilidad se denotar a por f y . En las f ormulas que encontraremos m as adelante aparecer a con frecuencia el t ermino P Y y 1 F y y para hacer las expresiones m as cortas dicha probabilidad ser a denotada por F y . En ocasiones a esta probabilidad se le llama funci on de supervivencia.

Notaci on

F y :

1 F y

Dado que la variable Y es discreta con valores en el conjunto 0, 1, . . ., su esperanza puede entonces escribirse de la siguiente forma:

E Y

y 0

F y .

Por otro lado, dadas las caracter sticas que hemos solicitado para la denici on del proceso Cn : n 0, este resulta ser una cadena de Markov con espacio de estados o valores dado por el conjunto discreto Z. Y hemos considerado valores enteros negativos, pues alguna reclamaci on puede ser demasiado grande y llevar al proceso a estados cr ticos para la aseguradora. Justamente esta situaci on es nuestro objeto de inter es y es el contenido de la siguiente denici on.

166

7. Teor a de la ruina: tiempo discreto

Denici on 7.2 Se dice que la compa n a aseguradora se encuentra en ruina al tiempo n 1 si Cn 0, y se dene el tiempo de ruina como el primer momento en que la ruina se presenta, es decir, m n n 1 : Cn 0. (7.2)

En la expresi on (7.2) se debe entender que cuando el conjunto indicado es vac o se dene , y equivale a la situaci on cuando la ruina nunca se presenta. El problema de la ruina consiste en encontrar la probabilidad de que la ruina ocurra en alg un conjunto de tiempos espec co. Por ejemplo, y se denota usualla probabilidad ruina con horizonte innito es P mente por u. Con esta notaci on se hace enfasis en que tal probabilidad depende, entre otros par ametros del modelo, particularmente del capital inicial u. Tenemos entonces que u P P

1, 2, . . .

C0

u C0

u .

Observe que t ecnicamente no hay ruina al tiempo cero, aun cuando se considere al capital inicial u igual a cero, pues de acuerdo con la Denici on 7.2, la ruina s olo puede ocurrir en los tiempos n 1. Intuitivamente es claro que u es decreciente, es decir, a mayor capital inicial menor la funci on u probabilidad de ruina. Esta propiedad puede escribirse de la siguiente forma: para cualquier u 0, u 1 u.

En la Figura 7.1 se muestra una posible trayectoria del proceso Cn : n 0, en donde para nes de visualizaci on se han unido los valores del proceso mediante l neas punteadas indicando adem as los incrementos unitarios por concepto de primas en cada intervalo. Se muestra adem as un posible momento en donde se presenta la ruina. La propiedad de Markov del proceso de riesgo nos permitir a encontrar una f ormula recursiva para la probabilidad de ruina en este modelo discreto. En las expresiones que escribiremos

7.2. Probabilidad de ruina con horizonte infinito

167

Cn

u n

Figura 7.1

ndices a y b a continuaci on las sumas b a se denen como cero cuando los as el hecho intuitivamente claro de que son tales que a b. Usaremos adem la probabilidad de ruina es cero cuando el capital inicial es innito. M as adelante daremos la demostraci on de esta propiedad y la comprobaremos de manera sencilla en el caso cuando podamos aplicar la desigualdad de Lundberg. As , tenemos que

l m u

0.

7.2.

Probabilidad de ruina con horizonte innito

El siguiente resultado provee de un mecanismo recursivo para calcular la probabilidad de ruina con horizonte innito en el proceso de riesgo a tiempo discreto.

168

7. Teor a de la ruina: tiempo discreto

Proposici on 7.1 Para el proceso de riesgo a tiempo discreto Cn : n con valor inicial u 0, 1. u 2. 0 0 E Y .
u 1 y 0

u y F y

u 1 y 0

F y ,

1.

0 y condicionando Demostraci on. Para cualquier capital inicial w sobre el valor de Y1 tenemos los siguientes c alculos, los cuales explicaremos en el siguiente p arrafo. w

y 0 w

P P

Y1 Y1

y P Y 1 y f y

y w 1

y 0 w y 0 w 1 y 1

w 1 y f y

y w 1

Y1

y f y

f y (7.3)

y f w 1 y F w.

Observe que en la segunda igualdad se han separado dos casos: la primera suma se reere al caso cuando el monto reclamado Y1 no produce ruina y la segunda suma cuando se presenta la ruina. En el segundo caso la probabilidad condicional indicada es 1. En el primer caso la probabilidad condicional on se reduce a la probabilidad w 1 y , pues siendo la primera reclamaci de magnitud y y no habiendo ruina en esta primera reclamaci on, la probabilidad condicional original se reduce a la probabilidad de que no se presente la ruina desde el momento de la primera reclamaci on en adelante pero ahora con capital inicial w 1 y . Por la propiedad de incrementos independientes, esta probabilidad es w 1 y . Despejando el u ltimo t ermino de la

7.2. Probabilidad de ruina con horizonte infinito suma (7.3) y escribiendo u en lugar de w se obtiene u 1f 0 u
u y 1

169

y f u 1 y F u.

(7.4)

Sumando ahora las ecuaciones de (7.3) para valores de w de cero a cualquier u 0, se tiene que
u w 0

u w 1 w 0 y 1 u 1 y 1 u 1 y 1

y f w 1 y
u w y 1

u w 0

F w F w

f w 1 y
u w 0

u w 0

y F u 1 y
u y 1

F w
u w 0

u 1 f 0

y F u 1 y

F w

Para obtener la u ltima identidad se separa el u ltimo sumando de la primera ermino se obtiene suma y se observa que F 0 f 0. Despejando este t u 1 f 0 0
u y 1

y 1 F u 1 y

u y 0

F y .

(7.5)

Igualando el lado derecho de esta ecuaci on con el lado derecho de la ecuaci on (7.4) se obtiene u 0 0 0
u y 1 u y 1 u 1 y 0

y 1 F u 1 y f u 1 y y F u y u y F y
u 1 y 0 u 1 y 0

u 1 y 0

F y

F y F y . (7.6)

170

7. Teor a de la ruina: tiempo discreto

Esto demuestra la primera parte de la proposici on. Resta entonces demostrar que 0 E Y . Para ello tomaremos el l mite cuando u en la ecuaci on (7.6). Tenemos entonces que 0
u

l m u

0 l m
u

u 1 y 0

u y F y

y 0

F y .

Observamos que la segunda suma es E Y , de modo que es suciente de, para mostrar que el l mite de la primera suma es cero. Como E Y cualquier 0 puede encontrarse un valor de n natural tal que

y n 1

F y

Entonces

u 1 y 0

u y F y

y 0 n

u y F y u y

y n 1

y 0

F y .

Por lo tanto al tomar el l mite cuando u


u 1 u

obtenemos que .

l m

u y F y

y 0

Siendo arbitrario, el l mite es efectivamente cero. En analog a con la notaci on F y 1 F y , la expresi on u denotar a la probabilidad 1 u, esto representa la probabilidad de que la ruina nunca se presente. Notaci on u : 1 u

Usando esta nomenclatura, la ecuaci on recursiva para u tambi en puede ser escrita como sigue u 0
u 1 y 0

u y F y ,

1.

(7.7)

7.2. Probabilidad de ruina con horizonte infinito

171

Por otro lado, recordando nuevamente que Y es una variable aleatoria con valores enteros en el conjunto 0, 1, . . . y con esperanza nita, se puede escribir E Y

F y .

y 0

De modo que uniendo los dos resultados de la Proposici on 7.1 y despu es de un cambio de variable se encuentra que la f ormula recursiva para u tambi en puede ser escrita de la forma siguiente: u
u 1 y 0

u y F y

y u

F y ,

1.

(7.8)

En el siguiente cap tulo encontraremos una f ormula similar a (7.8) para la probabilidad de ruina considerando un modelo de riesgo a tiempo continuo. Ejemplo 7.1 Suponga que las reclamaciones Y tienen distribuci on dada por la tabla que aparece abajo. Usando la f ormula recursiva de la Proposici on 7.1, encontraremos u para los primeros valores de u. y f y 0 0.5 1 0.2 2 0.3

Primeramente tenemos que 0 E Y 0.8 1. Para u 1 la f ormula recursiva establece que 1 1F 0 F 1. Sustituyendo las probabilidades correspondientes se obtiene 1 0.6. Para u 2 se tiene que 2 1F 1 2F 0, de donde se obtiene 2 0.36. An alogamente se obtienen las probabilidades de ruina que se muestran en las siguientes tablas. u 0 1 2 3 4 5 u 0.8 0.6 0.36 0.216 0.1296 0.07776 u 6 7 8 9 10 11 u 0.046656 0.0279936 0.01679616 0.010077696 0.006046618 0.0036279708

172 u 1.0 0.8 0.6 0.4 0.2

7. Teor a de la ruina: tiempo discreto

0 1 2 3 4 5 6 7 8 9 10 Figura 7.2

En la Figura 7.2 se muestra una gr aca de barras de los valores encontrados de u. Como era de esperarse, se observa un comportamiento decreciente de la probabilidad de ruina conforme el capital inicial se incrementa. Ejemplo 7.2 (Problema de la ruina del jugador) Considere el proceso de riesgo a tiempo discreto Cn : n 0 en donde las reclamaciones tienen la siguiente distribuci on de probabilidad: P Y P Y 0 2 p, 1 p,

en donde 12 p 1. De esta forma al t ermino de cada periodo el proceso se incrementa en una unidad cuando Y 0, o se reduce en una unidad 2. La condici on que hemos mencionado para el valor de p cuando Y garantiza que se cumple la condici on de ganancia neta E Y 21 p 1. La variable Cn representa entonces el capital de un jugador A que apuesta una unidad monetaria en cada unidad de tiempo, su capital inicial es u y el jugador contrario B puede considerarse que tiene capital innito. Encontraremos la probabilidad de que el jugador A (i.e. la compa n a aseguradora) eventualmente se arruine. Por los resultados de la Proposici on 7.1, 0 E Y 21 p 1.

7.2. Probabilidad de ruina con horizonte infinito Por otro lado, la funci on F y es: F 0 F y y entonces, para u 1 De donde se obtiene F 1 1 p, 1 p, 0 para y 2,

173

1 se tiene que 0 1F 0 F 0. 1 1p . p

Para u

2 se obtiene la ecuaci on 2 0 2F 0 1F 1 F 0 F 1, 2

que produce la soluci on

1p p

2
.

Usando inducci on sobre u, se puede demostrar que para cualquier capital inicial u 1, 1p u u . p Esta es la probabilidad de ruina del jugador A (compa n a aseguradora) cuando su capital inicial es u y es una versi on particular de la soluci on al problema de la ruina del jugador, v ease por ejemplo [31]. Se observa que esta probabilidad converge a cero cuando u tiende a innito. En general, dada una distribuci on de probabilidad particular para las reclamaciones, la f ormula recursiva para la probabilidad de ruina de la Proposici on 7.1 no produce expresiones compactas. El siguiente es uno de los pocos ejemplos en los que la probabilidad de ruina tiene una f ormula muy corta. Ejemplo 7.3 (Reclamaciones geom etricas) Considere el modelo de riesgo a tiempo discreto en donde las reclamaciones tienen distribuci on geop, es decir, la funci on de probabilidad es f y

1 py p,

0, 1, 2, . . .

174

7. Teor a de la ruina: tiempo discreto

A partir de las f ormulas que aparecen en la Proposici on 7.1 pueden encontrarse los valores de u de manera sucesiva para u 0, 1, 2, . . .. M as formalmente, usando inducci on sobre el par ametro u puede demostrarse que para cualquier capital inicial u 0 y para cualquier p 12, u

1p p

u1

Concluimos esta secci on mostrando el comportamiento l mite de la probabilidad de ruina cuando el capital inicial crece a innito. La demostraci on de este resultado se basa en el an alisis presentado antes para justicar la hip otesis de ganancia neta en la secci on introductoria sobre los principios para el c alculo de primas.

Proposici on 7.2 Para el modelo de riesgo a tiempo discreto y bajo la condici on de ganancia neta,
u

l m u

0.

Demostraci on. Por la ley fuerte de los grandes n umeros y la condici on de ganancia neta tenemos que
n

l m

1 Cn n

l m

1 Yj un n j 1
n n

1 l m

1 E Y

1 Yj nj 1
n

0.

As , este comportamiento l mite implica forzosamente la v.a. Cn diverge . En consecuencia, la variable a innito casi seguramente cuando n nf n 0 Cn est a acotada por abajo casi seguramente. Por lo tanto, tomando un capital inicial u sucientemente grande, la cota inferior de nf n 0 Cn puede hacerse igual a cero, es decir,
n 0

nf Cn

0.

7.3. Probabilidad de ruina con horizonte finito Esto quiere decir que u 0 cuando u .

175

7.3.

Probabilidad de ruina con horizonte nito


1 se dene como C0 u , u, n P n C0 u

La probabilidad de ruina con horizonte nito n P

1, 2, . . . , n

y corresponde a la probabilidad de que la ruina se presente en alguno de los tiempos: 1, 2, . . . , n. Puesto que siempre estaremos en el caso C0 u, se omitir a esta condici on y la probabilidad de ruina con horizonte nito se puede escribir simplemente como P n. Observe entonces que u, n es la funci on de distribuci on del tiempo de ruina evaluada en el valor entero n. Naturalmente estamos interesados en conocer esta funci on. A partir de observar la contenci on de los eventos correspondientes se puede vericar que u, 1 u, 2

u, n

u .

En particular cuando el capital tiende a innito esta probabilidad de ruina tambi en se anula, es decir, para cualquier n 1 jo,
u

l m u, n

l m u

0.

Condicionando sobre el monto de la primera reclamaci on tal como se hizo en el caso de horizonte innito, mostramos a continuaci on una forma recursiva de encontrar u, n. Proposici on 7.3 Para el proceso de riesgo a tiempo discreto Cn : n 0 con valor inicial u 0, la probabilidad de ruina con horizonte nito u, n puede calcularse de la siguiente forma 1. u, 1 2. u, n F u. F u
u y 0

u 1 y, n 1 f y ,

2.

176 Demostraci on. Para n 1, u, 1 Para n P 1

7. Teor a de la ruina: tiempo discreto

P u 1 Y 1 P n P n Y1

P Y1

u 1

F u.

2, condicionando sobre el valor de la primera reclamaci on, u, n

y P Y1

y 0 u

u 1 y, n 1 f y

y u 1

y 0 u y 0

f y

u 1 y, n 1 f y F u.

Ejemplo 7.4 Consideremos nuevamente el caso cuando los montos Y tienen distribuci on dada por la tabla que aparece abajo. Usando la f ormula recursiva de la Proposici on 7.3 encontraremos u, n, cuando u 0 y n 1, 2, 3, 4, 5. y f y 0 0.5 1 0.2 2 0.3

Para n 1 tenemos que 0, 1 F 0 0.5. Para n 2, la f ormula recursiva lleva a la ecuaci on 0, 2 0, 1 1, 1f 0, usando el hecho de que 1, 1 0.3 se obtiene 0, 2 0.65. Para n 3, se tiene que 0, 3 0, 1 1, 2f 0, en donde 1, 2 se calcula usando la misma f ormula recursiva. Al hacer los c alculos se obtiene 0, 3 0.68. An alogamente y utilizando repetidamente la f ormula recursiva se obtienen las probabilidades de ruina restantes que se muestran en la siguiente tabla. n 0, n 1 0.5 2 0.65 3 0.68 4 0.7085 5 0.7232

7.4. Coeficiente de ajuste

177

El comportamiento creciente de n 0, n se muestra en la Figura 7.3 y tales probabilidades son siempre menores o iguales a 0 0.8, es decir, 0, 1 El valor 0 0, 2

0, 5

0.8 .

0.8 fue calculado en el Ejemplo 7.1.

1.0 0.8 0.6 0.4

0, n 0

0 1 2 3 4 5 Figura 7.3

7.4.

Coeciente de ajuste

Para el proceso de riesgo a tiempo discreto Cn : n 0, vamos a denir ahora un n umero llamado coeciente de ajuste o exponente de Lundberg. La denici on aparece a continuaci on y por ahora se presenta sin motivaci on ni justicaci on alguna. Las razones por las cuales tal n umero se dene de esa manera ser an evidentes en la siguiente secci on en donde encontraremos una cota superior para la probabilidad de ruina en el modelo de riesgo mencionado y en donde aparece de manera natural el coeciente de ajuste.

178

7. Teor a de la ruina: tiempo discreto

Denici on 7.3 (Coeciente de ajuste) Suponga que la funci on generadora de momentos de las reclamaciones Y en el proceso de riesgo a tiempo discreto Cn : n 0 existe y que E Y 1. El coeciente de ajuste para este proceso de riesgo se dene como la u nica soluci on positiva r de la ecuaci on (7.9) E erY 1 1. A tal soluci on positiva se le denota por R.

Expl citamente el coeciente de ajuste es aquel n umero positivo r tal que

y 0

ery1 f y

1.

Para justicar que esta ecuaci on tiene efectivamente una u nica soluci on positiva se dene la funci on r a) r b) 0 c) r d) e) E erY 1

y se comprueba que r cumple las siguientes propiedades: 0 1. E Y para r 0.

1erY 1. r E Y 12 erY 1 . , cuando F 1 l m r r

1.

As , el comportamiento de r alrededor de cero es el siguiente: toma el valor 1 en r 0, la derivada por la derecha en r 0 es 0 E Y 1, que resulta ser negativa por la hip otesis de ganancia neta E Y 1. La segunda E Y 12 0. Finalmente, si F 1 1 derivada en cero es 0 entonces r crece a innito cuando r . Esta armaci on se verica m as abajo. Todas estas observaciones acerca de la funci on r demuestran

7.4. Coeficiente de ajuste

179

r
1

r R Figura 7.4 que existe un u nico valor r tal que r 1 y ese valor es el coeciente de ajuste R. Una gr aca aproximada de r se muestra en la Figura 7.4. Veamos m as detenidamente el comportamiento l mite de la funci on r. Supongamos que la distribuci on de las reclamaciones es tal que F 1 1. Entonces para cualquier r 0, r

ry1 e f y
y 0

ry1 e f y
y 2

er

y 2

f y

er 1 F 1.

As , cuando F 1 l mite cuando r

1 el u ltimo factor es positivo y la funci on r crece sin .

Ejemplo 7.5 (Reclamaciones Bernoulli) Consideremos el caso de reclamaciones con distribuci on Berp, con 0 p 1. En este caso, F 1 1 y por lo tanto no se satisface la condici on F 1 1. La funci on r es r

1 p er p.

Es claro que esta funci on decrece exponencialmente cuando r y por lo tanto no cruza su valor inicial 0 1. Por lo tanto no existe el coeciente de ajuste en este caso. Para este tipo de reclamaciones las probabilidades de ruina son: 0 p y u 0 para u 1. Observamos que de todas las distribuciones para las reclamaciones Y tales que E Y 1, la u nica distribuci on de probabilidad que no satisface las

180

7. Teor a de la ruina: tiempo discreto

condici on F 1 1 es la distribuci on Berp de par ametro 0 p 1. En conclusi on, exceptuando esta distribuci on, se puede garantizar la existencia del coeciente de ajuste para cualquier distribuci on de probabilidad sobre on generadora de momentos nita y con el conjunto 0, 1, 2, . . . con funci esperanza menor a 1. En general no es sencillo resolver la ecuaci on (7.9) para encontrar el coeciente de ajuste. En una situaci on particular, a menudo es necesario usar alg un procedimiento num erico como el m etodo de Newton-Raphson para aproximar el valor de este coeciente. En el ap endice el lector puede encontrar una breve descripci on del m etodo de Newton-Raphson. El siguiente ejemplo es at pico, pues se puede encontrar el coeciente de ajuste con facilidad. Ejemplo 7.6 (Problema de la ruina del jugador, continuaci on) Considere nuevamente la distribuci on de probabilidad para las reclamaciones como en el Ejemplo 7.2 del problema de la ruina del jugador: P Y P Y 0 2 p, 1 p,

en donde 12 p 1. El coeciente de ajuste en este caso se calcula como la soluci on positiva r de la ecuaci on E erY 1 per 1 per 1.

Esto equivale a resolver una ecuaci on cuadr atica, cuyas soluciones son r As , el coeciente de ajuste es R 0, p ln 1 p .
p ln 1 p .

7.5.

Desigualdad de Lundberg

Demostraremos a continuaci on que es posible encontrar una cota superior para las probabilidades de ruina en el modelo de riesgo a tiempo discreto. Tal cota superior est a dada en t erminos del coeciente de ajuste.

7.5. Desigualdad de Lundberg

181

Proposici on 7.4 (Desigualdad de Lundberg) Para el proceso de riesgo a tiempo discreto Cn : n 0 con capital inicial u 0 y cuando el coeciente de ajuste R existe, las probabilidades de ruina con horizonte nito e innito satisfacen las siguientes desigualdades: 1. u, n 2. u eRu , eRu . n 1.

Demostraci on. Primeramente observamos que el segundo resultado es consecuencia del primero, pues u
n

l m u, n

l m eRu

eRu .

Para demostrar el primer resultado usaremos el m etodo de inducci on sobre el par ametro n. Para n 1 tenemos que, por la Proposici on 7.3 y la existencia del coeciente de ajuste R, u, 1 F u

Ru1y f y e y u1 Ru1y
y u 1

f y

f y

y 0

eRu eRu .

y 0

eRy1 f y

En la pen ultima igualdad la suma indicada vale 1, pues esa es justamente la denici on de coeciente de ajuste. Supongamos ahora que u, n eRu 1. Entonces, nuevamente por la f ormula para alg un valor entero jo n

182

7. Teor a de la ruina: tiempo discreto

general de la Proposici on 7.3, u, n 1 u, 1


u y 0

u 1 y, n f y
u eRu1y f y

y u 1

y 0 u Ru1y e eRu1y f y f y y u1 y 0 Ru1y


e f y
y 0

f y

eRu eRu .

y 0

eRy1 f y

En el caso cuando el coeciente de ajuste existe, es una consecuencia inmediata de la desigualdad de Lundberg que las probabilidades de ruina se anulan cuando el capital inicial tiende a innito, es decir,
u

l m u

l m u, n

0.

Con ayuda del siguiente resultado daremos una demostraci on alternativa de la desigualdad de Lundberg, esta vez usando la teor a de martingalas. Proposici on 7.5 Sea Cn : n 0 el proceso de riesgo a tiempo discreto. Suponga que el coeciente de ajuste R existe. Entonces el proceso abajo especicado es una martingala a tiempo discreto.

eRC

:n

0.

on natural del proceso eRCn : Demostraci on. Sea Fn n 0 la ltraci n 0. La existencia del coeciente de ajuste garantiza que cada variable

7.5. Desigualdad de Lundberg

183

de este proceso tiene esperanza nita. En efecto, no es dif cil comprobar que E eRCn Por otro lado, para cualquier n E eRCn1 Fn 0, E eRCn 1Yn1 Fn eRCn E eRY 1 eRCn . eRu .

En la segunda igualdad hemos usado la hip otesis de independencia de las reclamaciones y para la u ltima igualdad se us o la denici on de coeciente de ajuste. Demostraci on. (Desigualdad de Lundberg, segunda demostraci on). Sea el tiempo de paro denido como el momento de la ruina en el proceso de en lo riesgo a tiempo discreto. Como Cn : n 0 es una martingala, tambi es Cn : n 0. Recordemos que x y m nx, y . Ambas martingalas comienzan en el valor eRu . Entonces para cualquier n 1, eRu eRC0 E eRCn E eRCn

E eRCn n P E eRCn n P n E eRC n P n.

n P

mon otonamente puede demostrarse que el evento n Haciendo n converge crecientemente al evento y que la esperanza condicional RC . Por lo tanto, indicada converge a E e eRu E eRC E 1 P u.

184

7. Teor a de la ruina: tiempo discreto

Las probabilidades de ruina con horizonte nito tambi en tienen la misma cota superior, pues para cualquier n 1, u, n u eRu .

Ejemplo 7.7 (Problema de la ruina del jugador, continuaci on) En el Ejemplo 7.2 hemos calculado la probabilidad exacta de ruina para el mo0 p y delo de riesgo cuando las reclamaciones son tales que P Y P Y 2 1 p, con 21 p 1. Esta probabilidad es, para u 1, u

1p p

Podemos entonces comparar u con la cota de Lundberg eRu . Despu es de algunos c alculos sencillos puede comprobarse que estas cantidades coinciden, es decir, u eRu , u 1. Esto demuestra que sin ninguna otra condici on adicional, la cota superior de Lundberg es o ptima.

Por otro lado, en el Ejemplo 7.6 hemos encontrado que el coeciente de ajuste en este caso es p R ln . 1p

7.6.

Severidad de la ruina

Consideremos nuevamente el proceso de riesgo a tiempo discreto Cn : n 0 con capital inicial u 0. Sea el tiempo de ruina en este modelo y dena la probabilidad u, z P , C z , as para u 0, 1, 2, . . . y z 0, 1, 2, . . . Observe que para hacer la escritura m corta, hemos omitido escribir esta expresi on como una probabilidad condicional cuando C0 u. Esta funci on representa la probabilidad conjunta de

7.6. Severidad de la ruina

185

que la ruina ocurra en un tiempo nito y que el d ecit de la aseguradora al momento de la ruina sea menor o igual al valor z . A la variable aleatoria C se le llama severidad de la ruina o d ecit al momento de la ruina. Se muestra gr acamente su signicado en la Figura 7.5.

Cn

u n

C
Figura 7.5

Demostraremos a continuaci on una f ormula recursiva para la probabilidad u, z . Para ello usaremos el hecho de que dicha probabilidad se anula cuando el capital inicial es innito, es decir,

l m u, z

l m u

0.

El m etodo de la demostraci on es muy similar al presentado para la proon de ejercicios babilidad de ruina con horizonte innito u. En la secci aparece una f ormula recursiva para la severidad de la ruina con horizonte nito.

186

7. Teor a de la ruina: tiempo discreto

Proposici on 7.6 Para el proceso de riesgo a tiempo discreto Cn : n con capital inicial u 0 y tiempo de ruina , la funci on u, z para z P , C z ,
z y 0

0, 1, . . ., satisface las siguientes identidades: 0, z


z y 0 u 1 y 0

1. u, z 2. 0, z

u y, z F y

F u y F y.

F y .

Demostraci on. Condicionando sobre el monto de la primera reclamaci on, u, z

y 0 u y 0

, C

Y1

y f y

u 1 y, z f y

u z 1 y u 1

f y .

Cuando el monto y toma un valor entre cero y u, no hay ruina, pues al tiempo uno el capital de la aseguradora se ha incrementado a u 1, por la propiedad de incrementos independientes del proceso, la probabilidad condicional se reduce a u 1 y, z . Si el monto y est a entre u 1 y u z 1, entonces hay ruina y se cumple la condici on C z , por lo tanto la probabilidad condicional es id enticamente uno. Finalmente, si y es mayor a u z 1, hay ruina y la ruina es severa en el sentido de que no se cumple la condici on C z , en este caso la probabilidad condicional es cero y es por ello que no aparece en la u ltima igualdad. La u ltima ecuaci on puede escribirse de la siguiente forma: u, z
u 1 y 1

y, z f u 1 y F u z 1 F u.

(7.10)

7.6. Severidad de la ruina

187

Escribiendo k en lugar de u y sumando estas expresiones para valores k de 0 a u se obtiene


u k 0

k, z

u k 1 k 0 y 1 u 1

y, z f k 1 y

u k 0

F k z 1 F k F k z 1 F k

y 1 k y 1 u 1 y 1

y, z f k 1 y
u k 0

u k 0

y, z F u 1 y

F k z 1 F k

Despejando el t ermino u 1, z , u 1, z F 0
u k 0

k, z

u y 1

y, z F u 1 y

u k 0

F k z 1 F k
u

0, z

y, z 1 F u 1 y (7.11)

y 1

F k z 1 F k.

k 0

Por otro lado, de la ecuaci on (7.10) se obtiene u 1, z F 0 u, z


u y 1

y, z f u 1 y F u z 1 F u. (7.12)

Igualando el lado derecho de las ecuaciones (7.11) y (7.12), u, z 0, z


u y 1

y, z F u y

u 1 k 0

F k z 1 F k.

188

7. Teor a de la ruina: tiempo discreto

La segunda suma puede expresarse de la siguiente forma:


u 1 k 0

F k z 1 F k

u 1

F k y 1 F k y F k y 1 F k y

k 0 y 0 z u 1

y 0 k 0 z

F u y F y.
z y 0

y 0

Por lo tanto, u, z 0, z
u y 1

y, z F u y

F u y F y.

(7.13)

Haciendo un cambio de variable en la primera suma se obtiene la primera f ormula de la proposici on. Para obtener la segunda f ormula hacemos u tender a innito en la expresi on reci en encontrada (7.13). As , tenemos que 0
u

l m u, z
u y 1 u

0, z l m

y, z F u y

z y 0

1 F y.

Resta demostrar que el u ltimo l mite indicado es cero. Tenemos que


u y 1

y, z F u y

u 1 v 0

u v, z F v u v, z F v u v, z

v 0 n

v n 1

v 0

F v ,

en donde n es cualquier entero tal que v n1 F v , para cualquier 0. Ello es posible pues E Y . As , al hacer u tender v 0 F v

7.6. Severidad de la ruina

189

a innito la primera suma se anula y la segunda suma, como hemos visto, puede hacerse tan peque na como se desee. Es interesante observar que cuando z , es decir, cuando no hay cota para la severidad de la ruina, la probabilidad u, z converge a la probabilidad de ruina u y las ecuaciones de la Proposici on 7.6 se reducen a las estudiadas antes en la Proposici on 7.1. ormula recursiPor otro lado, incorporando la expresi on de 0, z en la f va para u, z y haciendo algunas simplicaciones, puede encontrarse la siguiente expresi on alternativa u, z
u 1 y 0

u y, z F y

z y 0

F u y .

Comparando esta expresi on con la f ormula para u dada por la ecuaci on (7.8) de la p agina 171 podemos escribir la diferencia entre u y u, z de la siguiente forma: u u, z Pero observemos que u u, z P P P
u 1 y 0

u y u y, z F y P , C , C z .
, C z

y u z 1

F y .

Por lo tanto hemos demostrado que la funci on 1 u, z satisface la ecuaci on recursiva 1 u, z


u 1 y 0

1 u y, z F y

y u z 1

F y .

Ejemplo 7.8 (Reclamaciones geom etricas) Considere el modelo de riesgo a tiempo discreto en donde las reclamaciones tienen distribuci on geop, es decir, la correspondiente funci on de probabilidad es f y

1 py p,

0, 1, 2, . . .

190

7. Teor a de la ruina: tiempo discreto

A partir de las f ormulas que aparecen en la Proposici on 7.6 y usando inducci on sobre el par ametro u puede demostrarse que u, z

1 1 p

z 1

1p p

u1
.

Al hacer z tender a innito obtenemos las probabilidades de ruina con horizonte innito cuando las reclamaciones son geom etricas. Estas probabilidades aparecen en el Ejemplo 7.3. l m u, z

1p p

u1

u.

En el siguiente cap tulo estudiaremos un modelo de riesgo a tiempo continuo muy similar al que hemos estudiado hasta ahora. Algunos de los conceptos, notaci on, t ecnicas y deniciones que hemos utilizado ser an extendidas al caso cuando el tiempo se mide de manera continua.

Comentarios y referencias
En el presente cap tulo hemos estudiado el problema de la ruina en el proceso de riesgo a tiempo discreto no trivial m as sencillo posible. El modelo que hemos estudiado puede plantearse con caracter sticas m as generales, pero al considerar el modelo elemental estudiado, nuestro objetivo ha sido mostrar el tipo de problemas matem aticos que pueden plantearse y en algunos casos mostrar las respuestas que se obtienen en casos particulares. En la respuesta general a estos problemas hemos encontrado varias f ormulas recursivas que invitan a su implementaci on en computadora. En algunos casos las probabilidades involucradas pueden tomar valores muy cercanos a cero y ello podr a provocar problemas num ericos. Debe entonces tenerse cuidado al programar estas f ormulas en una computadora. El material expuesto en este cap tulo est a basado en el cap tulo introductorio a la teor a de la ruina del texto de Dickson [13]. Otras referencias en el tema son [7] y [23]. El lector interesado en el estudio m as profundo sobre los modelos de riesgo a tiempo discreto puede consultar art culos de investigaci on panor amicos como [24].

7.7. Ejercicios

191

7.7.

Ejercicios
Proceso de riesgo a tiempo discreto

154. Encuentre la matriz de probabilidades de transici on en un paso de la cadena de Markov dada por el proceso de riesgo a tiempo discreto Cn : n 0. 155. El total de montos por reclamaciones durante cada periodo unitario en el proceso de riesgo a tiempo discreto se ha modelado mediante una variable aleatoria discreta Y con valores en el conjunto 0, 1, . . . y se ha supuesto que la esperanza de esta variable es nita. Demuestre que E Y

F y .

y 0

0, use la 156. Para el proceso de riesgo a tiempo discreto Cn : n ley fuerte de los grandes n umeros para demostrar que, en el sentido casi seguro, si E Y 1, l m Cn n si E Y 1. Probabilidad de ruina con horizonte innito 157. Calcule la probabilidad de ruina u para u 0, 1, 2, 3, 4, 5 en el modelo de riesgo a tiempo discreto cuando las reclamaciones tienen la distribuci on de probabilidad dada por la siguiente tabla. y f y 0 3/4 1 1/8 2 1/8

158. Suponga que las reclamaciones en el modelo de riesgo a tiempo discreto tienen la siguiente funci on de probabilidad: para alg un entero k 2 jo, f k f 0 1 p, p.

192 Demuestre que: a) u b) u 1p 1p p p

7. Teor a de la ruina: tiempo discreto

ku

u 1 y 1

u y

para 1 u k.

k 1 y 1

u y para u

k.

159. A partir de la f ormula recursiva para la probabilidad de ruina u en el proceso de riesgo a tiempo discreto que aparece en el enunciado de la Proposici on 7.1, demuestre que: a) u 1
u

b) l m u

u. 0.

160. Hemos demostrado que la funci on u u satisface la ecuaci on recursiva dada en la Proposici on 7.1. Demuestre que esta ecuaci on recursiva tiene una u nica soluci on. Sugerencia: suponga que 1 u y 2 u son dos funciones que cumplen las propiedades que se enuncian en la Proposici on 7.1. Use inducci on sobre u para demostrar que 1 u 2 u 0 , u 0.

Probabilidad de ruina con horizonte nito 161. Calcule la probabilidad de ruina con horizonte nito u, n para u 1 y n 1, 2, 3, 4, 5 en el modelo de riesgo a tiempo discreto, cuando las reclamaciones tienen la distribuci on de probabilidad dada por la siguiente tabla.

y f y

0 4/10

1 5/10

2 1/10

7.7. Ejercicios Coeciente de ajuste

193

162. Calcule el coeciente de ajuste para el modelo de riesgo a tiempo discreto cuando las reclamaciones tienen la distribuci on de probabilidad dada por la siguiente tabla. y f y 0 1/3 1 1/2 2 1/6

163. Considere el modelo de riesgo a tiempo discreto en donde las reclamaciones tienen distribuci on geop, es decir, la correspondiente funci on de probabilidad es f y

1 py p,

0, 1, 2, . . .

Recuerde que el valor esperado de esta distribuci on es E Y 1 pp. Para que se cumpla la condici on de ganancia neta E Y 1 se necesita suponer p 12. Demuestre que el coeciente de ajuste es p R ln . 1p 164. Suponga que las reclamaciones tienen la siguiente distribuci on de probabilidad P Y P Y 0 3 1 p, p.

13, con esta restricci on se cumple la Suponga adem as que p condici on de ganancia neta E Y 1 en el modelo de riesgo a tiempo discreto. Demuestre que el coeciente de ajuste es

R ln

p2 4p1 p 2p

194

7. Teor a de la ruina: tiempo discreto

165. Sea k 2 un entero jo. Considere el modelo de riesgo a tiempo discreto en donde las reclamaciones tienen funci on de probabilidad f k f 0 1 p, p.

Suponga que p 1k . Con esta hip otesis se cumple la condici on de ganancia neta E Y 1. Demuestre que el coeciente de ajuste ln x, en donde x es la u nica soluci on mayor a uno de la es R ecuaci on pxk1 pxk2 p 1 0. 166. Para el proceso de riesgo a tiempo discreto Cn : n 0 con capital inicial u 0 y suponiendo que el coeciente de ajuste R existe, demuestre que para cualquier n 0, E eRCn Desigualdad de Lundberg 167. Considere los datos del modelo que aparece en el Ejemplo 7.1, en donde se calcularon expl citamente las probabilidades u para u 0, 1, . . . , 11. Demuestre que el coeciente de ajuste es R ln106 0.5108256238 . eRu .

Para los valores de u indicados, verique que efectivamente se cumple la desigualdad de Lundberg u eRu . El uso de una hoja de c alculo podr a ser u til para realizar estas vericaciones. Severidad de la ruina 168. Propiedades. A partir de la denici on de la funci on u, z demuestre que: a) u b) z u, z es creciente. u, z es decreciente.

7.7. Ejercicios c) u, z
z

195 u.

d) l m u, z

u .

0, 1, 2, . . . y 169. Severidad con horizonte nito. Para cada entero u z 0, 1, . . . se dene la severidad de la ruina con horizonte nito como la funci on u, z ; n Demuestre que: a) u, z ; 1 b) u, z ; n F u z 1 F u. u, z ; 1
u

n, C

z .

u 1 y, z ; n 1 f y ,

2.

y 0

Cap tulo 8

Teor a de la ruina: tiempo continuo


En este cap tulo se presenta una versi on a tiempo continuo del proceso de riesgo conocida como el modelo cl asico de Cram er-Lundberg. Encontraremos que la probabilidad de ruina para este modelo satisface una ecuaci on integral. Estudiaremos adem as algunos otros resultados relacionados al c alculo y estimaci on de la probabilidad de ruina.

8.1.

Modelo cl asico de Cram er-Lundberg

El modelo de Cram er-Lundberg es una versi on a tiempo continuo del modelo a tiempo discreto que estudiamos en el cap tulo anterior y tiene sus or genes en la tesis doctoral de Filip Lundberg defendida en el a no de 1903. En este trabajo, Lundberg analiza el reaseguro de riesgos colectivos y presenta el proceso de Poisson compuesto. Lundberg utiliz o t erminos un tanto distintos a los actuales pues en aquellos a nos a un no se hab a formalizado la teor a de los procesos estoc asticos como la entendemos hoy en d a. En 1930 Harald Cram er retoma las ideas originales de Lundberg y las pone en el contexto de los procesos estoc asticos, en ese entonces de reciente creaci on. El modelo ha sido estudiado en extenso, y varias formas de generalizarlo se han propuesto y analizado. 197

198

8. Teor a de la ruina: tiempo continuo

Ernest Filip Oskar Lundberg (Suecia, 18761965)

Carl Harald Cram er (Suecia, 18931985)

Denici on 8.1 El modelo cl asico de Cram er-Lundberg es el proceso estoc astico a tiempo continuo Ct : t 0 dado por Ct u ct
Nt j 1

Yj ,

(8.1)

en donde u y c son constantes positivas, Y1 , Y2 , . . . es una sucesi on de v.a.i.i.d. positivas e independientes del proceso de Poisson Nt : t 0 de par ametro .

La constante u representa el capital inicial de la compa n a aseguradora, ct corresponde a la entrada por primas hasta el tiempo t, Yj es el monto de la j - esima reclamaci on, y el proceso de Poisson Nt : t 0 modela la forma en la que las reclamaciones son recibidas. Observe que para un proceso de reclamaciones con distribuci on Poisson compuesta como en la ecuaci on (8.1), la esperanza es justamente de la forma ct, y el principio del valor esperado para el c alculo de primas lleva a que el proceso de primas sea lineal como el sugerido en el modelo. La variable Ct representa el balance m as sencillo de ingresos menos egresos a tiempo continuo de una compa n a aseguradora. 0 se le llama nuevamente proceso de riesgo (risk Al proceso Ct : t

sico de Crame r-Lundberg 8.1. Modelo cla

199

process), o proceso de super avit (surplus process), y tiene trayectorias como se muestra en la Figura 8.1.
C t E Ct

u t

Figura 8.1 Estas trayectorias comienzan siempre en el capital inicial u. Los intervalos en donde estas trayectorias son continuas y crecientes corresponden a periodos en donde no hay reclamaciones. El crecimiento es de la forma ct. Las discontinuidades son siempre saltos hacia abajo, y aparecen en el momento en que se efect ua una reclamaci on, la cual supondremos que se paga de manera inmediata. El tama no de un salto es el tama no de la reclamaci on dada por la variable Y . Hemos supuesto que los montos Y1 , Y2 , . . . son variables aleatorias independientes, positivas e id enticamente distribuidas, y en algunas ocasiones supondremos que tienen funci on generadora de momentos MY r. Los momentos, cuando existan, se denotar an nuevamente por n E Y n , n 1.

En particular denotar a el primer momento 1 . No es dif cil comprobar que VarCt E Ct u c t, 2 t.

Usando la independencia de las reclamaciones en el proceso de riesgo y la estacionariedad de los incrementos en el proceso de Poisson, puede demostrarse que el proceso de riesgo Ct : t 0 tiene incrementos independientes y estacionarios.

200

8. Teor a de la ruina: tiempo continuo

La condici on de ganancia neta


Sean T0 , T1 , T2 , . . . los tiempos aleatorios (tiempos de paro) en donde la aseguradora recibe las reclamaciones. Supondremos T0 0. Para cada entero k 1 dena la variable aleatoria Xk c Tk Tk1 Yk , que puede ser interpretada como el balance de la compa n a aseguradora entre dos siniestros sucesivos. La esperanza de esta variable es E Xk c E Tk Tk1 E Yk 1 c .

esima reclaSi denotamos por Ck al proceso de riesgo al momento de la k - maci on, entonces tenemos que Ck u
k j 1

Xk .

De modo que por la ley de los grandes n umeros, 1 l m Ck k k 1 l m k k

k j 1

Xk

E Xk 1 c .

De la misma forma que se argument o en el cap tulo sobre los principios generales para el c alculo de primas, se puede demostrar que la ruina ocurre casi seguramente si y s olo si, E Xk 0. Como deseamos que esta situaci on no ocurra supondremos que E Xk 0, es decir, tenemos la hip otesis: Condici on de ganancia neta c

Esta condici on ya la hab amos mencionado antes en otros modelos. Ahora la interpretamos para el proceso de riesgo a tiempo continuo de la siguiente forma: la entrada por primas por unidad de tiempo, c, es mayor que el total de reclamaciones promedio por unidad de tiempo, .

sico de Crame r-Lundberg 8.1. Modelo cla

201

Ruina
La trayectoria promedio de este proceso de riesgo es la l nea recta que inicia 0 y tiene pendiente c , la cual es positiva por la condici on o en u hip otesis de ganancia neta. V ease la Figura 8.1. Por razones naturales y legales es importante que Ct permanezca por arriba de cierto nivel m nimo. Supongamos que tal nivel m nimo es a, con 0 a u. Ajustando el capital inicial u, esto es, suponiendo un nuevo capital inicial de magnitud u a, se puede suponer, sin p erdida de generalidad, que este nivel m nimo es cero, y as lo haremos en nuestro an alisis. De esta forma cuando Ct 0 para alg un t 0 se dice que hay ruina.

Denici on 8.2 Se dice que el proceso de riesgo se encuentra en ruina al tiempo t 0 si Ct 0, y se dene el tiempo de ruina como el primer momento en que la ruina se presenta, es decir, nf t 0 : Ct 0. (8.2)

Nuevamente deniremos cuando el conjunto indicado en la expresi on (8.2) es vac o y corresponde a la situaci on cuando la ruina nunca se presenta. Observe que hemos denido ruina en el modelo a tiempo continuo 0, a diferencia del evento Cn 0 para cuando ocurre el evento Ct el modelo discreto estudiado en el cap tulo anterior. La ruina casi nunca sucede en la pr actica, es solamente un t ermino t ecnico que produce alguna toma de decisi on. Por ejemplo, si el capital de una compa n a aseguradora asignado a una cartera decrece en forma signicativa, autom aticamente la aseguradora puede tomar ciertas medidas para subsanar esta situaci on y no se trata de un evento insalvable. Por otro lado, es natural suponer que la compa n a aseguradora posea varios portafolios de modo que ruina en uno de ellos no signica necesariamente bancarrota que el t ermino ruina podr a sugerir. En las siguientes secciones nos interesar a calcular o estimar probabilidades

202

8. Teor a de la ruina: tiempo continuo

de ruina en el modelo de Cram er-Lundberg. De manera an aloga al modelo de riesgo a tiempo discreto presentado en el cap tulo anterior, denotaremos a la probabilidad de ruina con horizonte innito en el modelo de Cram erLundberg como u, es decir, u P C0 u.

Para deducir una ecuaci on para la probabilidad de ruina u tomaremos como preliminarme cierto el hecho de que cuando el capital inicial es innito la probabilidad de ruina es cero, es decir,

Y no habr a ambig uedad en su denici on pues el modelo o contexto en el que se estudia determinar a el caso correspondiente. Nuevamente escribiremos a esta probabilidad como funci on del capital inicial u, aunque en realidad depende de todos los par ametros del modelo. Y observamos adem as, sin proveer una demostraci on, la monoton a decreciente de esta funci on, es decir, si u1 u2 , entonces u1 u2 .

l m u

0.

M as adelante daremos una demostraci on de este resultado y corroboraremos su validez usando la desigualdad de Lundberg en el caso cuando el coeciente de ajuste existe. Como en el cap tulo anterior, usaremos la siguiente nomenclatura. Notaci on u : 1 u

8.2.

Probabilidad de ruina con horizonte innito

Presentaremos a continuaci on tres resultados generales sobre la probabilidad de ruina con horizonte innito. A diferencia del primer cap tulo, y para hacer la notaci on m as apegada a la literatura existente en el tema, recordemos que estamos denotando por F y a la funci on de distribuci on de una reclamaci on Y cualquiera. La funci on de densidad ser a f y , cuando esta exista.

8.2. Probabilidad de ruina con horizonte infinito

203

Proposici on 8.1 Suponga que la funci on de distribuci on F y de una reclamaci on en el modelo de Cram er-Lundberg es continua. Entonces d 1. u du 2. 0 3. u c

u
0

u y dF y .

. c c

F y dy

u
0

u y F y dy .

Demostraci on. Usaremos an alisis del primer paso condicionando sobre el monto de la primera reclamaci on Y1 y el momento T1 en el que esta reclamaci on ocurre. Usaremos adem as el hecho de que T1 tiene distribuci on exp. u P No ruina en 0,

C0


0 0

0 u ct

P No ruina en 0, P No ruina en 0,

Y1

y, T1 Y1 y, T1 Y1

t dF y fT1 t dt t dF y fT1 t dt y, T1 t dF y dt

et et

uct
0 0 u ct

P No ruina en t,

u ct y dF y dt.

Cuando el monto de esta primera reclamaci on excede el capital u ct, hay ruina y por lo tanto la probabilidad que no ruina es cero. Cuando la reclamaci on es menor o igual a u ct, no hay ruina y por lo tanto la probabilidad de no ruina en 0, se reduce a la probabilidad de no ruina

En el an alisis anterior hemos separado dos casos para el monto de la primera reclamaci on: 0, u ct u ct, .

204

8. Teor a de la ruina: tiempo continuo

desde el tiempo t en adelante pero con capital inicial u ct y , esto es u ct y . Haciendo el cambio de variable st u ct en la u ltima ecuaci on se obtiene u uc e c

esc

s
0

s y dF y ds.

A partir de esta f ormula se puede vericar que la funci on u u es diferenciable. As , derivando esta expresi on se encuentra el resultado del primer inciso. Demostraremos a continuaci on el segundo resultado. Integrando la ecuaci on diferencial del primer inciso entre 0 y u se obtiene u 0 c c

u 0u
0 u

xdx xdx

ux 0u 0u

x y dF y dx

xdx x dx dF y c 0 0 0 u u ux xdx x dF y dx c 0 0 u0 x F u x dx. c 0


Haciendo el cambio de variable y u 0

0 y u u y

x y dx dF y

u u y F y dy c 0 u y F y 10,u y dy. c 0

u x se obtiene (8.3)

El siguiente paso es hacer u tender a innito. En tal caso, u tiende a uno. Adem as el integrando que aparece en el lado derecho es una funci on mon otona creciente en u y cuyo l mite es la funci on integrable F x. Entonces por el teorema de convergencia mon otona se obtiene 1 0 c

F y dy

. c

8.2. Probabilidad de ruina con horizonte infinito Por lo tanto, 0 1 0 . c

205

(8.4)

De esta forma se obtiene el segundo resultado. Finalmente de (8.3) y (8.4) se sigue que u c c

u
0

u y F y dy

F y dy

u
0

u y F y dy

Observe que la u ltima expresi on corresponde a una ecuaci on ntegro diferencial para la probabilidad de ruina. En general no es f acil resolver este tipo de ecuaciones, sin embargo, cuando las reclamaciones tienen distribuci on exponencial la ecuaci on es soluble como se muestra en un ejemplo m as adelante. Para resolver la ecuaci on observamos primero que mediante un cambio de variable en la integral de la primera f ormula de la Proposici on 8.1 se obtiene d u du c

u
0

y f u y dy

. (8.5)

En el texto de Rolski et al. [32] se pueden encontrar los detalles de la demostraci on de la diferenciabilidad de la funci on u u, por simplicidad hemos supuesto tal propiedad en nuestros argumentos. Por otro lado, en el texto de Embrechts et al [14] puede encontrarse una argumentaci on m as formal sobre la propiedad de renovaci on del proceso de riesgo en los tiempos aleatorios en los que ocurre una reclamaci on. Esta propiedad fue utilizada en la demostraci on anterior y nos ayud o a encontrar una ecuaci on ntegro diferencial para la probabilidad de ruina. Ejemplo 8.1 (Reclamaciones exponenciales) Encontraremos la proba bilidad de ruina cuando las reclamaciones son exponenciales. Este es uno de los pocos modelos para los cuales tal probabilidad puede encontrarse de manera expl cita. Consideremos entonces el modelo de Cram er-Lundberg en donde las reclamaciones tienen distribuci on exp y cuya esperanza es

206

8. Teor a de la ruina: tiempo continuo 1. Por la ecuaci on (8.5), u c

u eu

u
0

y e

dy

Derivando esta expresi on y sustituy endola nuevamente en la ecuaci on encontrada se obtiene u u, c cuya soluci on es u a becu , en donde a y b son constantes. Usando las condiciones 0 c y 0 se encuentra que a 1 y b c. Por lo tanto, u cu . e c

La gr aca de esta funci on se encuentra en la Figura 8.2. Observe que debido a la condici on de ganancia neta, el exponente c es negativo, y por lo tanto la probabilidad de ruina decae a cero exponencialmente cuando el capital inicial u crece a innito.

u
c

u Figura 8.2

Demostraremos a continuaci on que la probabilidad de ruina se anula cuando el capital inicial es innito. La t ecnica de la demostraci on es similar a la presentada en el modelo de riesgo a tiempo discreto.

8.2. Probabilidad de ruina con horizonte infinito

207

Proposici on 8.2 Para el modelo de de Cram er-Lundberg y bajo la condici on de ganancia neta, l m u 0.
u

Demostraci on. Por la ley fuerte de los grandes n umeros y la condici on de ganancia neta tenemos que
t 1 Yj u ct t j 1

l m

1 Ct t

l m

t 1 Yj c l m t tj 1

c l m
t

Nt 1 l m t t Nt 0.

Nt j 1

Yj

Para el primer l mite hemos usado uno de los resultados que establece la velocidad de crecimiento del proceso de Poisson, esto es, que Nt t converge casi seguramente al par ametro cuando t . Para el segundo l mite hemos usado una extensi on del teorema central del l mite. De esta forma concluimos nuevamente que la v.a. Ct diverge a innito casi seguramente . En consecuencia, la variable nf t 0 Ct est cuando t a acotada por abajo casi seguramente. Por lo tanto, tomando un capital inicial u sucientemente grande, la cota inferior de nf t 0 Ct puede hacerse igual a cero, es decir, nf Ct
t 0

0.

Esto quiere decir que u

0 cuando u

208

8. Teor a de la ruina: tiempo continuo

8.3.

Probabilidad de ruina con horizonte nito

0 jo, la probabilidad de ruina en el intervalo 0, x o Dado un valor x tambi en llamada probabilidad de ruina con horizonte nito es u, x P x C0 u,

y corresponde a la funci on de distribuci on del tiempo de ruina. Es claro que cuando 0 x1 x2 , se cumplen las desigualdades u, x1 u, x2 u .

Adem as, cuando el horizonte x crece a innito, en el l mite la probabilidad con horizonte nito converge a la probabilidad con horizonte innito, es decir, u
x

l m u, x.

Mientras que cuando el capital inicial es innito y como consecuencia del resultado l mu u 0, la probabilidad de ruina con horizonte nito tambi en es cero, es decir, para cualquier x 0, l m u, x l m u 0.

Nuevamente, usaremos la siguiente nomenclatura. u, x : 1 u, x

Notaci on

Encontraremos a continuaci on una ecuaci on integral para la probabilidad de ruina con horizonte nito. El an alisis es m as elaborado que en el caso con horizonte innito. A la f ormula expl cita para 0, x que aparece en la siguiente proposici on y a la ecuaci on integral para u, x se les conoce como f ormulas de Seal.

8.3. Probabilidad de ruina con horizonte finito

209

Proposici on 8.3 (F ormulas de Seal) Considere el proceso de riesgo de Nt Cram er-Lundberg Ct u ct S t, en donde S t j 1 Yj . Suponga que las reclamaciones tienen distribuci on absolutamente continua con funci on de densidad f y y dena la funci on f S t y Entonces 1. FS t x 2. 0, x 3. et 1 cx et

tn n f y .
n 1

n!

x
0

f S t y dy ,

0.

cx
0

FS x y dy . u, x

u, x

u x
0 0

u y, x dF y

1 u, x . x

4. u, x

FS x u cx c

0, x y f S y u cy dy .

Demostraci on. La primera identidad se obtiene condicionando sobre el n umero de reclamaciones: para cualquier x 0,

FS t x

P S t

x x Nt n P Nt n

P S t

n 0

t tn x n t f y dy. e e
n 1

n!

210

8. Teor a de la ruina: tiempo continuo

Para la segunda identidad, suponiendo que el capital inicial u es cero, tenemos que 0, x P P P
t x

C t S t
t x

0 ct ct S x y fS x y dy

t x

S t
ct S x

Puede demostrarse que P


t x

S t
x

1 cx y. cx

Recordemos la notaci on x si x 0 si x 0, 0.

Por lo tanto, 0, x

1 cx y fSxy dy cx 0 1 E cx S x cx 1 y dFcxS x y dy cx 0 1 cx y dFcxS x y dy. cx 0

Aplicando integraci on por partes, 0, x

cx cx 1 FcxS x y dy y FcxS x y cx 0 0 cx 1 P S x v dv cx cx 0 1 cx v dv. F cx 0 S x

8.3. Probabilidad de ruina con horizonte finito

211

Esto demuestra la segunda identidad. Para la tercera identidad usaremos an alisis del primer paso condicionando sobre el monto de la primera reclamaci on Y1 y el momento T1 en el que esta reclamaci on ocurre. Usaremos adem as el hecho de que T1 tiene distribuci on exp. u, x P No ruina en 0, x C0

u y, T1 y, T1 y, T1 t dF y fT1 t dt t dF y fT1 t dt t dF y fT1 t dt.

0x 0
0 0

P No ruina en 0, x Y1 P No ruina en 0, x Y1 P No ruina en 0, x Y1

Observe que hemos separado dos casos: uno cuando la primera reclamaci on es ocurre al tiempo t dentro del intervalo 0, x y el otro cuando ocurre despu de x. En el primer caso la probabilidad del evento de inter es es distinta de cero cuando la reclamaci on es menor o igual a u ct. En el segundo caso la probabilidad del evento es uno. Por lo tanto, u, x

x uct
0


0 x 0

P No ruina en 0, x Y1

y, T1

t dF y fT1 t dt

x
0

et

uct
0

dF y fT1 t dt u ct y, x t dF y dt P T1 u ct se obtiene 1 ds ex . c x.

Haciendo el cambio de variable st u, x e


u c

ucx
u

esc

s
0

s y, x s uc dF y

Derivando esta expresi on respecto de u y respecto de x puede vericarse el cumplimiento de la ecuaci on integro diferencial u, x c

u, x

u
0

u y, x dF y

1 u, x x

. (8.6)

212

8. Teor a de la ruina: tiempo continuo

Para encontrar la cuarta identidad reescribiremos esta ecuaci on en t erminos de la transformada de Laplace. Recordemos que la expresi on L s, x denotar a la transformada de Laplace de la funci on u u, x, es decir, L s, x

esu u, x du.

As , calculando la transformada de Laplace t ermino a t ermino de la ecuaci on diferencial (8.6) se obtiene s L s, x 0, x O bien, x L s, x L s, x cs Lf s 1 c 0, x. c

L s, x L s, x Lf s

1 L s, x x

De esta forma la derivada respecto de la variable u en la ecuaci on diferencial parcial (8.6) ha sido absorbida por la transformada de Laplace y hemos obtenido una ecuaci on diferencial ordinaria en la variable x. La soluci on general de esta ecuaci on diferencial es L s, x

x
0

0, y c ecsLf s1y dy

ecsLf s1x , (8.7) 0 se obtiene que esta

en donde a es una constante. Evaluando en x constante es a L s, 0

esu u, 0 du

esu du

1 . s

As , la ecuaci on (8.7) adquiere la forma L s, x 1 csLf s1x e s

x
0

0, y c ecsLf s1xy dy. (8.8)

Demostraremos que los dos t erminos del lado derecho son tambi en una transformada de Laplace. Despu es de algunos c alculos pueden comprobarse los siguientes resultados:

8.4. Severidad de la ruina 1 Lf s1x . e s 1 cs Lf s1x b) LFS x u cxs . e s c) Lf ecs Lf s1x . S x u cxs a) LFS x us

213

As , el inciso (b) muestra que el primer sumando de (8.8) es la transformada de Laplace de u FS x u cx, y por el inciso (c) el segundo sumando es

x
0

x 0
0

0, y c Lf S xy u cx y s dy 0, y c esv c

x
0

esv f S xy u cx y du dy

0, x z f S z u cz dz du.

Por lo tanto, cada t ermino de la ecuaci on (8.8) es una transformada de Laplace. Por la propiedad de unicidad, las funciones originales deben coincidir, y as es como se obtiene la u ltima ecuaci on de la proposici on. Observe que la funci on x u, x es mon otona decreciente y tiene como . As , suponiendo v alido el interl mite la probabilidad u cuando x cambio de este l mite con la derivada respecto de x, la ecuaci on diferencial encontrada para u, x se reduce a la ecuaci on para u.

8.4.

Severidad de la ruina

Consideremos nuevamente el proceso de riesgo Ct : t 0 con capital inicial u. En esta secci on nos convendr a escribir la variable Ct como C t. Supongamos que estamos en la situaci on cuando el tiempo de ruina es nito. En este caso podemos considerar las siguientes variables aleatorias X : Z : C ,

C .

Estas cantidades representan, respectivamente, el valor del proceso de riesgo un instante antes de la ruina y el valor del proceso justo en el momento de la ruina. Las variables X y Z se muestran gr acamente en la Figura 8.3.

214

8. Teor a de la ruina: tiempo continuo

Ct

X Z t

Figura 8.3 Como antes, a la variable Z le llamaremos severidad de la ruina. El problema que se plantea ahora es el de encontrar la probabilidad conjunta u, x, z P ,X x, Z z ,

0, z 0. Es claro que esta probabilidad es una para cualesquiera x versi on m as elaborada que la probabilidad de ruina u P y que se cumplen las siguientes relaciones: u, x, z u, x, z u, x, z u, 0, 0 u, 0, z , u, u. u, x, 0,

Como es de esperarse, no se cuenta con una f ormula expl cita para u, x, z , pero encontraremos una ecuaci on integral para esta probabilidad. La deecnica mostraci on de la ecuaci on integral para u, x, z sigue la misma t que la que se present o para el caso de la probabilidad de ruina, es decir, condicionaremos sobre el monto y el momento de la primera reclamaci on. Observemos que la probabilidad u, x, z se anula cuando el capital inicial crece a innito, es decir
u

l m u, x, z

l m u

0.

8.4. Severidad de la ruina

215

Proposici on 8.4 Suponga que la funci on de distribuci on F y de las reclamaciones en el modelo de Cram er-Lundberg es continua. Entonces, para x 0, y z 0, d u, x, z 1. du c

u, x, z

u
0

u y, x, z dF y

1u
2. 0, x, z 3. u, x, z c c

F u z .

x z

F y dy . F y dy

u
0

u z

u y, x, z F y dy
x

1u

uz
x z

F y dy .

Demostraci on. Usaremos nuevamente an alisis del primer paso condicionando sobre el monto y momento de la primera reclamaci on. Dado un valor t para el momento de la primera reclamaci on, separaremos tres conjuntos para el monto de dicha reclamaci on:

0, u ct u ct, u ct z u ct z, .

En el primer caso no hay ruina y la probabilidad buscada se reduce a la probabilidad del mismo evento pero ahora con capital inicial u ct y . En el segundo caso hay ruina pero no es severa en el sentido de que no se cumple que Z z y por lo tanto la probabilidad u, x, z es cero. En el tercer caso hay ruina y se cumple la condici on Z z , as es que la probabilidad buscada

216 se reduce a 1uct u, x, z

8. Teor a de la ruina: tiempo continuo , tenemos que . As P ,X x, Z z T1 t, Y1 y dF y dFT1 t


0 0

Por lo tanto,

et

uct
0

et

u ct y, x, z dF y dt 1uct
x

u ct z

dF y dt.

u, x, z

et

uct
0

u ct y, x, z dF y dt
x

et 1uct

F u ct z dt.

Efectuando el cambio de variable st u, x, y 1 c

u ct se obtiene

esuc

s
0

suc e 1s x F s z ds .

s y, x, z dF y ds

Derivando esta expresi on respecto de u se encuentra el resultado del primer inciso. Escribiendo w por u en la ecuaci on diferencial encontrada e integrando entre 0 y u se obtiene u, x, y 0, x, y c

u
0

uw
0 0 u 0

w, x, z dw w y, x, z dF y dw
x

1w

F w z dw ,

8.4. Severidad de la ruina en donde la integral doble puede escribirse de la siguiente forma

217

uw
0 0

w y, x, z dF y dw

uu


0 0 u 0

0 y u u y 0 0 u u v

w y, x, z dw dF y v, x, z dv dF y v, x, z dF y dv

v, x, z F u v dv.

Observe adem as que

u
0

1w

F w z dw
c

1u

u
x

F w z dw.

Por lo tanto, u, x, z 0, x, z

u
0

v, x, z 1 F u v dv

u
0

1u 1u 1u

u
x

F w z dw

v, x, z F u v dv
x

u
0

uz
x z

u y, x, z F y dy
x

F y dy

uz
x z

0 y no es dif cil demostrar que la Haciendo u tender a innito, u, x, z primera integral se anula. Por lo tanto se obtiene la identidad 0, x, z c

F y dy

. (8.9)

x z

F y dy.

(8.10)

Este el segundo inciso del enunciado. Sustituyendo (8.10) en la ecuaci on (8.9) y simplicando se obtiene el tercer inciso del enunciado.

218

8. Teor a de la ruina: tiempo continuo

Observe que tomando x 0 y z 0, la ecuaci on integral para u, x, z se reduce a la ecuaci on integral para la probabilidad de ruina con horizonte innito u, es decir, u u, 0, 0 c

F y dy

u
0

u y, 0, 0 F y dy

Esta es la tercera ecuaci on de la Proposici on 8.1. Adem as suponiendo cada caso por separado, x 0 o y 0, se obtienen f ormulas integrales para las probabilidades marginales de X y de Z , considerando siempre tiempo de ruina nito. Es decir, para la variable Z tenemos que u, 0, z Para la variable X , u, x, 0 c c

u z

F y dy

u
0

u y, 0, z F y dy

F y dy

u
0

u y, x, 0 F y dy 1u

u
x

F y dy

8.5.

El coeciente de ajuste

Como hemos visto en el modelo de riesgo a tiempo discreto en el cap tulo anterior, este coeciente es un n umero que aparece en el problema de calcular o estimar probabilidades de ruina. En esta secci on vamos a denir y estudiar este coeciente para el caso del modelo de riesgo a tiempo continuo. Existen varias maneras de denirlo, una de ellas, un tanto articial pero que despu es justicaremos, es la siguiente: se dene primero la funci on r MY r 1 cr, en donde MY r es la funci on generadora de Y . Naturalmente esta funci on est a bien denida para valores de r en donde MY r existe. En tal caso, r es diferenciable y se tiene que sus primeras dos derivadas son: r r

r c, MY r MY

E Y 2 erY

0.

on estrictamente convexa tal que 0 0, y Por lo tanto, r es una funci por la condici on de ganancia neta, 0 c 0. Entonces es posible

8.5. El coeficiente de ajuste

219

R Figura 8.4

que exista un valor r 0 tal que r 0. Una gr aca de la funci on r presentando esta situaci on se muestra en la Figura 8.4.

Denici on 8.3 A la posible soluci on r 0 de la siguiente ecuaci on se le llama coeciente de ajuste o exponente de Lundberg. r MY r 1 cr 0.

A tal soluci on positiva se le denota por R.

Observe que la existencia del coeciente de ajuste depende de la distribuci on de las reclamaciones y los par ametros del modelo. Aquellas distribuciones para las cuales el coeciente de ajuste existe se les llama distribuciones con cola ligera, y la raz on de ello es que la funci on de densidad decae a cero exponencialmente r apido, asignando probabilidades peque nas a reclamaciones grandes. M as adelante daremos condiciones para la existencia del coeciente de ajuste y formalizaremos la interpretaci on de cola ligera para la distribuci on de las reclamaciones. Veremos a continuaci on algunos ejemplos. Demostraremos en particular que en el caso de reclamaciones exponenciales, el coeciente de ajuste existe y es f acil calcularlo. Ejemplo 8.2 (Reclamaciones exponenciales) Suponga que las reclamaciones siguen una distribuci on exp, es decir, la funci on generadora de

220 momentos es MY r

8. Teor a de la ruina: tiempo continuo r, para r r . Entonces

MY r 1 cr 1 cr r r cr r c r. r

De modo que r es cero cuando r 0, o bien cuando r c 0. Despejando r de la segunda condici on y escribiendo ahora R como la variable se obtiene R c. M as a un, por lo encontrado antes en el caso de reclamaciones exponenciales, la probabilidad de ruina puede ahora escribirse de la forma siguiente: u cu e c Ru e c eRu ,

en donde la desigualdad es consecuencia de la condici on de ganancia neta. Este tipo de cota superior para la probabilidad de ruina, llamada desigualdad de Lundberg, ser a demostrada m as adelante para cualquier distribuci on de las reclamaciones para la cual el coeciente de ajuste exista. Ejemplo 8.3 (Reclamaciones gama) Suponga que las reclamaciones siguen una distribuci on gama, con 2. La funci on generadora de r , para r . Por lo tanto la funci on momentos es MY r r correspondiente es r La condici on r

1 cr.

0 produce la ecuaci on cuadr atica cr2 r 2c c2 2 0,

cuyas ra ces son r

2c 2c

2 4c

8.5. El coeficiente de ajuste

221

El caso con ra z cuadrada positiva es inv alido pues resulta r , en efecto, usando la condici on de ganancia neta, c 2, se obtiene

2c

2 4c2c

2c c
.

2 82 2c

Por lo tanto la ra z con el signo negativo es el coeciente de ajuste. Ejemplo 8.4 Aplicaremos el m etodo de Newton-Raphson para encontrar de manera aproximada el coeciente de ajuste cuando las reclamaciones ease el Ap endice para una siguen una distribuci on gama, con 3. V explicaci on breve sobre este m etodo num erico. La condici on r 0 produce la siguiente ecuaci on que puede reducirse a una ecuaci on c ubica en r, g r 3 r3 cr r3 0.

La ra z buscada r es tal que por restricciones de la funci on generadora de momentos debe satisfacer 0 r . Tomaremos 3, 1, y c 2. Se han escogido estos valores de los par ametros por simplicidad pero al mismo tiempo cuidando que se verique la condici on de ganancia neta c 3. El esquema general de Newton-Raphson es r n 1 rn g rn . g rn

M as adelante demostraremos que si el coeciente de ajuste existe, entonces este se encuentra siempre dentro del intervalo 0, 2c 2 . V ease el enunciado de la Proposici on 8.9. Con base en este resultado, tomaremos como condici on inicial r0 2c 2 32. Usando estos datos, la iteraci on de Newton-Raphson arroja la siguiente sucesi on de valores: n 0 1 2 3 4 rn 1.5 0.8333333 0.8405056 0.8404738 0.8404738

222

8. Teor a de la ruina: tiempo continuo

Por lo tanto, el coeciente de ajuste se encuentra muy cercano al valor R 0.8404738 . El siguiente resultado proporciona una forma equivalente de denir el coeciente de ajuste y permite comprobar su existencia a trav es de la determinaci on de la nitud de una integral. Proposici on 8.5 Sea F y la funci on de distribuci on de las reclamaciones en el modelo de Cram er-Lundberg. Sea F y 1 F y . Entonces la ecuaci on r MY r 1 cr 0 tiene una soluci on r 0 si y s olo si se cumple la identidad

ery F y dy

c .

Demostraci on. 0

Tenemos que r MY r 1 cr

e dF y
ry

dF y cr

ery 1 dF y cr ery 1 dF y cr. dF x.


Para la u ltima igualdad hemos usado el hecho de que dF x Integrando ahora por partes tenemos que 0

e 1 F y
ry

re F y dy
ry

cr.

Usando la hip otesis de existencia de la funci on generadora de momentos de la distribuci on F y , puede demostrarse que las evaluaciones indicadas en

8.5. El coeficiente de ajuste el primer t ermino del lado derecho se anulan. Por lo tanto,

223

r
0

ery F y dy cr.

Despejando la integral se obtiene el resultado enunciado. Este resultado permite adem as dar una interpretaci on de aquellas distribuciones de probabilidad para las cuales el coeciente de ajuste existe: para que la integral de la proposici on anterior sea nita, la cola de la distribuci on, apido para anular el es decir, F y , debe decaer a cero lo sucientemente r comportamiento creciente de la expresi on ery dentro de la integral. Esto ha originado el t ermino de cola ligera para aquellas distribuciones para las cuales exista el coeciente de ajuste.

Denici on 8.4 (Distribuci on con cola ligera/pesada) A una distribuci on de probabilidad con soporte en el intervalo 0, y para la cual a) existe el coeciente de ajuste se le llama distribuci on con cola ligera. b) no existe el coeciente de ajuste se le llama distribuci on con cola pesada.

Ejemplo 8.5 Usaremos el criterio de la Proposici on 8.5 para demostrar que para la distribuci on Burrc, no existe el coeciente de ajuste. En este caso la cola de la distribuci on est a dada por F y Entonces para cualquier valor de r

1 yc 0, 1

e F y dy
ry

dy

e
0

ry

1 yc

ery y c dy

Por lo tanto la distribuci on Burr es una distribuci on con cola pesada. Seg un el criterio de la Proposici on 8.5, para que exista el coeciente de ajuste, la

224

8. Teor a de la ruina: tiempo continuo

cola de la distribuci on debe decaer a cero lo sucientemente r apido para ry anular el comportamiento creciente del t ermino e dentro de la integral. En este ejemplo la cola de la distribuci on Burr decae a cero en la forma y c que es insuciente para hacer que la integral sea nita. Una distribuci on con cola ligera asigna probabilidades muy peque nas a los valores grandes de la variable aleatoria. Esto puede no ser muy conveniente para modelar algunos riesgos, pues de esa manera se est a subestimando la posibilidad de registrar grandes montos en las reclamaciones. A continuaci on mencionamos algunos ejemplos de distribuciones con cola ligera y pesada. Ejemplo 8.6 (Distribuciones con cola ligera) Las siguientes distribuon generadora ciones tienen como soporte el intervalo 0, y tienen funci de momentos. a) Distribuci on exp, par ametro F y f y ey , y 0. 0, 0. 0.

b) Distribuci on gama, , par ametros

c)

d) Distribuci on normal truncada (valor absoluto de N0, 1 ). F y 21 y , y 0. Ejemplo 8.7 (Distribuciones con cola pesada) Las siguientes distribuciones tienen como soporte el intervalo 0, y no poseen funci on generadora de momentos. ametros R, 2 a) Distribuci on lognormal, 2 , par F y 1

y1 ey , y 0. Distribuci on Weibullr, , par ametros F y ey , y 0.


r

0, r

1.

ln y ,

0.

0. 0, b 0.

ametros a b) Distribuci on Paretoa, b, par F y

by

0.

8.5. El coeficiente de ajuste c) Distribuci on Burrc, , par ametros c F y F y 0, 0.

225

1 1 yc
r

0. 0, 0 r 1.

d) Distribuci on Weibullr, , par ametros ey , y 0. e) Distribuci on loggama, , par ametros f y

ln y

0,

0.

y 1 ,

0.

El siguiente resultado establece condiciones sucientes bajo las cuales el coeciente de ajuste existe. Proposici on 8.6 Suponga que la funci on generadora de momentos My r de las reclamaciones Y en el modelo de Cram er Lundberg es tal que: a) MY r b) l m MY r r r para r . 0 r para alg un r

0, .

Entonces existe el coeciente de ajuste, es decir, existe un u nico valor r tal que r MY r 1 cr 0.

Demostraci on. Dadas las propiedades que se observaron que posee la funci on r alrededor de r 0, es suciente demostrar que
r

l m r
r

. Entonces la armaSe tienen dos casos. Supongamos primero que r ci on se obtiene de la segunda hip otesis, pues como 0,
r

l m r
r

l m MY r 1 cr
r

226 Supongamos ahora que r

8. Teor a de la ruina: tiempo continuo . Sea y tal que FY y 1. Entonces

M Y r

y
e
0 0

ery dF y e dF y
ry

ery dF y

y ry

ery dF y F y .

Por lo tanto, l m r l m MY r 1 cr l m ery F y 1 cr .

r r

No es necesario suponer la existencia del coeciente de ajuste para observar el comportamiento de cola ligera en una distribuci on. Demostraremos a continuaci on que la existencia de la funci on generadora de momentos garantiza tal comportamiento.

Proposici on 8.7 Sea Y una variable aleatoria positiva con funci on de distribuci on F y y con funci on generadora de momentos tal que M r para alg un r 0. Entonces para cualquier y 0, F y M r ery .

8.6. Desigualdad de Lundberg Demostraci on. Por la desigualdad de Markov, v ease el Ap endice, F y P Y y

227

P e ery E erY ery M r ery .


rY

8.6.

Desigualdad de Lundberg

Vamos a demostrar ahora que para aquellas distribuciones de probabilidad que se supongan como distribuciones de las reclamaciones en el modelo de Cram er-Lundberg y para las cuales el coeciente de ajuste R existe, se cumple la desigualdad u eRu .

Existen varias formas de demostrar este resultado. El m etodo que presentaremos hace uso de la teor a de martingalas. Proposici on 8.8 Sea Ct : t 0 el proceso de riesgo de Cram er-Lundberg en donde la distribuci on de las reclamaciones tienen a MY t como funci on generadora de momentos. Sea r MY r 1 cr. Entonces el siguiente proceso es una martingala:

erC rt : t
t

0 .

Demostraci on. La adaptabilidad del proceso es evidente pues impl citamente estamos usando la ltraci on natural. Acerca de la integrabilidad te-

228 nemos los siguientes c alculos E erCt rt

8. Teor a de la ruina: tiempo continuo

ert E eruct

Nt j 1

Yj

ertruct E er .

Nt j 1

Yj

ertruct etMY r1

Finalmente tenemos la propiedad de martingala. Para 0 s t y por la propiedad de incrementos independientes y estacionarios del proceso de riesgo, E erCt rt Fs ert E erCt Fs ert E erCt Cs rCs Fs ertrCs E erCt Cs ertrCs E ercts ertrCs rcts E er
Nt j Ns Nt s j 1

1 Yj

Yj

ertrCs rcts etsMY r1 erCs rs .

En particular, si el coeciente de ajuste existe, es decir, si R 0, entonces el proceso eRCt : t 0 es una martingala. Este es el resultado clave para demostrar la cota superior para la probabilidad de ruina.

Teorema 8.1 (Desigualdad de Lundberg) Suponga que el coeciente de ajuste R existe para la distribuci on de las reclamaciones en el modelo de riesgo de Cram er-Lundberg. Entonces u eRu .

Demostraci on. Sea el tiempo de paro correspondiente al tiempo de 0 es una martingala, se tiene que ruina. Como el proceso eRCt : t

8.6. Desigualdad de Lundberg

229

el proceso detenido eRCt : t 0 tambi en es una martingala. Ambos Ru . Por lo tanto, procesos inician en el valor e eRu eRC0

E eRCt t P t E eRCt t P t E eRCt t P t E eRC t P t RC 1 t dP P t. e Haciendo t mon otonamente, el evento t converge crecientemente al evento . Usando el teorema de convergencia mon otona puede demostrarse que eRu E eRC E 1 P u.

E eRCt

Con ayuda de la desigualdad de Lundberg conrmamos que la probabilidad de ruina se anula cuando el capital inicial crece a innito, al menos en situaciones cuando tal desigualdad es v alida. Como hemos visto, el coeciente de ajuste no siempre existe, y aun cuando conozcamos su existencia no siempre es f acil calcularlo. El siguiente resultado proporciona algunas cotas para el valor de este coeciente, suponiendo su existencia.

230

8. Teor a de la ruina: tiempo continuo

eRu 1

u Figura 8.5: Cota superior para la probabilidad de ruina.

Proposici on 8.9 Si el coeciente de ajuste R existe para la distribuci on de probabilidad de las reclamaciones en el modelo de Cram er-Lundberg, entonces 1 c 2c R ln , M 2 en donde la primera desigualdad es v alida bajo la hip otesis adicional de que M c.s., para alguna constante M 0. Y

Demostraci on. Demostraremos primero la cota superior. Consideremos nuevamente la funci on r MY r 1 cr, para r 0. Sabemos que 0 0. Derivando esta funci on dos veces se obtiene r r

r c, MY
E Y 2 erY E Y 2 2 .

En donde 0

c. Por el teorema fundamental del c alculo, r 0

r
0

c 2 r.

sds

8.6. Desigualdad de Lundberg Por lo tanto, r 0

231

t
0

sds

cr 1 2 r2 . 2
Evaluando la u ltima desigualdad en R se obtiene 0

cR 1 2 R2 2

c 1 2 R R. 2
on en el par entesis debe ser negativa. Despejando de Como R 0, la expresi all R se obtiene la cota superior anunciada. Demostraremos ahora la cota inferior. Supongamos que Y M c.s. y dena la funci on hx Entonces h x con h0 hM decir, x RM e M

1 eRx 1.

R2eRx

0. Por lo tanto hx es una funci on c oncava 0. Esto quiere decir que hx 0 para 0 x M , es x RM e M

1 eRx 1
x RM e M

0,

o bien,

eRx 1

1.

(8.11)

Sea g x xex ex 1. Entonces g x xex 0. Por lo tanto g x es una funci on creciente para x 0, es decir, g x g 0 0, para x 0. Por lo tanto, xex ex 1 0, para x 0. En particular, evaluando en x RM se obtiene RM eRM eRM 1 0. Entonces eRM 1 RM eRM . (8.12)

232

8. Teor a de la ruina: tiempo continuo

Por otro lado, usando (8.11), MY R 1

M
0 M 0

eRx 1 dF x
x RM e M

1 dF x
M
0

1 RM e M RM e M As , usando (8.13) y luego (8.12), 0

x dF x (8.13)

1.

MY R 1 cR RM e 1 cR M ReRM cR

eRM cR.

Por lo tanto eRM c 0. Despejando nalmente R de esta desigualdad se obtiene la cota inferior buscada.

Ejemplo 8.8 (Reclamaciones exponenciales) Consideremos nuevamente el caso cuando las reclamaciones son exponenciales de par ametro . Sabemos que en este caso el coeciente de ajuste existe y est a dado por R . c

Usando la condici on de ganancia neta puede vericarse que efectivamente se cumple la cota superior para R demostrada en la Proposici on 8.9, es decir, R c 2c . 2

Es interesante notar que la cota superior para el coeciente de ajuste que aparece en la Proposici on 8.9 no involucra hip otesis adicionales, de modo que cuando el coeciente de ajuste R existe, este se encuentra siempre dentro

n de De Vylder 8.7. Aproximacio

233

del intervalo 0, 2c 2 . Este resultado fue usado en el Ejemplo 8.4. Observe adem as que cuando las reclamaciones est an acotadas superiormente por una constante positiva M , podemos usar la cota inferior para R para encontrar una cota superior para la probabilidad de ruina sin conocer el valor exacto del coeciente de ajuste, pues u eRu
u

e M lnc u M elnc uM . c

Esta cota superior converge a 1 cuando M y por lo tanto se vuelve no informativa. Cuando hacemos u , se corrobora que la probabilidad de ruina se anula cuando el capital inicial es innito.

8.7.

Aproximaci on de De Vylder

Consideremos nuevamente el modelo de riesgo de Cram er-Lundberg en donde las reclamaciones tienen distribuci on arbitraria. De Vylder propone aproximar la probabilidad de ruina de este modelo mediante la probabilidad de ruina de un modelo con reclamaciones exponenciales. Se dene entonces el proceso t C uc t
t N j 1

j , Y

(8.14)

t : t 0 es un proceen donde c es una nueva tasa de ingreso por primas, N , y Y j son variables aleatorias con distribuci so de Poisson de par ametro on exp . Para lograr que los modelos tengan alg un parecido se igualan los tres primeros momentos de los dos procesos y se encuentran los valores de los y par ametros c , en t erminos de los par ametros del riesgo original. As , la probabilidad de ruina en el modelo original se aproxima por la probabilidad de ruina en el modelo con reclamaciones exponenciales.

234

8. Teor a de la ruina: tiempo continuo

Proposici on 8.10 (Aproximaci on de De Vylder) Suponga que las reclamaciones en el modelo de riesgo de Cram er-Lundberg tienen tercer momento nito. Entonces la probabilidad de ruina en este modelo tiene como aproximaci on la f ormula u en donde 3 2 , 3 9 3 2 , 2 2 3 y c c 3 2 2 . 2 3 c u , e c

Demostraci on. El m etodo consiste en igualar los tres primeros momentos de las variables Ct y Ct . Primeramente veamos la igualaci on de las esperant produce la ecuaci zas. La condici on E Ct E C on u ct t De donde se obtiene c 1 t. uc t

. (8.15) El siguiente paso es igualar las varianzas. De los resultados generales del primer cap tulo, recordemos que la varianza de un riesgo S que sigue un modelo colectivo Poisson est a dada por VarS 2 . Por lo tanto, de t se obtiene la condici on VarCt VarC c . (8.16) 2 Hemos usado el hecho de que si X tiene distribuci on exp, entonces 22 . Finalmente, recordemos que el tercer momento central E X 2 de un riesgo S que sigue un modelo colectivo Poisson est a dado por 3 E S E S 3 . Por lo tanto, la tercera condici on E Ct E Ct 3 3 t E C t produce la ecuaci on E C 2 2 3 6 . 3 (8.17)

rmula de Pollaczek-Khinchin 8.8. Fo

235

Hemos usado la f ormula E X 3 63 , v alida cuando X tiene distribuci on exp. Despejando de (8.16) y (8.17) e igualando, 1 2 2 2 Por lo tanto, Sustituyendo en (8.16), 9 3 2 . 2 2 3 (8.19) 3 1 3 3. 6 2 . 3 (8.18)

Sustituyendo (8.18) y (8.19) en (8.15), c c 3 2 2 . 2 3 (8.20)

y De esta forma hemos encontrado los par ametros c , en t erminos de los par ametros del riesgo original c, y los momentos de Y . No se espera que la aproximaci on de De Vylder sea muy precisa pero es muy interesante la idea de poder utilizar lo conocido para aproximar la soluci on desconocida de un problema general. El lector puede identicar el m etodo de momentos para la estimaci on de par ametros en la aproximaci on de De Vylder. No es dif cil comprobar que la aproximaci on de De Vylder es exacta cuando las reclamaciones son exponenciales.

8.8.

F ormula de Pollaczek-Khinchin

La f ormula de Pollaczek-Khinchin es una expresi on general que permite escribir a la probabilidad de ruina en t erminos de una serie innita de convoluciones. La demostraci on que presentaremos hace uso de la transformada de Laplace de la cual se recuerda su denici on y algunas propiedades en el Ap endice. Para obtener la f ormula de Pollaczek-Khinchin se necesita conocer primero la transformada de Laplace de una distribuci on geom etrica compuesta. Sea entonces X una variable aleatoria con distribuci on geom etrica

236

8. Teor a de la ruina: tiempo continuo

compuesta, es decir, una variable aleatoria de la forma


N j 1

Uj ,

(8.21)

en donde N tiene distribuci on geo1 p, es decir, para n P N n pn 1 p,

0, 1, 2, . . .

y las variables U1 , U2 , . . . son independientes, no negativas, id enticamente distribuidas, y con funci on de distribuci on H x denida de la siguiente forma particular 1 x H x F y dy, 0 en donde F y es una funci on de distribuci on de una variable aleatoria no negativa con media nita . Puede comprobarse que H x es efectivamente una funci on de distribuci on. Siguiendo la misma notaci on que en el modea la funci on de distribuci on del lo de Cram er-Lundberg, F y representar monto de una reclamaci on. Proposici on 8.11 Sea Gx la funci on de distribuci on de la v.a. X con distribuci on geom etrica compuesta dada por (8.21) junto con la notaci on e hip otesis arriba enunciados. Para valores de s sucientemente peque nos, la transformada de Laplace de Gx 1 Gx es

esx Gx dx

p s

L F s 1 1 p p L F s

Demostraci on. Primeramente tenemos que Gx

n 0

H n x1 ppn .

rmula de Pollaczek-Khinchin 8.8. Fo Entonces Gx 1 1 p p 1 p

237

n 0

pn H n x pn H n x.

n 1

La transformada de Laplace de esta funci on es

esx Gx dx

p s p s p s p s p s

1 p 1 p 1 p
p 1 s

esx

pn H n x dx

n 1

pn
0

n 1

esx H n x dx

pn sn1 Ln H s

n 1

psLH sn
H

p L H s 1 p 1 . ps L s

n 1

En la u ltima igualdad hemos supuesto que s es sucientemente peque no 1. A partir de la denici on de H x puede de tal forma que psLH s demostrarse que 1 LH s L s. s F Por lo tanto,

esx Gx dx

p s

p p LF s 1 . s p L s
F

Con la notaci on e hip otesis utilizadas en el modelo de Cram er-Lundberg, tenemos el siguiente resultado importante: la probabilidad de ruina est a dada por la cola de la funci on de distribuci on de la variable aleatoria geom etrica compuesta dada por (8.21), es decir, u Gx.

238

8. Teor a de la ruina: tiempo continuo

Teorema 8.2 (F ormula de Pollaczek-Khinchin) Considere el modelo de riesgo de Cram er-Lundberg en donde las reclamaciones tienen funci on de distribuci on F y y media nita . Entonces la probabilidad de ruina est a dada por u en donde p y H u c

1 p
1

pn H n u,

u
0

n 1

F y dy .

Demostraci on. Sabemos que la probabilidad de ruina satisface la ecuaci on integral u c c

F y dy

u
0

u
0

u y F y dy

F y dy F u

Tomando la transformada de Laplace de esta funci on tenemos que L s de donde se obtiene L s c

1 L s L sLF s s F

LF s 1 c L F s cs p 1 pLF s . 1 c L F s
cs

Deniendo p

c, se puede escribir L s
p s

p 1 pLF s p LF s L F s p 1 1 p . s p L s
F

rmula de Pollaczek-Khinchin 8.8. Fo

239

De esta forma hemos encontrado que la transformada de Laplace de la probabilidad de ruina coincide con la transformada de Laplace de la funci on Gx 1 Gx, en donde Gx es la funci on de distribuci on geom etrica compuesta dada por (8.21) con las caracter sticas descritas en la Proposici on 8.11. Por la unicidad de la transformada de Laplace tenemos que ambas funciones deben ser iguales, es decir, u G u p 1 p p 1 p

n 1

pn H n u pn 1 H n u

1 p

n 1

n 1

pn H n u.

En general no es inmediato calcular las convoluciones de la funci on de distribuci on H u ni tampoco llevar a cabo la suma innita que aparece en la f ormula de Pollaczek-Khinchin, pero sin duda es una f ormula bastante atractiva desde el punto de vista matem atico pues, como hemos visto, esta expresi on corresponde a la cola de la distribuci on de la variable aleatoria geom etrica compuesta dada por (8.21). Pueden llevarse a cabo simulaciones de esta variable aleatoria, calcular la magnitud de las colas y conocer de manera aproximada la probabilidad de ruina cuando las reclamaciones tienen distribuci on continua arbitraria. A continuaci on reduciremos la f ormula de Pollaczek-Khinchin a la soluci on conocida para u en el caso cuando las reclamaciones son exponenciales. Ejemplo 8.9 (Reclamaciones exponenciales) Suponga que las reclamaciones tienen distribuci on exponencial de par ametro . Entonces puede comprobarse f acilmente que H u es nuevamente la funci on de distribuci on n exp. Por lo tanto, H u es la funci on de distribuci on gaman, y tiene la expresi on u uk e . H n u k ! k n

240 Entonces

8. Teor a de la ruina: tiempo continuo

H n u Por lo tanto,

n 1 k 0

uk . eu
k!

n 1

pn H n u

1 n
n 1 k 0

pn eu

uk
k!

k 0 n k 1

1p k 0 k! p e1pu . 1p

k! u puk e

pn eu

uk

De donde se conrma nuevamente que la probabilidad de ruina en el modelo de Cram er-Lundberg cuando las reclamaciones son exponenciales de par ametro es u

1 p

n 1

pn H n u

p e1pu

u c . e c En la siguiente secci on veremos otro caso particular para la distribuci on de las reclamaciones en el modelo de Cram er-Lundberg en donde la f ormula de Pollaczek-Khinchin permite encontrar una forma de expresar la probabilidad de ruina.

8.9.

Probabilidad de ruina con reclamaciones tipo fase

Como u ltimo resultado presentamos una expresi on para la probabilidad de ruina en el modelo de Cram er-Lundberg cuando las reclamaciones son continuas tipo fase. Para un recordatorio sobre este tipo de distribuciones continuas y algunas f ormulas elementales, v ease la secci on sobre el tema en el

8.9. Probabilidad de ruina con reclamaciones tipo fase

241

cap tulo de procesos estoc asticos. Para llegar a nuestro objetivo con mayor rapidez, utilizaremos los siguientes dos lemas t ecnicos cuyas demostraciones pueden encontrarse en el texto de Rolski et al. [32]. Lema 8.1 Sea F y la funci on de distribuci on continua PH, B con B no on de distribuci on singular, 0 0 y con media nita. Entonces la funci H x
1 B 1 , B . es nuevamente PH

x
0

F y dy

Lema 8.2 Sean U1 , U2 , . . . v.a.s independientes con id entica distribuci on continua PH, B , en donde B es no singular y 0 0. Sea N otra v.a. independiente de las anteriores y con distribuci on geop. Entonces la variable aleatoria X
N

Uj

j 1

correspondiente a un modelo geom etrico compuesto tiene distribuci on PHp, B pbT . Observe que el vector inicial p de la nueva distribuci on tipo fase no es de probabilidad pues la suma de sus entradas es p. La entrada cero de este vector es 1 p y corresponde a la probabilidad de que la variable geom etrica tome el valor cero, es decir, la probabilidad de que no haya sumandos.

Teorema 8.3 (Probabilidad de ruina con reclamaciones PH) Suponga que las reclamaciones en el modelo de Cram er-Lundberg tienen 0, en donde la matriz de subindistribuci on continua PH, B con 0 tensidades B es no singular y se cumple la condici on de ganancia neta p 1 . Entonces para cualquier capital inicial u 0, c u 1 1 p B 1 exp uB pbT B 1 eT . (8.22)

242 Demostraci on. u

8. Teor a de la ruina: tiempo continuo La f ormula de Pollaczek-Khinchin establece que

1 p

n 1

n 1

pn H n u u ,

pn 1 p P X1 Xn

en donde X1 , X2 , . . . son v.a.s independientes con id entica funci on de distribuci on 1 u H u F y dy, 0

on de distribuci on PH, B . La idea es identicar los con F y la funci sumandos como probabilidades condicionales de la siguiente forma: u

n 1

P N
N

n P u ,

N k 1

Xk

u N

Xk

k 1

en donde N es una v.a. con distribuci on geo1 p, es decir, P N n pn 1 p, n 0, 1, . . .

As , puesto que conocemos la f ormula (6.5) de la p agina 153 para la cola de una distribuci on tipo fase y los Lemas 8.1 y 8.2 nos proporcionan los par ametros de dicha distribuci on, podemos deducir que H x es 1 PH B 1 , B , y por lo tanto la variable aleatoria geom etrica es 1 1 PHp B 1 , B pbT B 1 . Substituyendo estos par ametros en el f ormula (6.5) se obtiene el resultado enunciado: u 1 1 p B 1 exp uB pbT B 1 eT .

8.10. Ejercicios

243

Ejemplo 8.10 (Reclamaciones exponenciales) Consideremos nuevamente el modelo de Cram er-Lundberg cuando las reclamaciones son exponenciales de par ametro . Esta vez consideraremos a la distribuci on exponencial como una distribuci on tipo fase continua. El correspondientes generador innitesimal de la cadena de Markov a tiempo continuo que produce el tiempo de espera hasta la absorci on exponencial de par ametro es

La matriz B y el vector b son unidimensionales, 1 y p c. Substituyendo estos t erminos en la f ormula (8.22) se obtiene nuevamente la expresi on u u c . e c

Comentarios y referencias
En este cap tulo nal hemos estudiado algunos aspectos del modelo cl asico de riesgo a tiempo continuo llamado modelo de Cram er-Lundberg. Hemos encontrado expresiones para algunas probabilidades de ruina en este modelo en t erminos de ecuaciones diferenciales, integrales o ambas, y tambi en en algunos casos en t erminos de sumas innitas. Muchos otros problemas matem aticos pueden estudiarse para este modelo o para sus generalizaciones. El lector interesado en profundizar en el tema puede consultar textos m as avanzados como Asmussen [2] o Rolski et al. [32]. En el texto de Schmidli [35] puede encontrarse una exposici on sobre la interesante relaci on entre algunos problemas de riesgo y la teor a del control estoc astico.

8.10.

Ejercicios
Modelo de Cram er-Lundberg 0 con la no-

170. Considere el proceso de Cram er-Lundberg Ct : t taci on e hip otesis usuales. Demuestre que:

244

8. Teor a de la ruina: tiempo continuo a) E Ct u c t. b) VarCt t2 . c) MCt r exp ru ct tMY r 1 . Probabilidades de ruina

171. Suponga que las reclamaciones en el modelo de Cram er-Lundberg siguen una distribuci on exponencial de par ametro 1. Suponga adem as que 12 y c 2. Observe que se cumple la condici on de ganancia neta c . Cu al debe ser el capital inicial u para que la probabilidad de ruina sea menor o igual a 0.01? Coeciente de ajuste 172. Demuestre que si las reclamaciones son variables aleatorias acotadas, entonces el coeciente de ajuste existe. 173. Se ha demostrado que cuando las reclamaciones tienen distribuci on c. Usando la condiexp el coeciente de ajuste es R ci on de ganancia neta compruebe que este valor de R efectivamente cumple la desigualdad 0 R 2c . 2

Desigualdad de Lundberg 174. Demuestre que efectivamente el evento t converge mon otonamente al evento cuando t tiende a innito mon otonamente. Este resultado fue usado en la demostraci on de la desigualdad de Lundberg. Aproximaci on de De Vylder 175. Demuestre que la aproximaci on de De Vylder coincide con la probabilidad de ruina en el caso cuando las reclamaciones tienen distribuci on exp.

Ap endice: Formulario y resultados varios


F ormula de De Pril en R
#################################### # F\ormula de De Pril en R v1.1 # #################################### I <- 5 # Montos de reclamaciones J <- 3 # \Indice m\aximo para tasas de mortalidad R <- 20 # Valor m\aximo para r en g(r) # n <- array(1:15, dim=c(5,3)) n[1,1]<-1 n[2,1]<-3 n[3,1]<-5 n[4,1]<-2 n[5,1]<-2 n[1,2]<-3 n[2,2]<-5 n[3,2]<-3 n[4,2]<-2 n[5,2]<-3 n[1,3]<-1 n[2,3]<-4 n[3,3]<-4 n[4,3]<-6 n[5,3]<-4 # q <- array(1:3, dim=c(3))

245

246

8. Teor a de la ruina: tiempo continuo

q[1]<-0.03 q[2]<-0.04 q[3]<-0.05 #............................... # Funci\on h(i,k) #............................... h <- function(i,k) { aux <- 0 for (j in 1:J) { aux <- aux+n[i,j]*(q[j]/(1-q[j]))^k } aux <- i*((-1)^(k-1))*aux return(aux) } #............................... # C\alculo de la densidad de S #............................... gc <- array(1:R, dim=c(R)) gc0 <- g(0) # g <- function(r) { if (r==0) { aux <- 1 for (i in 1:I) { for (j in 1:J) { aux <- aux*((1-q[j])^n[i,j]) } } return(aux) } else { aux <- 0 for (i in 1:min(r,I)) { for (k in 1:floor(r/i)) { if (r-i*k==0) { aux <- aux + gc0*h(i,k) } else {aux <- aux + gc[r-i*k]*h(i,k)} } } aux <- aux/r gc[r] <- aux

8.10. Ejercicios

247

return(aux) } } #............................... # Asignaci\on en el arreglo "gc" y graficaci\on. #............................... for (i in 1:R) { gc[i] <- g(i) } # Nota: Se omite en la gr\afica el valor de la densidad en cero "gc0". barplot(gc,main="Funci?n de densidad de S",xlab="r", ylab="g(r)") ################################################################# # Fin de c\odigo #################################################################

F ormula de Panjer en R (Caso Poisson)


#################################### # F\ormula de Panjer en R v1.0 # # [Caso Poisson] # #################################### # R <- 20 # Valor m\aximo para r en g(r) # #............................... # c\alculo de p_k=P(N=k) (Caso Poisson) #............................... a <- 0 b <- 3.5 #lambda p0 <- 2.7172^{-b} p <- array(1:R, dim=c(R)) p[1] <- (a+b)*p0 for (k in 2:R) { p[k] <- (a+b/k)*p[k-1] } #............................... # c\alculo de f_r=P(Y=r), r>=1 #............................... #

248

8. Teor a de la ruina: tiempo continuo

f <- array(1:R, dim=c(R)) f[1] <- 0.1 f[2] <- 0.1 f[3] <- 0.2 f[4] <- 0.3 f[5] <- 0.3 for (i in 5:R) { f[i] <- 0 } #................................ # C\alculo de la densidad de S #................................ g0 <- p0 g <- array(1:R, dim=c(R)) g[1] <- (a+b)*f[1]*g0 for (r in 2: R) { aux <- 0 for (i in 1:{r-1}) { aux <- aux + (a+b*i/r)*f[i]*g[r-i] } aux <- aux + (a+b)*f[r]*g0 g[r] <- aux } #............................... # Graficaci\on #............................... # Nota: Se omite en la gr\afica el valor de la densidad en cero "g0". barplot(g,main="Funcin de densidad de S",xlab="r", ylab="g(r)") # ################################################################# # Fin de c\odigo #################################################################

8.10. Ejercicios Alfabeto griego A B E , Z H , alpha beta gamma delta epsilon zeta eta theta I K M N Oo iota kappa lambda mu nu xi omikron pi P , , T , X rho sigma tau upsilon phi chi psi omega

249

Funci on indicadora La funci on indicadora de un conjunto A es la funci on 1A : denida por 1 si A, 1A 0 si A.

0, 1

De este modo la funci on 1A toma el valor uno dentro del conjunto A y cero fuera de el, y cumple las siguientes propiedades: a) 1A b) 1A c) 1Ac d) 1AB e) 1AB f) A B
B B

m ax1A , 1B m n1A , 1B 1 1A . 1A 1A 1B . 1A 1B 1A 1B .

1A 1B 1A 1B .

1A 1B .

1A 1B

2 1A 1B 1A 1B 2.

Funci on generadora de probabilidad La funci on generadora de probabilidad de una variable aleatoria X es la funci on dada por Gt E tX

tx P X

x,

250

8. Teor a de la ruina: tiempo continuo

denida para valores reales de t tal que la suma indicada sea absolutamente convergente. Esta funci on se utiliza principalmente para variables aleatorias discretas y sin p erdida de generalidad se postula que la variable toma los valores 0, 1, . . . y por lo tanto esta funci on existe por lo menos para valores de enfasis en la variable aleatoria particular t en el conjunto 1, 1. Para hacer X para la que se utiliza se escribe a veces como GX t. Esta funci on cumple las siguientes propiedades: a) La funci on generadora de probabilidad adquiere su nombre a partir del siguiente resultado: para cada entero n 0,
t

l m

dn G X t dtn

P X

n .

b) La funci on generadora de probabilidad determina de manera u nica a la distribuci on de probabilidad de la variable aleatoria, es decir, si X y Y tienen la misma distribuci on de probabilidad, entonces claramente tienen la misma funci on generadora de probabilidad. Inversamente, si X y Y son tales que sus funciones generadoras de probabilidad GX t y Gy t coinciden en un intervalo no trivial alrededor del cero, entonces X y Y tienen la misma distribuci on de probabilidad. c) Si el n- esimo momento factorial de X existe, entonces
t

l m

dn GX t dtn

E X X

1 X n 1.

d) Si X y Y son independientes, entonces GX Y t GX t GY t.

Para un estudio m as detallado de la funci on generadora de probabilidad, el lector puede consultar el libro de Gut [17]. Funci on gama Para valores de donde la integral es convergente se dene

x1 ex dx,

y se cumplen las siguientes propiedades:

8.10. Ejercicios a) 1 b) 1 c) 2 d) 12 . ! cuando es entero positivo. 1.

251

1 .

Pueden consultars algunas otras propiedades de la funci on gama en [36]. Funciones de utilidad Una funci on de utilidad es una funci on v x que representa el valor o utilidad que un individuo o instituci on asocia a cada cantidad de un bien. Matem aticamente a una funci on de utilidad se le dene a trav es de las siguientes dos propiedades: a) Es estrictamente creciente. b) Es c oncava. Suponiendo diferenciabilidad, estas propiedades se escriben como v x 0 y v x 0, respectivamente. La primera propiedad representa el hecho evidente de que una cantidad mayor de dinero siempre tiene un valor o utilidad mayor. Para interpretar la segunda propiedad consideremos la situaci on en la que tanto una persona pobre como una persona rica incrementan ambos su capital por una misma cantidad. Entonces este incremento representa para una persona con poco dinero un gran incremento en su utilidad, mientras que el mismo incremento representa un menor incremento en la utilidad para una persona con mayor cantidad de dinero. En otras palabras, cuando hay un incremento de capital jo, el valor o utilidad crece m as r apido cuando uno tiene poco dinero y m as lento cuando uno tiene mucho dinero. Dos funciones de utilidad ux y v x son equivalentes si existen constantes a y b, con a 0, tales que v x aux b. La raz on que subyace en esta denici on de equivalencia radica en el hecho de que si un persona con capital x, funci on de utilidad ux, y usando el principio de la utilidad esperada, preere la inversi on I1 sobre la inversi on I2 si E ux I1 E ux I2 ,

252

8. Teor a de la ruina: tiempo continuo

y tal decisi on no cambia si en lugar de usar la funci on de utilidad ux utiliza ahora v x aux b, pues la desigualdad anterior es equivalente a E aux I1 b E aux I2 b.

Del conjunto de funciones de utilidad equivalentes a una funci on de utilidad dada ux, uno puede escoger aquella funci on de utilidad v x tal que v 0 0 y v 1 1. Tal funci on de utilidad v x est a dada por v x ux u0 , u1 u0

suponiendo que los valores x 0 y x 1 pertenecen al dominio de denici on de la funci on ux. Es por ello que a una funci on de utilidad ux se le puede pedir la condici on u0 0, sin perder generalidad ni provocar cambios en la toma de decisiones bajo el criterio de utilidad esperada. El lector puede encontrar exposiciones breves sobre la teor a de utilidad y los seguros en el primer cap tulo de los textos [7] y [22]. Coeciente de asimetr a de Fisher Para una variable aleatoria X con tercer momento nito se dene el coeciente de asimetr a de Fisher 3 como el n umero 3 E X E X 3 VarX 32 .

Esta cantidad es una medida de la asimetr a de la distribuci on alrededor de su media. Cuando 3 0 la distribuci on es completamente sim etrica alrededor de su media, como es el caso, por ejemplo, de la distribuci on 0 se dice que la distribuci on es asim etrica positiva normal. Cuando 3 o que tiene mayor sesgo hacia la derecha (es decir, la cola a la derecha de la media es m as larga que la de la izquierda, o bien, que hay valores m as separados de la media a la derecha). Cuando 3 0, se dice que la distribuci on es asim etrica negativa o que tiene mayor sesgo a la izquierda (es decir, la cola a la izquierda de la media es m as larga que la de la derecha, o bien, que hay valores m as separados de la media a la izquierda).

8.10. Ejercicios

253

Desigualdad de Jensen Sea u una funci on convexa y sea X una variable aleatoria tal que tanto X como uX tienen esperanza nita. Entonces uE X uE X E uX . E uX .

En el caso cuando u es c oncava, el resultado es

Una demostraci on de la desigualdad de Jensen puede encontrarse por ejemplo en [17]. Desigualdad de Markov Sea X una variable aleaotoria positiva con esperanza nita. Entonces para cualquier 0, E X . P X La demostraci on de este resultado es un buen ejercicio para el lector. Esperanza condicional Sean , F , P un espacio de probabilidad, X una variable aleatoria con esperanza nita y G una sub- - algebra de F . La esperanza condicional de X dado G es una variable aleatoria denotada por E X G que cumple las siguientes tres propiedades: 1. Es G -medible. 2. Tiene esperanza nita. 3. Para cualquier evento G en G , E E X G 1G E X 1G .

254

8. Teor a de la ruina: tiempo continuo

Puede demostrarse que esta variable aleatoria existe y es u nica casi seguramente, esto signica que si existe otra variable aleatoria con las tres propiedades anteriores, entonces con probabilidad uno coincide con E X G . Cuando G Y para alguna variable aleatoria Y , se escribe E X Y en lugar de E X Y . En particular, el t ermino P A Y signica E 1A Y . Se enuncian a continuaci on algunas propiedades de esta esperanza. a) E X b) c) d) e) f) g)

, E X . E 1A , P A. E 1A , B, B c , P A B 1B P A B c 1B . E E X G E X . En particular, E P A Y E 1A P A. Si X es G -medible, entonces E X G X . En particular, si c es una constante, entonces E c G c. E aX Y G aE X G E Y G . Si X 0, entonces E X G 0.


c

h) Teorema de convergencia mon otona. Si 0 Xn X , entonces E Xn G

E X G c.s.

i) Teorema de convergencia dominada. Si Xn Y, E Y y Xn X c.s., entonces E Xn G E X G c.s. j) Desigualdad de Jensen. Si es convexa, entonces E X G E X G . E X H . Z E X G .

k) Si H es una sub - algebra de G , entonces E E X G H l) Si Z es G -medible y acotada, entonces E Z X G m) Si X es independiente de G , entonces E X G E X .

Un estudio m as detallado de la esperanza condicional puede ser encontrado en libros dedicados a probabilidad como [21] o [40].

8.10. Ejercicios

255

Integral de Riemann-Stieltjes La integral de Riemann-Stieltjes generaliza a la integral usual de Riemann. on F x. Se trata de la integral de una funci on hx respecto de otra funci Su denici on es an aloga al caso de la integral de Riemann: si a x0 x1 xn b es una partici on del intervalo a, b, entonces denimos de manera informal

b
a

hx dF x :

l m

n 0 i 1

hxi F xi F xi1 ,

en donde x es el m aximo de las distancias xi xi1 , y las funciones hx y F x deben cumplir ciertas condiciones para que la integral tenga sentido y est e bien denida. En particular, a la funci on integradora F x se le pide que sea continua por la derecha, mon otona no decreciente y tal que F bF a M , para alg un n umero M 0. Observe que F x debe cumplir propiedades semejantes a las de una funci on de distribuci on, justamente usaremos a las funciones de distribuci on como funciones integradoras. En particular, cuando F x x sobre el intervalo a, b se tiene que

b
a

hx dF x

b
a

hx dx,

suponiendo la existencia de tal integral. Igualmente, bajo la hip otesis de existencia de todas las integrales que aparecen a continuaci on, la integral de Riemann-Stieltjes cumple las siguientes propiedades: a) Es lineal en el integrando, es decir,

b
a

h1 x h2x dF x
hx dF1 x F2 x

b
a

h1 x dF x

b
a

h2 x dF x.

b) Es tambi en lineal en el integrador, es decir,

b
a

b
a

hx dF1 x

b
a

hx dF2 x.

c) Cuando hx tiene primera derivada continua se cumple la siguiente f ormula de integraci on por partes:

b
a

hx dF x

hbF b haF a

b
a

F xh x dx.

256

8. Teor a de la ruina: tiempo continuo

d) De especial inter es en la teor a de la probabilidad es el caso cuando F x es diferenciable. Bajo tal hip otesis se tiene la igualdad

b
a

hx dF x

b
a

hxF x dx.

x y si X es una v.a. absolutamente En particular, tomando hx continua con esperanza nita, con funci on de distribuci on F x y funci on de densidad f x, entonces E X

x dF x

xf x dx.

e) Otro caso interesante para la teor a de la probabilidad ocurre cuando hx es continua y F x es constante excepto en los puntos x0 , x1 , . . ., en donde la funci on tiene saltos positivos de tama no px0 , px1 , . . . respectivamente. En este caso y suponiendo convergencia,

b
a

hx dF x

i 0

hxi pxi .

Esto signica que integrar respecto de la funci on de distribuci on de una variable aleatoria discreta se reduce a efectuar una suma. Nuevamente tomando hx x y si X es una v.a. discreta con esperanza nita y con funci on de distribuci on como se mencion o antes, entonces E X

x dF x

i 0

xi pxi .

En el caso cuando X es una v.a. mixta con esperanza nita, en el c alculo de la esperanza se separa la parte continua de la parte discreta de la siguiente forma E X

x dF x

xf x dx

i 0

x i p x i .

Un tratamiento m as riguroso y completo de la integral de Riemann-Stieltjes puede encontrarse en el texto de probabilidad de Harris [18], o en libros de an alisis matem atico como el de Apostol [1].

8.10. Ejercicios

257

Variables aleatorias mixtas Una variable aleatoria mixta X es aquella que no es ni continua ni es discreta. Su funci on de distribuci on puede escribirse de la siguiente forma F x

f u du

xi x

pxi ,

on no negativa y pxi P X xi 0 para en donde f u es una funci ciertos valores x0 , x1 , . . . Si g es una funci on tal que g X es una variable aleatoria integrable, entonces su esperanza se calcula de la siguiente forma E g X

g x dF x

g xf x dx

i 0

g xi pxi .

En el libro de Gut [17] puede encontrarse un tratamiento completo sobre variables aleatorias mixtas. Varianza condicional Sea X una variable aleatoria con segundo momento nito, y sea G una sub - algebra de F . La varianza condicional de X dado G se dene como la variable aleatoria dada por

denici on la igualdad

E X G 2 G . Nuevamente, cuando la sub- - algebra G es Y para alguna variable aleatoria Y , entonces VarX G se escribe VarX Y , y puede tomarse como
VarX Y a) VarX b) c) d) E X

VarX G

E X

E X Y 2

Y .

Se enuncian a continuaci on algunas propiedades de esta variable aleatoria.

, VarX . Var1A , P A1 P A. VarX G E X 2 G E 2 X G . VarX E VarX G VarE X G .

258

8. Teor a de la ruina: tiempo continuo

Siendo la varianza condicional parte del concepto general de esperanza condicional, en los textos de Karr [21] y Williams [40] se puede encontrar mayor informaci on sobre estas variables aleatorias. Ley de los grandes n umeros Sea X1 , X2 , . . . una sucesi on de variables aleatorias independientes e id enticamente distribuidas con media . Entonces 1 Xi ni 1
n

Cuando la convergencia es en probabilidad este resultado se conoce como la ley d ebil. Y cuando la convergencia es casi segura se llama ley fuerte. Las demostraciones de estos resultados pueden encontrarse en [17]. Teorema central del l mite Sea X1 , X2 , . . . una sucesi on de variables aleatorias independientes e id enti2 camente distribuidas con media y varianza . Entonces
1 n n i 1

Xi

N0, 1.

La demostraci on de este importante resultado as como de los siguientes dos teoremas de convergencia pueden encontrarse en [17]. Teorema de convergencia dominada Sea X1 X2 una sucesi on de variables aleatorias para la cual existe otra variable aleatoria Y con esperanza nita y tal que Xn Y , para n 1. Si Xn converge casi seguramente a una variable X , entonces tanto X como Xn tienen esperanza nita y
n

l m E Xn

E X .

Teorema de convergencia mon otona Sea 0 X1 X2 una sucesi on mon otona de variables aleatorias convergente casi seguramente a una variable X . Entonces
n

l m E Xn

E X .

8.10. Ejercicios

259

F ormulas recursivas para calcular convoluciones Sean X1 , X2 , . . . variables aleatorias independientes e id enticamente disX1 Xn . tribuidas. Nos interesa encontrar la distribuci on de Sn Cuando las variables Xi tienen funci on de distribuci on F , a la funci on de distribuci on de Sn se le llama la n- esima convoluci on de F , y se le denota por F n , es decir, F n x P Sn x. Cuando las variables Xi tienen funci on de probabilidad o de densidad f , a la funci on de probabilidad o de densidad de Sn se le llama la n- esima convoluci on de f , y se le denota por f n , es decir, en el caso discreto, f n x P Sn x. 1. Cuando las variables Xi son discretas con valores en el conjunto 0, 1, 2, . . ., se cumplen las siguientes f ormulas recursivas. a ) P Sn b ) P Sn x x
x j 0 x

P Sn1 P Sn1

x j P X n x j P X n

j . j .

j 0

2. Cuando las variables Xi son continuas con soporte en el intervalo 0, , con funci on de distribuci on F , y con funci on de densidad f , se cumplen las siguientes f ormulas recursivas. a ) f n x b ) F n x

x
0

x
0

f n1 x y f y dy . F n1 x y f y dy .

Transformada de Laplace Para una funci on u : 0, s L s

R, la transformada de Laplace es

esu u du,

para valores reales de s donde tal integral exista. Hemos usado la notaci on para la probabilidad de ruina u como funci on objeto en la transformada de Lapace pues a este tipo de funciones se le aplicar a con mayor frecuencia esta transformaci on. Cuando sea conveniente denotaremos la transformada on algunas de Laplace tambi en como L us. Revisaremos a continuaci propiedades que cumple esta transformaci on.

260

8. Teor a de la ruina: tiempo continuo c . s

a) La transformada de una constante c es Lc s b) Linealidad: si 1 y 2 son constantes, entonces L1 1 2 2 s L s

1 L1 s 2 L2 s. s L 0.

c) La transformada de Laplace de la derivada de una funci on es

d) La transformada de Laplace de la integral H u LH s 1 L s. s L1 s L2 s,

u
0

x dx es

e) La transformada de Laplace de la convoluci on de dos funciones es L 1 2 s en donde

on de dos funla siguiente situaci on particular: si Gx es la convoluci ciones de distribuci on continuas F1 x y F2 x de variables aleatorias no negativas, es decir,
0

1 2u

1 u x2 xdx. Observe sin embargo

Gx

x
0

F1 x y dF2 y LG s

x
0

F1 x y f2 y dy sLF1 sLF2 s.

F1 f2 x,

en donde f2 y es la funci on de densidad de F2 y , entonces LF1 sLf2 s f) Existencia: se dice que una funci on u denida para u 0 es de orden exponencial cuando u tiende a innito si existe una constante u0 tal que para todo u u0 , u m ecu ,

en donde m y c son constantes. Puede demostrarse que cuando esta condici on se cumple la transformada de Laplace L s existe para s c.

8.10. Ejercicios

261

g) Unicidad: sean 1 u y 2 u dos funciones continuas denidas para u 0, ambas de orden exponencial, si existe una constante s0 tal que L1 s L2 s para todo s s0 , entonces 1 u 2 u para todo u 0. Un tratamiento m as completo sobre la transformada de Laplace y sus aplicaciones puede encontrarse en [33]. M etodo de Newton-Raphson on diferenciable que tiene una ra z cerca de x x0 . V ease Sea g x una funci la Figura 6. El m etodo de Newton-Raphson permite conocer el valor de esta ra z mediante aproximaciones sucesivas.
g x

x x1 x0

Figura 6 La primera aproximaci on de la ra z es el valor inicial x0 . La ecuaci on de la recta tangente que pasa por el punto x0 , g x0 es y g x0 g x0 x x0 . g x0 . g x 0

Esta l nea recta cruza el eje horizontal cuando el valor de x es igual a x1 x0

Se toma a x1 como nueva ra z aproximada y se repite el procedimiento. De este modo se encuentra una sucesi on de valores x0 , x1 , x2 , . . ., que bajo ciertas condiciones converge a la ra z de la funci on g x. La f ormula general es entonces g x n . xn1 xn g x n

262

8. Teor a de la ruina: tiempo continuo

En el presente texto se ha mencionado este mecanismo para encontrar de manera aproximada el coeciente de ajuste en los modelos de riesgo estudiados. El lector puede consultar, por ejemplo, el texto de Burden y Faires [10] para profundizar sobre el m etodo de Newton-Raphson.

8.10. Ejercicios

263

Distribuciones de probabilidad
En esta secci on se presentan en orden alfab etico algunas distribuciones de probabilidad utilizadas en el texto. La funci on generadora de probabilidad on generadora de la momentos por M t. se denota por Gt, y la funci Distribuci on Bernoulli X Berp con p 0, 1. f x px 1 p1x para x E X p. VarX p1 p. Gt 1 p pt. M t 1 p pet . 0, 1.
f x

0.7

Distribuci on beta X betaa, b con a 0, b 0. f x xa1 1 xb1 B a, b para x 0, 1. en donde B a, b aba b, a1 et dt. con a 0 t E X aa b. VarX aba b 1a b2 . Cuando a b 1 se obtiene la dist. unif0, 1.
f x

264 Distribuci on binomial

8. Teor a de la ruina: tiempo continuo

binn, p con n 1, 2, . . . y p X 0, 1. n x p 1pnx para x 0, 1, . . . , n. f x k E X np. VarX np1 p. Gt 1 p ptn . M t 1 p pet n .

f x

8, p

0.3

Distribuci on binomial negativa bin negk, p con p 0, 1 y k X 1, 2, . . . . kx1 k p 1 px para x f x x 0, 1, . . . E X k 1 pp. VarX k 1 pp2 . Gt p1 1 ptk . M t p1 1 pet k para t ln1 p. 1 se obtiene la distribuci on Cuando r geop. Distribuci on Cauchy Cauchya, b con a R y b 0. 1 , para x R. f x b 1 x ab2 F x 12 1 arctanx ab. La esperanza y varianza no existen. La funci on generadora de momentos no existe. Cuando a 0 y b 1 se obtiene la distribuci on Cauchy est andar, Cauchy0, 1. X
f x f x

3, p

12

x a

8.10. Ejercicios Distribuci on exponencial X exp con 0. f x ex para x 0. F x 1 ex para x 0. E X 1. VarX 12 . M t t para t .

265

f x

Distribuci on gama gama, con 0 y 0. x1 ex para x 0. f x 1 j F x 1 ex 0 j 0 x j ! para x y entero. E X . VarX 2 . E X n n n . M t t para t . Cuando 1 se obtiene la distribuci on exp. Cuando es entero se conoce tambi en con el nombre de distribuci on Erlang. X
f x

Distribuci on geom etrica X geop con p 0, 1. f x p1 px para x 0, 1, . . . E X 1 pp. VarX 1 pp2 . Gt p1 1 pt. M t p1 1 pet para t ln1 p.
f x

15

266 Distribuci on ji-cuadrada

8. Teor a de la ruina: tiempo continuo

2 n con n 0. 12n2 xn21ex2 para x f x n2 E X n. VarX 2n. M t 1 2tn2 para t 12. X

f x

0.
x

Distribuci on log normal X lognormal, 2 con y 2 0. 1 f x expln x 2 2 2 , x x 2 2 0. F x ln x . E X exp 2 2. E X n expn n2 2 2. VarX exp2 2 2 exp2 2 . Si X N, 2 , entonces eX lognormal, 2 . Distribuci on normal N, 2 con y 2 0. 1 2 2 f x ex 2 . 2 2 E X . VarX 2 . M t exp t 2 t2 2. t exp it 2 t2 2. Cuando 0 y 2 1 se obtiene la distribuci on normal est andar, N0, 1. X
f x f x

8.10. Ejercicios Distribuci on Pareto Paretoa, b con a, b 0. aba f x x 0. b xa1 para F x 1 bb xa para x 0. E X ba 1 para a 1. VarX ab2 a 12 a 2, a 2. X

267

f x a b x

Distribuci on Poisson Poisson con x f x e para x x! E X . VarX . Gt e1t . M t expet 1. X 0. 0, 1, . . .


f x

Distribuci on t tn con n 0. n 12 x2 1 n12 . f x n n2 n E X 0. VarX nn 2 para n 2. M t no existe para t 0. t exp t . X


f x

268 Distribuci on Weibull

8. Teor a de la ruina: tiempo continuo

X Weibullr, con r, 0. r f x ex rr xr1 para x 0. r F x 1 ex para x 0. E X 1 1r. VarX 1 2r 2 1 1r2 .

f x

8.10. Ejercicios Tabla de la distribuci on normal est andar

269

x
x 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 0.00 0.5000 0.5398 0.5793 0.6179 0.6554 0.6915 0.7257 0.7580 0.7881 0.8159 0.8413 0.8643 0.8849 0.9032 0.9192 0.9332 0.9452 0.9554 0.9641 0.9713 0.9772 0.9821 0.9861 0.9893 0.9918 0.9938 0.9953 0.9965 0.9974 0.9981 0.9987 0.9990 0.9993 0.9995 0.9997 0.01 0.5040 0.5438 0.5832 0.6217 0.6591 0.6950 0.7291 0.7611 0.7910 0.8186 0.8438 0.8665 0.8869 0.9049 0.9207 0.9345 0.9463 0.9564 0.9649 0.9719 0.9778 0.9826 0.9864 0.9896 0.9920 0.9940 0.9955 0.9966 0.9975 0.9982 0.9987 0.9991 0.9993 0.9995 0.9997 0.02 0.5080 0.5478 0.5871 0.6255 0.6628 0.6985 0.7324 0.7642 0.7939 0.8212 0.8461 0.8686 0.8888 0.9066 0.9222 0.9357 0.9474 0.9573 0.9656 0.9726 0.9783 0.9830 0.9868 0.9898 0.9922 0.9941 0.9956 0.9967 0.9976 0.9982 0.9987 0.9991 0.9994 0.9995 0.9997 0.03 0.5120 0.5517 0.5910 0.6293 0.6664 0.7019 0.7357 0.7673 0.7967 0.8238 0.8485 0.8708 0.8907 0.9082 0.9236 0.9370 0.9484 0.9582 0.9664 0.9732 0.9788 0.9834 0.9871 0.9901 0.9925 0.9943 0.9957 0.9968 0.9977 0.9983 0.9988 0.9991 0.9994 0.9996 0.9997

1 2
0.04 0.5160 0.5557 0.5948 0.6331 0.6700 0.7054 0.7389 0.7704 0.7995 0.8264 0.8508 0.8729 0.8925 0.9099 0.9251 0.9382 0.9495 0.9591 0.9671 0.9738 0.9793 0.9838 0.9875 0.9904 0.9927 0.9945 0.9959 0.9969 0.9977 0.9984 0.9988 0.9992 0.9994 0.9996 0.9997

et

2 dt
0.06 0.07 0.5279 0.5675 0.6064 0.6443 0.6808 0.7157 0.7486 0.7794 0.8078 0.8340 0.8577 0.8790 0.8980 0.9147 0.9292 0.9418 0.9525 0.9616 0.9693 0.9756 0.9808 0.9850 0.9884 0.9911 0.9932 0.9949 0.9962 0.9972 0.9979 0.9985 0.9989 0.9992 0.9995 0.9996 0.9997 0.08 0.5319 0.5714 0.6103 0.6480 0.6844 0.7190 0.7517 0.7823 0.8106 0.8365 0.8599 0.8810 0.8997 0.9162 0.9306 0.9429 0.9535 0.9625 0.9699 0.9761 0.9812 0.9854 0.9887 0.9913 0.9934 0.9951 0.9963 0.9973 0.9980 0.9986 0.9990 0.9993 0.9995 0.9996 0.9997 0.09 0.5359 0.5753 0.6141 0.6517 0.6879 0.7224 0.7549 0.7852 0.8133 0.8399 0.8621 0.8830 0.9015 0.9177 0.9319 0.9441 0.9545 0.9633 0.9706 0.9767 0.9817 0.9857 0.9890 0.9916 0.9936 0.9952 0.9964 0.9974 0.9981 0.9986 0.9990 0.9993 0.9995 0.9997 0.9998

0.05 0.5199 0.5596 0.5987 0.6368 0.6736 0.7088 0.7422 0.7734 0.8023 0.8289 0.8531 0.8749 0.8944 0.9115 0.9265 0.9394 0.9505 0.9599 0.9678 0.9744 0.9798 0.9842 0.9878 0.9906 0.9929 0.9946 0.9960 0.9970 0.9978 0.9984 0.9989 0.9992 0.9994 0.9996 0.9997

0.5239 0.5636 0.6026 0.6406 0.6772 0.7123 0.7454 0.7764 0.8051 0.8315 0.8554 0.8770 0.8962 0.9131 0.9279 0.9406 0.9515 0.9608 0.9686 0.9750 0.9803 0.9846 0.9881 0.9909 0.9931 0.9948 0.9961 0.9971 0.9979 0.9985 0.9989 0.9992 0.9994 0.9996 0.9997

Bibliograf a
[1] Apostol T. M. (1974) Mathematical analysis. AddisonWesley. [2] Asmussen S. (2000) Ruin probabilities. World Scientic. [3] Basu A. K. (2003) Introduction to stochastic processes. Alpha Science International Ltd. [4] Beard R. E., Pentik ainen T., Pesonen E. (1984) Risk theory. Tercera edici on. Chapman and Hall. [5] Bladt M. (2005) A review of phase-type distributions and their use in risk theory. ASTIN Bulletin, Vol. 35, N um. 1, pp. 145161. [6] Boland P. (2007) Statistical and probabilistic methods in actuarial science. Chapman & Hall / CRC. [7] Bowers N. L. Jr., Gerber H. U., Hickman J. C., Jones D. A., Nesbitt C. J. (1997) Actuarial mathematics. The Society of Actuaries. [8] B uhlmann H. (1970) Mathematical methods in risk theory. Springer Verlag. [9] B uhlmann H., Gisler A. (2005) A course in credibility theory and its applications. Springer. [10] Burden J. D., Faires J. D. (2010) Numerical analysis. Brooks Cole. [11] Daykin C. D., Pentik ainen T., Pesonen M. (1994) Practical risk theory for actuaries. Chapman and Hall. 271

272

Bibliograf a

[12] De Pril N. (1986) On the exact computation of the aggregate claims distribution in the individual life model. ASTIN Bulletin, Vol. 16, N um. 2, pp. 109112. [13] Dickson D. C. M. (2005) Insurance risk and ruin. Cambridge University Press. [14] Embrechts P., Kluppelberg C., Mikosch T. (1999) Modelling extremal events for insurance and nance. Springer. [15] Gerber H. U. (1979) An introduction to mathematical risk theory. Monograph No. 8. S. S. Huebner Foundation for Insurance Education. Wharton School. University of Pennsylvania. [16] Gerber H. U. (1988) Mathematical fun with the compound binomial process. ASTIN Bulletin, Vol. 18, N um 2, pp. 161-168. [17] Gut A. (2010) Probability: a graduate course. Springer. [18] Harris B. (1966) Theory of probability. AddisonWesley. [19] Hoel P. G., Port S. C., Stone C. J. (1972) Introduction to stochastic processes. Hougthon Miin Company. [20] Karlin S., Taylor H. M. (1975) A rst course in stochastic processes. Academic Press. [21] Karr A. F. (1993) Probability. SpringerVerlag. [22] Kass R., Goovaerts M., Dhaene J., Denuit M. (2001) Modern actuarial risk theory. Kluwer Academic Publishers. [23] Klugman S. A., Panjer H. H., Willmot G. E. (2008) Loss models: from data to decisions. Wiley. [24] Li S., Lu Y., Garrido J. (2009) A review of discrete-time risk models. Rev. R. Acad. Cien. serie A. Mat. Vol. 103, N um. 2, pp. 321-337. [25] Melnikov A. (2003) Risk analysis in nance and insurance. Chapman & Hall/CRC. [26] Norris J. (1997) Markov chains. Cambridge University Press.

Bibliograf a

273

[27] Panjer H. H. (1981) Recursive evaluation of a family of compound distributions. ASTIN Bulletin, Vol. 12, N um 1, pp. 2226. [28] Panjer H. H. (editor) (1986) Actuarial mathematics. Proceedings of Symposia in Applied Mathematics, Vol. 35, AMS. [29] Resnick S. (1992) Adventures in stochastic processes. Birkh auser. [30] Revuz D., Yor M. (1991) Continuous martingales and Brownian motion. Springer-Verlag. [31] Rinc on L. (2012) Introducci on a los procesos estoc asticos. Facultad de Ciencias, UNAM. [32] Rolski T., Schmidli H., Teugels J. (1999) Stochastic processes for insurance and nance. John Wiley & Sons. [33] Schi J. L. (1999) The Laplace transform: theory and applications. Springer. [34] Schmidli H. Lecture notes on risk theory. Manuscrito. [35] Schmidli H. (2008) Stochastic control in insurance. Springer. [36] Spiegel M. R. (1968) Mathematical handbook of formulas and tables. Schaum, McGraw-Hill. [37] Stirzaker D. (2005) Stochastic processes and models. Oxford University Press. [38] Teugels J. L., Sundt B. (editores) (2004) Encyclopedia of actuarial science. Wiley. [39] Tudor C. (1994) Procesos estoc asticos. Serie Textos, Sociedad Matem atica Mexicana. [40] Williams D. (1991) Probability with martingales. Cambridge University Press.

Indice anal tico


Excess of loss, 98 Net prot condition, 72, 164, 200 Safety loading, 73 Stop loss, 95 Agregado de reclamaciones en el modelo colectivo, 19 en el modelo individual, 4 Aproximaci on de De Vylder, 233 de Edgeworth, 56 gama trasladada, 55 normal, 8, 53 Asimetr a coeciente de Fisher, 252 Aversi on al riesgo, 89 coeciente, 89 Cadenas de Markov a tiempo continuo, 143 a tiempo discreto, 134 Caminatas aleatorias, 132 Clase a, b, 0, 46 Coeciente de ajuste, 177, 219, 222 de ajuste (cotas), 230 de asimetr a de Fisher, 252 de aversi on al riesgo, 89 274 Condici on de ganancia neta, 72, 164, 200 Convexidad, 83 Convoluci on, 259 Cram er-Lundberg, 197 Credibilidad americana, 110 Bayesiana, 117 modelo normal-normal, 121 modelo Poisson-gama, 120 cl asica, 110 completa, 110 completa bajo normalidad, 111 factor de, 114, 121, 122 parcial, 114 De Pril f ormula de, 9 De Vylder aproximaci on de, 233 Deducible, 97 Desigualdad de Jensen, 83, 253 de Jensen condicional, 254 de Lundberg, 220, 227, 228 de Lundberg (tiempo discreto), 180 de Markov, 253

Indice anal tico Distribuci on Bernoulli, 263 beta, 263 binomial, 264 binomial compuesta, 23 binomial neg. compuesta, 24 binomial negativa, 264 Cauchy, 264 con cola ligera, 219, 223 con cola pesada, 223 de clase a, b, 0, 46 Erlang, 265 exponencial, 265 gama, 265 geom etrica, 264, 265 geom etrica compuesta, 24 ji-cuadrada, 266 log normal, 266 normal, 266 Pareto, 267 Poisson, 267 Poisson compuesta, 25 Poisson compuesta mixta, 32 t de Student, 267 tipo fase continua, 151 tipo fase discreta, 136 Weibull, 268 Espacio de prob. ltrado, 131 Esperanza condicional, 253 Esscher principio de, 78 transformada de, 78 Exponencial de una matriz, 153 Exponente de Lundberg, 219, 222

275 F ormula s de Seal, 209 de De Pril, 9, 37, 38 de Panjer, 45 de Pollaczek-Khinchin, 235 Factor de credibilidad, 114, 121, 122 de recargo, 73 Filtraci on, 131 natural, 131 Funci on convexa, 83 de supervivencia, 165 de utilidad, 74, 251 de valor, 76 delta de Kronecker, 146 gama, 250 generadora de prob., 249 indicadora, 249 Funciones de utilidad equivalencia, 251 Integral de Riemann-Stieltjes, 255 Jensen desigualdad de, 253 desigualdad de J. condicional, 254 Laplace transformada de, 259 Ley de los grandes n umeros, 258 Lundberg desigualdad de, 220, 227, 228 desigualdad de (tiempo discreto), 180

276 exponente de, 219, 222 M etodo de Newton-Raphson, 261 Markov desigualdad de, 253 Martingala de de Moivre, 160 del juego de apuestas, 160 del proceso con inc. independientes, 160 del proceso de Poisson centrado, 160 Martingalas, 154 Matriz de prob. de transici on, 135 de subintensidades, 151 exponencial de una, 153 Modelo binomial compuesto, 23 binomial neg. compuesto, 24 colectivo, 18 colectivo Poisson, 25 de Cram er-Lundberg, 197 individual, 3 normal-normal, 121 Poisson compuesto, 25 asociado, 26 como l mite, 27, 29 como suma, 30 con reclamaciones clasicadas, 30 mixto, 32 Poisson-gama, 120 Momento limitado, 103

Indice anal tico Newton-Raphson, 261 Nivel de retenci on, 95 Panjer f ormula de, 45 Par ametros innitesimales, 148 Pollaczek-Khinchin, 235 Prima, 69 de credibilidad Bayesiana, 119 pura de riesgo, 71 Principio de Esscher, 78 de la desviaci on est andar, 73 de la varianza, 73 de p erdida m axima, 77 de utilidad cero, 74 del porcentaje, 77 del riesgo ajustado, 79 del valor esperado, 73 del valor medio, 76 exponencial, 77 Prob. de ruina, 208 con reclamaciones exp, 205 con reclamaciones geo, 173 con reclamaciones tipo fase, 240 horizonte nito, 175, 208 horizonte innito, 167, 202 Problema de la ruina, 166, 202 Proceso a tiempo continuo, 128 a tiempo discreto, 128 adaptado, 131 con inc. estacionarios, 130 con inc. independientes, 130 de Poisson, 140 tiempos de estancia, 141

Indice anal tico de Poisson (superposici on), 158 de Poisson (thinning), 159 de riesgo, 198 tiempo continuo, 197 tiempo discreto, 163 de saltos, 144 de super avit, 199 estoc astico, 127 submartingala, 155 supermartingala, 155 trayectoria de un, 129 Propiedad de Markov, 129 de p erdida de memoria, 142 Reaseguro, 91 excess of loss, 98 stop loss, 95 de p erdida m axima, 95 no proporcional, 95 por exceso de p erdida, 98 proporcional, 93 Retenci on nivel de, 95 Riemann-Stieltjes, 255 Riesgo, 2 aversi on, 89 modelo colectivo, 19 modelo individual, 5 proceso a tiempo continuo, 197 proceso a tiempo discreto, 163 Ruina en Cram er-Lundberg, 201 en tiempo discreto, 166 severidad de la, 184, 213 Seal

277 f ormulas de, 209 Severidad de la ruina, 184, 213 Submartingala, 155 Supermartingala, 155 Supervivencia funci on de, 165 Teorema central del l mite, 258 de conv. dominada, 254, 258 de conv. mon otona, 254, 258 Tiempo s de estancia, 143 de interarribo, 141 de paro, 132 Transformada de Esscher, 78 de Laplace, 259 de Laplace-Stieltjes, 39 Variable aleatoria mixta, 257 Varianza condicional, 257

También podría gustarte