Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Teoria Del Riesgo - Luis Antonio
Teoria Del Riesgo - Luis Antonio
on a la
teora del riesgo
Luis Rincon
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico DF
Agosto 2012
Pr
ologo
El presente texto contiene material basico para un curso introductorio a
ciertos temas de la teora del riesgo aplicada a seguros. Esta basado en el
curso semestral de Teora del Riesgo que el autor ha impartido a estudiantes de u
ltimo semestre de la carrera de Actuara en la Facultad de Ciencias de la UNAM. La intencion es que este libro sea de alguna ayuda para
los numerosos alumnos de las distintas escuelas de actuara y matematicas
aplicadas de pases de habla hispana, y contribuya tambien a apoyar el trabajo docente de sus profesores. El texto fue escrito en el sistema LATEX y
las ilustraciones fueron elaboradas usando el paquete pstricks. El material
que se presenta fue compilado enteramente de las fuentes bibliograficas que
aparecen al final del texto. La u
ltima version disponible de este texto en su
formato digital puede encontrarse en la pagina web
http://www.matematicas.unam.mx/lars
Agradezco sinceramente los comentarios, correcciones y sugerencias que he
recibido por parte de alumnos y profesores para mejorar este material. En
particular agradezco a uno de los revisores anonimos, quien dedico bastante
tiempo en la lectura cuidadosa del texto y quien sugirio importantes mejoras
para la version final. Agradezco tambien el apoyo otorgado por parte de la
UNAM DGAPA a traves del proyecto PAPIME PE103111, con el cual pudo
ser posible el desarrollo y la edicion de este trabajo. Toda comunicacion
dirigida al autor puede enviarse a la cuenta de correo que aparece abajo.
Luis Rincon
Agosto 2012
Ciudad Universitaria UNAM
lars@ciencias.unam.mx
Contenido
1. El modelo individual y el modelo colectivo
1.1. Introduccion . . . . . . . . . . . . . . . . . .
1.2. Modelo individual . . . . . . . . . . . . . .
1.3. Formula de De Pril . . . . . . . . . . . . . .
1.4. Modelo colectivo . . . . . . . . . . . . . . .
1.5. Modelo colectivo Poisson . . . . . . . . . . .
1.6. Ejercicios . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
. 1
. 3
. 9
. 18
. 25
. 33
2. F
ormula de Panjer y m
etodos de aproximaci
on
2.1. Formula de Panjer . . . . . . . . . . . . . . . . .
2.2. Aproximacion normal . . . . . . . . . . . . . . .
2.3. Aproximacion gama trasladada . . . . . . . . . .
2.4. Aproximacion de Edgeworth . . . . . . . . . . . .
2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
45
53
55
56
61
.
.
.
.
69
69
71
80
83
3. Principios para el c
alculo de primas
3.1. Propiedades . . . . . . . . . . . . . .
3.2. Principios generales . . . . . . . . . .
3.3. Primas y funciones de utilidad . . .
3.4. Ejercicios . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4. Reaseguro
91
4.1. Reaseguro proporcional . . . . . . . . . . . . . . . . . . . . . 93
4.2. Reaseguro no proporcional . . . . . . . . . . . . . . . . . . . . 95
4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
iii
iv
Contenido
5. Teora de la credibilidad
5.1. Credibilidad clasica . . . . . . . . . . . . . . . . . . . . . . .
5.2. Credibilidad Bayesiana . . . . . . . . . . . . . . . . . . . . .
5.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . .
109
. 110
. 117
. 123
6. Procesos estoc
asticos
6.1. Conceptos elementales . . . . . . . . .
6.2. Filtraciones y tiempos de paro . . . .
6.3. Caminatas aleatorias . . . . . . . . . .
6.4. Cadenas de Markov . . . . . . . . . .
6.5. Proceso de Poisson . . . . . . . . . . .
6.6. Cadenas de Markov a tiempo continuo
6.7. Martingalas . . . . . . . . . . . . . . .
6.8. Ejercicios . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
127
. 127
. 130
. 132
. 134
. 140
. 143
. 154
. 156
.
.
.
.
.
.
.
163
. 163
. 167
. 175
. 177
. 180
. 184
. 191
.
.
.
.
.
.
.
.
.
.
197
. 197
. 202
. 208
. 213
. 218
. 227
. 233
. 235
. 240
. 243
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
245
Contenido
Bibliografa
271
Indice analtico
274
Captulo 1
El modelo individual
y el modelo colectivo
En este captulo se presenta una introduccion al esquema del seguro y al
concepto general de riesgo. Se presentan ademas las perspectivas individual
y colectiva para modelar el riesgo correspondiente al conjunto de reclamaciones que afronta una compa
na aseguradora. Se estudian tambien algunas
propiedades y relaciones entre estas dos perspectivas. En el resto del texto
se adopta el modelo colectivo como modelo fundamental.
1.1.
Introducci
on
1.2.
Modelo individual
P
oliza 1
P
oliza 2
.......
.......
.......
.......
.......
.......
.......
.......
P
oliza n
.......
.......
.......
.......
Figura 1.1
Sea pj la probabilidad de que el j-esimo asegurado no efect
ue ninguna reclamacion durante el tiempo de vigencia del seguro, y sea qj la probabilidad
de que se observe exactamente una reclamacion. Suponga que la igualdad
pj qj 1 se cumple, ello significa que no puede haber mas de una reclamacion por cada asegurado. Tal situacion puede corresponder, por ejemplo,
a los seguros de vida. Defina la variable aleatoria
Dj
Definici
on 1.1 El monto de reclamaciones agregadas, o tambien llamado
agregado de reclamaciones, en el modelo individual, es la variable aleatoria
S
D j Cj .
(1.1)
j 1
Fj pxq
Gj pxq
Funcion de distribucion de Dj Cj
Funcion de distribucion de Cj
Fj pxq
"
1 qj p1 Gj pxqq
0
si x 0,
si x 0.
Demostraci
on. Para cualquier n
umero real x 0,
Fj pxq
P pDj Cj
xq
P pDj Cj x | Dj 0q P pDj 0q
P pDj Cj x | Dj 1q P pDj 1q
P p0 x | Dj 0q pj P pCj x | Dj 1q qj
p j q j G j px q
1 qj p1 Gj pxqq.
Fj pxq
Fj pxq
1
b
bc
b
1 qj
1 qj
bc
bc
b
x
bc
x
bc
(a)
(b)
Figura 1.2
En la Figura 1.2 se muestran graficas de la funcion de distribucion Fj pxq en
dos casos: uno cuando Gj pxq es discreta y otro cuando Gj pxq es continua.
Denotaremos tambien por MX ptq a la funcion generadora de momentos de
una variable X, cuando exista. Como primeros resultados generales presentamos a continuacion algunas caractersticas de S.
Proposici
on 1.2 Bajo la notaci
on e hip
otesis del modelo individual se
tienen los siguientes resultados.
1. E pS q
qj E pCj q.
j 1
2. VarpS q
qj r VarpCj q
pj E 2 pCj q s.
j 1
j 1
r 1 qj p1 MC ptqq s.
j
E pDj Cj q
j 1
E pDj qE pCj q
j 1
qj E pCj q.
j 1
qj VarpCj q
qj pj E 2 pCj q.
Por lo tanto,
VarpS q
VarpDj Cj q
j 1
qj r VarpCj q
pj E 2 pCj q s.
j 1
E petDj Cj q
E petDj Cj | Dj
0qP pDj 0q
E pe
| Dj 1qP pDj 1q
p j q j M C pt q
1 qj p1 MC ptqq.
tDj Cj
j
Puede considerarse que la variable S tiene una distribucion binomial generalizada en el siguiente sentido: se tienen n ensayos independientes Bernoulli,
en donde la probabilidad de exito en el ensayo j es qj y el valor asociado
al resultado exito no es 1 como en el esquema usual sino el monto Cj 0.
Aproximaci
on normal
Cuando n es grande y el portafolio de asegurados es homogeneo en el sentido de que las variables Dj Cj son identicamente distribuidas con segundo
momento finito, puede usarse el teorema central del lmite para aproximar
la distribucion de S mediante la distribucion normal, es decir,
P pS
xq
S E pS q
Ppa
xa E pS q q
VarpS q
VarpS q
x E pS q
p a
q.
VarpS q
Esta aproximacion puede ser adecuada para ciertos riesgos pero tiene la
desventaja de que asigna una probabilidad positiva al intervalo p8, 0q,
lo cual no es consistente con el hecho de que S 0. Sin embargo, dado que la distribucion Np, 2 q se concentra principalmente en el intervalo
p 4, a 4q, cuando la esperanza y la varianza de S son tales que
E pS q 4 VarpS q 0, la probabilidad asignada a la parte negativa del eje
es realmente peque
na, ello alivia un poco el hecho de que esta distribucion
rmula de De Pril
1.3. Fo
no tenga soporte en el intervalo r0, 8q. Tal vez la situacion mas comprometedora sea que la funcion de densidad normal decae muy rapidamente pues
existen riesgos cuyas funciones de densidad no cumplen con tal caracterstica. Mas adelante mencionaremos esta propiedad de las distribuciones de los
riesgos en terminos de colas pesadas y ligeras.
En la siguiente seccion encontraremos una forma recursiva para calcular
la funcion de probabilidad de S cuando el monto de las reclamaciones se
modela mediante una variable aleatoria discreta.
1.3.
F
ormula de De Pril
Presentamos a continuacion la formula de De Pril. Este resultado fue demostrado por Nelson De Pril [12] en 1986 y proporciona una expresion
exacta, aunque recursiva, de la distribucion de probabilidad de un riesgo en
el modelo individual. La formula es bastante general aunque presupone que
las reclamaciones toman los valores en el conjunto t1, 2, . . .u. Este supuesto
no es realmente una restriccion fuerte, pues en la practica el pago de siniestros se realiza siempre usando alguna unidad monetaria. Por otro lado,
la formula que encontraremos permite que los riesgos a asegurar no sean
homogeneos, sin embargo, estaran determinados a priori, es decir, seran deterministas y fijos. Para establecer la formula de De Pril es necesario dividir
el portafolio de n asegurados de acuerdo con la tasa de mortalidad y la
suma asegurada. Denotaremos por nij al n
umero de asegurados que tienen
probabilidad de reclamacion qj y monto de reclamacion i, en donde i toma
valores en t1, 2, . . . , I u y j en t1, 2, . . . , J u. De esta forma se tiene la tabla
de la Figura 1.3 en donde la suma de las entradas es n, es decir,
n
I
J
nij .
i 1j 1
Denotaremos por Yij el monto real reclamado por un asegurado cuya probabilidad de reclamacion es qj y posible monto reclamado i, es decir,
Yij
"
i
0
con probabilidad qj ,
con probabilidad 1 qj .
En los siguientes calculos haremos uso de la funcion generadora de probabilidad. El lector encontrara en el Apendice (pagina 249) un recordatorio de
10
Monto
de la
reclamacion
1
2
i
I
nI1 nI2
q1
n11
n21
q2
n12
n22
qj
nij
nIj
qJ
n1J
n2J
niJ
nIJ
Figura 1.3
Teorema 1.1 (F
ormula de De Pril [i]) Sea nij el n
umero de p
olizas
cuyos asegurados tienen tasa de mortalidad qj y suma asegurada i. Suponga
que j 1, 2, . . . , J, e i 1, 2, . . . , I. Entonces para el riesgo S que sigue el
modelo individual, las probabilidades gx P pS xq est
an dadas por
gx
g0
1
x
{
^
x I tx i u
gxik hpi, k q,
para x 1,
i 1 k 1
I
J
p1 qj qn
ij
i 1 j 1
en donde
hpi, k q ip1qk1
j 1
nij p
qj
1 qj
qk .
Demostraci
on. La funcion generadora de probabilidad del monto reclamado Yij por un asegurado con probabilidad de reclamacion qj y monto
rmula de De Pril
1.3. Fo
reclamado i, es
11
E ptYij q p1 qj q
qj ti .
Gptq E ptS q
tr g r
r 0
en donde gr
I
J
p1 qj
qj ti qnij ,
i 1 j 1
I
J
nij lnp1 qj
qj ti q.
i 1 j 1
d
G1 ptq
ln Gptq
dt
Gptq
I
J
nij
i 1 j 1
iqj ti1
.
1 qj qj ti
Por lo tanto,
tG1 ptq
Gptq
J
I
J
I
nij
i 1 j 1
Gptq
I
J
iqj ti
1 qj qj ti
nij i
qj ti
p1
1 qj
nij i
qj ti
1 qj
i 1 j 1
Gptq
i 1 j 1
k 1
qj ti 1
q
1 qj
i
k
en donde hemos usado la expansion p1xq1 8
alida para |x| 1.
k0 x , v
Por lo tanto, para valores suficientemente peque
nos de t,
I
J
nij i
i 1 j 1
k 1
j 1
nij p
qj
1 qj
qk .
(1.2)
12
La doble suma respecto de los ndices j y k que aparece en la expresion (1.2) es absolutamente convergente en cualquiera de los dos ordenes
que se efect
uen estas sumas y el resultado es el mismo. Por lo tanto, es valido el intercambio en el orden de estas sumas y la expresion anterior puede
escribirse como sigue:
tG1 ptq Gptq
I
8
tik hpi, k q.
i 1 k 1
rtr gr
r 1
8
I
tr g r
r 0
tik hpi, k q.
i 1 k 1
xgx
{
^
x I tx i u
gxik hpi, k q,
i 1 k 1
x1
{
^
x I tx i u
gxik hpi, k q.
i 1 k 1
I
J
p1 qj qn
ij
i 1j 1
rmula de De Pril
1.3. Fo
13
Para un mejor entendimiento de la formula recursiva de De Pril [i] escribiremos a continuacion de manera explcita los primeros terminos de este desarrollo.
g0
g2
g3
g1
I
J
p1 qj qn
ij
i 1j 1
g0 hp1, 1q
1
p g0 rhp1, 2q
2
1
p g0 rhp1, 3q
3
hp2, 1qs
g1 hp1, 1q q
hp3, 1qs
g1 rhp1, 2q
hp2, 1qs
g2 hp1, 1q q
..
.
Ejemplo 1.1 Para los datos que se muestran en la tabla de la Figura 1.4
en donde se tienen 48 p
olizas de seguros con las probabilidades de reclamaci
on y los montos de reclamaciones indicados, la correspondiente funci
on
de densidad para este riesgo es la que se muestra en la Figura 1.5. En el
apendice se encuentra el c
odigo en R de una implementaci
on de la f
ormula
de De Pril [i]. Debe tenerse cuidado en la implementaci
on numerica de
esta f
ormula, pues dado su car
acter recursivo y que algunas de las probabilidades involucradas pueden ser muy peque
nas, pueden generarse resultados
incorrectos debido al inevitable redondeo de cifras en una computadora.
Probabilidades de reclamacion
Monto
de la
reclamacion
izq
1
2
3
4
5
0.03
1
3
5
2
2
0.04
3
5
3
2
3
0.05
1
4
4
6
4
Figura 1.4
La formula que hemos denominado de De Pril [i] y que se encuentra expresada en el contexto de un portafolio de asegurados individuales, puede
14
0.1
x
2
10
12
14
16
18
20
Figura 1.5
Proposici
on 1.3 (F
ormula de De Pril [ii]) Sean X1 , X2 , . . . , Xn
v.a.i.i.d. con valores en el conjunto t0, 1, 2, . . .u. Para cada entero j 0,
defina la probabilidad fj P pX j q, y suponga f0 0. Sea S
X1 Xn . Entonces las probabilidades gx P pS xq se pueden
calcular recursivamente mediante la siguiente f
ormula:
g0
gx
pf0 qn,
x
1 j pn 1q
f
1 f j g x j ,
x
0 j 1
para x 1.
rmula de De Pril
1.3. Fo
15
Demostraci
on. Primeramente observemos que el evento pS 0q ocurre si
y solo si todos los sumandos de S son cero, de modo que por independencia,
g0
pf0qn .
t k fk ,
k0
8
t gk .
k 0
1
1
PX ptq t PS ptq n PS ptq t PX ptq,
que en terminos de sumas se escribe como sigue
t j fj
j 0
k 1
k tk g k
n
tk g k
j t j fj .
j 1
k 0
x 1
j 0
px j q fj gxj n
j 1
j fj gxj .
16
xf0 gx
px j q fj gxj n
j 1
j fj gxj .
j 1
f1
j pn
0 j 1
1q
x
1s fj gxj ,
x 1.
g2
pf0 qn,
1
f pn f1 g0q n1 f1 pf0 qn1,
0
1 n1
n
p
nf g q
f g
pf q2 pf qn2
g3
g0
g1
1 1
2 0
f0
2
2
1 n2
2n 1
p 3 f1 g 2
f2 g 1 n f3 g 0 q
f0
3
n
n
3
n3
p
f1 q pf0 q
2!
f2 f1 pf0 qn2
3
2
n
f2 pf0 qn1 ,
1
n
f3 pf0 qn1 .
1
rmula de De Pril
1.3. Fo
j
fj
17
0
0.5
1
0.2
2
0.3
gx
fj
1{2
1{2
0 1 2
0 1 2 3 4 5 6
(a)
(b)
Figura 1.6
pf0q3 0.125,
f1 p3f1g0q 0.15,
0
g2
g3
g4
g5
g6
1
pf1g1 3f2 g0q 0.285,
f0
1 1
8
p
f1 g 2
f2 g1 q 0.188,
f0 3
3
1
pf2g2q 0.171,
f0
1
1
3
p
f1 g 4
f2 g3 q 0.054,
f0 5
5
1
1
1
p
f1 g 5
f2 g4 q 0.027 .
f0 3
3
18
1.4.
Modelo colectivo
Considere un conjunto de un n
umero no determinado de contratos de seguros con vigencia en un periodo de tiempo r0, T s. Este periodo puede corresponder a un a
no por ejemplo. Sea N la variable aleatoria que denota
el n
umero de reclamaciones ocurridas en este intervalo y sean las variables
positivas Y1 , . . . , YN los montos de estas reclamaciones. Graficamente una
posible realizacion de tal esquema se muestra en la Figura 1.7.
$ Y2
$ Y3
$ Y5
$ Y1
$ Y4
b
Figura 1.7
Consideraremos que el n
umero de reclamaciones y los montos de estas son
variables aleatorias independientes. Mas a
un, supondremos que las reclamaciones mismas son independientes entre s y que comparten la misma
distribucion de probabilidad.
19
Definici
on 1.2 El monto agregado o monto acumulado de todas las reclamaciones efectuadas es la variable aleatoria S, llamada riesgo, y definida
como sigue
S
(1.3)
Yj ,
j 1
$ Y3
bc
b
$ Y2
b
bc
$ Y1
b
t
bc
Figura 1.8
A la funcion de distribucion de cada reclamacion Y la denotaremos por la
letra G. Se asume naturalmente que Gp0q 0, ello equivale a decir que la
variable Y es positiva. Adicionalmente usaremos la abreviacion:
20
Notacion
"
1 si x 0,
0 si x 0.
Proposici
on 1.4 La funci
on de distribuci
on del riesgo S en el modelo
colectivo es
F pxq
Gn pxq P pN
n0
nq.
Demostraci
on.
F pxq
P pS
x | N n q P pN n q
n 0
P pS
x | N 0q P pN 0q
P pY1
Yn
x q P pN n q
n 1
G0 pxq P pN
Gn pxq P pN
n 0
0q
Gn pxq P pN
n1
nq
nq.
21
Proposici
on 1.5 Suponiendo que las cantidades y funciones indicadas
existen, el riesgo S en el modelo colectivo cumple las siguientes propiedades.
1. E pS q E pN qE pY q.
2. E pS 2 q E pN qE pY 2 q
3.
4.
E pN pN
1qqE 2pY q.
VarpS q VarpN qE 2 pY q VarpY qE pN q.
MS ptq MN p ln pMY ptqq q.
Demostraci
on.
1. Condicionaremos sobre el valor de N y despues usaremos la hipotesis de
independencia. El resultado del calculo es el mismo cuando la variable N
inicia en el valor 0 o en el valor 1.
E pS q
8
Ep
n 0
8
n 0
n 0
Ep
j 1
n
Yj | N
nq P pN nq
Yj | N
nq P pN nq
j 1
nE pY q P pN
E pN q E pY q.
nq
22
E pS 2 q
8
E pp
n 0
8
j 1
n
E pp
n 0
j 1
n
E pp
j 1
n
8
Yj q2 | N
n q P pN n q
Yj q2 | N
n q P pN n q
Yj q2 q P pN
nq
n 0
n 0
E pYj2 q
j 1
E pYj Yk q P pN
nq.
j,k 1
j k
E pS 2 q
nE pY 2 q P pN
n 0
E pN q E pY 2 q
nq
E pN pN
npn 1q E 2 pY q P pN
nq
n 0
1qq E 2pY q.
VarpS q
E pS 2 q E 2 pS q
E pN q E pY 2 q
E pN pN
23
8
E perpY1
YN
E perpY1
Yn
q|N
nq P pN nq
n 0
8
q q P pN
nq
n 0
pMY ptqqn P pN nq
n 0
E ppMY ptqqN q
MN plnpMY ptqqq.
Vease la seccion de ejercicios para los terceros momentos de S. Consideraremos a continuacion algunos casos particulares del modelo colectivo.
pn 1qp2 q.
VarpS q npp2 p2 q.
MS ptq p1 p pMY ptqqn .
24
pk 1qp1{p 1q2 s.
p1{p 1q2 s.
p
1 p1 pqMY ptq
Para encontrar estas formulas es suficiente recordar que si N tiene distribucion bin negpk, pq, entonces E pN q k p1 pq{p, VarpN q k p1 pq{p2 , y
MN ptq rp{p1 p1 pqet qsk . En la seccion de ejercicios se presenta el tercer
momento de este modelo. En el caso particular cuando k 1, la distribucion
de N se reduce a la distribucion geometrica de parametro p y se dice que S
tiene distribucion geometrica compuesta.
25
2 2 .
c) VarpS q 2 .
d) MS ptq exp r pMY ptq 1q s.
1.5.
26
G px q
(1.4)
qj ,
qj
j 1
n
Gj pxq,
(1.5)
j 1
27
qj E pCj q.
j 1
n
b) VarpS c q
qj E pCj2 q .
j 1
c) E pY k q
qj
j 1
d) MY ptq
qj
E pCjk q.
MCj ptq.
j 1
q
8
0
y dGpy q
k
qj 8
j 1
y k dGj py q
qj
j 1
E pCjk q.
De manera analoga se verifican las otras identidades. A modo de comparacion se tiene que E pS i q E pS c q, mientras que VarpS i q VarpS c q.
r1
j 1
Sea k un entero positivo cualquiera. De manera artificial y teorica se construye ahora un nuevo portafolio de asegurados con las siguientes caractersticas:
28
Subp
oliza 1
..........
P
oliza
.......
.......
.......
.......
Subp
oliza k
..........
Figura 1.9
De este modo, si Ski denota el riesgo asociado al portafolio modificado,
entonces se tiene que
MS i ptq
k
r1
j 1
qj
pMCj ptq 1qsk .
k
se obtiene
lm MS i ptq
x{k qk
ex
j 1
exp r
qj MCj ptq s
j 1
Puesto que la convergencia de funciones generadoras de momentos es equivalente a la convergencia en distribucion de las correspondientes variables
29
r1
j 1
lnr1
j 1
n
j 1
qj pMCj ptq 1q
n
qj
MCj ptq 1 s,
j 1
en donde q1
qn . Por lo tanto,
MS i ptq exp p r
qj
MCj ptq 1 s q.
j 1
30
Proposici
on 1.9 Sean S1 y S2 dos riesgos independientes con distribuci
on
Poisson compuesta con par
ametros 1 y 2 , y reclamaciones Y p1q y Y p2q
con funci
on de distribuci
on G1 pxq y G2 pxq respectivamente. Entonces el
riesgo S S1 S2 tambien sigue una distribuci
on Poisson compuesta con
par
ametro 1 2 , y las reclamaciones tienen funci
on de distribuci
on
Gpxq
Demostraci
on.
MS1
S2
1
G 1 px q
2
G2 pxq.
ptq
expr1 pMY p1q ptq 1qs expr2 pMY p2q ptq 1qs
1
2
exprp MY p1q ptq
M 2 ptq 1qs,
S1
Sn .
31
n1 , . . . , Nm nm | N nq
n1
nm
n!
n1 ! nm !
pn1 1 pnmm
pn1 1 pnmm .
Proposici
on 1.10 Las variables aleatorias N1 , . . . , Nm son independientes
y cada variable Nk tiene distribuci
on Poissonppk q.
Demostraci
on. Sean n1 , . . . , nm enteros no negativos cualesquiera y sea
n la suma de todos estos n
umeros, es decir, n1 nm n. Entonces
P pN1
n 1 , . . . , Nm n m q
P pN 1
n 1 , . . . , Nm n m , N nq
P pN1 n1 , . . . , Nm nm | N nqP pN nq
n
n!
pn1 pnm
e
n1 ! nm !
n!
n
ppk qn ep .
n !
1
k 1
32
Nk
pk q
Yj ,
j 1
en donde Yj
Gk pxq P pYj
x | Yj P Ak q P pYPj pY x,PYAj Pq Ak q .
j
Por lo anterior, el riesgo Sk tiene distribucion Poisson compuesta con parametros pk y Gk pxq. En particular, cuando Ak pxk1 , xk s, con 0 x0
x1 xm , la funcion de distribucion Gk pxq tiene la siguiente forma:
$
0
si x xk ,
'
'
& Gpxq Gpx q
k1
si xk1 x xk ,
Gk pxq
'
G
p
x
q
G
p
x
k
k1 q
'
%
si x xk .
nq
e
n
dF pq.
n!
b) E pS q E pq.
c) E pS 2 q E pq2
d) VarpS q Varpq2
E p 2 q 2 .
E pq2 .
1.6. Ejercicios
33
Comentarios y referencias
Hemos presentado dos modelos de riesgo con caractersticas distintas: el
modelo individual y el modelo colectivo. En ambos casos se trata de una
variable aleatoria a la cual le hemos llamado riesgo y que engloba el total de
reclamaciones de un conjunto de asegurados durante un intervalo de tiempo
arbitrario pero fijo. Con el objetivo de cuantificar y tener control de estos
riesgos, el problema central ha sido encontrar las caractersticas numericas
de estas variables aleatorias y mejor a
un, la distribucion de probabilidad de
ellas. As, hemos encontrado varias expresiones para algunas caractersticas
numericas de estos dos modelos de riesgo. Hemos tambien encontrado que,
bajo ciertas condiciones, las formulas de De Pril pueden aplicarse para calcular la distribucion de probabilidad exacta de un riesgo que sigue un modelo
individual. Para completar estos primeros resultados, en el siguiente captulo veremos la formula de Panjer que nos permitira aplicar un mecanismo
recursivo para calcular la distribucion de probabilidad exacta de un riesgo
que sigue el modelo colectivo. El lector puede encontrar otras exposiciones
sobre el modelo individual y colectivo en las siguientes referencias: Bowers et
al. [7], Gerber [15], Klugman et al. [23].
1.6.
Ejercicios
Modelo individual
1. Considere el modelo individual para un portafolio de n polizas de seguros. Bajo la notacion e hipotesis usuales, demuestre que el n
umero
esperado de reclamaciones es q1 qn .
2. Para un modelo individual de riesgo, encuentre la distribucion de
probabilidad del n
umero total de reclamaciones en una cartera de n
asegurados cuando Dj tiene distribucion Berpq q, es decir, qj q 0
es constante.
34
qj c j .
j 1
n
b) VarpS q
qj pj c2j .
j 1
S2
q
b) E pS 3 q
j 1
n
qj E pCj2 q
qi qj E pCi qE pCj q.
i j
qj E pCj3 q
j 1
qi qj E pCi qE pCj2 q
i j
i,j,k
distintos
35
1.6. Ejercicios
1q
P pCj 2q
P pCj 3q
0.6,
0.3,
0.1.
Suma asegurada
$2 $3 $4 $5
1
1
2
1
0
2
3
3
1
1
2
4
10. Sean qj,0 , qj,1 y qj,2 las probabilidades de que el j-esimo asegurado
presente 0, 1 y 2 reclamaciones respectivamente durante el tiempo
de vigencia del seguro. Suponga que cada una de las posibles reclamaciones de la poliza j es constante zj y que qj,0 qj,1 qj,2 1.
Encuentre formulas para E pS q y VarpS q en el modelo individual.
11. Una compa
na aseguradora tiene una cartera con polizas de seguros
de vida y diferentes sumas aseguradas como se muestra en la tabla
que aparece abajo. Calcule E pS q y VarpS q usando el modelo individual.
Suma
asegurada
$10,000
$20,000
$30,000
N
umero
de polizas
50
75
100
Probabilidad de
reclamacion
0.0040
0.0035
0.0030
36
qj fSj 1 px Cj q.
b) VarpS q nq p1 q q.
37
1.6. Ejercicios
c) MDj Cj ptq 1 q
d) MS ptq p1 q
qet .
qet qn .
F
ormula de De Pril
16. Demuestre que la formula recursiva de De Pril [ii] produce efectivamente una funcion de probabilidad.
17. A partir de la formula de De Pril [ii] y siguiendo la misma notacion
de dicho enunciado, demuestre que:
a) E pS q nE pX q.
b) VarpS q nVarpX q.
18. Sean X1 , X2 , X3 , X4 variables aleatorias independientes con distribucion com
un como aparece en la tabla de abajo. Encuentre la
distribucion de X1 X2 X3 X4 .
j
fj
0
0.1
1
0.2
2
0.3
3
0.4
19. Sean X1 , . . . , Xn variables aleatorias independientes con distribucion Berppq. Mediante la formula de De Pril [ii] compruebe que la
variable S X1 Xn tiene distribucion binpn, pq.
20. Sean X1 y X2 dos variables aleatorias independientes con identica distribucion Poissonpq. Use la formula de De Pril [ii] para demostrar que X1 X2 tiene distribucion Poissonp2q.
21. Sean X1 y X2 dos variables aleatorias independientes con identica
distribucion binpn, pq. Use la formula de De Pril [ii] para demostrar
que X1 X2 tiene distribucion binp2n, pq.
x
n
m
n m
Sugerencia:
.
j
j
x
x
j 0
22. Variaci
on de la f
ormula de De Pril [ii]. Suponga que las variables
aleatorias X1 , . . . , Xn en la formula de De Pril [ii] son estrictamente
positivas y toman valores en el conjunto t1, 2, . . .u, con f1 P pX
38
pf1qn .
x
1 j pn 1q
gx n
1 fj
f
x
X1
Xn ahora
a) gn
b)
para x 1.
1 gx n j ,
1 j 1
pfmqn .
1
fm
j pn
x nm
j 1
1q
x nm
1
fj
m gx j ,
para x nm
1.
E pN qE pY 3 q
3E rN pN
1qsE pY qE pY 2q
E rN pN 1qpN 2qsE 3 pY q.
p0 .
39
1.6. Ejercicios
b) gx
fxn pn , para x 1.
n1
b) E pY n q exppnm
c) VarpY q pe
d)
e)
f)
mq.
n2 2 {2q,
n 1.
1q expp 2mq.
E pS q expp 2 {2 mq.
VarpS q expp2 2 2mq.
E rpS E pS qq3 s
2
?1
3 :
rVarpS qs3{2 expp3 {2q.
2
28. Transformada de Laplace-Stieltjes. La transformada de LaplaceStieltjes de una variable aleatoria X o de su funcion de distribucion
se define como la funcion
lX ptq E petX q
8
40
E rpS E pS qq3 s
rVarpS qs3{2
32 q
np3 .
2p2 3 q.
0.
3k pk
1qp1{p 1q2 2
E rpS E pS qq3 s
rVarpS qs3{2
0.
0q pk .
k
P pN n 1q
n
n
p1 pq P pN
1
nq,
para n 0.
41
1.6. Ejercicios
Modelo Poisson compuesto
36. Verifique la validez de las formulas para el modelo Poisson compuesto que aparecen en la Proposicion 1.8 de la pagina 25.
37. Para el modelo Poisson compuesto, demuestre las siguientes formulas:
a) E pS 3 q 3
32 2
b) E rpS E pS qq3 s 3 .
c) 3 :
E rpS E pS qq3 s
rVarpS qs3{2
3 3 .
a3 3 0.
2
1
G 1 px q
n
Gn pxq.
42
$
& 0 si x 50,
p si 50 x 100,
F px q
% 1 si x 100.
Suponga que el parametro p es igual a 1{2 para el primer riesgo y es
1{3 para el segundo riesgo. Encuentre la distribucion de S S1 S2
y la funcion de distribucion de las reclamaciones del riesgo S.
43. Sea X1 , X2 , . . . una sucesion de variables aleatorias independientes
cada una de ellas con distribucion Berppq y sea X0 0. Sea N otra
variable aleatoria con distribucion Poissonpq independiente de las
anteriores. Defina la variable
X
Xi .
i 0
43
1.6. Ejercicios
3E p2 q2
E p 3 q 3 .
3Varpq2
E pq3 .
Esperanza condicional
47. Sea pX, Y q un vector aleatorio discreto con la funcion de probabilidad
"
px yq{36 si x, y 1, 2, 3,
fX,Y px, y q
0
en otro caso.
a) Encuentre la distribucion de la variable aleatoria E pX | Y q.
Captulo 2
F
ormula de Panjer
y algunos m
etodos
de aproximaci
on
En este captulo se presenta la famosa formula de Panjer. Este resultado
proporciona una expresion exacta, aunque recursiva, de la distribucion de
probabilidad de un riesgo en el modelo colectivo y es valida cuando la distribucion del n
umero de reclamaciones y los montos cumplen ciertas condiciones. Se presentan ademas algunos metodos de aproximacion con validez
general para estimar la distribucion de un riesgo. Estos metodos generales
de aproximacion pueden ser u
tiles cuando no se cumplen las condiciones
requeridas para aplicar la formula de Panjer.
2.1.
F
ormula de Panjer
45
46
rmula de Panjer y me
todos de aproximacio
n
2. Fo
Proposici
on 2.1 Sea N una variable aleatoria discreta con valores en
t0, 1, . . .u y sea pk P pN kq para k 0, 1, . . . Sean a y b dos constante. Entonces la igualdad
pk
pa
b
q pk1,
k
1,
(2.1)
se cumple cuando
1. N es binpn, pq, con a p{p1 pq y b pn
1qp{p1 pq.
2. N es Poissonpq, con a 0 y b .
3. N es bin negpr, pq, con a 1 p y b pr 1qp1 pq.
N
tulo anterior, tenemos las siguientes hipotesis
j 1 Yj , definido en el cap
y notacion adicionales: supondremos que las reclamaciones Yj son tales que
rmula de Panjer
2.1. Fo
47
P pN kq
fr P pY rq
frk P pY1
g r P pS r q
En particular, para 1 k
gr
Yk
rq
1 r,
r 1
q pf k f qr f k fri .
i
i1
frpk
Ademas, g0
0, 1, . . .
r 1, 2, . . .
1 k r 1, 2, . . .
r 0, 1, . . .
k
pk
P pS 0q P pN 0q p0 y para r 1,
P pS rq
P pS
r | N kqP pN kq
k 1
frk pk .
k1
Proposici
on 2.2 Bajo la notaci
on e hip
otesis anteriores, se cumplen las
siguientes igualdades:
1. E p Y1
Yj
j 1
2. pk frk
pk1
r q kr ,
r 1
i 1
pa
para k
1.
bi pk1q
qf
fi , para k
r ri
2.
rmula de Panjer y me
todos de aproximacio
n
2. Fo
48
Demostraci
on.
E p Y1
Yj
r q
1
k
j 1
i 1
1
Ep
k
E p Yi
r
.
k
r q
Yj
k
j 1
k
Yi
i 1
Yj
r q
Yk
j 1
r 1
pk1
i 1
pa
bi pk1q
fi
qf
r ri
pk1
pa
i 1
r
pk1
pa
i 1
r
pk1
r
pa
i 1
pk1
pa
i 1
pk1 E pa
pk1 pa
pk frk
bi
qP pY2
r
bi
qP pY1
r
i, Y2
k
bi
qP pY1
r
i,
bi
qP pY1
r
i|
bY1
r
b k
qf
k r
r iqP pY1 iq
Yj
k
Yk
r iq
rq
j 1
Yj
Yj
rqfrk
j 1
rqfrk
j 1
Ahora estamos listos para enunciar y demostrar la formula de Harry Panjer [27], publicada en 1981.
rmula de Panjer
2.1. Fo
49
Teorema 2.1 (F
ormula de Panjer) Para un riesgo S que sigue el modelo colectivo en donde las reclamaciones Y son de la clase pa, b, 0q, la
probabilidad gr P pS rq est
a dada por
r
gr
pa
i 1
bi
q fi gri,
r
p0 ,
en donde p0 P pN 0q y fi P pY iq
para r
1.
g0
Demostraci
on.
el caso r 1,
gr
para i 1.
8
P pS
P pN 0q p0. Para
r | N k qP pN k q
k 1
pk frk
k 1
p1 fr
pk frk
k 2
pa
pa
pa
i 1
bq p0 fr
bq p0 fr
bq p0 fr
8 r
1
k 2i 1
r 1
i 1
r 1
bi
q pk1 frpki1q fi
r
pa
bi
pk1q
q
fi
pk1 fri
r
k2
pa
bi
q f i g r i
r
i 1
pa
pa
bi
q fi gri.
r
rmula de Panjer y me
todos de aproximacio
n
2. Fo
50
p0 P pN 0q
pa 1b qf1g0
g2
pa
g3
pa
b
qf1g1
2
b
qf1g2
3
pa
pa
2b
qf 2 g 0
2
2b
qf 2 g 1
3
pa
3b
qf3 g0
3
..
.
Ejemplo 2.1 Consideremos el caso cuando N sigue una distribuci
on Poisson de par
ametro 3.5 y el monto de las reclamaciones tiene la siguiente
funci
on de densidad:
r
fr
1
0.1
2
0.1
3
0.2
4
0.3
5
0.3
Entonces la f
ormula de Panjer produce la funci
on de probabilidad para S que
se muestra en la Figura 2.1. El c
odigo en R correspondiente se encuentra
en el apendice.
Aproximaci
on en el caso de reclamaciones continuas
Cuando los montos de las reclamaciones toman valores continuos, puede
usarse el siguiente metodo de discretizacion de estos montos para poder
aplicar la formula de Panjer. Se toma cualquier unidad monetaria 0 y
se definen las variables aleatorias enteras:
n u,
sup t n P N : Yj n u,
y Yj
en donde tambien se define nf H 0. Entonces,
Y j Yj Y j .
Yj
nf t n P N : Yj
rmula de Panjer
2.1. Fo
51
gr
0.03
r
5
10
15
20
Figura 2.1
Por ejemplo, para la situacion que se muestra en la Figura 2.2 se tiene que
Y j 4 y Y j 3, y efectivamente se cumple que 3 Yj 4.
Yj
b
Figura 2.2
Se definen entonces los siguientes riesgos cuyas reclamaciones ahora son
enteras:
S
Y j,
j 1
Y j.
j 1
S S,
(2.2)
52
rmula de Panjer y me
todos de aproximacio
n
2. Fo
Proposici
on 2.3 Para cualquier x 0,
P pS
Demostraci
on.
x{q P pS xq P pS x{q.
pS xq pS xq,
entonces se tiene que P pS xq P pS xq y por lo tanto,
P pS xq P pS x{q.
Para la segunda desigualdad, se observa la contencion de los eventos
pS xq pS xq,
y se procede de manera analoga.
S S y en consecuencia
x q P pS x q P pS x q,
n normal
2.2. Aproximacio
53
en donde S y S son riesgos con reclamaciones enteras para los cuales puede
aplicarse la f
ormula de Panjer y obtener su distribuci
on (exceptuando un
peque
no error obtenido por el caso Y j 0). En cualquier caso podemos ser
prudentes y tomar las reclamaciones de manera sobreestimada: para n 0,
Yj
n
cuando
P pn, n
1s.
n
1q Gpn
1q Gpnq,
n 0, 1, 2, . . .
2.2.
Aproximaci
on normal
xq
Sm
x m q
xm
p
q.
Pp
Derivando esta expresion se encuentra una formula aproximada para la funcion de densidad de S.
54
rmula de Panjer y me
todos de aproximacio
n
2. Fo
Proposici
on 2.4 (Aproximaci
on normal) Sea S es una riesgo con me2
dia m y varianza finita . Para cualquier x 0,
f S px q
1 xm
q.
p
(2.3)
30q 1 .
xq p a x np 2 q.
npp2 pq
xq p a
x rp1 pq{p
q.
rp1 pqr2 {p p1 pq2 {p2 s
n gama trasladada
2.3. Aproximacio
2.3.
55
Aproximaci
on gama trasladada
En algunos casos el histograma creado a partir de las observaciones historicas de un riesgo puede presentar un aspecto semejante a la forma de la
distribucion gama. Esta semejanza sugiere aproximar la distribucion del
riesgo S por la distribucion de la variable aleatoria
k
Z,
b) VarpS q 2 .
c)
E rpS E pS qq3 s
rVarpS qs3{2
3 .
b) Varpk
c)
E rpk
Zq k
{.
Z q {2 .
Z E pk Z qq3 s
rVarpk Z qs3{2
2{?.
La idea es hacer que las distribuciones de S y k Z coincidan en el sentido de que las tres cantidades mencionadas sean las mismas para las dos
distribuciones. Haciendo coincidir estas cantidades se obtiene el sistema de
ecuaciones
m,
2,
3 ,
k
?
2
rmula de Panjer y me
todos de aproximacio
n
2. Fo
56
cuya solucion es
,
m 2
42 ,
2
.
3
Proposici
on 2.5 (Aproximaci
on gama trasladada) La distribuci
on
del riesgo S en el modelo colectivo puede aproximarse mediante la distribuci
on de la variable aleatoria
m
en donde Z se distribuye gamap
2
3
Z,
2
4
q.
,
2
3 3
Pueden sustituirse las expresiones generales para la media, varianza y coeficiente de asimetra de un riesgo que sigue el modelo colectivo para obtener
formulas un poco mas particulares de esta aproximacion. Debe hacerse notar que la aproximacion gama es en esencia la aplicacion del metodo de momentos para la estimacion de parametros y naturalmente el metodo puede
aplicarse a cualquiera otra distribucion de probabilidad conocida que tenga
alguna semejanza o parecido con la distribucion del riesgo en estudio.
2.4.
Aproximaci
on de Edgeworth
a1 r
a2 2
r
2!
a3 3
r
3!
a4 4
r
4!
,
n de Edgeworth
2.4. Aproximacio
57
ln MZ prq
a0
a1
a2
a3
a4
..
.
0,
E pZ q 0,
E pZ 2 q 1,
E pZ 3 q,
E pZ 4 q 3,
1 2
r
2!
a3 3
r
3!
a4 4
r .
4!
Entonces
MZ prq
er
er
{2 p1
{2
1
a3 3 a4 4
expp r2
r
r q
2!
3!
4!
a3
a4 4
2
er {2 expp r3
r q.
6
24
x
x2 {2!
a3 3
r
6
a3 3 r2 {2
r e
6
x3 {3!
en el segundo factor
a4 4 a23 6
r
r q
24
72
a4 4 r2 {2 a33 6 r2 {2
.
r e
r e
24
72
(2.4)
rmula de Panjer y me
todos de aproximacio
n
2. Fo
58
Proposici
on 2.6 Si pxq es la funci
on de densidad de la distribuci
on normal est
andar, entonces para cualquier entero n 0,
8
Demostraci
on.
{2 .
8
erx pxq dx er
{2 ,
es decir, er {2 es la funcion generadora de momentos de la distribucion normal estandar. Multiplicando por r tenemos que
2
re {
r2 2
rerx pxq dx
8
8 d
p dx erxqpxq dx
8
8
erx1pxq dx.
8
n de Edgeworth
2.4. Aproximacio
59
a3 p3q
pz q
6
a4 p4q
pz q
24
a23 p6q
pz q.
72
(2.5)
1
xm
fZ p
q,
Proposici
on 2.7 (Aproximaci
on de Edgeworth) Sea S un riesgo con
2
media m, varianza y cuya funci
on generadora de momentos existe. Entonces la funci
on de densidad de S puede aproximarse de la siguiente forma:
f S px q
1
x m a3 p3q x m a4 p4q x m a23 p6q x m
r
p
q 6 p q 24 p q 72 p q s.
Derivando directamente la funcion de densidad pxq de la distribucion normal estandar puede demostrarse que
p3q pxq
x6 q pxq.
rmula de Panjer y me
todos de aproximacio
n
2. Fo
60
a3 p3q
pz q
6
a4 p4q
pz q
24
a23 p6q
p z q,
72
considerando la identidad FS pxq FZ ppx mq{ q, se tiene que la aproximacion de Edgeworth para un riesgo S en terminos de la funcion de distribucion
es
FS pxq p
xm
a3 p3q x m
q
q
p
a4 p4q x m
q
p
24
a23 p6q x m
q,
p
72
pz2 1q pzq,
p4q pz q pz 3 3z q pz q,
p6q pz q pz 5 10z 3 15z q pz q.
Comentarios y referencias
Hemos dedicado este peque
no captulo a la presentacion de la formula de
Panjer. Dentro de su ambito de aplicacion, esta importante formula proporciona un mecanismo recursivo para calcular de manera exacta la distribucion de probabilidad de un riesgo que sigue el modelo colectivo. Debe
tenerse cuidado en la implementacion en computadora de esta formula, pues
podran presentarse problemas numericos por cuestiones de redondeo o baja precision en los calculos. Cuando las hipotesis para aplicar la formula de
Panjer no se cumplen, se cuenta con algunos metodos para aproximar la
distribucion del riesgo y hemos presentado solo unos pocos de ellos, dejando
de lado el problema general de establecer condiciones bajo las cuales los
metodos de aproximacion mencionados son adecuados. El material de este
captulo esta basado en las notas de Schmidli [34]. Otras referencias en el
tema son: Dickson [13] y Rolski et al. [32].
61
2.5. Ejercicios
2.5.
Ejercicios
Distribuciones de la clase pa, b, 0q
48. Las cuatro distribuciones de la clase pa, b, 0q. Sea tpk : k 0u una
distribucion de probabilidad en la clase pa, b, 0q, es decir, se trata
de una distribucion discreta con soporte el conjunto t0, 1, . . .u y tal
que cumple la relacion pk pa b{k q pk1 para k 1, en donde
a y b son dos constantes. Observe que tomando el caso particular
cuando k 1, se llega a la conclusion de que las constantes deben
satisfacer la desigualdad a b 0.
a) Demuestre que en el caso a b 0, la distribucion se concentra
en cero, es decir, p0 1.
pk
ak! pk
0u es la
b
qpk 1
a
b
q p2
a
b
qp1
a
b
qp0.
a
(2.6)
b
n
b
n
0.
62
rmula de Panjer y me
todos de aproximacio
n
2. Fo
49. Funci
on generadora de probabilidad de una distribuci
on en la clase
pa, b, 0q. Sea N una variable aleatoria con distribucion de probabilidad en la clase pa, b, 0q.
a) Demuestre que la correspondiente funcion generadora de probabilidad PN ptq E ptN q satisface la ecuacion diferencial
bq PN ptq.
(2.7)
1 at
1a
pa bq{a
.
q{
b a
para a 0.
50. F
ormula para la esperanza de una distribuci
on en la clase pa, b, 0q.
Sea N una variable aleatoria con distribucion de probabilidad en
la clase pa, b, 0q. A partir de la definicion elemental de esperanza, o
bien, usando la formula (2.7) del ejercicio anterior, demuestre que
para a 1,
a b
.
E pN q
1a
F
ormula de Panjer
51. Compruebe que la formula recursiva de Panjer efectivamente produce una funcion de probabilidad.
52. A partir de la formula recursiva de Panjer compruebe nuevamente
que
E pS q E pN qE pY q.
63
2.5. Ejercicios
53. F
ormula recursiva para los momentos de S. Use la formula de Panjer y la misma notacion e hipotesis de dicho resultado para demostrar que para a 1 y para n 1,
E pS
q 1a
1
n
n 1
i 0
n1
b
i
E pS i q E pY ni q.
54. F
ormula recursiva para la funci
on de distribuci
on de S en un caso
particular. En general es difcil encontrar una expresion recursiva
para la funcion de distribucion F pxq de un riesgo S en el modelo
colectivo. Sin embargo, para el siguiente caso particular es posible encontrar dicha relacion: usando la notacion e hipotesis de la
formula de Panjer y en el caso cuando N tiene una funcion de probabilidad geoppq, es decir, pk P pN k q p1 pqk p, para k 0,
demuestre que para x 1,
F pxq p
p1 p q
fj F px j q.
j 1
1
1/2
2
1/2
1
1/2
2
1/2
rmula de Panjer y me
todos de aproximacio
n
2. Fo
64
Aproximaci
on normal
57. Sea S un riesgo con distribucion gamapn, q en donde n es un entero.
a) Asigne valores a los parametros n y y calcule la aproximacion
normal para S.
b) Para fines comparativos y con ayuda de alg
un paquete computacional, grafique tanto la funcion de densidad gama como
la densidad normal aproximante.
c) Duplique el valor de n y grafique nuevamente las dos funciones.
Mejoro la aproximacion?
58. Suponga que un cierto riesgo S tiene una distribucion Poisson compuesta con parametro 50, en donde los montos de las reclamaciones siguen una distribucion uniforme(0, 10). Use la aproximacion
normal para encontrar el valor de la prima p tal que:
a) P pS
b)
pq 0.05.
P pS pq 0.01.
1
1/3
2
1/3
3
1/3
2.5. Ejercicios
65
rmula de Panjer y me
todos de aproximacio
n
2. Fo
66
1
1/8
2
1/4
3
1/4
4
1/4
5
1/8
Aproximaci
on de Edgeworth
69. Demuestre que la aproximacion de Edgeworth para un riesgo con
distribucion normal con media m y varianza 2 produce esta misma
distribucion con los mismos parametros. Recuerde que si Z tiene
una distribucion normal estandar, entonces los momentos impares
de esta variable aleatoria se anulan y para cualquie n
umero natural
n,
p2nq!
E pZ 2n q n .
2 n!
70. Suponga que S tiene una distribucion Poisson compuesta de parametro 0 y que se desea usar la aproximacion de Edgeworth
para S. Demuestre que
ak
dk
ln MZ prq
k
dr
r 0
k p2 qk{2,
para k
2, 3, 4.
67
2.5. Ejercicios
En consecuencia,
P pS
xq
3{2
x
? q 3p6 2 q p3qp x? q
2
2
2
4 p2 q
x
p4q p ?
q
24
2
2 23 p2 q3 p6q x
q.
p?
72
2
71. Suponga que S tiene una distribucion Poisson compuesta de parametro 0 y que se desea usar la aproximacion de Edgeworth
para S. Suponga adicionalmente que el monto de las reclamaciones
siguen una distribucion Paretop4, 3q. Demuestre que 4 8 y por
lo tanto la formula del ejercicio anterior no puede aplicarse.
72. Sea S un riesgo con distribucion exppq.
a) Calcule la aproximacion de Edgeworth de S.
b) Asigne un valor al parametro y con ayuda de un paquete
computacional grafique tanto la funcion densidad exponencial
como la funcion aproximante.
73. Suponga que un riesgo S sigue un modelo colectivo Poisson de
parametro 10 y las reclamaciones tienes la funcion de probabilidad que aparece en la siguiente tabla:
r
fr
1
1/2
2
1/4
3
1/8
4
1/16
5
1/16
Captulo 3
Principios para el c
alculo
de primas
Hemos mencionado antes que una prima es un pago por adelantado que un
asegurado realiza a una compa
na aseguradora para obtener una cobertura
parcial o completa contra un riesgo determinado, en los terminos y condiciones que establece la poliza del seguro. En este captulo vamos a estudiar
algunas reglas generales para calcular el valor de una prima tomando en
consideracion u
nicamente los aspectos matematicos del riesgo, es decir, no
consideraremos cuestiones administrativas o mercadologicas del negocio del
seguro, las cuales en situaciones practicas son indispensables de considerar.
Denotaremos por p, pS o ppS q a la prima para cubrir un riesgo S. De esta
manera, a la formula para calcular una prima se le puede considerar como
una funcion numerica de la variable aleatoria S o de su distribucion.
3.1.
Propiedades
Que propiedades es razonable que cumpla una funcion ppS q para el calculo
de las primas? Vamos a enunciar a continuacion algunas propiedades generales que son deseables que posea cualquier metodo para calcular primas.
69
lculo de primas
3. Principios para el ca
70
Simplicidad
El calculo de la prima debe ser facil de calcular. La simplicidad en el calculo
de la prima es deseable que se cumpla por varias razones, entre ellas esta el
aspecto practico del calculo mismo, as como el de lograr una cabal comprension del calculo de la prima por parte del asegurado y del resto de las
personas involucradas en los procesos tecnicos, administrativos y legales del
seguro.
Consistencia
Si un riesgo se incrementa en una constante, entonces la prima debe reflejar
ese cambio incrementandose en la misma cantidad, es decir, si c 0 es una
constante, entonces
ppS
cq ppS q
c.
Aditividad
La prima de un portafolio consistente en dos riesgos independientes debe
ser la suma de las primas individuales, es decir,
ppS1
S2 q ppS1 q
ppS2 q,
Invarianza de escala
Si a 0 es una constante, entonces
ppaS q a ppS q,
es decir, si la cuantificacion del riesgo S cambia de escala y se considera
ahora el riesgo aS, la prima para este nuevo riesgo debe ser a ppS q, esto
equivale a la prima original modificada con la misma escala.
71
Cota inferior
La prima debe tener siempre como cota inferior la prima pura de riesgo, es
decir,
p E pS q.
Sin embargo, en algunas situaciones es necesario suponer que las primas
deben tener siempre un recargo positivo y se considera la condicion mas
restrictiva p E pS q. A menos que se establezca lo contrario, la propiedad
de cota inferior se entendera en el sentido p E pS q, la cual es mas facil de
verificar en los metodos de calculos de primas que estudiaremos.
Cota superior
Si un riesgo esta acotado superiormente, entonces la prima para cubrir este
riesgo tambien debe tener la misma cota superior, es decir, si S M para
alguna constante M 0, entonces
ppS q M.
3.2.
Principios generales
u
u
np
n
j 1
Sj
j 1
pp Sj q.
lculo de primas
3. Principios para el ca
72
lm
inf Xn 8.
n8
1
Xn
n
lm
n
1
pp Sj q
j 1
8 n j 1 pp Sj q
lm
1
u
n
E pp S q
p E pS q.
As, para que este lmite sea el indicado la variable Xn tiene que
diverger a infinito o menos infinito dependiendo del signo de p E pS q.
Por lo tanto Xn tiene el siguiente comportamiento lmite en el sentido
casi seguro,
#
8 si p E pS q,
lm Xn
n8
8 si p E pS q.
En vista de estos resultados, es natural y deseable suponer p E pS q. Esta
condicion se conoce con el nombre de condicion de ganancia neta (net profit
condition) y debe prevalecer en cualquier metodo para calcular p.
En general no existe un mecanismo de calculo para la prima que sea el mejor
pues existen varias condiciones que afectan la forma de calcular primas, entre ellas, las restricciones legales y financieras, las condiciones del asegurado,
73
las condiciones de la propia aseguradora y de las otras aseguradoras, as como las condiciones del mercado del seguro. Todos estos son factores que
determinan, directa o indirectamente, el valor de una prima para cubrir un
riesgo particular en una situacion real. Estudiaremos a continuacion algunas
formas particulares para el calculo de primas. A estos procedimientos se les
denomina con el termino de prinicipios.
Principio del valor esperado
Este principio es uno de los mas sencillos y establece que la prima puede
calcularse de la siguiente forma:
p p1
qE pS q,
lculo de primas
3. Principios para el ca
74
la prima calculada mediante este principio produce una prima menor o igual
a aquella calculada mediante el principio de la varianza.
p E pS q
VarpS q.
p S qs,
(3.1)
75
E r1 epu
q s.
p S
Despues de algunos c
alculos sencillos, de la identidad anterior se obtiene la
expresi
on
1
p ln MS pq.
(3.2)
0.
0,
para 0 x 1{p2q.
0.
0 1.
E rvpu p S qs
vpE pu p S qq
vpu p E pS qq.
lculo de primas
3. Principios para el ca
76
77
1
ln MS pq.
(3.4)
Principio exponencial
Este es el principio de utilidad cero aplicado a la funcion de utilidad v pxq
1 ex , con 0. Y coincide tambien con el principio del valor medio
aplicado a la funcion de valor v pxq ex 1, con 0. Hemos visto que
la prima calculada bajo estos principios es
p
1
ln MS pq.
Observe que en este caso la prima no depende del capital inicial u. Puede
verificarse directamente que p E pS q, lo cual hemos demostrado antes de
manera general.
Principio del porcentaje
Sea 0 una constante. El principio del porcentaje sugiere que la prima
p puede calcularse mediante la expresion que aparece abajo. El significado
geometrico de esta formula se muestra en la Figura 3.3.
p nf tx 0 : P pS
xq u.
De esta forma la probabilidad de que el riesgo exceda el monto de la prima debe ser peque
no o ajustable mediante el parametro . A este principio tambien se le conoce tambien como principio de perdida maxima. Por
ejemplo, si S sigue una distribucion exponencial de parametro , entonces
P pS xq ex . Y por lo tanto p es aquel valor numerico tal que ep ,
lculo de primas
3. Principios para el ca
78
f pxq
x
p
Figura 3.3
es decir, p 1 ln . As, para este ejemplo particular, se cumple la condicion p E pS q si, y solo si, 1 ln 1 , es decir, e1 . Esto muestra
que el principio del porcentaje no produce en general primas que cumplen
la condicion de ganancia neta.
Principio de Esscher
Antes de establecer este principio es necesario definir primero la transformada de Esscher de una distribucion de probabilidad para la cual existe la
funcion generadora de momentos.
Transformada de Esscher. Sea S un riesgo con funcion de densidad f pxq,
funcion de distribucion F pxq y para la cual existe la funcion generadora
de momentos MS phq, para algunos valores de h 0. La transformada de
Esscher con parametro h de f pxq es la funcion
x g pxq
1
ehx f pxq.
MS phq
(3.5)
79
MS phq 0
E pSehS q
.
E pehS q
x ehx f pxq dx
MS phq
ehy f py q dy.
MS pt hq
.
MS phq
p1 F pxqq1{
1 F pxq.
(3.6)
lculo de primas
3. Principios para el ca
80
Esto significa que la cola de la distribucion del riesgo esta siendo sobre
estimada por la cola de la nueva distribucion. Esta sobre estimacion es
usada para definir la prima para cubrir S. En la Figura 3.4 se muestra el
orden que guardan las funciones Gpxq y F pxq.
F pxq
Gpxq
x
Figura 3.4
As, la prima por el principio del riesgo ajustado para el riesgo S se define
como la esperanza de la nueva funcion de distribucion, es decir,
Puesto que hemos revisado algunos metodos particulares para calcular primas y que contamos con una lista de propiedades deseables que deben
cumplir los metodos, surge el problema de determinar si se cumplen o no
se cumplen las propiedades para cada uno de los metodos enunciados. Tal
tarea es el contenido del ejercicio 94. Algunas de estas comprobaciones son
inmediatas, algunas otras requieren un poco mas de trabajo. En la tabla que
hemos colocado en este ejercicio se ha omitido la propiedad de simplicidad,
pues tal caracterstica es subjetiva.
3.3.
81
p S qs,
(3.7)
(3.8)
pp
p S qs.
82
lculo de primas
3. Principios para el ca
p Prima de la aseguradora
Figura 3.5
Resolviendo esta ecuaci
on como se ha hecho antes se encuentra que p
1
a dis1 ln MS p1 q. Por otro lado, un asegurado con capital inicial u2 est
puesto a pagar una prima m
axima p para asegurarse contra este riesgo,
determinada por la ecuaci
on v2 pu2 p q E rv2 pu2 S qs, en donde v2 pxq
es la funci
on de utilidad particular v2 pxq 1 e2 x , con 2 0. La soluci
on de esta ecuaci
on es p 12 ln MS p2 q. As, el riesgo mencionado es
asegurable bajo las condiciones mencionadas si, y s
olo si, las constantes 1
y 2 satisfacen la relaci
on
1
1
ln MS p1 q
ln MS p2 q.
1
2
Comentarios y referencias
Uno de los problemas fundamentales de las compa
nas aseguradoras para
operar un seguro es determinar la forma de calcular la prima a cobrar para
asegurar un riesgo. En este captulo hemos estudiado los primeros elementos para resolver este problema desde el punto de vista matematico y considerando exclusivamente la naturaleza estocastica del riesgo. As, suponiendo que hemos adoptado un modelo matematico para representar un riesgo
proveniente de una cartera de asegurados y suponiendo que podemos calcular algunas de sus caractersticas, en este captulo hemos visto que no hay
una forma u
nica de calcular la prima correspondiente, pues en efecto, hemos
mostrado varios metodos del calculo de primas.
83
3.4. Ejercicios
3.4.
Ejercicios
Desigualdad de Jensen
84
lculo de primas
3. Principios para el ca
variables aleatorias I1 e I2 . Es decir, al cabo de cada una de las
inversiones su capital sera u I1 o u I2 . Suponga que la persona
decide tomar la inversion que le otorga una utilidad esperada mayor, en donde su funcion de utilidad es exponencial. Demuestre que
su decision es independiente del capital inicial u.
Funciones de valor y el principio del valor medio
77. Suponga que un riesgo S tiene distribucion exppq. Use el principio
del valor medio para calcular la prima para cubrir este riesgo usando
la funcion de valor v pxq x2 .
Principio del valor esperado
78. Suponga que se tiene un portafolio de 350 polizas de seguros contra
robo a casahabitacion con validez por un a
no, como se muestra en
la siguiente tabla:
Probabilidad
de siniestro
0.01
0.02
Reclamacion
unifp0, 10s unifp10, 20s
100
60
150
40
Esto quiere decir, por ejemplo, que se tienen 100 asegurados cuya
probabilidad de reclamacion es 0.01 y cuyo monto de reclamacion se
distribuye unifp0, 10s. Suponga que nos interesa modelar el agregado
de reclamaciones mediante la variable S i usando modelo individual,
pero tambien con la variable S c usando el modelo colectivo Poisson.
a) Encuentre la media y la varianza de las variables S i y S c .
b) Suponga que para el calculo de las primas se usa el principio del valor esperado. Calcule el factor de recargo i y c ,
correspondiente a cada modelo, de tal forma que con probabilidad de 0.95 las primas sean suficientes para hacer frente a
las reclamaciones.
85
3.4. Ejercicios
?
2
f pxq ? ex {2 ,
x 0.
Transformada de Esscher
85. Calcule la transformada de Esscher de parametro h
tribucion:
0 de la dis-
lculo de primas
3. Principios para el ca
86
a) geoppq.
c) unifpa, bq.
b) Poissonpq.
d) Np, 2 q.
MS ph1
h2 q
e ph 1
q f pxq.
h2 x
MS pt h1 h2 q
.
MS ph1 h2 q
Principio de Esscher
87. Sea S un riesgo con distribucion exppq.
a) Demuestre que la transformada de Esscher de parametro h es
la distribucion expp hq, para 0 h .
b) Encuentre la prima mediante el principio de Esscher.
c) Verifique la condicion de ganancia neta.
88. Suponga que la reclamacion de un cierto riesgo S tiene distribucion
uniforme en el intervalo p0, 1q.
a) Calcule la transformada de Esscher de parametro h 1 de esta
distribucion. Grafique y compare las dos funciones de densidad.
b) Calcule la prima para cubrir este riesgo usando el principio de
Esscher de parametro h 1.
c) Calcule la probabilidad de que la prima sea suficiente para
cubrir una reclamacion del riesgo.
3.4. Ejercicios
87
lculo de primas
3. Principios para el ca
88
Propiedades
94. Complete la siguiente tabla determinando si cada uno de los principios mencionados para calcular primas cumple la propiedad correspondiente. En cada caso demuestre su afirmacion o proporcione un
contraejemplo. Para simplificar las cosas considere que la propiedad
de cota inferior se refiere a la desigualdad no estricta p E pS q.
Consistencia
Aditividad
Invarianza
Cota
inferior
Cota
superior
Valor esperado
Varianza
Desv. estandar
Utilidad cero
Valor medio
Exponencial
Porcentaje
Esscher
Riesgo ajustado
3.4. Ejercicios
89
99. Aversi
on al riesgo. Suponga que una persona con capital inicial
u tiene la posibilidad de participar en un juego justo en el que
recibira una cantidad positiva x con probabilidad 1{2, o perdera dicha cantidad con probabilidad 1{2. En caso de no desear participar
en este juego, el capital de la persona no se modifica y permanece
con el valor u. Suponga que la persona toma la decision de participar o no participar en el juego usando el criterio de la utilidad
esperada maxima, es decir, tomara aquella decision que le redit
ue
una utilidad promedio maxima. Demuestre que si la funcion de utilidad usada es estrictamente concava, es decir, v 2 pxq 0, entonces
la decision sera siempre no participar en el juego, a pesar de que
este es justo. Esto ilustra la interpretacion de que las funciones de
utilidad estrictamente concavas representan la utilidad de personas
con aversion al riesgo.
100. Coeficiente de aversi
on al riesgo. Se define el coeficiente de aversion al riesgo de una funcion de utilidad v pxq como la funcion
v2pxq{v1pxq 0. Calcule este coeficiente en el caso de la funcion de
utilidad exponencial, cuadratica, logartmica y potencia fraccional.
Captulo 4
Reaseguro
En este captulo estudiaremos algunas ideas simples y generales del reaseguro. El reaseguro se presenta cuando una aseguradora firma un contrato
para cubrir ciertos riesgos con otra compa
na aseguradora llamada reaseguradora. De esta manera ambas aseguradoras adquieren la obligacion de
solventar las posibles reclamaciones del riesgo en cuestion y nos encontramos
nuevamente en el esquema general de un asegurado y una aseguradora, en
donde debe existir un acuerdo entre ambas partes acerca de las condiciones
del contrato, las caractersticas del riesgo, las condiciones para el pago de
la suma asegurada y, por supuesto, el calculo de la prima correspondiente.
Desde el punto de vista de la aseguradora, el reaseguro le ayuda a evitar posibles fuertes montos en las reclamaciones, aunque naturalmente disminuyen
sus ingresos por primas pues tiene que compartir estas con la reaseguradora.
Consideremos entonces un riesgo S y denotemos por S A la parte del riesgo
asumido por el asegurador y sea S R la parte asumida por el reasegurador.
Las letras A y R indican los terminos Asegurador y Reasegurador, respectivamente. Debe entonces cumplirse la igualdad
S
SA
SR.
92
4. Reaseguro
cumplen las condiciones adecuadas, pueden aplicarse los resultados encontrados antes para lograr dicho objetivo. El reaseguro puede tomar por lo
menos dos perspectivas: actuar sobre las reclamaciones individuales o sobre
el total del riesgo.
Reclamaciones
individuales
Reaseguro
Total del
riesgo
Figura 4.1
En ambos esquemas de reaseguro se aplica una funcion continua h del intervalo r0, 8q en s mismo tal que:
a) hp0q 0.
b) hpxq x.
Las dos funciones de este tipo que consideraremos son hpxq ax, para
a P p0, 1q, y hpxq mntx, M u, para alguna constante M 0. Graficamente
estas funciones se muestran a la Figura 4.2.
hpxq ax
hpxq mntx, M u
M
x
x
M
Figura 4.2
Bajo el esquema de reaseguro, la aseguradora afronta u
nicamente el riesgo resultante de aplicar la funcion h al riesgo original o a cada una de sus
93
4.1.
Reaseguro proporcional
Suponga
que una compana aseguradora reasegura un riesgo de la forma
on hpxq ax,
S N
j 1 Yj . En el reaseguro proporcional se usa la funci
para alg
un valor de la constante a en el intervalo p0, 1q. Usando la linealidad de esta funcion, es claro que es equivalente aplicar la funcion a cada
reclamacion por separado o al riesgo completo. Dada una reclamacion Y ,
la aseguradora hace frente a una proporcion de esta, aY , y la reaseguradora cubre el porcentaje restante, p1 aqY . El riesgo total asumido por la
aseguradora es aS, y la reaseguradora cubre p1 aqS, es decir,
SA
aS
a Yj ,
j 1
SR
p1 aqS
p1 a q Y j .
j 1
1
fS px{aq, cuando S es absolutamente continua.
a
c) MS A prq MS parq.
d) E pS A q a E pS q E pS q.
e) VarpS A q a2 VarpS q VarpS q.
94
4. Reaseguro
Probabilidad de insolvencia
Comprobaremos a continuacion que el reaseguro proporcional es conveniente
para la aseguradora en el sentido de que la probabilidad de insolvencia bajo
este tipo de reaseguro es menor o igual a la probabilidad de insolvencia
cuando no hay reaseguro. Suponga que una compa
na aseguradora adquiere
un riesgo S durante un cierto periodo y por el cual cobra una prima p.
Suponga que esta aseguradora tiene un capital inicial u. La probabilidad de
que la compa
na aseguradora no pueda solventar el riesgo es
P pS
u q.
Tal probabilidad se muestra graficamente en la Figura 4.3. Ahora suponga que la compa
na decide reasegurarse mediante el esquema de reaseguro
proporcional. Suponga ademas que el asegurador retiene una parte de la
prima original p dada por ap, con 0 a 1, y el reasegurador obtiene la
cantidad p1 aqp al aceptar reasegurar este riesgo. La probabilidad de que
la aseguradora no pueda solventar el nuevo riesgo bajo este esquema es
P paS
ap
uq
P pS
p
P pS p
u
q
a
uq.
fS pxq
u
a
Figura 4.3
De esta forma hemos comprobado que la probabilidad de insolvencia bajo
el esquema de reaseguro proporcional es menor o igual a la probabilidad del
mismo evento cuando no hay reaseguro. La ventaja para la aseguradora al
contratar el reaseguro es que la incertidumbre disminuye pero sus ganancias
95
4.2.
Reaseguro no proporcional
mn tS, M u,
max t0, S M u.
96
4. Reaseguro
del riesgo S A no puede expresarse como una funcion tradicional sino que
es necesario hacer uso de las funciones generalizadas si se desea escribir
tal funcion. En estos casos preferiremos trabajar u
nicamente con la funcion
de distribucion. Suponiendo que S es absolutamente continua, el n-esimo
momento de S A puede expresarse de la siguiente forma:
E rpS
q s
A n
M
0
xn fS pxq dx
FS A pxq
M n P pS
M q.
FS R pxq
1
b
bc
b
x
bc
M
(a)
(b)
Figura 4.4
Por su parte, la variable S R tiene una masa de probabilidad en el punto 0
de valor FS pM q, es decir, P pS R 0q FS pM q y su funcion de distribucion
es:
"
0
si x 0,
FS R pxq
FS pM xq si x 0,
la cual se muestra en la Figura 4.4 (b) en el caso cuando FS pxq es continua.
Nuevamente, no es posible escribir la funcion de densidad de S R en terminos
tradicionales y matematicamente es preferible trabajar con la funcion de
distribucion. En el caso absolutamente continuo el n-esimo momento de S R
adquiere la siguiente expresion:
E rpS
q s
R n
8
0
xn fS pM
xq dx.
Es interesante notar que la variable S R puede tomar el valor 0 con probabilidad positiva y tal situacion correspondera a una reclamacion nula para
97
f S pM x q
,
1 FS pM q
para x 0.
mn tY, M u
mn tY, M u
max t0, Y M u.
Y
98
4. Reaseguro
Por lo tanto, cada una de las aseguradoras asume los siguientes riesgos:
SA
N
mn tYj , M u,
j 1
SR
max t0, Yj
M u.
j 1
N
umero de reclamaciones
Sea N A el n
umero de reclamaciones que un asegurador afronta bajo un
reaseguro por exceso de perdida (excess of loss) con nivel de retencion M
sin recurrir a la reaseguradora, es decir,
NA
1pYj M q .
j 1
j 1
1pYj M q .
99
2.
3.
M q.
Si N tiene distribuci
on binpn, pq, entonces
a) N A binpn, apq.
b) N R binpn, p1 aqpq.
Si N tiene distribuci
on Poissonpq, entonces
a) N A Poissonpaq.
b) N R Poissonpp1 aqq.
Si N tiene distribuci
on bin negpk, pq, entonces
a) N A bin negpk, p{pp ap1 pqqq.
b) N R bin negpk, p{pp p1 aqp1 pqqq.
Demostraci
on. Verificaremos u
nicamente el primer resultado aplicando
la formula general MS ptq MN plnpMY ptqq cuando el riesgo S es la variable
N A y una reclamacion Y tiene la forma particular 1pYj M q , lo cual es una
variable aleatoria con distribucion Bernoulli. Observemos primeramente que
MY ptq E petY q 1 a
aet .
pp1 a
aet qqn
p1 ap
apet qn .
100
4. Reaseguro
otros casos. Para ello debe recordarse que si N tiene distribucion Poissonpq,
entonces
MN ptq expppet 1qq,
Proporcional
Reclamaciones
individuales
Exceso de perdida
(excess of loss)
Reaseguro
Proporcional
Total del
riesgo
Perdida maxima
(stop loss)
Figura 4.5
Comentarios y referencias
Mediante el reaseguro la compa
na aseguradora se permite ceder parte de
un riesgo a otra compa
na llamada reaseguradora. Ante tal situacion, el
esquema de asegurado y asegurador cobra vigencia y se replantean los problemas originales ahora para el nuevo asegurado y la nueva aseguradora.
En este captulo hemos estudiado dos formas de llevar a cabo el reaseguro:
el reaseguro proporcional y el reaseguro no proporcional. A pesar de que
101
4.3. Ejercicios
4.3.
Ejercicios
Reaseguro proporcional
b) VarpS A q a2 VarpS q.
c)
E rpS A E pS A qq3 s
rVarpS Aqs3{2
S E pS qq s
E rprVar
pS qs3{2 .
3
b) pS A , S R q 1.
c) S R
1a a S A.
102
4. Reaseguro
a 0.7, encuentre la distribucion y los parametros de los riesgos
S A aS, y S R p1 aqS.
$
si x 50,
&0
1{2 si 50 x 100,
F pxq
%1
si x 100.
103
4.3. Ejercicios
"
"
FS pxq si x M,
1
si x M.
0
FS pM
xq
si x 0,
si x 0.
q s
A n
b) E rpS R qn s
M
8
0
xn fS pxq dx
x n f S pM
M n P pS
M q.
xq dx.
113. El n-esimo momento limitado. Sea S un riesgo con funcion de supervivencia continua F pxq P pS xq. Sea M cualquier constante
positiva. Demuestre que para cualquier entero n 1:
E pS ^ M qn
M
0
104
4. Reaseguro
a) MS A ptq
t
b) MS R ptq 1
p teptqM q,
para t .
t
eM , para t .
t
1
1 eM .
1 M
.
e
en
{ ppln M n 2 q{q
n2 2 2
M n p1 ppln M
q{qq.
100
0.1
200
0.2
300
0.3
400
0.2
500
0.2
105
4.3. Ejercicios
yq
50
0.2
100
0.3
150
0.4
200
0.1
ptq,
NA
N R.
106
4. Reaseguro
Suponga que N tiene distribucion Poissonpq.
a) Condicionando sobre el valor de N , demuestre que las variables
N A y N R son independientes.
b) Compruebe que N A y N no son independientes. Verifique, por
ejemplo, que P pN A 0, N 0q P pN A 0q P pN 0q.
b) E pS
q E pY q
q E pS q
a1
E pY q.
E pS q.
b
b
a1
b
b
4.3. Ejercicios
107
1
p1 eM q.
2
2
2M M
b) E ppY A q2 q 2 2 eM
.
e
1
2M M
1 2M
c) VarpY A q 2
.
e
e
2
d) E pY A q E pY q.
a) E pY A q
e) VarpY A q VarpY q.
Captulo 5
Teora de la credibilidad
Considere un cierto riesgo proveniente de un conjunto de asegurados vigentes
por un periodo determinado. Si este grupo de asegurados es homogeneo en el
sentido de que todos sus miembros tienen las mismas condiciones estocasticas de realizar una reclamacion, entonces es razonable aplicar una misma
prima a todos ellos. Sin embargo, cuando el grupo no es homogeneo, o bien,
surge con el paso del tiempo cierta heterogeneidad entre ellos, habra subgrupos de bajo riesgo y otros de alto riesgo. Cobrar una misma prima a todos
sera injusto, y no sera bueno para la aseguradora, pues eventualmente los
asegurados de bajo riesgo buscaran un mejor trato con otra aseguradora.
La idea fundamental es aplicar primas menores a los asegurados de bajo
riesgo y primas mayores a los de alto riesgo, con base en el historial de
reclamaciones que cada uno de los asegurados o subgrupos hayan realizado
durante los periodos anteriores. En la teora de la credibilidad se estudian
metodos para el calculo de primas a traves de la combinacion de la experiencia individual (historial de reclamaciones) y la experiencia de grupo
(comportamiento teorico).
Este captulo es breve y u
nicamente se exponen algunas ideas introductorias
a la credibilidad clasica y Bayesiana. Una exposicion mas completa de este
tema puede encontrarse en los textos [6], [9] y [23].
109
5. Teora de la credibilidad
110
5.1.
Credibilidad cl
asica
Credibilidad completa
Suponga que S representa el riesgo para una aseguradora correspondiente a
un asegurado o un conjunto de asegurados con ciertas caractersticas particulares, y valido por un periodo fijo, por ejemplo, un a
no. Sean S1 , . . . , Sm
los montos de las reclamaciones efectuadas por este asegurado o grupo de
asegurados durante m periodos consecutivos, y sea S la media muestral o
promedio de reclamaciones, es decir,
1
S
pS1
m
Sm q.
sica
5.1. Credibilidad cla
111
S
E pS q
m
Figura 5.1
Definici
on 5.1 Sea S1 , S2 , . . . , Sm una colecci
on de v.a.i.i.d. con esperanza
finita. Sean k P p0, 1q y p P p0, 1q dos n
umeros fijos. Se dice que la media
muestral S pS1 Sm q{m tiene credibilidad completa pk, pq si
P p |S E pS q| kE pS q
q p.
(5.1)
5. Teora de la credibilidad
112
lmite, la parte izquierda de (5.1) es
P p |S E pS q| kE pS q q
|S E pS q| a kE pS q q
Pp a
VarpS q{m
VarpS q{m
kE pS q
P p a
Z a kE pS q q
VarpS q{m
VarpS q{m
kE pS q
p a
q p a kE pS q q
VarpS q{m
VarpS q{m
?
k mE pS q
q 1.
2p a
VarpS q
k m E pS q
q 1 2 p.
p a
VarpS q
Deseamos encontrar el valor de m mas peque
no que cumpla esta desigualdad. Para ello consideraremos que se tiene la igualdad en esta ecuacion. Sea
uq el q-cuantil de la distribucion normal, es decir puq q q. Entonces
k m E pS q
a
VarpS q
up1
q{
p 2.
Proposici
on 5.1 Sea S1 , S2 , . . . , Sm una colecci
on de v.a.i.i.d. con media
y varianza finitas. La media muestral S pS1 Sm q{m alcanza credibilidad completa pk, pq de manera aproximada cuando
m
Tomando k
up21
q{
pS q
p q .
p 2 Var
k2 E 2 S
q{
p 2
(5.2)
sica
5.1. Credibilidad cla
113
VarpS q
.
E 2 pS q
El problema a
un prevalece puesto que los terminos E pS q y VarpS q no son
conocidos. En este punto se introduce otro factor de inexactitud en el analisis
al sustituir E pS q y VarpS q por la media y varianza muestrales usando la
informacion que se tenga a disposicion al momento de hacer la estimacion:
E pS q
VarpS q
1
sj ,
n j 1
n1
psj sq2.
j 1
j 1
Yj ,
5. Teora de la credibilidad
114
VarpS q
{,
2 2{2 .
on (5.2)
Por lo tanto, tomando nuevamente k 0.05 y p 0.9, la aproximaci
es
2{2
m 1082 2 2 ,
{
o bien,
m 2164.
Credibilidad parcial
En lugar del estimador S para E pS q se propone la combinacion lineal convexa
z S p1 z qE pS q,
(5.4)
q p.
sica
5.1. Credibilidad cla
115
q p.
S.
q{ VarpS q .
p 2
k2
E 2 pS q
(5.5)
mn
k
u p1
?m E pS q
a
,
VarpS q
pq{2
1 .
(5.7)
mn
?m
32.89
)
E pS q
, 1 .
VarpS q
5. Teora de la credibilidad
116
p1 zq,
(5.8)
2 2
p1 zqq ku2E pS q
p1 pq{2
m
S
46.52
m
p1 46.52
q E pS q ,
117
5.2.
Credibilidad Bayesiana
La credibilidad Bayesiana es otra forma de incorporar el historial de reclamaciones de un grupo de asegurados en el calculo de las primas. Explicaremos
a continuacion de manera breve la situacion general en esta perspectiva de
la estadstica y despues aplicaremos estas ideas en dos casos particulares.
Estimaci
on Bayesiana
En la estadstica tradicional se considera el problema de estimacion de un
parametro de una distribucion de probabilidad dada f px; q. Para ello se
considera una muestra aleatoria de esta distribucion y se estudian distintos
metodos para estimar , considerando siempre que este parametro tiene un
valor desconocido y fijo. Existe, sin embargo, un punto de vista distinto
llamado estimacion Bayesiana. Desde esta perspectiva se considera que
es una variable aleatoria para la cual se asume una distribucion de probabilidad hpq llamada a priori. Esta distribucion refleja cierta informacion
subjetiva o cuantitativa que el observador pueda tener sobre el parametro .
La distribucion conjunta de una muestra aleatoria de la distribucion f px; q
y el parametro es
f px1 , . . . , xm , q f px1 , . . . , xm | q hpq
f pxi | q hpq.
i 1
i 1
f pxi | q hpq d.
Conociendo estas funciones puede ahora calcularse la distribucion condicional de dada la muestra como sigue:
g p | x1 , . . . , xm q
f px1 , . . . , xm | q hpq
f px1 , . . . , xm q
m
i 1
m
i 1
f pxi | q hpq
f pxi | q hpq d
(5.9)
5. Teora de la credibilidad
118
g p | x1 , . . . , xm q d.
En general, la expresion que pueda encontrarse para la distribucion a posteriori para usando la formula (5.9) puede ser muy complicada y no ser
una distribucion con la cual estemos familiarizados. Ilustraremos estas ideas
con un ejemplo particular en donde el resultado final, sin embargo, es una
distribucion conocida. Aplicaremos despues la estimacion Bayesiana al problema de calcular primas puras de riesgo tomando en cuenta el historial de
reclamaciones.
Ejemplo 5.3 Suponga que X1 , . . . , Xm es una muestra aleatoria de la distribuci
on Berppq, y suponga adem
as que el par
ametro p tiene una distribuci
on betapa, bq, con a y b conocidos. Observe que el soporte de la distribuon
ci
on beta es el intervalo r0, 1s, de modo que en este sentido tal distribuci
es factible para el par
ametro p. La densidad conjunta de la muestra y el
par
ametro es
f px 1 , . . . , x m , p q
f px1, . . . , xm | pq hppq
pmxp1 pqmmx B pa,1 bq pa1 p1 pqb1
1
pa
B pa, bq
p1 pqmmx b1 .
m
x 1
1
1
pa mx1 p1 pqmmx
B pa, bq 0
B pa m
x, m m
x bq
.
B pa, bq
dp
b 1
119
B pa
1
m
x, m m
x
bq
pa
p1 pqmmx b1 .
m
x 1
x, m m
x bq, y su esperanza puede usarse
Esta es la densidad betapa m
como un estimador Bayesiano para p, es decir,
p
a
m
m
x
a b
m
x
m a b
p1 m
m
a
b a
a
b
(5.10)
Esta u
ltima expresi
on para el estimador Bayesiano es interesante pues tiene
la misma forma que la que se haba propuesto en la credibilidad parcial. Observe que en la ecuaci
on (5.10) conforme el tama
no de la muestra m crece,
el estimador Bayesiano para la media toma esa informaci
on y le asocia un
peso mayor a la media muestral x
en detrimento de la media de la distribuci
on a priori a{pa bq.
Ahora aplicaremos estas ideas al problema del calculo de primas tomando
en cuenta la experiencia de un riesgo. Suponga que las variables S1 , . . . , Sm
representan el historial de reclamaciones en m a
nos o periodos que se han
registrado de un riesgo dado. Suponga ademas que estas variables son independientes y todas ellas tienen una distribucion com
un dependiente de
un parametro desconocido . Por lo tanto la esperanza del riesgo E pS q es
una funcion de este parametro . Bajo el enfoque Bayesiano se considera
que el parametro es una variable aleatoria para la cual se asume una distribucion de probabilidad a priori. La esperanza a posteriori de , es decir,
E p | S1 , . . . , Sm q, representa una estimacion para tomando en cuenta
el historial S1 , . . . , Sm . As, podemos incorporar este estimador Bayesiano
en el calculo de E pS q y encontrar la prima pura de riesgo. En los ejemplos
que consideraremos E pS q es directamente el parametro y por lo tanto su
estimacion es la prima pura de riesgo para S, es decir,
E pS q E p | S1 , . . . , Sm q.
A esta esperanza a posteriori se le llama prima de credibilidad Bayesiana.
Los casos que consideraremos para la distribucion de S son: la distribucion
5. Teora de la credibilidad
120
8
0
f pS1 , . . . , Sm | q hpq
f pS1 , . . . , Sm | q hpq d
m
Sj
p S ! e q p q 1e
j
j 1
8
m
Sj
p S ! e q p q 1e d
j
0 j 1
mS 1 epm q
8
mS 1 epm q d
0
p
m qmS mS 1 pm q
e
.
pmS q
Es decir, la densidad a posteriori es gamapmS , m q. Por lo tanto la
E pS q
E p | S1 , . . . , Sm q
mS
m
m
S
m
m
z S p1 z q ,
121
f pS1 , . . . , Sm | q hpq
8
f pS1 , . . . , Sm | q hpq d
?1
2 2
?1
e
8 2 2
m pS q2 {22 1
j 1 j
a
2 2
e
epq
m pS q2 {22 1
j 1 j
a
2 2
{22
epq
{22 d
pSj q2
j 1
2 2
q 2p m
p 2
2
2 2
2
p
Sj2
j 1
1
q
2 2
2
q
.
2
2
2 2
2p
mS
2 2
q
2 2
5. Teora de la credibilidad
122
r p m2S
m
q{p
2
2
m
1 1
2p 2
q
1 2
qs
2
p m2S
2p
m
2
2
q
2
1
q
2
p
Sj2
j 1
q
.
2
2
2 2
g p | S1 , . . . , Sm q
1
m
2 p 2
1 1
q
2
expt
r p m2S
m
q{p
2
2
m
1 1
2p 2
q
1 2
qs
2
u.
E pS q
E p | S1, . . . , Smq
p m2S 2 q{p m2
1
q
2
m 2
2
S
m 2 2
m 2 2
z S p1 z q ,
5.3. Ejercicios
123
Comentarios y referencias
En este captulo hemos planteado el problema de incorporar el historial de
reclamaciones de un asegurado o grupo de asegurados en el calculo de la
prima. Nuestra perspectiva ha sido introductoria y u
nicamente los elementos iniciales de algunos modelos se han mencionado. Una exposicion mas
completa sobre la teora de la credibilidad puede encontrarse en los textos de Klugman et al. [23] y Boland [6]. El libro de B
uhlmann y Gisler [9]
esta dedicado completamente al desarrollo de este tema.
5.3.
Ejercicios
Credibilidad completa
5. Teora de la credibilidad
124
pS q .
p q
d
mk2 E 2 pS q
1.
p 2
VarpS q
a) k
b)
up1
q{
p 2 Var
mE 2 S
Yj ,
j 1
en donde N tiene distribucion Poissonpq con desconocido. Encuentre un criterio para darle credibilidad completa pk, pq a
m1 pN1
N2
Nm q
0.05 y p 0.9 .
Credibilidad parcial
132. Use la aproximacion normal para encontrar la prima por credibilidad parcial, a partir de una muestra S1 , . . . , Sm , de un riesgo S con
distribucion Paretop4, 3q. Suponga k 0.1 y p 0.9.
125
5.3. Ejercicios
133. Use la aproximacion normal para encontrar la prima por credibilidad parcial con k 0.1 y p 0.9 considerando el
historial de
reclamaciones S1 , . . . , Sm de un riesgo de la forma S N
j 1 Yj , en
donde:
a) N se distribuye binpn, pq con n
distribuye exppq con 1{10.
100 y p
1{2,
y Yj se
10 y p 1{3, y Yj
se
Estimaci
on Bayesiana
134. Suponga que el n
umero de reclamaciones X de un cierto riesgo
sigue una distribucion Poisson de parametro . Se considera que
el parametro es desconocido y se le modela como una variable
aleatoria con distribucion exppq. Demuestre que la distribucion a
posteriori o no condicional de X es la siguiente distribucion geometrica:
P pX
xq
1
1
para x 0, 1, 2, . . .
135. Suponga que N tiene una distribucion Poissonpq, y que condicionada al valor de N la variable X tiene distribucion binpN, pq.
Demuestre que la distribucion no condicional de X es Poissonppq.
Captulo 6
Procesos estoc
asticos
En este captulo se presenta una introduccion breve al tema de los procesos
estocasticos. Se explican algunos conceptos y propiedades generales de este
tipo de modelos matematicos y se estudian brevemente algunos ejemplos
particulares de procesos estocasticos. Este material sera usado en la u
ltima
parte del libro en donde consideraremos algunos modelos estocasticos dependientes del tiempo aplicados a los seguros. Supondremos como elemento
base un espacio de probabilidad p, F , P q.
6.1.
Conceptos elementales
Definici
on 6.1 Un proceso estoc
astico es una colecci
on de variables aleatorias tXt : t P T u, parametrizada por un conjunto T llamado espacio parametral. A los valores de estas variables aleatorias los llamaremos estados del
proceso.
sticos
6. Procesos estoca
128
Xn p q
X5
b
X3
b
X1
b
X0
b
X4
X2
b
n
1
Figura 6.1
tXt : t 0u.
As, tomaremos como convencion que si el subndice es n, el proceso es
a tiempo discreto y si es t, el tiempo es continuo. Un proceso estocastico
tambien puede considerarse como una funcion de dos variables:
X:T
R,
129
X t1
b
b
X t3
t
b
t1
t2
t3
Figura 6.2
Una de las caractersticas mas importantes que distingue a los distintos
tipos de procesos estocasticos es el grado de dependencia probabilstica que
pudiera establecerse entre las variables aleatorias que conforman el proceso.
La especificacion de estas dependencias nos permitira definir mas adelante
algunos tipos de procesos estocasticos particulares. Veremos a continuacion
algunas propiedades generales que pueden cumplir los procesos estocasticos.
Propiedad de Markov
Se dice que un proceso estocastico a tiempo discreto tXn : n 0u cumple la
propiedad de Markov si para cualesquiera estados o valores x0 , x1 , . . . , xn 1
se cumple la identidad
P pXn
sticos
6. Procesos estoca
130
X t , . . . , Xt X t
1
n 1
son independientes. Esto quiere decir que los desplazamientos que tiene el
proceso en estos intervalos disjuntos de tiempo son independientes unos de
otros. Cuando el proceso es a tiempo discreto la definicion es completamente
analoga.
6.2.
Definiremos en esta seccion el concepto de filtracion y en particular definiremos la filtracion generada por un proceso estocastico. Con estos elementos
definiremos el concepto de tiempo de paro. Estos conceptos seran usados
131
Ft F .
tXs : 0 s tu,
t 0.
sticos
6. Procesos estoca
132
Definici
on 6.4 Un tiempo de paro respecto de una filtraci
on pFt qt0 es
una funci
on : r0, 8s tal que p tq P Ft para cada t 0.
Esto es, un tiempo de paro es una variable aleatoria no negativa, con posible
valor infinito, tal que puede determinarse la ocurrencia o no ocurrencia del
evento p tq solo con la informacion o historia del proceso hasta el tiempo
t. Por ejemplo, y sin entrar en mayores detalles tecnicos, el tiempo aleatorio que transcurre hasta la ocurrencia de un cierto evento es un tiempo de
paro, este tiempo aleatorio puede ser, por ejemplo, el tiempo que transcurre
hasta la llegada de la n-esima reclamacion a una compa
na aseguradora.
Pueden definirse tambien tiempos de paro para filtraciones a tiempo discreto de manera completamente analoga a la definicion anterior. Finalmente
mencionaremos que un tiempo de paro es finito si P p 8q 0.
En las siguientes secciones estudiaremos muy brevemente algunos tipos de
procesos estocasticos que usaremos en la u
ltima parte del texto.
6.3.
Caminatas aleatorias
1q
P p 1q
p,
q
1 p.
133
Figura 6.3
$
& p si j i 1,
q si j i 1,
P pXn 1 j | Xn iq
% 0 otro caso.
sticos
6. Procesos estoca
134
6.4.
Cadenas de Markov
Definici
on 6.5 Una cadena de Markov es un proceso estoc
astico a tiempo discreto tXn : n 0, 1, . . .u con espacio de estados discreto y tal que
satisface la propiedad de Markov, esto es, para cualquier entero n 0 y
cualesquiera estados x0 , x1 , . . . , xn 1 se cumple la identidad
P pXn
x n 1 | X n x n , . . . , X1 x 1 , X 0 x 0 q
P pXn 1 xn 1 | Xn xnq.
1
135
p00 p01 p02
p10 p11 p12
p20 p21 p22
..
.
..
.
..
.
.
En la entrada pi, j q de esta matriz aparece la probabilidad pij . As, todas las
entradas son n
umeros no negativos y la suma de ellos en cada renglon es 1. A
tales matrices cuadradas se les llama matrices estocasticas. Recprocamente,
a partir de una matriz con estas caractersticas junto con una distribucion
inicial para X0 , se puede construir una cadena de Markov. Es por ello que
a una matriz estocastica tambien se le puede llamar cadena de Markov.
La cadena puede iniciar en un estado particular o en cualquiera de ellos
de manera aleatoria por medio de una distribucion de probabilidad inicial
p0, 1, . . .q.
Probabilidades de transici
on en n pasos
Uno de los problemas que se pueden plantear para las cadenas de Markov es
el de encontrar las probabilidades de transicion de un estado a otro estado
cualquiera en n pasos sucesivos. Estas probabilidades se definen como sigue
pij pnq P pXm
j | X m i q.
sticos
6. Procesos estoca
136
"
1 si i j.
0 si i j.
P qij pP n qij .
137
Definici
on 6.6 Se dice que el estado i de una cadena de Markov es absorbente si
pii 1.
En caso contrario se dice que el estado es no absorbente.
1
bT
0
B
sticos
6. Procesos estoca
138
0 y el subvector
p 1 , 2 , . . . , k q
denota entonces el vector inicial cuyas entradas son las probabilidades iniciales de los estados no absorbentes. Cuando 0 0 el vector es efectivamente una distribucion de probabilidad. Cuando 0 0, se tiene que
P p 0q 0 0. Puesto que, partiendo de un estado no absorbente,
es posible hacer varias transiciones entre los estados no absorbentes antes
de la absorcion, en las formulas relacionadas con esta distribucion tipo fase
aparece el subvector y no el vector completo 1 .
Definici
on 6.7 A la distribuci
on de probabilidad de la variable aleatoria
definida por
mn tn 0 | Xn 0u
se le llama distribuci
on tipo fase discreta con subdistribuci
on inicial y
submatriz de transici
on B. Esto se escribe
PHp, B q.
1
0
p 1p
139
nq p1 pqn1 p
n 0, 1, 2, . . .
1
0
n
P
.
eT B n eT B n
b) Partiendo de un estado no absorbente i, la probabilidad de estar en
el estado no absorbente j despues de n 1 pasos y en el siguiente
paso llegar al estado absorbente es, por la ecuacion de ChapmanKolmogorov,
i pB n1 qij bTj .
Sumando sobre los valores de los ndices i y j se obtiene la funcion de
probabilidad del tiempo de absorcion :
f pnq
"
0
B n1 bT
si n 0,
si n 1.
nq 1 P p nq,
sticos
6. Procesos estoca
140
6.5.
"
0
1 B n eT
si n 0,
si n 1.
Proceso de Poisson
0.
Observe que la tercera propiedad establece implcitamente que los incrementos del proceso de Poisson son estacionarios, pues la distribucion de
Nt s Ns no depende de s. El proceso de Poisson se utiliza para modelar
situaciones de conteo de ocurrencias de un evento particular en un intervalo
de tiempo dado. Por ejemplo, Nt puede representar el n
umero de llamadas
recibidas en un n
umero telefonico de emergencias, o el n
umero de accidentes
ocurridos en un cierto lugar o el n
umero de clientes que buscan un servicio
durante el intervalo de tiempo r0, ts. En particular, tomando s 0 en la tercera propiedad en la definicion, se tiene que la variable Nt tiene distribucion
Poissonptq para cualquier t 0. Esto es
P pNt
nq et ptn!q
n 0, 1, 2, . . .
141
VarpNt q
t,
t.
As, para cada tiempo t desconocemos el valor que toma Nt , pero sabemos
que Nt tiene distribucion Poissonptq. En nuestro caso, usaremos el proceso
de Poisson para modelar el n
umero de reclamaciones que llegan a una compa
na aseguradora hasta un tiempo t cualquiera. Una posible trayectoria de
un proceso de Poisson se muestra en la Figura 6.4.
N t p q
3
b
bc
b
bc
t
bc
Figura 6.4
sticos
6. Procesos estoca
142
Proposici
on 6.1 La propiedad de Markov del proceso de Poisson implica que los tiempos de estancia T1 , T2 , . . . son independientes y cada uno
de ellos tiene distribuci
on exponencial. Recprocamente, dada una sucesi
on
de v.a.s independientes T1 , T2 , . . . con identica distribuci
on exponencial, el
proceso de conteo que puede construirse a partir de esta sucesi
on cumple la
propiedad de Markov.
P
erdida de memoria y sus consecuencias
Una de las propiedades que caracterizan de manera u
nica a la distribucion
exponencial dentro del conjunto de distribuciones absolutamente continuas
es que satisface la propiedad de perdida de memoria, esto es, si T tiene
distribucion exppq, entonces para cualesquiera tiempos s, t 0 se cumple
la igualdad
P pT t s | T sq P pT tq.
Mt
Nt
bc
b
bc
b
bc
Figura 6.5
t
t
143
Observemos que la propiedad de renovacion se cumple tambien en los momentos en los que el proceso de Poisson tiene saltos, es decir, si empezamos
a estudiar al proceso a partir del momento en el que se observa un salto, ese
nuevo proceso es tambien un proceso de Poisson con el mismo parametro.
Desde el punto de vista matematico esta propiedad sera de mucha utilidad cuando estudiemos modelos en donde las reclamaciones que reciba una
aseguradora sigan un proceso de Poisson.
Otras definiciones equivalentes del proceso de Poisson y algunos otros resultados sobre sus propiedades se pueden encontrar en [31].
6.6.
Este tipo de procesos es una generalizacion del proceso de Poisson mencionado en la seccion anterior. Ahora los saltos del proceso no son necesariamente
unitarios hacia arriba sino que el proceso puede saltar a cualquier otro estado distinto del estado desde donde salta. Una trayectoria de este tipo de
procesos se muestra en la Figura 6.6.
Vamos entonces a definir cadenas de Markov en donde el tiempo es continuo
y las variables toman valores enteros. Consideremos un proceso a tiempo
continuo tXt : t 0u que inicia en un estado i1 al tiempo cero. El proceso
permanece en ese estado un tiempo aleatorio Ti1 , y despues salta a un nuevo
estado i2 distinto del anterior. El sistema permanece ahora en el estado i2
un tiempo aleatorio Ti2 al cabo del cual brinca a otro estado i3 distinto del
inmediato anterior, y as sucesivamente. Los tiempos aleatorios T son los
tiempos en los que el proceso permanece constante en alguno de sus estados,
y se llaman tiempos de estancia (passage times). Los momentos en donde
el proceso tiene saltos son los tiempos Wn Ti1 Tin , para n 1. El
sticos
6. Procesos estoca
144
Xt p q
i4
b
i2
i1
bc
bc
i3
b
bc
t
Ti1
Ti2
Ti3
Ti4
Figura 6.6
proceso puede entonces escribirse en la forma siguiente:
$
'
'
'
&
Xt
'
'
'
%
i1 si
i2 si
i3 si
..
.
0 t W1 ,
W1 t W2 ,
W2 t W3 ,
8
c.s.
y ello garantiza que para todo t 0, el valor de Xt es finito, c.s. Por otro
lado, sin perdida de generalidad supondremos que el espacio de estados es
el conjunto S t0, 1, . . .u y que el tiempo de estancia asociado el estado
i es la variable aleatoria Ti , la cual supondremos positiva con funcion de
distribucion Fi ptq. Como en el caso de cadenas a tiempo discreto, se denotara por pij a la probabilidad de que la cadena pase del estado i al estado
j al efectuar un salto. Adicionalmente impondremos la condicion pii 0, y
con ello se imposibilita que la cadena salte al mismo estado de partida. Las
probabilidades de saltos deben entonces satisfacer las siguientes condiciones:
a) pij
0.
145
0.
pij 1.
b) pii
c)
0 p01 p02
p
10 0 p12
P p
20 p21 0
..
.
..
.
..
.
.
Supondremos ademas que los tiempos de estancia Ti1 , Ti2 , . . . son independientes entre s, y tambien son independientes del mecanismo mediante el
cual se escoge el estado j al cual la cadena salta despues de estar en cualquier
otro estado i. Mas a
un, supondremos que cada variable Ti es finita con probabilidad 1, o bien, es infinita con probabilidad 1. En el primer caso se dice
que el estado i es no absorbente, y en el segundo caso que es absorbente. El
hecho de que Ti 8 se interpreta en el sentido de que el proceso deja de
saltar y permanece en el estado i el resto del tiempo, es decir, el estado i
es absorbente. Por lo tanto, solo hay dos tipos de estados: absorbentes o no
absorbentes. En otras palabras, con probabilidad uno el tiempo de estancia
es finito o con probabilidad uno es infinito. Por otra parte, un resultado no
trivial establece que un proceso de las caractersticas arriba especificadas
satisface la propiedad de Markov si y solo si, los tiempos de estancia en los
para t 0.
sticos
6. Procesos estoca
146
cualesquiera tiempos 0 t1
p pX t n
x t | Xt
n
t2 tn ,
xt , . . . , Xt xt q ppXt xt | Xt xt q.
n 1
n 1
Supondremos nuevamente que estas probabilidades de transicion son estacionarias en el tiempo, esto significa que para cada s 0 y t 0, se cumple
la identidad
P pX t
j | Xs iq P pXt j | X0 iq,
j | Xs iq P pXt j | X0 iq.
En particular para t 0 se define pij p0q como la funcion delta de Kronecker,
s
es decir,
pij p0q ij
"
1 si i j,
0 si i j.
p00 ptq p01 ptq
Pt ppij ptqq p10 ptq p11 ptq
..
.
..
.
.
Definici
on 6.9 A un proceso de saltos con las caractersticas y postulados
arriba se
nalados se le llama cadena de Markov a tiempo continuo.
147
pij
"
1 si j
0 si j
i
i
1,
1.
et
0
ptqji si j i,
pj iq!
otro caso.
ep
q.
sticos
6. Procesos estoca
148
ep
p01 ptq
p11 ptq
ep
ep
p10 ptq
En notaci
on matricial,
1
q,
q,
q.
ep
q.
Probabilidades de transici
on
Hemos mencionado antes que para una cadena de Markov a tiempo continuo
las probabilidades de transicion son los n
umeros pij ptq P pXt j | X0 iq.
El problema que puede plantearse es el de encontrar una expresion para las
probabilidades de transicion pij ptq para cada par de estados i y j, y para
cada tiempo t 0. Este es un problema demasiado general y solo en algunos
pocos casos es posible encontrar explcitamente tales probabilidades. Los
anteriores dos ejemplos son casos muy sencillos en donde es posible encontrar
las probabilidades pij ptq.
El generador infinitesimal
A partir de los parametros i y pij de una cadena de Markov a tiempo
continuo se pueden definir las cantidades gij de la siguiente forma:
"
gij
ipiij
si i j,
si i j.
A estos n
umeros se les conoce con el nombre de parametros infinitesimales
del proceso. Haciendo variar los ndices i y j, estos nuevos parametros conforman una matriz G llamada el generador infinitesimal del proceso de
Markov, es decir,
0
1 p10
G
2 p20
..
.
0 p01
1
2 p21
..
.
0 p02
1 p12
2
..
.
149
0, si i j.
gii 0.
gij 0.
a) gij
b)
c)
G
0
0
..
.
0
..
.
..
.
0
0
(6.2)
G
(6.3)
Ecuaciones de Kolmogorov
Puede demostrarse que las probabilidades de transicion pij ptq satisfacen el
sistema de ecuaciones diferenciales dado por
p1ij ptq
t 0.
Observe que se tiene una ecuacion diferencial para cada par ordenado de
estados pi, j q. En terminos de matrices la igualdad anterior se escribe
P 1 ptq G P ptq.
A este sistema de ecuaciones diferenciales se le conoce como las ecuaciones
retrospectivas de Kolmogorov.
sticos
6. Procesos estoca
150
Ejemplo 6.6 (Proceso de Poisson) El sistema de ecuaciones retrospectivas de Kolmogorov para el proceso de Poisson de par
ametro est
a dado
por
p1ii ptq
piiptq
pij ptq pi 1,j ptq para i j.
Y sabemos que la soluci
on es pij ptq et ptqj i {pj iq! para i j.
p1ij ptq
Ejemplo 6.7 (Cadena de dos estados) El sistema de ecuaciones retrospectivas de Kolmogorov para la cadena de Markov de dos estados definida
en el Ejemplo 6.3 est
a dado por
p100 ptq
p101 ptq
p110 ptq
p 1 pt q
11
p00ptq
p01ptq
p10ptq
p11ptq
p10 ptq,
p11 ptq,
p00 ptq,
p01 ptq.
En algunos casos los dos sistemas de ecuaciones son equivalentes y su solucion produce las mismas probabilidades de transicion pij ptq. En general, el
sistema retrospectivo es el que siempre se satisface.
Los procesos de nacimiento y muerte son un tipo particular importante
de cadena de Markov a tiempo continuo. Este tema y una exposicion mas
detallada sobre este tipo de proceso estocastico puede ser encontrada, por
ejemplo, en el texto de Hoel, Port y Stone [19], en Basu [3], en Karlin y
Taylor [20] o en Rolski et al. [32]. Concluimos esta seccion definiendo un tipo
151
0
bT
0
B
p0, 1, . . . , k q.
p1, 2, . . . , k q.
Cuando 0 0 el subvector es efectivamente una distribucion de probabilidad. Si la cadena inicia en alguno de sus estados no absorbentes, entonces
visitara estados absorbentes un tiempo aleatorio exponencial en cada de uno
sticos
6. Procesos estoca
152
Definici
on 6.10 A la distribuci
on de probabilidad de la variable aleatoria
definida por
nf tt 0 | Xt 0u
se le llama distribuci
on continua tipo fase con subdistribuci
on inicial y
matriz de subintensidades B. Esto se escribe
PHp, B q.
Hemos usado aqu la misma notacion para las distribuciones tipo fase discretas y continuas. El contexto o especificacion del modelo determinara sin
ambig
uedad si es de un tipo o del otro. Por otro lado, en algunos textos se
considera que la totalidad de estados es t1, 2, . . . , k 1u en donde el estado k 1 es absorbente y el resto de los estados es no absorbente. Ambos
modelos son equivalentes.
Ejemplo 6.8 (Distribuci
on Erlang) Sea 0 fijo. Considere la cadena
de Markov a tiempo continuo tXt : t 0u con k 1 estados: un estado
absorbente 0 y k estados no absorbentes 1, 2, . . . , k. Suponga que el generador
infinitesimal es de la forma:
G
0
0
0
0
..
.
0
0
0
..
.
0
..
.
0
0
..
.
..
0
0
0
0
..
.
Suponga adem
as que X0 1. As, la cadena inicia en el estado 1 y permanece en dicho estado un tiempo exponencial de par
ametro , al termino
153
ptqk1 t et ,
pk 1q!
t 0.
En particular, cuando u
nicamente hay un estado transitorio, es decir, k
se obtiene la distribuci
on exponencial.
1,
A
e :
An .
n!
n0
a) Para cada t 0,
P p
tq 0
r exp tB s eT .
(6.5)
sticos
6. Procesos estoca
154
0
0
..
.
0
..
.
..
.
..
0
0
0
..
.
k k
Las f
ormulas arriba mencionadas se reducen a las expresiones conocidas
para la distribuci
on Erlangpk, q, es decir,
a) P p
b) f ptq
c)
ptqn , t 0.
et
n!
n1
ptqk1 t et , t 0.
tq
k 1
pk 1q!
pn k 1q! ,
E p n q n
pk 1q!
n 1.
1.
En la u
ltima parte de este texto usaremos las distribuciones tipo fase para
modelar los montos de las reclamaciones y aprovecharemos sus propiedades
computacionales para encontrar una formula para la probabilidad de ruina en un modelo de riesgo a tiempo continuo. En particular haremos uso
de la formula (6.5). Se puede encontrar mayor informacion sobre las distribuciones tipo fase, incluyendo las demostraciones de los resultados arriba
enunciados, en el texto de Rolski et al. [32]. En el artculo de Bladt [5] puede
tambien encontrarse una excelente exposicion sobre el uso y aplicacion de
las distribuciones tipo fase en la teora del riesgo.
6.7.
Martingalas
Las martingalas son un tipo de proceso estocastico que aparece con frecuencia tanto en la teora general de procesos como en las aplicaciones. Algunos
155
6.7. Martingalas
resultados desarrollados para martingalas nos seran de utilidad para presentar una forma de resolver ciertos problemas de la teora de la ruina. La
siguiente es la definicion de martingala, la cual puede tambien enunciarse
para tiempos discretos.
Definici
on 6.11 Un proceso a tiempo continuo tXt : t 0u que es adaptado a una filtraci
on pFt qt0 y que es integrable, es decir, cada variable que
conforma el proceso tiene esperanza finita, se llama una martingala si para
0 s t se cumple
(6.6)
E pXt | Fs q Xs c.s.
La identidad (6.6) establece un tipo de dependencia probabilstica particular entre las variables aleatorias que conforman una martingala. Este es
entonces otro ejemplo de proceso estocastico. En el Apendice se encuentra
una revision breve de la definicion y algunas propiedades de la esperanza
condicional como la que aparece en (6.6). Las martingalas son procesos que
estan relacionados con los juegos justos. Por ejemplo, si la variable Xt representa la fortuna de un jugador al tiempo t, y quien supondremos apuesta
de manera continua, entonces la igualdad anterior se interpreta del siguiente
modo: en promedio la fortuna del jugador al tiempo t dada toda la historia
del juego hasta el tiempo s anterior a t es la fortuna del jugador al tiempo s, es decir, el juego es justo pues el jugador en promedio no pierde ni
gana. Cuando en lugar de (6.6) se cumple E pXt | Fs q Xs se dice que el
proceso es una supermartingala, se trata entonces de un juego desfavorable
al jugador pues en promedio su fortuna disminuye. En caso de la desigualdad contraria el proceso es una submartingala, juego favorable al jugador.
Cuando se toma esperanza en la ecuacion (6.6) se obtiene
E pXt q E pXs q,
para 0 s t. Esto quiere decir que todas las variables aleatorias que
conforman una martingala tienen la misma esperanza. En particular, si la
variable inicial X0 es cero o su esperanza es cero, entonces E pXt q 0 para
cualquier t 0. Algunos ejemplos sencillos de martingalas aparecen en
la seccion de ejercicios. Finalmente enunciaremos un resultado de la teora
sticos
6. Procesos estoca
156
Comentarios y referencias
Como preparacion para los modelos dinamicos de riesgo que estudiaremos en
los siguientes captulos, hemos presentado aqu algunos conceptos elementales de los procesos estocasticos, as como algunos ejemplos particulares
de este tipo de modelos matematicos. Para mayor informaci
on sobre estos
temas el lector puede consultar cualquiera de los textos sobre procesos estocasticos que aparecen en la bibliografa, por ejemplo, Basu [3], Hoel et
al. [19], Karlin y Taylor [20], Resnick [29] y Stirzaker [37].
6.8.
Ejercicios
Caminatas aleatorias
b) VarpXn q 4npq.
c) E petXn q ppet
qet qn .
157
6.8. Ejercicios
Cadenas de Markov
1{3 1{3 1{3
2{3 0 1{3
.
1{4 1{2 1{4
0. Calcule:
P pX2 1q.
P pX5 1 | X3 2q.
Suponga X0
a)
b)
1 | X1 0q.
P pX3 0q.
calcule:
a) P pX0
b)
c)
d)
e)
0, X1 1, X2 1, X3 4, X4 1q.
P pX101 3 | X100 3q.
P pX0 X1 q.
P p|X1 X0 | 1q.
P pX1 0, X3 0q.
sticos
6. Procesos estoca
158
1{2 1{2
1{10 9{10
El estado 0 representa no contar con un seguro de vida y el estado 1 corresponde a tener alg
un seguro de vida. La dinamica de
contratar o no contratar un seguro de vida para cada persona en
periodos sucesivos de tiempo esta dada por la cadena de Markov.
Si inicialmente la mitad de la poblacion esta asegurada, calcule el
porcentaje de la poblacion que estara asegurada en los periodos 1,
2 y 3 por separado.
Proceso de Poisson
140. Suponga que las llegadas de reclamaciones a una compa
na aseguradora siguen un proceso de Poisson de intensidad 5, en donde
la unidad de tiempo es un da, es decir, en promedio llegan 5 reclamaciones por da. Calcule la probabilidad de que:
a) No se reciba ninguna reclamacion en un da cualquiera.
b) Se reciban mas de 10 reclamaciones en un da cualquiera.
c) Se reciba una sola reclamacion en los siguientes tres das.
141. Los clientes ingresan a un establecimiento de acuerdo a un proceso
de Poisson a razon de 10 clientes por hora en promedio. Calcule la
probabilidad de que:
a) En una hora cualquiera no llegue ning
un cliente.
b) No llegue ning
un cliente en una jornada de 12 horas.
c) Se presente exactamente un cliente en todas y cada una de las
12 horas en las que esta abierto el establecimiento en un da.
142. Superposici
on. Demuestre que la suma de dos procesos de Poisson
independientes es nuevamente un proceso de Poisson con par
ametro
la suma de los parametros. Nota: la operacion suma debe entenderse
en el sentido de superponer los dos procesos puntuales.
159
6.8. Ejercicios
Nt
Yk ,
k 1
0u
es un proceso de Poisson de
sticos
6. Procesos estoca
160
nq
2
1
1
1
n 0.
1
n .
1u es una
149. Proceso de Poisson centrado. Sea tNt : t 0u un proceso de Poisson de parametro o intensidad , junto con su filtracion natural.
Demuestre que el proceso centrado tNt t : t 0u es una martingala.
150. Procesos con incrementos independientes. Sea tXt : t 0u un proceso estocastico a tiempo continuo tal que cada una de sus variables aleatorias tiene esperanza finita. Suponga que el proceso
tiene incrementos independientes. Demuestre que el proceso centrado tXt E pXt q : t 0u es una martingala.
151. Martingala de de Moivre. Sea 1 , 2 , . . . una sucesion de variables
aleatorias independientes cada una de ellas con la misma distribucion dada por
P p
y
1q
P p 1q
p
q
1 p.
6.8. Ejercicios
161
Captulo 7
Teora de la ruina:
tiempo discreto
Este captulo contiene una introduccion elemental a uno de los problemas
centrales de la teora del riesgo: el problema de la ruina. Estudiaremos este
problema en una version discreta. Definiremos primero un proceso de riesgo
a tiempo discreto y encontraremos una formula general recursiva para la
probabilidad de ruina con horizonte infinito. Presentaremos tambien una
formula para la probabilidad de ruina con horizonte finito, as como el concepto de coeficiente de ajuste para este modelo y su aplicacion en la desigualdad de Lundberg. Estudiaremos tambien el problema de calcular la
distribucion de probabilidad de la severidad de ruina cuando esta se presenta. Todos estos resultados seran extendidos en el siguiente captulo, en
donde se estudiara el modelo clasico de riesgo a tiempo continuo.
7.1.
164
u
n
Yj ,
0u
(7.1)
j 1
en donde u 0 es un entero y Y1 , Y2 , . . . son variables aleatorias independientes e identicamente distribuidas con valores en el conjunto t0, 1, . . .u y
tales que E pY q 1.
Dada la hipotesis de independencia e identica distribucion de las variables aleatorias Y1 , Y2 , . . ., puede comprobarse que el proceso tCn : n 0u
tiene incrementos independientes y estacionarios. Observamos ademas que
se puede escribir
Cn
u
p1 Yj q,
j 1
E pY q 1
165
Notacion
F py q : 1 F py q
E pY q
F py q.
y 0
Por otro lado, dadas las caractersticas que hemos solicitado para la definicion del proceso tCn : n 0u, este resulta ser una cadena de Markov
con espacio de estados o valores dado por el conjunto discreto Z. Y hemos
considerado valores enteros negativos, pues alguna reclamacion puede ser
demasiado grande y llevar al proceso a estados crticos para la aseguradora.
Justamente esta situacion es nuestro objeto de interes y es el contenido de
la siguiente definicion.
166
Definici
on 7.2 Se dice que la compa
na aseguradora se encuentra en ruina
al tiempo n 1 si
Cn 0,
y se define el tiempo de ruina como el primer momento en que la ruina
se presenta, es decir,
mn tn 1 : Cn 0u.
(7.2)
P p
8 | C 0 uq
P p P t1, 2, . . .u | C0 uq.
Observe que tecnicamente no hay ruina al tiempo cero, aun cuando se considere al capital inicial u igual a cero, pues de acuerdo con la Definicion 7.2,
la ruina solo puede ocurrir en los tiempos n 1. Intuitivamente es claro que
la funcion u puq es decreciente, es decir, a mayor capital inicial menor
probabilidad de ruina. Esta propiedad puede escribirse de la siguiente forma:
para cualquier u 0,
pu 1q puq.
En la Figura 7.1 se muestra una posible trayectoria del proceso tCn : n 0u,
en donde para fines de visualizacion se han unido los valores del proceso
mediante lneas punteadas indicando ademas los incrementos unitarios por
concepto de primas en cada intervalo. Se muestra ademas un posible momento en donde se presenta la ruina. La propiedad de Markov del proceso
de riesgo nos permitira encontrar una formula recursiva para la probabilidad de ruina en este modelo discreto. En las expresiones que escribiremos
167
Cn p q
bc
bc
bc
b
bc
bc
u
b
bc
b
Figura 7.1
lm puq 0.
7.2.
168
Proposici
on 7.1 Para el proceso de riesgo a tiempo discreto tCn : n 0u
con valor inicial u 0,
1. puq p0q
u 1
pu y q F py q
y 0
u 1
F py q,
u 1.
y 0
2. p0q E pY q.
Demostraci
on. Para cualquier capital inicial w 0 y condicionando
sobre el valor de Y1 tenemos los siguientes calculos, los cuales explicaremos
en el siguiente parrafo.
pwq
y 0
w
y 0
w
w1
P p
P p
pw
8 | Y 1 y q P pY 1 y q
8 | Y 1 y q f py q
1 y q f py q
y 0
P p
8 | Y 1 y q f py q
y w 1
f py q
y w 1
py q f pw
1 yq
F pwq.
(7.3)
y 1
169
py q f pu
1 y q F pu q.
(7.4)
y 1
pwq
w 0
u w1
u1
py q f pw
1 yq
w 0
u
py q
u1
y 1
py qF pu
y 1
f pw
1 yq
w y 1
pu
F pw q
u
w 0 y 1
1q f p0q
F pwq
w 0
u
1 yq
F pwq
w 0
py qF pu
1 yq
y 1
F pw q
w 0
Para obtener la u
ltima identidad se separa el u
ltimo sumando de la primera
suma y se observa que F p0q f p0q. Despejando este termino se obtiene
pu
1q f p0q p0q
py qp1 F pu
1 y qq
y 1
F py q.
(7.5)
y 0
Igualando el lado derecho de esta ecuacion con el lado derecho de la ecuacion (7.4)
se obtiene
puq
p0q
u
py qp1 F pu
1 yq
y 1
p0q
u
1
py q F pu y q
y 1
p0q
y 0
u 1
u
1
f pu
1 y qq
u 1
F py q
y 0
F py q
y 0
pu y q F py q
y 0
F py q.
(7.6)
170
u 1
0 lm puq p0q
lm
8 y0
pu y q F py q
F py q.
y 0
Observamos que la segunda suma es E pY q, de modo que es suficiente demostrar que el lmite de la primera suma es cero. Como E pY q 8, para
cualquier 0 puede encontrarse un valor de n natural tal que
F py q .
y n 1
Entonces
u 1
pu y q F py q
y 0
y 0
n
pu y q F py q
pu y q
y 0
F py q.
y n 1
u 1
8 y0 pu yq F pyq .
lm
Notacion
u 1
y 0
pu y q F py q,
u 1.
(7.7)
171
Por otro lado, recordando nuevamente que Y es una variable aleatoria con
valores enteros en el conjunto t0, 1, . . .u y con esperanza finita, se puede
escribir
E pY q
F py q.
y 0
u 1
pu y qF py q
F py q,
u 1.
(7.8)
y u
y 0
0
0.5
1
0.2
2
0.3
puq
0.8
0.6
0.36
0.216
0.1296
0.07776
u
6
7
8
9
10
11
puq
0.046656
0.0279936
0.01679616
0.010077696
0.006046618
0.0036279708
172
puq
1.0
0.8
0.6
0.4
0.2
0 1 2 3 4 5 6 7 8 9 10
Figura 7.2
0q
P pY 2q
p,
1 p,
173
F p1q
F py q
1 p,
1 p,
0
para y
2,
p1q
p2qF p0q
1p
p
2
.
Usando inducci
on sobre u, se puede demostrar que para cualquier capital
inicial u 1,
1p u
pu q
.
p
Esta es la probabilidad de ruina del jugador A (compa
na aseguradora) cuando su capital inicial es u y es una versi
on particular de la soluci
on al problema de la ruina del jugador, vease por ejemplo [31]. Se observa que esta
probabilidad converge a cero cuando u tiende a infinito.
En general, dada una distribucion de probabilidad particular para las reclamaciones, la formula recursiva para la probabilidad de ruina de la Proposicion 7.1 no produce expresiones compactas. El siguiente es uno de los pocos
ejemplos en los que la probabilidad de ruina tiene una formula muy corta.
Ejemplo 7.3 (Reclamaciones geom
etricas) Considere el modelo de
riesgo a tiempo discreto en donde las reclamaciones tienen distribuci
on
geoppq, es decir, la funci
on de probabilidad es
f py q p1 pqy p,
0, 1, 2, . . .
174
A partir de las f
ormulas que aparecen en la Proposici
on 7.1 pueden encontrarse los valores de puq de manera sucesiva para u 0, 1, 2, . . .. M
as
formalmente, usando inducci
on sobre el par
ametro u puede demostrarse que
para cualquier capital inicial u 0 y para cualquier p 1{2,
pu q
1p
p
Concluimos esta seccion mostrando el comportamiento lmite de la probabilidad de ruina cuando el capital inicial crece a infinito. La demostracion
de este resultado se basa en el analisis presentado antes para justificar la
hipotesis de ganancia neta en la seccion introductoria sobre los principios
para el calculo de primas.
Proposici
on 7.2 Para el modelo de riesgo a tiempo discreto y bajo la
condici
on de ganancia neta,
lm puq 0.
Demostraci
on. Por la ley fuerte de los grandes n
umeros y la condicion
de ganancia neta tenemos que
lm
1
Cn
n
lm
1
pu
n
n
Yj q
1
Yj
n j 1
n
1 lm
1 E pY q 0.
j 1
n 0
0.
7.3.
175
P p
n | C 0 uq
P p P t1, 2, . . . , nu | C0 uq,
y 0
pu
1 y, n 1q f py q,
n 2.
176
Demostraci
on.
Para n 1,
pu, 1q P p
1q P pu
1 Y1
0q P pY1 u
1q F puq.
P p
y 0
u
y 0
u
nq
P p n | Y1 y q P pY1 y q
pu
1 y, n 1q f py q
f py q
y u 1
pu
1 y, n 1q f py q
F p u q.
y 0
0
0.5
1
0.2
2
0.3
1
0.5
2
0.65
3
0.68
4
0.7085
5
0.7232
177
1.0
p0, nq
p0q
0.8
0.6
0.4
0 1 2 3 4 5
Figura 7.3
7.4.
Coeficiente de ajuste
178
Definici
on 7.3 (Coeficiente de ajuste) Suponga que la funci
on generadora de momentos de las reclamaciones Y en el proceso de riesgo a tiempo
discreto tCn : n 0u existe y que E pY q 1. El coeficiente de ajuste para
este proceso de riesgo se define como la u
nica soluci
on positiva r de la
ecuaci
on
(7.9)
E rerpY 1q s 1.
A tal soluci
on positiva se le denota por R.
erpy1q f py q 1.
y 0
para r
0.
b) p0q 1.
c) 1 prq E rpY
d)
e)
1qerpY 1qs.
2 prq E rpY 1q2 erpY 1q s.
lm prq 8, cuando F p1q 1.
r 8
179
prq
1
r
R
Figura 7.4
que existe un u
nico valor r tal que prq 1 y ese valor es el coeficiente de
ajuste R. Una grafica aproximada de prq se muestra en la Figura 7.4.
Veamos mas detenidamente el comportamiento lmite de la funcion prq.
Supongamos que la distribucion de las reclamaciones es tal que F p1q 1.
Entonces para cualquier r 0,
prq
8
8
8
erpy1q f py q
erpy1q f py q er
f py q er p1 F p1qq.
y 0
y 2
y 2
p.
180
0q
P pY 2q
p,
1 p,
p1 pqer 1.
"
0,
ln p 1p p q.
7.5.
Desigualdad de Lundberg
181
Proposici
on 7.4 (Desigualdad de Lundberg) Para el proceso de riesgo a tiempo discreto tCn : n 0u con capital inicial u 0 y cuando
el coeficiente de ajuste R existe, las probabilidades de ruina con horizonte
finito e infinito satisfacen las siguientes desigualdades:
1. pu, nq eRu ,
n 1.
2. puq eRu .
Demostraci
on. Primeramente observamos que el segundo resultado es
consecuencia del primero, pues
puq lm pu, nq lm eRu
n
eRu.
F pu q
8
f py q
y u 1
eRpu
q f py q
1 y
8
eRpu 1yq f py q
y 0
8
eRu
eRpy1q f py q
y 0
Ru
.
e
y u 1
En la pen
ultima igualdad la suma indicada vale 1, pues esa es justamente la
definicion de coeficiente de ajuste. Supongamos ahora que pu, nq eRu
para alg
un valor entero fijo n 1. Entonces, nuevamente por la formula
182
1q
pu, 1q
pu
1 y, nq f py q
y 0
eRpu 1yq f py q
y u 1
y 0
8
u
Rpu 1yq
e
eRpu 1yq f py q
f py q
y u 1
y 0
8
Rpu 1yq
f py q
f py q
y 0
Ru
e
eRpy1q f py q
y 0
Ru
e
.
En el caso cuando el coeficiente de ajuste existe, es una consecuencia inmediata de la desigualdad de Lundberg que las probabilidades de ruina se
anulan cuando el capital inicial tiende a infinito, es decir,
lm puq lm pu, nq 0.
teRC
: n 0u.
Demostraci
on. Sea pFn qn0 la filtracion natural del proceso teRCn :
n 0u. La existencia del coeficiente de ajuste garantiza que cada variable
183
| Fn q
E peRpCn
1 q | Fn q
eRCn E peRpY 1q q
eRCn .
1 Yn
Demostraci
on. (Desigualdad de Lundberg, segunda demostraci
on). Sea
el tiempo de paro definido como el momento de la ruina en el proceso de
riesgo a tiempo discreto. Como tCn : n 0u es una martingala, tambien lo
es tCn^ : n 0u. Recordemos que x ^ y mntx, y u. Ambas martingalas
comienzan en el valor eRu . Entonces para cualquier n 1,
eRu
eRC0
E peRCn^ q
E peRCn^ |
nq P p nq
n q P p n q
RC ^
| nq P p nq
E pe
RC
E pe
| nq P p nq.
E peRCn^ |
n
E peRC |
8q P p 8q
E p 1 | 8q P p 8q
P p 8q
puq.
184
1p
p
p
R ln
.
1p
7.6.
Severidad de la ruina
185
Cn p q
bc
bc
bc
b
bc
bc
u
b
C
Figura 7.5
lm pu, z q lm puq 0.
El metodo de la demostracion es muy similar al presentado para la probabilidad de ruina con horizonte infinito puq. En la seccion de ejercicios
aparece una formula recursiva para la severidad de la ruina con horizonte
finito.
186
Proposici
on 7.6 Para el proceso de riesgo a tiempo discreto tCn : n 0u
con capital inicial u 0 y tiempo de ruina , la funci
on
pu, z q P p
para z
8, C zq,
1. pu, z q p0, z q
u 1
pu y, z q F py q
y 0
z
2. p0, z q
rF pu
y q F py qs.
y 0
F py q.
y 0
Demostraci
on. Condicionando sobre el monto de la primera reclamacion,
pu, z q
u
P p
8, C z | Y1 yq f pyq
y 0
pu
u z 1
1 y, z q f py q
y 0
f py q.
y u 1
u 1
y 1
py, z q f pu
1 yq
F pu
1q F puq.
(7.10)
187
pk, z q
u k1
py, z q f pk
u
u1
1 yq
k 0 y 1
k 0
py, z q f pk
u1
1 yq
py, z q F pu
rF pk
1q F pk qs
1 yq
rF pk
1q F pk qs
k 0
Despejando el termino pu
1, z qF p0q
1q F pk qs
k 0
u
y 1
pu
y 1 k y 1
rF pk
k 0
1, z q,
u
pk, z q
k 0
py, z q F pu
1 yq
y 1
rF pk
1q F pk qs
k 0
p0, z q
py, z q p1 F pu
1 y qq
y 1
rF pk
1q F pk qs.
(7.11)
k 0
1, z qF p0q pu, z q
py, z q f pu
1 y q rF pu
1q F puqs.
y 1
(7.12)
y 1
py, z q F pu y q
u 1
k 0
rF pk
1q F pk qs.
188
u 1
rF pk
1q F pk qs
z
u 1
z u
1
rF pk
1q F pk
y qs
rF pk
1q F pk
y qs
k 0 y 0
k 0
y 0 k 0
z
rF pu
y q F py qs.
y 0
Por lo tanto,
pu, z q p0, z q
py, z q F pu y q
y 1
rF pu
y q F py qs.
(7.13)
y 0
lm pu, z q
p0, z q
lm
8 y1
py, z q F pu y q
p1 F pyqq.
y 0
py, z q F pu y q
y 1
u 1
8
pu v, z q F pv q
v 0
v 0
n
pu v, z q F pv q
pu v, z q
v 0
F pv q,
v n 1
189
u 1
pu y, z q F py q
y 0
F pu
y q.
y 0
Comparando esta expresion con la formula para puq dada por la ecuacion (7.8) de la pagina 171 podemos escribir la diferencia entre puq y
pu, z q de la siguiente forma:
puq pu, z q
u 1
y u z 1
y 0
F py q.
P p
8q P p 8, C zq
P p 8, C z q.
8, C zq
u 1
1 pu y, z q F py q
y 0
F py q.
y u z 1
0, 1, 2, . . .
190
A partir de las f
ormulas que aparecen en la Proposici
on 7.6 y usando inducci
on sobre el par
ametro u puede demostrarse que
pu, z q r 1 p1 pq
z 1
1p
p
Al hacer z tender a infinito obtenemos las probabilidades de ruina con horizonte infinito cuando las reclamaciones son geometricas. Estas probabilidades aparecen en el Ejemplo 7.3.
lm pu, z q
1p
p
puq.
Comentarios y referencias
En el presente captulo hemos estudiado el problema de la ruina en el proceso de riesgo a tiempo discreto no trivial mas sencillo posible. El modelo que
hemos estudiado puede plantearse con caractersticas mas generales, pero al
considerar el modelo elemental estudiado, nuestro objetivo ha sido mostrar
el tipo de problemas matematicos que pueden plantearse y en algunos casos
mostrar las respuestas que se obtienen en casos particulares. En la respuesta
general a estos problemas hemos encontrado varias formulas recursivas que
invitan a su implementacion en computadora. En algunos casos las probabilidades involucradas pueden tomar valores muy cercanos a cero y ello podra
provocar problemas numericos. Debe entonces tenerse cuidado al programar
estas formulas en una computadora. El material expuesto en este captulo
esta basado en el captulo introductorio a la teora de la ruina del texto de
Dickson [13]. Otras referencias en el tema son [7] y [23]. El lector interesado
en el estudio mas profundo sobre los modelos de riesgo a tiempo discreto
puede consultar artculos de investigacion panoramicos como [24].
191
7.7. Ejercicios
7.7.
Ejercicios
Proceso de riesgo a tiempo discreto
E pY q
F py q.
y 0
0
3/4
1
1/8
2
1/8
158. Suponga que las reclamaciones en el modelo de riesgo a tiempo discreto tienen la siguiente funcion de probabilidad: para alg
un entero
k 2 fijo,
f p0q
f pk q
1 p,
p.
192
Demuestre que:
a) puq
b) puq
1p
p
1p
ku
u 1
pu y q
para 1 u k.
y 1
k 1
pu y q para u k.
y 1
1q puq.
b) lm puq 0.
u
y
f py q
0
4/10
1
5/10
2
1/10
193
7.7. Ejercicios
Coeficiente de ajuste
0
1/3
1
1/2
2
1/6
163. Considere el modelo de riesgo a tiempo discreto en donde las reclamaciones tienen distribucion geoppq, es decir, la correspondiente
funcion de probabilidad es
f py q p1 pqy p,
0, 1, 2, . . .
p
R ln
.
1p
164. Suponga que las reclamaciones tienen la siguiente distribucion de
probabilidad
P pY
0q
P pY 3q
1 p,
p.
p
p2 4pp1 pq
2p
194
f pk q
1 p,
p.
pu, zq es creciente.
195
7.7. Ejercicios
c) pu, z q puq.
d) lm pu, z q puq.
z
n, C zq.
Demuestre que:
a) pu, z; 1q F pu
b) pu, z; nq pu, z; 1q
1q F puq.
u
y 0
pu
1 y, z; n 1q f py q,
n 2.
Captulo 8
Teora de la ruina:
tiempo continuo
En este captulo se presenta una version a tiempo continuo del proceso de
riesgo conocida como el modelo clasico de Cramer-Lundberg. Encontraremos
que la probabilidad de ruina para este modelo satisface una ecuacion integral. Estudiaremos ademas algunos otros resultados relacionados al calculo
y estimacion de la probabilidad de ruina.
8.1.
Modelo cl
asico de Cram
er-Lundberg
198
Definici
on 8.1 El modelo cl
asico de Cramer-Lundberg es el proceso estoc
astico a tiempo continuo tCt : t 0u dado por
Ct
u
ct
Nt
Yj ,
(8.1)
j 1
sico de Crame
r-Lundberg
8.1. Modelo cla
199
bc
bc
b
b
b
Figura 8.1
Estas trayectorias comienzan siempre en el capital inicial u. Los intervalos
en donde estas trayectorias son continuas y crecientes corresponden a periodos en donde no hay reclamaciones. El crecimiento es de la forma ct. Las
discontinuidades son siempre saltos hacia abajo, y aparecen en el momento
en que se efect
ua una reclamacion, la cual supondremos que se paga de manera inmediata. El tama
no de un salto es el tama
no de la reclamacion dada
por la variable Y . Hemos supuesto que los montos Y1 , Y2 , . . . son variables
aleatorias independientes, positivas e identicamente distribuidas, y en algunas ocasiones supondremos que tienen funcion generadora de momentos
MY prq. Los momentos, cuando existan, se denotaran nuevamente por
n
E pY n q,
n 1.
VarpCt q
pc qt,
2 t.
200
La condici
on de ganancia neta
Sean T0 , T1 , T2 , . . . los tiempos aleatorios (tiempos de paro) en donde la aseguradora recibe las reclamaciones. Supondremos T0 0. Para cada entero
k 1 defina la variable aleatoria Xk c pTk Tk1 q Yk , que puede ser interpretada como el balance de la compa
na aseguradora entre dos siniestros
sucesivos. La esperanza de esta variable es
E pXk q
1
c
.
Si denotamos por Crks al proceso de riesgo al momento de la k-esima reclamacion, entonces tenemos que
Crks
u
Xk .
j 1
1
lm
k8 k
E pXk q
1
c
.
Xk
j 1
sico de Crame
r-Lundberg
8.1. Modelo cla
201
Ruina
La trayectoria promedio de este proceso de riesgo es la lnea recta que inicia
en u 0 y tiene pendiente c , la cual es positiva por la condicion o
hipotesis de ganancia neta. Vease la Figura 8.1. Por razones naturales y
legales es importante que Ct permanezca por arriba de cierto nivel mnimo.
Supongamos que tal nivel mnimo es a, con 0 a u. Ajustando el capital
inicial u, esto es, suponiendo un nuevo capital inicial de magnitud u a, se
puede suponer, sin perdida de generalidad, que este nivel mnimo es cero, y
as lo haremos en nuestro analisis. De esta forma cuando Ct 0 para alg
un
t 0 se dice que hay ruina.
Definici
on 8.2 Se dice que el proceso de riesgo se encuentra en ruina al
tiempo t 0 si
Ct 0,
y se define el tiempo de ruina como el primer momento en que la ruina
se presenta, es decir,
nf tt 0 : Ct 0u.
(8.2)
Nuevamente definiremos 8 cuando el conjunto indicado en la expresion (8.2) es vaco y corresponde a la situacion cuando la ruina nunca se
presenta. Observe que hemos definido ruina en el modelo a tiempo continuo
cuando ocurre el evento pCt 0q, a diferencia del evento pCn 0q para
el modelo discreto estudiado en el captulo anterior. La ruina casi nunca
sucede en la practica, es solamente un termino tecnico que produce alguna
toma de decision. Por ejemplo, si el capital de una compa
na aseguradora
asignado a una cartera decrece en forma significativa, autom
aticamente la
aseguradora puede tomar ciertas medidas para subsanar esta situacion y no
se trata de un evento insalvable. Por otro lado, es natural suponer que la
compa
na aseguradora posea varios portafolios de modo que ruina en uno
de ellos no significa necesariamente bancarrota que el termino ruina podra
sugerir.
En las siguientes secciones nos interesara calcular o estimar probabilidades
202
8 | C0 uq.
Y no habra ambig
uedad en su definicion pues el modelo o contexto en el que
se estudia determinara el caso correspondiente. Nuevamente escribiremos a
esta probabilidad como funcion del capital inicial u, aunque en realidad
depende de todos los parametros del modelo. Y observamos ademas, sin
proveer una demostracion, la monotona decreciente de esta funcion, es decir,
si u1 u2 , entonces
pu1 q pu2 q.
8.2.
puq : 1 puq
203
Proposici
on 8.1 Suponga que la funci
on de distribuci
on F py q de una
reclamaci
on en el modelo de Cramer-Lundberg es continua. Entonces
1.
pu q
du
c
2. p0q
.
c
3. puq
pu q
8
u
F py q dy
pu y q dF py q .
u
0
pu y q F py q dy .
Demostraci
on. Usaremos analisis del primer paso condicionando sobre
el monto de la primera reclamacion Y1 y el momento T1 en el que esta
reclamacion ocurre. Usaremos ademas el hecho de que T1 tiene distribucion
exppq.
puq
P p No ruina en p0, 8q | C0
88
08 0u
8
0
uq
P p No ruina en p0, 8q | Y1 y, T1 tq dF py q fT ptq dt
1
ct
et
et
P p No ruina en p0, 8q | Y1
ct
0
u ct
0
y, T1 tq dF pyq fT ptq dt
P p No ruina en pt, 8q | Y1
pu
y, T1 tq dF pyq dt
ct y q dF py q dt.
204
puq
es{c
s
0
ct y, esto es
ct en la u
ltima
ps y q dF py q ds.
A partir de esta formula se puede verificar que la funcion u puq es diferenciable. As, derivando esta expresion se encuentra el resultado del primer
inciso. Demostraremos a continuacion el segundo resultado. Integrando la
ecuacion diferencial del primer inciso entre 0 y u se obtiene
puq p0q
u
0u
0
u
pxqdx
pxqdx
ux
0u 0u
px y q dF py q dx
px y q dx dF py q
0 y
u u y
pxqdx
pxq dx dF py q
c
0
0 0
u
u ux
pxqdx
pxq dF py q dx
c
0 0
u0
pxq F pu xq dx.
c 0
u x se obtiene
u
pu y q F py q dy
c 0
8
pu y q F py q 1r0,us py q dy.
c 0
(8.3)
8
0
F py q dy
.
c
205
.
c
(8.4)
8
u
u
0
pu y qF py q dy
F py qdy
pu y qF py q dy
Observe que la u
ltima expresion corresponde a una ecuacion ntegro diferencial para la probabilidad de ruina. En general no es facil resolver este tipo de
ecuaciones, sin embargo, cuando las reclamaciones tienen distribucion exponencial la ecuacion es soluble como se muestra en un ejemplo mas adelante.
Para resolver la ecuacion observamos primero que mediante un cambio de
variable en la integral de la primera formula de la Proposicion 8.1 se obtiene
d
puq
du
c
puq
u
0
py q f pu y q dy
(8.5)
En el texto de Rolski et al. [32] se pueden encontrar los detalles de la demostracion de la diferenciabilidad de la funcion u puq, por simplicidad
hemos supuesto tal propiedad en nuestros argumentos. Por otro lado, en
el texto de Embrechts et al [14] puede encontrarse una argumentacion mas
formal sobre la propiedad de renovacion del proceso de riesgo en los tiempos
aleatorios en los que ocurre una reclamacion. Esta propiedad fue utilizada
en la demostracion anterior y nos ayudo a encontrar una ecuacion ntegro
diferencial para la probabilidad de ruina.
Ejemplo 8.1 (Reclamaciones exponenciales) Encontraremos la proba
bilidad de ruina cuando las reclamaciones son exponenciales. Este
es uno
de los pocos modelos para los cuales tal probabilidad puede encontrarse de
manera explcita. Consideremos entonces el modelo de Cramer-Lundberg
en donde las reclamaciones tienen distribuci
on exppq y cuya esperanza es
206
1 puq
c
puq eu
u
0
py q e
dy
2
pu q
1puq,
c
cuya soluci
on es puq a bep{cqu , en donde a y b son constantes.
Usando las condiciones p0q {pcq y p8q 0 se encuentra que a 1
y b {pcq. Por lo tanto,
puq
p{cqu
.
e
c
La gr
afica de esta funci
on se encuentra en la Figura 8.2. Observe que debido
a la condici
on de ganancia neta, el exponente p {cq es negativo, y por
lo tanto la probabilidad de ruina decae a cero exponencialmente cuando el
capital inicial u crece a infinito.
puq
u
Figura 8.2
207
Proposici
on 8.2 Para el modelo de de Cramer-Lundberg y bajo la condici
on de ganancia neta,
lm puq 0.
u
Demostraci
on. Por la ley fuerte de los grandes n
umeros y la condicion
de ganancia neta tenemos que
lm
1
Ct
t
lm
1
pu
t
ct
Nt
1 t
Yj
c lm
t8 t
j 1
c p lm
Yj q
j 1
N
Nt
1
qp
lm
t t8 Nt
c 0.
Nt
Yj q
j 1
Para el primer lmite hemos usado uno de los resultados que establece la
velocidad de crecimiento del proceso de Poisson, esto es, que Nt {t converge
casi seguramente al parametro cuando t 8. Para el segundo lmite
hemos usado una extension del teorema central del lmite. De esta forma
concluimos nuevamente que la v.a. Ct diverge a infinito casi seguramente
cuando t 8. En consecuencia, la variable nf t0 Ct esta acotada por abajo
casi seguramente. Por lo tanto, tomando un capital inicial u suficientemente
grande, la cota inferior de nf t0 Ct puede hacerse igual a cero, es decir,
nf Ct
t 0
0.
208
8.3.
x | C0 uq,
Notacion
pu, xq : 1 pu, xq
209
Proposici
on 8.3 (F
ormulas de Seal) Considere el
de riesgo de
Nproceso
t
Cramer-Lundberg Ct u ct S ptq, en donde S ptq j 1 Yj . Suponga que
las reclamaciones tienen distribuci
on absolutamente continua con funci
on
de densidad f py q y defina la funci
on
fS ptq py q et
Entonces
1. FS ptq
2. p0, xq
3.
pxq et
1
cx
cx
0
8 ptqn
f n py q.
n!
n1
fS ptq py q dy,
x 0.
FS pxq py q dy.
4. pu, xq FS pxq pu
cxq c
x
0
p0, x y q fS pyq pu
1 B
pu, xq .
Bx
cy q dy.
Demostraci
on. La primera identidad se obtiene condicionando sobre el
n
umero de reclamaciones: para cualquier x 0,
FS ptq pxq
P pS ptq xq
P pS p t q x | N t
et
n 0
nq P pNt nq
8
n x
t ptq
e
f n py q dy.
n!
0
n1
210
Para la segunda identidad, suponiendo que el capital inicial u es cero, tenemos que
p0, xq
P p
xq
P p pCt 0q q
Pp
t x
pS ptq ctq q
t x
Pp
t x
t x
Recordemos la notacion
x
Por lo tanto,
p0, xq
"
p0, xq
x si x 0,
0 si x 0.
1 8
pcx yq fSpxqpyq dy
cx 0
1
E pcx S pxqq
cx
1 8
y dFcxS pxq py q dy
cx 0
1 cx
y dFcxS pxq py q dy.
cx 0
cx
cx
1
FcxS pxq py q dy
y FcxS pxq py q
cx
0
0
cx
1
P pS pxq v q dv
cx
cx
0
1 cx
pvq dv.
F
cx 0 S pxq
211
P p No ruina en p0, xs | C0
88
0x 08
0
uq
P p No ruina en p0, xs | Y1 y, T1 tq dF py q fT ptq dt
1
P p No ruina en p0, xs | Y1
88
0
y, T1 tq dF pyq fT ptq dt
1
P p No ruina en p0, xs | Y1
Observe que hemos separado dos casos: uno cuando la primera reclamacion
ocurre al tiempo t dentro del intervalo p0, xs y el otro cuando ocurre despues
de x. En el primer caso la probabilidad del evento de interes es distinta de
cero cuando la reclamacion es menor o igual a u ct. En el segundo caso la
probabilidad del evento es uno. Por lo tanto,
pu, xq
xu
0
ct
88
et
P p No ruina en p0, xs | Y1
pu, xq e {
u
0
u
u
cx
dF py q fT1 ptq dt
ct
pu
ct y, x tq dF py q dt
y, T1 tq dF pyq fT ptq dt
es{c
s
0
P pT 1
xq.
ct se obtiene
ps y, x ps uq{cq dF py q
1
ds
c
ex .
1 B
pu, xq
Bx
. (8.6)
212
Para encontrar la cuarta identidad reescribiremos esta ecuacion en terminos de la transformada de Laplace. Recordemos que la expresion L ps, xq
denotara la transformada de Laplace de la funcion u pu, xq, es decir,
L ps, xq
8
0
1 B
L ps, xq
Bx
O bien,
Bx
a
x
0
8
0
esu pu, 0q du
8
0
epcs
p p q1qqx , (8.7)
Lf s
1
esu du .
s
1 pcs
e
s
p p q1qqx
Lf s
x
0
p0, y q c epcs
Lf s
Demostraremos que los dos terminos del lado derecho son tambien una transformada de Laplace. Despues de algunos calculos pueden comprobarse los
siguientes resultados:
213
cxqspsq epcs
c) LrfS pxq pu
p p q1qqx .
Lf s
x
0
p0, y q c
08
0
esv c
8
x
0
cpx y qqspsq dy
esv fS pxyq pu
p0, x z q fS pz q pu
cpx y qq du dy
cz q dz du.
8.4.
Severidad de la ruina
C p q.
214
Ct p q
bc
bc
bc
b
X
b
Z
b
Figura 8.3
Como antes, a la variable Z le llamaremos severidad de la ruina. El problema
que se plantea ahora es el de encontrar la probabilidad conjunta
pu, x, z q P p
8, X x, Z zq,
pu, x, z q
pu, x, z q
pu, 0, 0q
pu, 0, z q,
pu, x, 0q,
puq,
puq.
215
Proposici
on 8.4 Suponga que la funci
on de distribuci
on F py q de las reclamaciones en el modelo de Cramer-Lundberg es continua. Entonces, para
x 0, y z 0,
d
pu, x, z q
1.
du
c
pu, x, z q
u
0
pu y, x, z q dF py q
1puxq F pu
8
2. p0, x, z q
3. pu, x, z q
x z
zq .
F py q dy.
8
u z
F py q dy
u
0
pu y, x, z qF py q dy
1puxq
x z
F py q dy .
Demostraci
on. Usaremos nuevamente analisis del primer paso condicionando sobre el monto y momento de la primera reclamacion. Dado un valor
t para el momento de la primera reclamacion, separaremos tres conjuntos
para el monto de dicha reclamacion:
p0, u
ctq Y pu
ct, u
ct
z q Y pu
ct
z, 8q.
216
se reduce a 1pu
pu, x, z q
ct x
88
8
0
P p
et
u
0
et
ct
pu
u ct z
ct y, x, z q dF py q dt
q dF pyq dt.
1pu
ct x
Por lo tanto,
pu, x, z q
et
8
0
ct
pu
et 1pu
q F pu
ct x
1
c
8
u
epsuq{c
8
u
ct y, x, z q dF py q dt
ct
z q dt.
ct se obtiene
s
0
ps y, x, z q dF py q ds
epsuq{c 1psxq F ps
z q ds
u
0
pw, x, z q dw
uw
0 0
u
0
pw y, x, z q dF py q dw
1pwxq F pw
z q dw
217
uw
0
pw y, x, z q dF py q dw
uu
0 0
u u v
0 0
u
1pwxq F pw
z q dw
Por lo tanto,
pu, x, z q p0, x, z q
1puxq
u
0
u
0
u
0
pv, x, z q dv dF py q
pv, x, z q dF py q dv
pv, x, z qF pu v q dv.
pw y, x, z q dw dF py q
0 y
u u y
u
x
F pw
z q dw.
pv, x, z qp1 F pu v qq dv
1puxq
u
x
F pw
z q dw
pv, x, z q F pu v q dv
1puxq
x z
F py q dy
pu y, x, z qF py q dy
1puxq
x z
F py q dy
(8.9)
x z
F py q dy.
(8.10)
218
8
u
F py q dy
pu y, 0, 0q F py q dy
8
u z
Para la variable X,
pu, x, 0q
8.5.
8
u
F py q dy
F py q dy
u
0
u
0
pu y, 0, z q F py q dy
pu y, x, 0q F py q dy
1puxq
u
x
F py q dy
El coeficiente de ajuste
2
pr q
MY1 prq c,
Por lo tanto, prq es una funcion estrictamente convexa tal que p0q 0, y
por la condicion de ganancia neta, 1 p0q c 0. Entonces es posible
219
pr q
Figura 8.4
que exista un valor r 0 tal que prq 0. Una grafica de la funcion prq
presentando esta situacion se muestra en la Figura 8.4.
Definici
on 8.3 A la posible soluci
on r 0 de la siguiente ecuaci
on se le
llama coeficiente de ajuste o exponente de Lundberg.
prq pMY prq 1q cr
0.
A tal soluci
on positiva se le denota por R.
220
. Entonces
pMY prq 1q cr
p r 1q cr
p r r q cr
p r cq r.
p{cqu
e
c
Ru
c
eRu,
e
r
1 cr.
on cuadr
atica
La condici
on prq 0 produce la ecuaci
rp 2cq
cr2
cuyas races son
r
2c
pc2 2q 0,
?
2c
4c
221
p2c
4cq{2c
p2c
{c
.
82 q{2c
0.
rn gg1pprrn qq .
n
M
as adelante demostraremos que si el coeficiente de ajuste existe, entonces
este se encuentra siempre dentro del intervalo p0, 2pc q{p2 qq. Vease
el enunciado de la Proposici
on 8.9. Con base en este resultado, tomaremos
como condici
on inicial r0 2pc q{p2 q 3{2. Usando estos datos, la
iteraci
on de Newton-Raphson arroja la siguiente sucesi
on de valores:
n
0
1
2
3
4
rn
1.5
0.8333333
0.8405056
0.8404738
0.8404738
222
8
0
ery F py q dy
c .
Tenemos que
Demostraci
on.
0
pr q
prq 1q cr
pM
8Y
8
p ery dF pyq dF pyqq cr
08
pery 1q dF pyq cr
Para la u
ltima igualdad hemos usado el hecho de que dF pxq
Integrando ahora por partes tenemos que
dF pxq.
8 8
ry
re F py q dy cr.
0 pe 1q F py q
ry
223
8
0
ery F py q dy cr.
Este resultado permite ademas dar una interpretacion de aquellas distribuciones de probabilidad para las cuales el coeficiente de ajuste existe: para
que la integral de la proposicion anterior sea finita, la cola de la distribucion,
es decir, F py q, debe decaer a cero lo suficientemente rapido para anular el
comportamiento creciente de la expresion ery dentro de la integral. Esto
ha originado el termino de cola ligera para aquellas distribuciones para las
cuales exista el coeficiente de ajuste.
Definici
on 8.4 (Distribuci
on con cola ligera/pesada) A una distribuci
on de probabilidad con soporte en el intervalo p0, 8q y para la cual
a) existe el coeficiente de ajuste se le llama distribuci
on con cola ligera.
b) no existe el coeficiente de ajuste se le llama distribuci
on con cola
pesada.
8
0
e F py q dy
ry
8
0
yc
0,
ry
yc
dy
8
0
ery y c dy
8.
224
cola de la distribuci
on debe decaer a cero lo suficientemente r
apido para
ry
anular el comportamiento creciente del termino e dentro de la integral.
En este ejemplo la cola de la distribuci
on Burr decae a cero en la forma
y c que es insuficiente para hacer que la integral sea finita.
Una distribucion con cola ligera asigna probabilidades muy peque
nas a los
valores grandes de la variable aleatoria. Esto puede no ser muy conveniente
para modelar algunos riesgos, pues de esa manera se esta subestimando la
posibilidad de registrar grandes montos en las reclamaciones. A continuacion
mencionamos algunos ejemplos de distribuciones con cola ligera y pesada.
Ejemplo 8.6 (Distribuciones con cola ligera) Las siguientes distribuon generadora
ciones tienen como soporte el intervalo p0, 8q y tienen funci
de momentos.
a) Distribuci
on exppq, par
ametro 0.
F py q ey ,
b)
c)
0.
Distribuci
on gamap, q, par
ametros 0, 0.
pyq1 ey , y 0.
f py q
p q
Distribuci
on Weibullpr, q, par
ametros 0, r 1.
F py q epyq , y 0.
Distribuci
on normal truncada (valor absoluto de Np0, 1q ).
F py q 2p1 py qq, y 0.
y
d)
Ejemplo 8.7 (Distribuciones con cola pesada) Las siguientes distribuciones tienen como soporte el intervalo p0, 8q y no poseen funci
on generadora de momentos.
ametros P R, 2
a) Distribuci
on lognormalp, 2 q, par
F py q 1
ln y
,
0.
ametros a 0, b 0.
b) Distribuci
on Paretopa, bq, par
F py q
b
b
0.
0.
225
yc
0.
d) Distribuci
on Weibullpr, q, par
ametros 0, 0 r
F py q epyq ,
e)
1.
0.
Distribuci
on loggamap, q, par
ametros 0, 0.
1
p ln yq yp 1q, y 0.
f py q
p q
r
b) lm MY prq 8.
r r
Entonces existe el coeficiente de ajuste, es decir, existe un u
nico valor r
tal que
prq pMY prq 1q cr 0.
Demostraci
on. Dadas las propiedades que se observaron que posee la
funcion prq alrededor de r 0, es suficiente demostrar que
lm prq 8.
Se tienen dos casos. Supongamos primero que r 8. Entonces la afirmacion se obtiene de la segunda hipotesis, pues como 0,
lm prq lm pMY prq 1q cr
r r
r
8.
226
Supongamos ahora que r
M Y pr q
8
0
y
8
ery dF py q
e dF py q
ry
8
y
ery dF py q
ery dF py q
y
ry
F py q.
Por lo tanto,
lm prq
rl8
m pMY prq 1q cr
rl8
m pery F py q 1q cr
8.
Proposici
on 8.7 Sea Y una variable aleatoria positiva con funci
on de distribuci
on F py q y con funci
on generadora de momentos tal que M prq 8
para alg
un r 0. Entonces para cualquier y 0,
F py q M prq ery .
227
P pY
yq
P pe ery q
E perY q
rY
ery
M prq ery .
8.6.
Desigualdad de Lundberg
t erC prqt : t 0 u.
t
Demostraci
on. La adaptabilidad del proceso es evidente pues implcitamente estamos usando la filtracion natural. Acerca de la integrabilidad te-
228
nemos los siguientes calculos
Nt
E perCt prqt q
j 1
Nt
j 1
Finalmente tenemos la
t y por
la propiedad de incrementos independientes y estacionarios del proceso de
riesgo,
E perCt prqt | Fs q
eprqt E perCt | Fs q
Nt
Demostraci
on. Sea el tiempo de paro correspondiente al tiempo de
ruina. Como el proceso teRCt : t 0u es una martingala, se tiene que
229
eRC0
E peRCt^ q
E peRCt^ |
t q P p t q
E peRCt^ | tq P p tq
E peRCt^ | tq P p tq
E peRC | tq P p tq
RC
1p tq dP P p tq.
e
E peRC |
8q P p 8q
E p 1 | 8q P p 8q
P p 8q
puq.
230
eRu
1
u
Figura 8.5: Cota superior para la probabilidad de ruina.
Proposici
on 8.9 Si el coeficiente de ajuste R existe para la distribuci
on
de probabilidad de las reclamaciones en el modelo de Cramer-Lundberg,
entonces
1
c
2pc q
R
ln
,
M
2
en donde la primera desigualdad es v
alida bajo la hip
otesis adicional de que
Y M c.s., para alguna constante M 0.
Demostraci
on. Demostraremos primero la cota superior. Consideremos
nuevamente la funcion prq pMY prq 1q cr, para r 0. Sabemos que
p0q 0. Derivando esta funcion dos veces se obtiene
1 prq
2
pr q
MY1 prq c,
E pY 2 erY q
E pY 2 q
2 .
1 p0q
2 psqds
0
p cq 2 r.
231
p0q
p cqr
1 psqds
1
2 r2 .
2
Evaluando la u
ltima desigualdad en R se obtiene
0
p cqR
r p cq
1
2 R2
2
1
2 R s R.
2
x RM
pe
M
1q peRx 1q.
Entonces h2 pxq R2 eRx 0. Por lo tanto hpxq es una funcion concava
con hp0q hpM q 0. Esto quiere decir que hpxq 0 para 0 x M , es
decir,
x RM
pe 1q peRx 1q 0,
M
o bien,
(8.11)
Sea g pxq xex ex 1. Entonces g 1 pxq xex 0. Por lo tanto g pxq es una
funcion creciente para x 0, es decir, g pxq g p0q 0, para x 0. Por lo
tanto, xex ex 1 0, para x 0. En particular, evaluando en x RM
se obtiene RM eRM eRM 1 0. Entonces
eRM 1
RM
eRM .
(8.12)
232
0
M
0
peRx 1q dF pxq
x RM
pe
M
1 RM
pe
M
RM
pe
M
1q
1q dF pxq
M
1q.
x dF pxq
(8.13)
pMY pRq 1q cR
peRM 1q cR
M
ReRM cR
peRM cqR.
Ejemplo 8.8 (Reclamaciones exponenciales) Consideremos nuevamente el caso cuando las reclamaciones son exponenciales de par
ametro . Sabemos que en este caso el coeficiente de ajuste existe y est
a dado por
R
.
c
Usando la condici
on de ganancia neta puede verificarse que efectivamente se
cumple la cota superior para R demostrada en la Proposici
on 8.9, es decir,
R
q .
2pc
2
n de De Vylder
8.7. Aproximacio
233
del intervalo p0, 2pc q{2 q. Este resultado fue usado en el Ejemplo 8.4.
Observe ademas que cuando las reclamaciones estan acotadas superiormente
por una constante positiva M , podemos usar la cota inferior para R para
encontrar una cota superior para la probabilidad de ruina sin conocer el
valor exacto del coeficiente de ajuste, pues
pu q
eRu
e M lnpc{q
u {M
elnp{cq
u{M
.
c
u
8.7.
Aproximaci
on de De Vylder
u
c t
t
N
Yj ,
(8.14)
j 1
234
Proposici
on 8.10 (Aproximaci
on de De Vylder) Suponga que las
reclamaciones en el modelo de riesgo de Cramer-Lundberg tienen tercer
momento finito. Entonces la probabilidad de ruina en este modelo tiene
como aproximaci
on la f
ormula
pu q
ep {cqu ,
c
en donde
3
3
9 2 ,
2 23
2
,
3
c c
3 22
.
2 3
Demostraci
on. El metodo consiste en igualar los tres primeros momentos
de las variables Ct y Ct . Primeramente veamos la igualacion de las esperanzas. La condicion E pCt q E pCt q produce la ecuacion
u
De donde se obtiene
ct t u
p 1 q t.
ct
.
(8.15)
2 2 .
(8.16)
6 3 .
(8.17)
rmula de Pollaczek-Khinchin
8.8. Fo
235
16 3 3.
3
2
.
3
(8.18)
Sustituyendo en (8.16),
3
9 2 .
2 23
(8.19)
3 22
.
2 3
(8.20)
y
De esta forma hemos encontrado los parametros c,
en terminos de los
8.8.
F
ormula de Pollaczek-Khinchin
236
(8.21)
Uj ,
j 1
nq pn p1 pq,
1 x
H pxq
F py q dy,
0
en donde F py q es una funcion de distribucion de una variable aleatoria no
negativa con media finita . Puede comprobarse que H pxq es efectivamente
una funcion de distribucion. Siguiendo la misma notacion que en el modelo de Cramer-Lundberg, F py q representara la funcion de distribucion del
monto de una reclamacion.
Proposici
on 8.11 Sea Gpxq la funci
on de distribuci
on de la v.a. X con
distribuci
on geometrica compuesta dada por (8.21) junto con la notaci
on e
hip
otesis arriba enunciados. Para valores de s suficientemente peque
nos, la
transformada de Laplace de Gpxq 1 Gpxq es
8
0
p
sx
e
Gpxq dx
1 p1 p q
s
L F ps q
p L F ps q
Demostraci
on. Primeramente tenemos que
Gpxq
n 0
H n pxqp1 pqpn .
rmula de Pollaczek-Khinchin
8.8. Fo
Entonces
Gpxq
1 p1 p q
237
pn H n pxq
8
n 0
p p1 p q
pn H n pxq.
n 1
8
0
esx Gpxq dx
p
s
p1 p q
p
s
p1 p q
p
s
p1 p q
p
s
p
s
8
0
esx p
8
n 1
p1 pq 8
pn H n pxq q dx
n1
8
pn
esx H n pxq dx
0
n 1
ppsLH psqqn
n 1
L H ps q
p1 pq 1 p ps
.
L psq
H
En la u
ltima igualdad hemos supuesto que s es suficientemente peque
no
de tal forma que psLH psq 1. A partir de la definicion de H pxq puede
demostrarse que
1
LH psq
L psq.
s F
Por lo tanto,
8
0
esx Gpxq dx
p
s
p1 s pq p LpFLpsqpsq .
F
Con la notacion e hipotesis utilizadas en el modelo de Cramer-Lundberg, tenemos el siguiente resultado importante: la probabilidad de ruina esta dada
por la cola de la funcion de distribucion de la variable aleatoria geometrica
compuesta dada por (8.21), es decir, puq Gpxq.
238
Teorema 8.2 (F
ormula de Pollaczek-Khinchin) Considere el modelo
de riesgo de Cramer-Lundberg en donde las reclamaciones tienen funci
on
de distribuci
on F py q y media finita . Entonces la probabilidad de ruina
est
a dada por
pu q p 1 p q
en donde p
n 1
1
y H puq
c
pn H n puq,
F py q dy.
Demostraci
on. Sabemos que la probabilidad de ruina satisface la ecuacion
integral
puq
8
F py q dy
u
0
u
0
F py q dy
pu y qF py q dy
p F qpuq
1
L psq
s F
L psqLF psq
de donde se obtiene
L psq
p LF psqq
1 c LF psq
cs p pp p1 pqqLF psqq .
1 c L F ps q
cs
r pp p1 pqqLF psqs
p LF psq
L F ps q
p
s 1 p1 pq p L psq .
p
s
rmula de Pollaczek-Khinchin
8.8. Fo
239
De esta forma hemos encontrado que la transformada de Laplace de la probabilidad de ruina coincide con la transformada de Laplace de la funcion
Gpxq 1 Gpxq, en donde Gpxq es la funcion de distribucion geometrica
compuesta dada por (8.21) con las caractersticas descritas en la Proposicion 8.11. Por la unicidad de la transformada de Laplace tenemos que ambas
funciones deben ser iguales, es decir,
puq
G pu q
p p1 p q
8
pn H n puq
n 1
p p1 p q
p1 p q
pn p1 H n puqq
n 1
pn H n puq.
n 1
En general no es inmediato calcular las convoluciones de la funcion de distribucion H puq ni tampoco llevar a cabo la suma infinita que aparece en
la formula de Pollaczek-Khinchin, pero sin duda es una formula bastante
atractiva desde el punto de vista matematico pues, como hemos visto, esta
expresion corresponde a la cola de la distribucion de la variable aleatoria
geometrica compuesta dada por (8.21). Pueden llevarse a cabo simulaciones
de esta variable aleatoria, calcular la magnitud de las colas y conocer de manera aproximada la probabilidad de ruina cuando las reclamaciones tienen
distribucion continua arbitraria. A continuacion reduciremos la formula de
Pollaczek-Khinchin a la solucion conocida para puq en el caso cuando las
reclamaciones son exponenciales.
Ejemplo 8.9 (Reclamaciones exponenciales) Suponga que las reclamaciones tienen distribuci
on exponencial de par
ametro . Entonces puede
comprobarse f
acilmente que H puq es nuevamente la funci
on de distribuci
on
n
exppq. Por lo tanto, H puq es la funci
on de distribuci
on gamapn, q y
tiene la expresi
on
8
puqk .
eu
H n puq
k!
kn
240
Entonces
H n puq
puqk .
eu
k!
k0
n 1
Por lo tanto,
pn H n puq
n 1
1
8 n
8
8
pn eu
puqk
n 1 k 0
k!
pn eu
k 0 n k 1
puqk
k!
ppuqk
eu
1 p k0
k!
p
ep1pqu .
p
1p
De donde se confirma nuevamente que la probabilidad de ruina en el modelo de Cramer-Lundberg cuando las reclamaciones son exponenciales de
par
ametro es
pu q
p1 p q
n1
p1pqu
pe
pn H n puq
p qu
c
.
e
c
En la siguiente seccion veremos otro caso particular para la distribucion de
las reclamaciones en el modelo de Cramer-Lundberg en donde la formula de
Pollaczek-Khinchin permite encontrar una forma de expresar la probabilidad
de ruina.
8.9.
Probabilidad de ruina
con reclamaciones tipo fase
Como u
ltimo resultado presentamos una expresion para la probabilidad de
ruina en el modelo de Cramer-Lundberg cuando las reclamaciones son continuas tipo fase. Para un recordatorio sobre este tipo de distribuciones continuas y algunas formulas elementales, vease la seccion sobre el tema en el
241
x
0
F py q dy
es nuevamente PHp 1 B 1 , B q.
Lema 8.2 Sean U1 , U2 , . . . v.a.s independientes con identica distribuci
on
continua PHp, B q, en donde B es no singular y 0 0. Sea N otra v.a. independiente de las anteriores y con distribuci
on geoppq. Entonces la variable
aleatoria
X
Uj
j 1
pbT q.
1.
Entonces
para
cualquier
capital
inicial
u
0,
c
1
puq pp B 1 q exp upB
1
pb p B 1 qq eT .
(8.22)
242
Demostraci
on.
puq
p1 p q
pn H n puq
n 1
pn p1 pq P pX1
Xn
u q,
n 1
1 u
H puq
F py q dy,
0
P pN
n 1
Xk
u | N nq
k 1
Pp
nq P p
Xk
u q,
k 1
nq pnp1 pq,
n 0, 1, . . .
As, puesto que conocemos la formula (6.5) de la pagina 153 para la cola
de una distribucion tipo fase y los Lemas 8.1 y 8.2 nos proporcionan los
parametros de dicha distribucion, podemos deducir que H pxq es
1
PHp B 1 , B q,
1
pbT p B 1 qq.
1
puq pp B 1 q exp upB
1
pb p B 1 qq eT .
243
8.10. Ejercicios
Ejemplo 8.10 (Reclamaciones exponenciales) Consideremos nuevamente el modelo de Cramer-Lundberg cuando las reclamaciones son exponenciales de par
ametro . Esta vez consideraremos a la distribuci
on exponencial como una distribuci
on tipo fase continua. El correspondientes generador infinitesimal de la cadena de Markov a tiempo continuo que produce
el tiempo de espera hasta la absorci
on exponencial de par
ametro es
G
0
p qu
c
.
e
c
Comentarios y referencias
En este captulo final hemos estudiado algunos aspectos del modelo clasico
de riesgo a tiempo continuo llamado modelo de Cramer-Lundberg. Hemos
encontrado expresiones para algunas probabilidades de ruina en este modelo en terminos de ecuaciones diferenciales, integrales o ambas, y tambien
en algunos casos en terminos de sumas infinitas. Muchos otros problemas
matematicos pueden estudiarse para este modelo o para sus generalizaciones. El lector interesado en profundizar en el tema puede consultar textos mas avanzados como Asmussen [2] o Rolski et al. [32]. En el texto de
Schmidli [35] puede encontrarse una exposicion sobre la interesante relacion
entre algunos problemas de riesgo y la teora del control estocastico.
8.10.
Ejercicios
Modelo de Cram
er-Lundberg
0u con la no-
244
tpMY prq 1q s.
Probabilidades de ruina
171. Suponga que las reclamaciones en el modelo de Cramer-Lundberg
siguen una distribucion exponencial de parametro 1. Suponga
ademas que 1{2 y c 2. Observe que se cumple la condicion
de ganancia neta c . Cual debe ser el capital inicial u para
que la probabilidad de ruina sea menor o igual a 0.01?
Coeficiente de ajuste
172. Demuestre que si las reclamaciones son variables aleatorias acotadas, entonces el coeficiente de ajuste existe.
173. Se ha demostrado que cuando las reclamaciones tienen distribucion
exppq el coeficiente de ajuste es R {c. Usando la condicion de ganancia neta compruebe que este valor de R efectivamente
cumple la desigualdad
0R
2pc q
.
2
Desigualdad de Lundberg
174. Demuestre que efectivamente el evento p tq converge monotonamente al evento p 8q cuando t tiende a infinito monotonamente.
Este resultado fue usado en la demostracion de la desigualdad de
Lundberg.
Aproximaci
on de De Vylder
175. Demuestre que la aproximacion de De Vylder coincide con la probabilidad de ruina en el caso cuando las reclamaciones tienen distribucion exppq.
Ap
endice: Formulario y
resultados varios
F
ormula de De Pril en R
####################################
# F\ormula de De Pril en R v1.1 #
####################################
I <- 5 # Montos de reclamaciones
J <- 3 # \Indice m\aximo para tasas de mortalidad
R <- 20 # Valor m\aximo para r en g(r)
#
n <- array(1:15, dim=c(5,3))
n[1,1]<-1
n[2,1]<-3
n[3,1]<-5
n[4,1]<-2
n[5,1]<-2
n[1,2]<-3
n[2,2]<-5
n[3,2]<-3
n[4,2]<-2
n[5,2]<-3
n[1,3]<-1
n[2,3]<-4
n[3,3]<-4
n[4,3]<-6
n[5,3]<-4
#
q <- array(1:3, dim=c(3))
245
246
q[1]<-0.03
q[2]<-0.04
q[3]<-0.05
#...............................
# Funci\on h(i,k)
#...............................
h <- function(i,k) {
aux <- 0
for (j in 1:J) {
aux <- aux+n[i,j]*(q[j]/(1-q[j]))^k
}
aux <- i*((-1)^(k-1))*aux
return(aux)
}
#...............................
# C\alculo de la densidad de S
#...............................
gc <- array(1:R, dim=c(R))
gc0 <- g(0)
#
g <- function(r) {
if (r==0) {
aux <- 1
for (i in 1:I) {
for (j in 1:J) {
aux <- aux*((1-q[j])^n[i,j])
}
}
return(aux)
}
else
{
aux <- 0
for (i in 1:min(r,I)) {
for (k in 1:floor(r/i)) {
if (r-i*k==0) { aux <- aux + gc0*h(i,k) }
else {aux <- aux + gc[r-i*k]*h(i,k)}
}
}
aux <- aux/r
gc[r] <- aux
8.10. Ejercicios
247
return(aux)
}
}
#...............................
# Asignaci\on en el arreglo "gc" y graficaci\on.
#...............................
for (i in 1:R) {
gc[i] <- g(i)
}
# Nota: Se omite en la gr\afica el valor de la densidad en cero "gc0".
barplot(gc,main="Funci?n de densidad de S",xlab="r", ylab="g(r)")
#################################################################
# Fin de c\odigo
#################################################################
F
ormula de Panjer en R
(Caso Poisson)
####################################
# F\ormula de Panjer en R v1.0
#
# [Caso Poisson]
#
####################################
#
R <- 20 # Valor m\aximo para r en g(r)
#
#...............................
# c\alculo de p_k=P(N=k) (Caso Poisson)
#...............................
a <- 0
b <- 3.5 #lambda
p0 <- 2.7172^{-b}
p <- array(1:R, dim=c(R))
p[1] <- (a+b)*p0
for (k in 2:R) {
p[k] <- (a+b/k)*p[k-1]
}
#...............................
# c\alculo de f_r=P(Y=r), r>=1
#...............................
#
248
249
8.10. Ejercicios
Alfabeto griego
A
B
E ,
Z
H
,
alpha
beta
gamma
delta
epsilon
zeta
eta
theta
I
K
M
N
Oo
iota
kappa
lambda
mu
nu
xi
omikron
pi
P ,
,
T
,
X
rho
sigma
tau
upsilon
phi
chi
psi
omega
Funci
on indicadora
La funcion indicadora de un conjunto A es la funcion 1A :
definida por
"
1 si P A,
1A p q
0 si R A.
t0, 1u
De este modo la funcion 1A toma el valor uno dentro del conjunto A y cero
fuera de el, y cumple las siguientes propiedades:
maxt1A, 1B u 1A 1B 1A 1B .
1AXB mnt1A , 1B u 1A 1B .
1A 1 1A .
1AB 1A 1A 1B .
1AB |1A 1B | 1A 1B 2 1A 1B p1A 1B q2 .
A B 1A 1B .
a) 1AYB
b)
c)
d)
e)
f)
Funci
on generadora de probabilidad
La funcion generadora de probabilidad de una variable aleatoria X es la
funcion dada por
Gptq E ptX q
tx P pX
xq,
250
definida para valores reales de t tal que la suma indicada sea absolutamente
convergente. Esta funcion se utiliza principalmente para variables aleatorias
discretas y sin perdida de generalidad se postula que la variable toma los
valores 0, 1, . . . y por lo tanto esta funcion existe por lo menos para valores de
t en el conjunto r1, 1s. Para hacer enfasis en la variable aleatoria particular
X para la que se utiliza se escribe a veces como GX ptq. Esta funcion cumple
las siguientes propiedades:
a) La funcion generadora de probabilidad adquiere su nombre a partir
del siguiente resultado: para cada entero n 0,
lm
dn
G X p t q P pX
dtn
n q.
dn
GX ptq E rX pX
dtn
1q pX n
1qs.
251
8.10. Ejercicios
a) p
1q pq.
b) p
c) p2q p1q 1.
d) p1{2q
?.
I1 qs E rupx
I2 qs,
252
I1 q
bs E raupx
I2 q
bs.
upxq up0q
,
up1q up0q
253
8.10. Ejercicios
0
Desigualdad de Jensen
Sea u una funcion convexa y sea X una variable aleatoria tal que tanto X
como upX q tienen esperanza finita. Entonces
upE pX qq E pupX qq.
En el caso cuando u es concava, el resultado es
upE pX qq E pupX qq.
Una demostracion de la desigualdad de Jensen puede encontrarse por ejemplo en [17].
Desigualdad de Markov
Sea X una variable aleaotoria positiva con esperanza finita. Entonces para
cualquier 0,
E pX q
.
P pX q
E r E p X | G q 1G s E r X 1G s.
254
j) Desigualdad de Jensen.
Si es convexa, entonces pE pX | G qq E ppX q | G q.
k) Si H es una sub -algebra de G , entonces E pE pX | G q | H q E pX | H q.
l) Si Z es G -medible y acotada, entonces E pZ X | G q Z E pX | G q.
m) Si X es independiente de G , entonces E pX | G q E pX q.
Un estudio mas detallado de la esperanza condicional puede ser encontrado
en libros dedicados a probabilidad como [21] o [40].
255
8.10. Ejercicios
Integral de Riemann-Stieltjes
La integral de Riemann-Stieltjes generaliza a la integral usual de Riemann.
Se trata de la integral de una funcion hpxq respecto de otra funcion F pxq.
Su definicion es analoga al caso de la integral de Riemann: si a x0
x1 xn b es una particion del intervalo ra, bs, entonces definimos
de manera informal
b
a
hpxq dF pxq : lm
x
0 i1
b
a
hpxq dF pxq
b
a
hpxq dx,
b
a
ph1 pxq
h2 pxqq dF pxq
b
a
h1 pxq dF pxq
b
a
F2 pxqq
b
a
b
a
b
a
h2 pxq dF pxq.
b
a
b
a
256
b
a
hpxq dF pxq
8
x dF pxq
8
xf pxq dx.
b
a
hpxq dF pxq
hpxi q ppxi q.
i 0
8
x dF pxq
xi ppxi q.
i 0
8
x dF pxq
8
xf pxq dx
x i p p x i q.
i 0
257
8.10. Ejercicios
8
f puq du
ppxi q,
xi x
8
g pxq dF pxq
8
g pxqf pxq dx
g pxi qppxi q.
i 0
E pX |G qq2 | G s.
Nuevamente, cuando la sub--algebra G es pY q para alguna variable aleatoria Y , entonces VarpX | G q se escribe VarpX | Y q, y puede tomarse como
definicion la igualdad
VarpX | Y q E r pX
E pX | Y qq2 | Y s.
VarrE pX | G qs.
258
259
8.10. Ejercicios
F
ormulas recursivas para calcular convoluciones
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente distribuidas. Nos interesa encontrar la distribucion de Sn X1 Xn .
Cuando las variables tXi u tienen funcion de distribucion F , a la funcion de
distribucion de Sn se le llama la n-esima convolucion de F , y se le denota
por F n , es decir, F n pxq P pSn xq. Cuando las variables tXi u tienen
funcion de probabilidad o de densidad f , a la funcion de probabilidad o de
densidad de Sn se le llama la n-esima convolucion de f , y se le denota por
f n , es decir, en el caso discreto, f n pxq P pSn xq.
1. Cuando las variables tXi u son discretas con valores en el conjunto
t0, 1, 2, . . .u, se cumplen las siguientes formulas recursivas.
a) P pSn
b) P pSn
xq
xq
j 0
x
P pSn1
x j q P pX n j q.
P pSn1
x j q P pX n j q.
j 0
x
0
f pn1q px y q f py q dy.
F pn1q px y q f py q dy.
Transformada de Laplace
Para una funcion puq : r0, 8q R, la transformada de Laplace es
s L psq
8
0
para valores reales de s donde tal integral exista. Hemos usado la notacion
para la probabilidad de ruina puq como funcion objeto en la transformada
de Lapace pues a este tipo de funciones se le aplicara con mayor frecuencia
esta transformacion. Cuando sea conveniente denotaremos la transformada
de Laplace tambien como Lr puqspsq. Revisaremos a continuacion algunas
propiedades que cumple esta transformacion.
260
c
a) La transformada de una constante c es Lc psq .
s
b) Linealidad: si 1 y 2 son constantes, entonces
L 1 1
2 2
psq 1 L psq
1
2 L2 psq.
u
0
pxq dx es
1
L psq.
s
p1 2qpuq
la siguiente situacion particular: si Gpxq es la convolucion de dos funciones de distribucion continuas F1 pxq y F2 pxq de variables aleatorias
no negativas, es decir,
Gpxq
x
0
F1 px y qdF2 py q
x
0
F1 px y qf2 py qdy
pF1 f2 qpxq,
|puq| m ecu,
261
8.10. Ejercicios
x
b
x1 x0
Figura 6
La primera aproximacion de la raz es el valor inicial x0 . La ecuacion de la
recta tangente que pasa por el punto px0 , g px0 qq es
y g px0 q g 1 px0 qpx x0 q.
Esta lnea recta cruza el eje horizontal cuando el valor de x es igual a
x1
x0 gg1ppxx0 qq .
0
262
263
8.10. Ejercicios
Distribuciones de probabilidad
En esta seccion se presentan en orden alfabetico algunas distribuciones de
probabilidad utilizadas en el texto. La funcion generadora de probabilidad
se denota por Gptq, y la funcion generadora de la momentos por M ptq.
Distribuci
on Bernoulli
X Berppq con p P p0, 1q.
f pxq px p1 pq1x para x 0, 1.
E pX q p.
VarpX q pp1 pq.
Gptq 1 p pt.
M ptq p1 pq pet .
f pxq
pp 0.7q
Distribuci
on beta
X betapa, bq con a 0, b 0.
f pxq xa1 p1 xqb1 {B pa, bq para x P
p0, 1q.
en donde B pa, bq paqpbq{pa bq,
8
con paq 0 ta1 et dt.
E pX q a{pa bq.
VarpX q ab{rpa b 1qpa bq2 s.
Cuando a b 1 se obtiene la dist. unifp0, 1q.
f pxq
264
Distribuci
on binomial
X binpn, pq con n P t1, 2, . . .u y p P
p0, 1q.
n x
p p1pqnx para x 0, 1, . . . , n.
f pxq
k
E pX q np.
VarpX q npp1 pq.
Gptq p1 p ptqn .
M ptq rp1 pq pet sn .
f pxq
pn 8, p 0.3q
Distribuci
on binomial negativa
X bin negpk, pq con p P p0, 1q y k P
t1, 2, . . .u.
k x1 k
p p1 pqx para x
f pxq
x
0, 1, . . .
E pX q k p1 pq{p.
VarpX q k p1 pq{p2 .
Gptq rp{p1 p1 pqtqsk .
M ptq rp{p1 p1 pqet qsk para t lnp1
pq.
Cuando r 1 se obtiene la distribucion
geoppq.
f pxq
pk 3, p 1{2q
Distribuci
on Cauchy
Cauchypa, bq con a P R y b 0.
1
, para x P R.
f pxq
b r1 ppx aq{bq2 s
F pxq 1{2 p1{ q arctanppx aq{bq.
X
f pxq
x
a
265
8.10. Ejercicios
Distribuci
on exponencial
X exppq con 0.
f pxq ex para x 0.
F pxq 1 ex para x 0.
E pX q 1{.
VarpX q 1{2 .
M ptq {p tq para t .
f pxq
Distribuci
on gama
gamap, q con 0 y 0.
pxq1 ex para x 0.
f pxq
p q
1
j
F pxq 1 ex j
0 pxq {j! para x 0
X
f pxq
y entero.
E pX q {.
VarpX q {2 .
E pX n q p nq{pp qn q.
M ptq r{p tqs para t .
Cuando 1 se obtiene la distribucion
exppq. Cuando es entero se conoce tambien con el nombre de distribucion Erlang.
Distribuci
on geom
etrica
X geoppq con p P p0, 1q.
f pxq pp1 pqx para x 0, 1, . . .
E pX q p1 pq{p.
VarpX q p1 pq{p2 .
Gptq p{p1 p1 pqtq.
M ptq p{p1 p1 pqet q para t lnp1 pq.
f pxq
pp 1{5q
266
Distribuci
on ji-cuadrada
2pnq con n 0.
p1{2qn{2 xn{21ex{2 para x 0.
f pxq
pn{2q
E pX q n.
VarpX q 2n.
M ptq p1 2tqn{2 para t 1{2.
X
f pxq
Distribuci
on log normal
X lognormalp, 2 q con P R y 2
0.
1
f pxq ?
exprpln x q2 {2 2 s, x
x 2 2
0.
F pxq ppln x q{ q.
E pX q expp 2 {2q.
E pX n q exppn n2 2 {2q.
VarpX q expp2 2 2 q expp2 2 q.
Si X Np, 2 q, entonces eX lognormalp, 2 q.
f pxq
Distribuci
on normal
Np, 2q con P R y 2 0.
1
f pxq ?
epxq {2 .
2
2
E pX q .
VarpX q 2 .
M ptq exp pt 2 t2 {2q.
ptq exp pit 2 t2 {2q.
Cuando 0 y 2 1 se obtiene la distribucion normal estandar, Np0, 1q.
X
f pxq
267
8.10. Ejercicios
Distribuci
on Pareto
Paretopa,a bq con a, b 0.
ab
f pxq
x 0.
pb xqa 1 para
F pxq 1 rb{pb xqsa para x 0.
E pX q b{pa 1q para a 1.
VarpX q ab2 {rpa 1q2 pa 2qs, a 2.
f pxq
a {b
x
Distribuci
on Poisson
Poissonpxq con 0.
f pxq e
para x 0, 1, . . .
x!
E pX q .
VarpX q .
Gptq ep1tq .
M ptq exprpet 1qs.
X
f pxq
p 4q
Distribuci
on t
tpnq con n 0.
pn 1{2q
x2 n1{2
1
q
.
f pxq ?
p
n pn{2q
n
E pX q 0.
VarpX q n{pn 2q para n 2.
M ptq no existe para t 0.
ptq expp|t|q.
X
f pxq
268
Distribuci
on Weibull
X Weibullpr, q con r, 0.
r
f pxq epxq rr xr1 para x 0.
r
F pxq 1 epxq para x 0.
E pX q p1 1{rq{.
VarpX q rp1 2{rq 2 p1 1{rqs{2 .
f pxq
269
8.10. Ejercicios
Tabla de la distribuci
on normal est
andar
pxq
?1
2
8
et
{2 dt
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8399
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.9980
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
Bibliografa
[1] Apostol T. M. (1974) Mathematical analysis. AddisonWesley.
[2] Asmussen S. (2000) Ruin probabilities. World Scientific.
[3] Basu A. K. (2003) Introduction to stochastic processes. Alpha Science
International Ltd.
[4] Beard R. E., Pentikainen T., Pesonen E. (1984) Risk theory. Tercera
edicion. Chapman and Hall.
[5] Bladt M. (2005) A review of phase-type distributions and their use in
risk theory. ASTIN Bulletin, Vol. 35, N
um. 1, pp. 145161.
[6] Boland P. (2007) Statistical and probabilistic methods in actuarial science. Chapman & Hall / CRC.
[7] Bowers N. L. Jr., Gerber H. U., Hickman J. C., Jones D. A., Nesbitt
C. J. (1997) Actuarial mathematics. The Society of Actuaries.
[8] B
uhlmann H. (1970) Mathematical methods in risk theory. Springer
Verlag.
[9] B
uhlmann H., Gisler A. (2005) A course in credibility theory and its
applications. Springer.
[10] Burden J. D., Faires J. D. (2010) Numerical analysis. Brooks Cole.
[11] Daykin C. D., Pentikainen T., Pesonen M. (1994) Practical risk theory
for actuaries. Chapman and Hall.
271
272
Bibliografa
Bibliografa
273
[27] Panjer H. H. (1981) Recursive evaluation of a family of compound distributions. ASTIN Bulletin, Vol. 12, N
um 1, pp. 2226.
[28] Panjer H. H. (editor) (1986) Actuarial mathematics. Proceedings of
Symposia in Applied Mathematics, Vol. 35, AMS.
[29] Resnick S. (1992) Adventures in stochastic processes. Birkhauser.
[30] Revuz D., Yor M. (1991) Continuous martingales and Brownian motion. Springer-Verlag.
[31] Rincon L. (2012) Introducci
on a los procesos estoc
asticos. Facultad de
Ciencias, UNAM.
[32] Rolski T., Schmidli H., Teugels J. (1999) Stochastic processes for insurance and finance. John Wiley & Sons.
[33] Schiff J. L. (1999) The Laplace transform: theory and applications.
Springer.
[34] Schmidli H. Lecture notes on risk theory. Manuscrito.
[35] Schmidli H. (2008) Stochastic control in insurance. Springer.
[36] Spiegel M. R. (1968) Mathematical handbook of formulas and tables.
Schaum, McGraw-Hill.
[37] Stirzaker D. (2005) Stochastic processes and models. Oxford University
Press.
[38] Teugels J. L., Sundt B. (editores) (2004) Encyclopedia of actuarial science. Wiley.
[39] Tudor C. (1994) Procesos estoc
asticos. Serie Textos, Sociedad
Matematica Mexicana.
[40] Williams D. (1991) Probability with martingales. Cambridge University
Press.
Indice analtico
Excess of loss, 98
Net profit condition, 72, 164, 200
Safety loading, 73
Stop loss, 95
Agregado de reclamaciones
en el modelo colectivo, 19
en el modelo individual, 4
Aproximacion
de De Vylder, 233
de Edgeworth, 56
gama trasladada, 55
normal, 8, 53
Asimetra
coeficiente de Fisher, 252
Aversion al riesgo, 89
coeficiente, 89
De Pril
formula de, 9
De Vylder
aproximacion de, 233
Deducible, 97
Desigualdad
de Jensen, 83, 253
de Jensen condicional, 254
de Lundberg, 220, 227, 228
de Lundberg (tiempo discreto), 180
de Markov, 253
Cadenas de Markov
a tiempo continuo, 143
a tiempo discreto, 134
Caminatas aleatorias, 132
Clase pa, b, 0q, 46
Coeficiente
de ajuste, 177, 219, 222
de ajuste (cotas), 230
de asimetra de Fisher, 252
de aversion al riesgo, 89
274
Indice analtico
Distribucion
Bernoulli, 263
beta, 263
binomial, 264
binomial compuesta, 23
binomial neg. compuesta, 24
binomial negativa, 264
Cauchy, 264
con cola ligera, 219, 223
con cola pesada, 223
de clase pa, b, 0q, 46
Erlang, 265
exponencial, 265
gama, 265
geometrica, 264, 265
geometrica compuesta, 24
ji-cuadrada, 266
log normal, 266
normal, 266
Pareto, 267
Poisson, 267
Poisson compuesta, 25
Poisson compuesta mixta, 32
t de Student, 267
tipo fase continua, 151
tipo fase discreta, 136
Weibull, 268
Espacio
de prob. filtrado, 131
Esperanza condicional, 253
Esscher
principio de, 78
transformada de, 78
Exponencial de una matriz, 153
Exponente de Lundberg, 219, 222
275
Formula
s de Seal, 209
de De Pril, 9, 37, 38
de Panjer, 45
de Pollaczek-Khinchin, 235
Factor
de credibilidad, 114, 121, 122
de recargo, 73
Filtracion, 131
natural, 131
Funcion
convexa, 83
de supervivencia, 165
de utilidad, 74, 251
de valor, 76
delta de Kronecker, 146
gama, 250
generadora de prob., 249
indicadora, 249
Funciones de utilidad
equivalencia, 251
Integral
de Riemann-Stieltjes, 255
Jensen
desigualdad de, 253
desigualdad de J. condicional,
254
Laplace
transformada de, 259
Ley de los grandes n
umeros, 258
Lundberg
desigualdad de, 220, 227, 228
desigualdad de (tiempo discreto), 180
Indice analtico
276
exponente de, 219, 222
Metodo
de Newton-Raphson, 261
Markov
desigualdad de, 253
Martingala
de de Moivre, 160
del juego de apuestas, 160
del proceso con inc. independientes, 160
del proceso de Poisson centrado, 160
Martingalas, 154
Matriz
de prob. de transicion, 135
de subintensidades, 151
exponencial de una, 153
Modelo
binomial compuesto, 23
binomial neg. compuesto, 24
colectivo, 18
colectivo Poisson, 25
de Cramer-Lundberg, 197
individual, 3
normal-normal, 121
Poisson compuesto, 25
asociado, 26
como lmite, 27, 29
como suma, 30
con reclamaciones clasificadas,
30
mixto, 32
Poisson-gama, 120
Momento
limitado, 103
Newton-Raphson, 261
Nivel de retencion, 95
Panjer
formula de, 45
Parametros infinitesimales, 148
Pollaczek-Khinchin, 235
Prima, 69
de credibilidad Bayesiana, 119
pura de riesgo, 71
Principio
de Esscher, 78
de la desviacion estandar, 73
de la varianza, 73
de perdida maxima, 77
de utilidad cero, 74
del porcentaje, 77
del riesgo ajustado, 79
del valor esperado, 73
del valor medio, 76
exponencial, 77
Prob. de ruina, 208
con reclamaciones exp, 205
con reclamaciones geo, 173
con reclamaciones tipo fase, 240
horizonte finito, 175, 208
horizonte infinito, 167, 202
Problema
de la ruina, 166, 202
Proceso
a tiempo continuo, 128
a tiempo discreto, 128
adaptado, 131
con inc. estacionarios, 130
con inc. independientes, 130
de Poisson, 140
tiempos de estancia, 141
Indice analtico
de Poisson (superposicion), 158
de Poisson (thinning), 159
de riesgo, 198
tiempo continuo, 197
tiempo discreto, 163
de saltos, 144
de superavit, 199
estocastico, 127
submartingala, 155
supermartingala, 155
trayectoria de un, 129
Propiedad
de Markov, 129
de perdida de memoria, 142
Reaseguro, 91
excess of loss, 98
stop loss, 95
de perdida maxima, 95
no proporcional, 95
por exceso de perdida, 98
proporcional, 93
Retencion
nivel de, 95
Riemann-Stieltjes, 255
Riesgo, 2
aversion, 89
modelo colectivo, 19
modelo individual, 5
proceso a tiempo continuo, 197
proceso a tiempo discreto, 163
Ruina
en Cramer-Lundberg, 201
en tiempo discreto, 166
severidad de la, 184, 213
Seal
277
formulas de, 209
Severidad de la ruina, 184, 213
Submartingala, 155
Supermartingala, 155
Supervivencia
funcion de, 165
Teorema
central del lmite, 258
de conv. dominada, 254, 258
de conv. monotona, 254, 258
Tiempo
s de estancia, 143
de interarribo, 141
de paro, 132
Transformada
de Esscher, 78
de Laplace, 259
de Laplace-Stieltjes, 39
Variable aleatoria
mixta, 257
Varianza condicional, 257