Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tesis
P R E S E N T A:
Director:
19 de agosto de 2013
Integrantes del Jurado.
Asesor:
Sustentante:
Agradezco al Dr. Juan Carlos Pardo Millán por haber fungido como asesor de
este trabajo, ası́ mismo, por haberme guiado en el desarrollo y ası́ como la confianza
que tuvo en mi.
De igual modo, agradezco a cada uno de los sinodales por la inversión de su va-
lioso tiempo en la revisión y correción de esta tesis y al Dr. Victor Perez Abreu al
fungir como lector especial.
Introducción 1
2. Funciones de Escala. 41
2.1. Martingala Asociada a la Transformación de Esscher. . . . . . . . . . 41
2.2. Distribución del Mı́nimo y Máximo. . . . . . . . . . . . . . . . . . . . 43
2.3. Construcción de Funciones de Escala. . . . . . . . . . . . . . . . . . . 48
2.4. Aplicaciones de Funciones de Escala. . . . . . . . . . . . . . . . . . . 52
4. Aplicaciones. 75
4.1. Caso Exponencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Caso Erlang Mixto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3. Transformada de Laplace del Tiempo de Ruina. . . . . . . . . . . . . 90
4.4. Métodos Numéricos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
Conclusiones 107
Bibliografı́a 109
7
8
Introducción
1
2
El objetivo de este trabajo es estudiar nuevas medidas de riesgo que nos permi-
tan calcular la probabilidad de ruina, a saber tipo parisino. Consideramos el modelo
que representará el capital de una compañı́a aseguradora que percibe ingresos y re-
conocen un gasto, es un proceso de Lévy espectralmente negativo con trayectorias
de variación acotada. Esto incluye al modelo clásico de Cramér-Lundberg [leer [9]].
Para esto se estudia una generalización de la formula de salida con una y dos ba-
rreras usando funciones escala, tomando como base el artı́culo [13]. La herramienta
principal para lograr dicho objetivo serán las funciones de escala, [6].
Se presenta la fórmula de salida con dos barreras como una aplicación de la teorı́a
de funciones escala. El Capı́tulo 3 es la parte central de este trabajo. Presentamos la
definición del evento de ruina tipo parisino y posteriormente una generalización del
teorema de salida con dos barreras estudiado en el Capı́tulo 2, lo anterior tomando
como base el artı́culo [13]. Finalmente, en el Capı́tulo 4 se presentan ejemplos de
transformadas de Laplace del tiempo de ruina tipo parisino para los casos Exponen-
cial y Earlang mixto, ası́ como métodos numéricos para obtener aproximaciones de
las funciones q-escala y la probabilidad de ruina en estos casos.
4
Capı́tulo 1
Construcción de Medidas Aleatorias de
Poisson y Subordinadores.
son independientes.
5
6 1.1. PROCESO DE POISSON.
Para toda s, t ≥ 0
L
Nt+s − Nt = Ns ,
L
donde = significa igualdad en ley.
Además, es un proceso de Markov homogéneo, es decir, si Ft = σ(Ns ; s ≤ t), enton-
ces para toda función f : N → R y Λ ∈ Ft tenemos que
Observemos que la función 1Λ , bajo el evento {Nt = k}, se puede ver como una
función de (T (1), · · · T (k)), es decir
=E e−c(x+t−T (k)) .
Por lo tanto,
E e−c(x+t−T (k))
P ξk+1 − (t − T (k)) > x ξk+1 > t − T (k) = = e−cx .
E [e−c(t−T (k)) ]
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 7
En consecuencia, al condicionar con respecto a {Nt = k},
L 0
Nt+s = k + Ns ,
donde n o
0 0 0 0
Ns = card p ∈ N ξ1 + ξ2 + · · · + ξp ≤ s ,
0 0 0
y ξ1 = ξk+1 − (t − T (k)), ξ2 = ξk+2 , · · · , ξp = ξp+k . Observemos que (ξi )1≤i≤k y
0
(ξi )1≤i≤p son independientes. Entonces
h i h i
E 1Λ f (Nt+s )1{Nt =k} = E ϕ (T (1), T (2), · · · , T (k)) f (Ns + k)1{Nt =k}
0
h i h i
= E ϕ (T (1), T (2), · · · , T (k)) 1{T (k)≤t<T (k)+ξk+1 } E f (Ns + k) ,
0
e es independiente de FT y NT +s − NT = L
Demostración. Probemos que N Ns para
toda s ≥ 0. Si T = t1 , es determinista, por el resultado anterior, sabemos que se
cumple el resultado. Supongamos que T toma una cantidad numerable de valores,
{t1 , t2 , . . . }. Entonces para Λ ∈ FT y f : Nn → R+ una función medible y acotada,
vemos
h i X h i
E 1Λ f (Ns1 , . . . , Nsn ) =
e e E 1Λ∩{T =k} f (Ntk +s1 − Ntk , . . . , Ntk +sn − Ntk )
k≥1
X h i h i
= E 1Λ∩{T =k} E f (Ntk +s1 − Ntk , . . . , Ntk +sn − Ntk )
k≥1
X h i h i
= E 1Λ∩{T =k} E f (Ns1 , . . . , Nsn )
k≥1
h i
= E [1Λ ] E f (Ns1 , . . . , Nsn ) ,
En consecuencia, h i
E 1Λ f (N
e ) = P(Λ)E [f (N )] ,
= E [1Λ g (NT )] ,
con
h i
g(y) = E f (N esn + y) = E [f (Ns1 + y, . . . , Nsn + y)] .
es1 + y, . . . , N
Entonces,
h i
E 1Λ f (Ns1 , . . . , Nsn ) = E [1Λ ] E [f (Ns1 + NT , . . . , Nsn + NT )] .
0 0
0
De esta manera, bajo el evento {NT = k}, tenemos que el proceso N es independiente
de FT y tiene la misma ley que N bajo Pk .
Por lo tanto Mt es martingala. Ahora, consideremos al proceso Mt2 − ct. Sea s < t,
entonces
E Mt2 − ct | Fs = Ms2 − cs,
= ξtq ,
−q
ya que E e−qNs = e−cs(1−e ) . Ası́, ξtq es (Ft )t -martingala.
R = {(s, t] × A : 0 ≤ s ≤ t, A ∈ Fs } ,
Entonces, para t ≥ 0 Z t Z t
Hs dNs − c Hs ds,
0 0
es una (Ft )- martingala. Además se tiene la formula de compensación
Z t Z t
E Hs dNs = cE Hs ds .
0 0
donde t0 < t1 < · · · < tn < · · · y Hti es Fti -medible. Entonces, observemos que para
u, v ∈ (ti , ti+1 ] con u ≤ v
ası́
= 0.
Rt
Por lo tanto 0 Hs dMs es una martingala, donde Ms = Ns − cs.
Ahora supongamos que H es un proceso adaptado continuo por la izquierda y
acotado por C > 0. Para n ≥ 1 definamos
k k+1
Hs(n) = H kn para < s ≤ .
2 2n 2n
Π = {(s, t] × F, s < t ∈ R, F ∈ Fs } .
Definamos A como
Z t
A = H predecible y acotado : Hs dMs es martingala .
0
TC = ı́nf {t ≥ 0 : Hs ≥ C} .
14 1.1. PROCESO DE POISSON.
y además, Z TC ∧t Z t
lı́m E Hs ds = E Hs ds ,
C→∞ 0 0
Por lo tanto Z t Z t
E Hs dNs = cE Hs ds ,
0 0
esto concluye la prueba.
Demostración.
Recordemos que ξtq = exp {−qNt + ct(1 − e−q )} es martingala, entonces si h(s) =
a, con a constante, tenemos que el resultado es valido. Ahora supongamos que h(s)
es simple, es decir
∞
ai 1(ti ,ti+1 ] ,
X
h(s) =
i=0
donde t0 < t1 , · · · , tn < · · · . Denotemos por Mt al proceso
Z t Z t
−h(s)
exp − h(s)dNs + c (1 − e )ds , t ≥ 0.
0 0
= Mu .
Por otro lado si ti < u ≤ ti+1 ≤ tj < v ≤ tj+1 , con i < j, usando que los incrementos
son independientes y estacionarios, tenemos
h i h Rv Rv i
−h(s) )ds
E Mv Fu = Mu E e− u h(s)dNs +c u (1−e Fu
h −a −aj
i
= Mu E e−ai (Nti+1 −Nu )+c(ti+1 −u)(1−e i ) e−aj (Nv −Ntj )+c(v−tj )(1−e )
" j #
−a
Y
e−ak (Ntk+1 −Ntk )+c(tk+1 −u)(1−e )
k
×E
k=i+1
= Mu .
Por lo tanto, el resultado es valido para h simple. En particular para funciones de la
forma 1(a,b] (s). Notemos que B(R) = σ(C), donde C es el conjunto
C = {(a, b] : a < b ∈ R} ,
16 1.1. PROCESO DE POISSON.
E [YS ] = E [YT ] .
S B := 1B S + 1B c M y T B := 1B T + 1B c M,
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 17
en consecuencia
E (E [YT | Fs ] 1B ) = E [1B YS ] .
Por lo tanto, Y es martingala.
0
Lema 1.1.12 Sean M una martingala càdlàg de variación acotada y M una mar-
0
tingala càdlàg acotada, en la misma filtración. Si M y M no saltan simultáneamente
0
entonces M M es una martingala.
para cualquier, T , tiempo de paro acotado. Sea T un tiempo de paro acotado por A
y 0 = t0 < t1 < · · · < tk = A, entonces
0 0
X 0 0
MT MT − M0 M0 = Msi+1 Msi+1 − Msi Msi
si <T
X 0 0
X 0 0
= Msi+1 − Msi Msi+1 − Msi + Msi Msi+1 − Msi
si <T si <T
0
X
+ Msi Msi+1 − Msi ,
si <T
0
donde si := ti ∧ T . Usando el hecho que M y M son martingalas, tenemos
h i h h ii
0 0 0 0
E Msi (Msi+1 − Msi ) = E E Msi (Msi+1 − Msi ) Fsi = 0,
18 1.1. PROCESO DE POISSON.
y h 0
i h h 0 ii
E Msi Msi+1 − Msi = E E Msi (Msi+1 − Msi ) Fsi = 0.
Por lo tanto
" #
h 0 0
i X 0 0
E MT MT − M0 M0 = E Msi+1 − Msi Msi+1 − Msi .
si <T
0
Por otro lado como M es acotada y M es de variación acotada, tenemos
X 0 X
0
Msi+1 − Msi Msi+1 − Msi ≤ C Msi+1 − Msi ≤ C sup Vτ (M ) < ∞,
τ ∈A
si <T si <T
0 0
Por lo tanto M M es una martingala si M y M no saltan simultáneamente.
donde ∆Ns = Ns − Ns− . Como la ley de los saltos no tiene átomos, para cada t fijo,
0 0 0
∆Nt = 0 c.s. De la independencia de N y T (n) tenemos que ∆NT (n) = 0 c.s. para
cada n. Por lo tanto
0
X
∆Ns ∆Ns = 0 c.s,
s>0
0
Recı́procamente, tomemos h y h dos funciones simples y definamos
Z t Z t
−h(s)
Mt = exp − h(s)dNs + c (1 − e )ds
0 0
y Z t Z t
0 0 0
Mt0 = exp − h (s)dNs + c 0
(1 − e−h (s)
)ds .
0 0
1 = E [Mt Mt0 ]
Z t Z t Z t Z t
0
−h(s) 0 0 0 −h (s)
= E exp − h(s)dNs + c (1 − e )ds − h (s)dNs + c (1 − e )ds ,
0 0 0 0
es decir
Z t Z t
0 0
E exp − h(s)dNs − h (s)dNs
0 0
Z t Z t
−h(s) 0 −h0 (s)
= exp −c (1 − e )ds − c (1 − e )ds
0 0
Z t Z t
0
−h(s) 0 −h (s)
= exp −c (1 − e )ds exp −c (1 − e )ds
0 0
Z t Z t
0 0
= E exp − h(s)dNs E exp − h (s)dNs ,
0 0
Definición 1.2.1 Sea (E, E, µ) un espacio de medida σ -finita. Una familia de va-
riables aleatorias a valores en Z+ definidas en un espacio de probabilidad (Ω, F, P),
{M (A), A ∈ E}, recibe el nombre de medida aleatoria de Poisson con intensidad µ
si,
µ(B)k −µ(B)
P(M (B) = k) = e , para toda k = 0, 1, . . .
k!
Si µ(B) = ∞, entonces M (B) = ∞ casi seguramente.
Por lo tanto M (B) es una variable aleatoria Poisson con parámetro µ(B). Finalmen-
te si B1 , B2 , · · · , Bn ∈ E es una sucesión de conjuntos disjuntos, y λ1 , . . . , λn son
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 21
números reales,
" n
# " n
#
Y Y Pk (m) (B )
λi M (Bi ) λi m=1 M
E e = lı́m E e i
,
k→∞
i=1 i=1
dado que M (n) n≥1 son independientes y además M (n) (Bi ) es independiente de
M (n) (Bj ) para i 6= j, vemos
" n
# n n
Pk (m) (B )
h Pk i Y
λi m=1 M (m) (Bi )
Y Y
λi m=1 M E eλi M (Bi ) .
lı́m E e i
= lı́m E e =
k→∞ k→∞
i=1 i=1 i=1
Proposición 1.2.3 Sea (E, E, µ) un espacio de medida σ -finita. Entonces existe una
medida aleatoria de Poisson en (E, E, µ) con intensidad µ.
µ(B)
ρ(B) := , para B ∈ E.
µ(E)
N
X
M (dx) = δξi (x).
i=1
1.2. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON Y
22 PROCESOS PUNTUALES DE POISSON.
Xt := ξNt ,
NtB = card {i ≤ Nt : ξi ∈ B}
y
0
NtB = card {i ≤ Nt : ξi ∈ B 0 } .
0
Los procesos NtB y NtB son (Ft )-procesos de Poisson además son independientes,
como B y B 0 son ajenos, estos no saltan simultáneamente. Observemos que
0
M (B) = N1B y M (B 0 ) = N1B ,
µ(F )k −µ(F )
P (M (F ) = k) = e ,
k!
en consecuencia
µ(Bi ∩ F )k −µ(Bi ∩F )
P (M |Bi (F ) = k) = P (M (Bi ∩ F )) = e .
k!
También, si A1 , A2 , · · · , An son conjuntos disjuntos en E, entonces
Ası́, para cualquier función medible f : E → R+ , sea (fn )n≥0 una sucesión de
funciones simples no decrecientes tal que fn % f uniformemente, definimos la integral
de f de la siguiente manera,
Z
< M, f >= lı́m < M, fn >= f (x)M (dx).
n→∞ E
Z N Z
X N
X
< M, f >= f (x)M (dx) = f (x)δξi (dx) = f (ξi ).
i=1 i=1
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 25
Ası́,
" ( N )#
h i X
E exp {− < M, f >} = E exp − f (ξi )
i=1
∞
" ( k
)#
X X
= E exp − f (ξi ) P(N = k)
k=0 i=1
∞
X µ(E)k −µ(E)
= E [exp {−f (ξ1 )}]k e
k=0
k!
∞ k
µ(E)k
Z
−f (x) µ(dx)
X
−µ(E)
= e e
k=0
k! E µ(E)
Z
= exp − (1 − e−f (x) )µ(dx) .
E
Observemos que En % E, ası́, f (x)1En % f y (1 − e−f (x) )1En % (1 − e−f (x) ). Usando
teorema de convergencia monótona, tenemos
Z Z
(n)
lı́m < M , f >= lı́m f (x)1En (x)M (dx) = f (x)(x)M (dx) =< M, f >,
n→∞ n→∞ E E
1.2. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON Y
26 PROCESOS PUNTUALES DE POISSON.
y Z Z
lı́m −f (x)
(1 − e )1En µ(dx) = (1 − e−f (x) )µ(dx).
n→∞
En consecuencia,
h i
E [exp {− < M, f >}] = E lı́m exp − < M (n) , f >
n→∞
Supongamos ahora que t ∈ [0, ∞) y µ(E) < ∞, observemos que [0, ∞) = ∪n≥1 An ,
donde An = [n, n + 1), ası́ An ∩ Am = ∅ para m 6= n. Definamos la medida de
Lebesgue restringida a An como λn := λ|An = λ(· ∩ An ) y M n := M |An , que es una
medida aleatoria de Poisson con intensidad λn ⊗ µ. De esta manera
X X
λ= λn y M = M n,
n≥0 n≥0
En consecuencia
P M ({t} × E) ≥ 2, para alguna t ≥ 0
= P (∪n≥0 {M ({t} × E) ≥ 2, para alguna t ∈ An })
X
≤ P (M n ({t} × E) ≥ 2, para alguna t ∈ An )
n≥0
= 0.
= lı́m M ({t} × En )
n→∞
≤ 1.
y cada uno de estos conjuntos tiene probabilidad igual a uno. Concluimos que
M ({t} × E) = 0 ó 1, c.s.
TB = ı́nf {t ≥ 0, ∆t ∈ B} .
En consecuencia,
P (TB ≤ t, ∆TB ∈ A) = P TA ∧ TB\A ≤ t, TA < TB\A .
Por otro lado, TA es el primer tiempo de salto del proceso N A , entonces TA tiene ley
exponencial con parámetro µ(A). Como A y B\A son conjuntos disjuntos entonces
TA y TB\A son variables aleatorias exponenciales independientes de parámetro µ(A)
y µ(B) − µ(A) respectivamente. Tenemos
P TB ≤ t, ∆TB ∈ A
= P TA ∧ TB\A ≤ t, TA < TB\A
Z ∞
= P (TA ∧ s ≤ t, TA < s) µ(B\A)e−µ(B\A)s ds
Z0 t Z ∞
−µ(B\A)s
= P (TA < s) µ(B\A)e ds + P (TA ≤ t) µ(B\A)e−µ(B\A)s ds
Z0 t t
Por lo tanto
µ(A)
P (TB ≤ t, ∆TB ∈ A) = 1 − e−µ(B)t ,
µ(B)
y esto concluye la prueba.
30 1.3. CONSTRUCCIÓN DE SUBORDINADORES.
para toda t, λ ≥ 0.
ası́,
p/q
E e−λσp/q = E e−λσ1
.
Si t ≥ 0, existe {tn , n ≥ 1} ⊂ Q tal que tn ↓ t, por la continuidad por la derecha,
σt = lı́mtn ↓t σtn c.s. y como eλσtn → eλσt , por teorema de convergencia dominada,
tenemos
h i
E e−λσt = E lı́m e−λσtn
n→∞
tn
= lı́m E e−λσ1
n→∞
t
= E e−λσ1 .
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 31
E e−λσt = e−tψ(λ) ,
para toda λ y t ≥ 0.
E e−λσt = e−tψ(λ) ,
para toda λ y t ≥ 0,
Demostración. Tenemos que para toda t > 0, E e−λσt = e−tψ(λ) . Observemos que
1 − e−ψ(q)/n
ψ(q) = lı́m = lı́m n(1 − e−ψ(q)/n ).
n→∞ 1/n n→∞
Ası́,
lı́m nE 1 − e−λσ1/n
ψ(q) =
n→∞
Z ∞
−qx
= q lı́m E e n1{x<σ1/n } dx
n→∞ 0
Z ∞
e−qx nP x < σ1/n dx
= q lı́m
n→∞ 0
Z ∞
= q lı́m e−qx F̄n (x)dx,
n→∞ 0
donde F̄n (x) = nP x < σ1/n . Por lo tanto,
Z ∞
ψ(q)
= lı́m e−qx F̄n (x)dx.
q n→∞ 0
En consecuencia,
Z ∞
ψ(q) = Λ(∞) + dq + (1 − e−qu )d(−Λ(u))
Z ∞ 0
= k + dq + (1 − e−qx )Π(dx),
0
1{(t,∆t )∈B} ,
X
M (B) =
t≥0
la medida aleatoria de Poisson con intensidad λ⊗[Π + kδ∞ ] sobre E = [0, ∞)×[0, ∞],
ası́ (∆t , t ≥ 0) es un proceso puntual de Poisson con medida caracterı́stica Π + kδ∞ .
Ahora definamos
T∞ = ı́nf {t : ∆t = ∞}
34 1.3. CONSTRUCCIÓN DE SUBORDINADORES.
y para toda t ≤ T∞ , X
Σt = ∆s .
0≤s≤t
Observemos que
Z Z
f (s, x)M (ds ⊗ dx) = x1{s∈(0,t]} M (ds ⊗ dx)
E ZE
x1{s∈(0,t]}
X
= δ(t0 ,∆t0 ) (ds ⊗ dx)
E t0 >0
XZ
= xδ(t0 ,∆t0 ) (ds ⊗ dx)
t0 ≤t E
X
= ∆t0 ,
t0 ≤t
la ultima igualdad es por que δ(t0 ,∆t0 ) (ds ⊗ dx) = 1 si y solo si s = t0 y x = ∆t0 .
Ası́, Z
Σt = f (s, x)M (ds ⊗ dx).
Z
−qΣt −<M,qf > −qf (s,x)
E e =E e = exp − (1 − e )λ ⊗ [Π + kδ∞ ] (ds ⊗ dx) ,
pero
Z
1 − e−qf (s,x) λ⊗ [Π + kδ∞ ] (ds ⊗ dx)
−
E Z Z
1 − e−qx1{s∈(0,t]} (ds ⊗ [Π(dx) + kδ∞ ])
=−
(0,∞) (0,∞]
Z tZ
1 − e−qx (ds ⊗ [Π(dx) + kδ∞ ])
=−
Z0 (0,∞]
Z
−qx
1 − e−qx kδ∞
= −t 1−e Π(dx) − t
Z(0,∞) (0,∞]
−qx
= −t 1−e Π(dx) − tk, (1.3.2)
(0,∞)
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 35
en consecuencia
E e−qΣt = e−tk−t (0,∞) (1−e )Π(dx) ,
−qx
R
para toda t, q ≥ 0.
Ahora, veamos que Σt < ∞ c.s. para toda t < T∞ . Observemos que para y ≥ 0,
0 ≤ e−y ≤ 1, ası́, 1 − e−y ≤ 1. Si y < 1,
∞
−y
X (−y)n
e =1−y+ ,
n=2
n!
(−y)n
con ∞ ≥ 0, lo cual implica que e−y ≥ 1 − y, es decir, y ≥ 1 − e−y , por lo
P
n=2 n!
tanto
1 − e−y ≤ 1 ∧ y, para toda y > 0.
R
Usando lo anterior y que (0,∞) (1 ∧ x)Π(dx) < ∞, tenemos
Z Z
−x
1−e Π(dx) ≤ (1 ∧ x)Π(dx) < ∞.
(0,∞) (0,∞)
Ası́, usando el hecho de que existe una constante Cq tal que (1−e−qx )(1−e−x )−1 ≤ Cq
1 − e−qx
Z Z
−qx
(1 − e−x )Π(dx)
1−e Π(dx) = −x
(0,∞) (0,∞) 1 − e
Z
1 − e−x Π(dx)
≤ Cq
(0,∞)
Z
≤ Cq (1 ∧ x)Π(dx) < ∞.
(0,∞)
Concluimos que Z
1 − e−qx Π(dx) < ∞.
(0,∞)
= P (Σt < ∞) .
y Z Z
−qx
lı́m 1 − e−qx Π(dx) = 0,
lı́m 1−e Π(dx) =
q→0 (0,∞) (0,∞) q→0
en consecuencia
P(Σt < ∞) = 1.
Entonces, si d = 0 en la ecuación (1.3.1)
R
También, como Σt = E x1{s∈(0,t]} M (ds × dx), Σt es no decreciente. Además,
Z
Σt+s − Σt = x1{u∈(t,t+s]} M (du × dx),
E
Entonces,
L
Σt+s − Σt = Σs ,
para todo t ≥ 0.
Ahora, tomemos d > 0 y definamos
(d)
Σt = dt + Σt .
con Z
1 − e−qx Π(dx),
ψ(q) = k + dq +
(0,∞)
CAPÍTULO 1. CONSTRUCCIÓN DE MEDIDAS ALEATORIAS DE POISSON
Y SUBORDINADORES. 37
Existe un teorema mas general que el teorema (1.3.4), aplicados a ciertos tipos
de procesos, llamados procesos de Lévy.
Definición 1.3.6 (Procesos de Lévy) Diremos que un proceso estocástico, (Xt , t ≥
0), que toma valores en R es un proceso de Lévy si
1. Las trayectorias de Xt son càdlàg.
2. Los incrementos de X son independientes, es decir, para todo 0 ≤ t0 ≤ t1 ≤
· · · ≤ tn < ∞ con n ≥ 1, las variables aleatorias
Xt1 − Xt0 , Xt2 − Xt1 , . . . , Xtn − Xtn−1 ,
son independientes.
3. Para todo s, t ≥ 0, la ley del proceso (Xt+s − Xt , s ≥ 0) es igual a la de
(Xs , s ≥ 0).
Xt = at + σt+ − σt− , t ≥ 0,
Xt = at − σt , (1.3.5)
Para procesos de Lévy espectralmente negativo con tripleta caracterı́stica (a, 0, Π),
en lugar de considerar la función caracterı́stica (1.3.4), es preferible trabajar con el
exponente de Laplace ψ(λ),
1
log E eλXt = −Ψ(−iλ),
ψ(λ) :=
t
el cual es finito para toda λ ≥ 0. Ası́, ψ se escribe como
Z
1 − eλx + λx1(|x|<1) Π(dx),
ψ(λ) = aλ −
(−∞,0)
donde, Z
ã := a − xΠ(dx) > 0,
|x|<1
para θ ≥ 0 y t ≥ 0, donde
Z
1 − eθz Π(dz),
ψ(θ) = ãθ −
(−∞,0)
con Z
ã = a − zΠ(dz) > 0.
|z|<1
41
42 2.1. MARTINGALA ASOCIADA A LA TRANSFORMACIÓN DE ESSCHER.
= Et (β).
Por lo tanto Et es martingala.
El hecho de que E [Et (β)] = 1, para toda t, c ≥ 0, el proceso se puede usar para
definir una nueva medida de probabilidad, dPβx /dPx sobre la σ -álgebra Ft , es decir,
puede ser utilizado para llevar acabo un cambio de medida en (X, Px ), de la siguiente
manera
dPβx
Et (β)
= = exp {β(Xt − x) − ψ(β)t} , t ≥ 0. (2.1.2)
dPx Ft E0 (β)
Teorema 2.1.2 Sea β > 0. Entonces el proceso (X, Pβ ) es un proceso de Lévy es-
pectralmente negativo con exponente de Laplace, ψβ (θ), dado por
ψβ (θ) := ψ(θ + β) − ψ(β),
para toda θ ≥ −β.
La demostración se puede consultar en [[7], Corolario 3.10].
.
CAPÍTULO 2. FUNCIONES DE ESCALA. 43
=E E Et 1{A∩{τ ≤t}} Fτ
=E 1{A∩{τ ≤t}} E Et Fτ
=E 1{A∩{τ ≤t}} Eτ ,
Lema 2.2.1 (Lema de Dualidad) Para cada t > 0 fija, definamos el proceso in-
vertido en el tiempo
X(t−s)− − Xt : 0 ≤ s ≤ t
y el proceso dual,
{−Xs : 0 ≤ s ≤ t} .
Entonces los dos procesos tienen la misma ley bajo P.
Lema 2.2.2 Para cada t > 0 fija, se tiene que los vectores
X t , X t − Xt y (Xt − X t , −X t )
n o
casi seguramente. Usando el Lema de Dualidad tenemos que Xes : 0 ≤ s ≤ t es
igual en ley a {Xs : 0 ≤ s ≤ t} bajo P. Por lo tanto,
L
X t , X t − Xt = (Xt − X t , −X t ) .
Definición 2.2.3 Definimos a la función Φ(q), como la raı́z mas grande de la ecua-
ción ψ(λ) = q, es decir
h + i
= 1(τx+ ≥t) eΦ(q)Xt −qt + 1(τx+ <t) eΦ(q)x−qτx E e
+ Φ(q)(Xt −Xτ + )−q(t−τx )
x
Φ(q)Xt∧τ + −q(t∧τx+ )
=e x ,
por lo tanto h i
−qτx+
E e = e−Φ(q)x .
A partir del resultado anterior, podemos decir como es la distribución del supremo
del proceso X. En lo siguiente, una variable aleatoria exponencial que tiene parámetro
cero, se entiende como un valor que es infinito casi seguramente.
Corolario 2.2.5 Supongamos que q ≥ 0 y sea eq una variable aleatoria exponen-
cial con parámetro q que es independiente de X. Entonces X eq tiene distribución
exponencial con parámetro Φ(q).
Demostración. Primero supongamos que q > 0, entonces
h i
+
P(X eq > x) = P(τx < eq ) = E e−qτx+
1τx <∞ .
+
La ley del ı́nfimo del proceso X no es tan simple como la del supremo, en el
siguiente resultado vemos como es su transformada de Laplace.
Teorema 2.2.7 Supongamos que eq es una variable aleatoria con distribución expo-
nencial de parámetro q > 0 independiente del proceso X. Entonces para toda θ > 0,
h i q(θ − Φ(q))
E eθX eq = . (2.2.3)
Φ(q)(ψ(θ) − q)
El caso θ = Φ(q), se entiende como lı́mite, es decir, la expresión (2.2.3) del lado
0
derecho es q/Φ(q)ψ (Φ(q)).
y observemos que E [Mt ] = 0. Sea eq una variable aleatoria con ley exponencial de
parámetro q > 0 independiente del proceso X, entonces
Z eq h i
−θ(X s −Xs )
ds + 1 − E e−θ(X eq −Xeq ) − θE X eq ,
E Meq = ψ(θ)E e (2.2.4)
0
1
E X eq = ,
Φ(q)
CAPÍTULO 2. FUNCIONES DE ESCALA. 47
ψ(θ) h θX eq i h
θX eq
i θ
0= E e +1−E e − ,
q Φ(q)
esto es, h
ψ(θ) − q θX eq
i θ − Φ(q)
E e = .
q Φ(q)
Por lo tanto,
q (θ − Φ(q))
h i
E eθX eq = .
Φ(q) (ψ(θ) − q)
Para el caso θ = Φ(q) y q > 0, obtenemos el resultado a partir del caso θ 6= Φ(q),
tomando el lı́mite cuando θ tiende a Φ(q).
0
Observación 2.2.8 Sabemos que, si ψ (0+) < 0, entonces Φ(0) > 0, ası́,
q
lı́m = 0,
q↓0 Φ(q)
0
también, si ψ (0+) ≥ 0, entonces Φ(q) → 0, cuando q → 0, en consecuencia,
q 0
lı́m = ψ (0+).
q↓0 Φ(q)
Por lo tanto, si hacemos que q tienda a cero en la ecuación (2.2.3), tenemos que
0
θX 0 si ψ (0+) < 0
E e ∞ = 0 0 (2.2.5)
θψ (0+)/ψ(θ) si ψ (0+) ≥ 0.
48 2.3. CONSTRUCCIÓN DE FUNCIONES DE ESCALA.
A las funciones W (q) se les conoce con el nombre funciones q -escala y la existencia
de dichas funciones se dará en el siguiente teorema.
Teorema 2.3.2 Para todo proceso de Lévy espectralmente negativo con trayectorias
de variación acotada, las funciones q -escala existen para toda q ≥ 0.
Esto completa la demostración para el caso q ≥ 0 y ψ 0 (0+) < 0. Notemos que, para
el caso q > 0 y ψ 0 (0+) > 0, la justificación anterior es valida, ya que en este caso
0
también se tiene ψΦ(q) (0+) > 0.
Falta por analizar el caso q = 0 y ψ 0 (0+) = 0. Como WΦ(q) es no decreciente y
continua por la derecha, podemos pensarlo como una función de distribución de una
medida, abusando de la notación llamémoslo WΦ(q) (dx) a la medida inducida por
WΦ(q) (x). Usando integración por partes, tenemos
Z ∞ Z ∞ Z x
−βx −βx
e WΦ(q) (x)dx = e WΦ(q) (dy)dx
0 0 0
Z ∞Z ∞
= e−βx dxWΦ(q) (dy)
0
Z y
1 ∞ −βy
= e WΦ(q) (dy).
β 0
Esto es, Z
β
e−βx WΦ(q) (dx) = .
[0,∞) ψΦ(q) (β)
Como ψ 0 (0+) = 0, entonces Φ(0) = 0, lo cual implica
Ası́,
β β
lı́m = ,
q&0 ψΦ(q) (β) ψ(β)
en consecuencia Z
β
lı́m e−βx WΦ(q) (dx) = .
q&0 [0,∞) ψ(β)
Por el teorema de continuidad extendida de transformadas de Laplace, existe una
medida W ∗ tal que W ∗ [0, x] = lı́mq↓0 WΦ(q) (x) y
Z
β
e−βx W ∗ (dx) = .
[0,∞) ψ(β)
Por lo tanto la distribución que es continua por la derecha, W (x) := W ∗ [0, x], satis-
face Z ∞
1
e−βx W (x)dx = ,
0 ψ(β)
CAPÍTULO 2. FUNCIONES DE ESCALA. 51
q (θ − Φ(q))
h i Z
θX eq
E e = = e−θx P(−X eq ∈ dx).
Φ(q)(ψ(θ) − q)
Tenemos
q (θ − Φ(q)) qθ 1 q
= −
Φ(q)(ψ(θ) − q) Φ(q) ψ(θ) − q ψ(θ) − q
Z Z
qθ
= e W (x)dx − q e−θx W (q) (x)dx
−θx (q)
Φ(q)
Z Z
q
= e W (dx) − q e−θx W (q) (x)dx
−θx (q)
Φ(q)
Z
−θx q (q) (q)
= e W (dx) − q W (x)dx .
Φ(q)
Esto es
Z Z
−θx −θx q (q) (q)
e P(−X eq ∈ dx) = e W (dx) − q W (x)dx .
Φ(q)
52 2.4. APLICACIONES DE FUNCIONES DE ESCALA.
Demostración.
(i) Usando el hecho de que la variable aleatoria ep es independiente del proceso,
tenemos h i
P(ep > τ0− ) = E e−qτ0 1{τ − <∞} .
−
0
CAPÍTULO 2. FUNCIONES DE ESCALA. 53
= Px (X ep < 0)
= 1 − P(−X ep ≤ x)
Z x
q (q)
=1− W (x) + q W (q) (y)dy
Φ(q) 0
(q) q (q)
= Z (x) − W (x).
Φ(q)
Esto completa la demostración para el caso q > 0. Si q = 0, tomemos el lı́mite cuando
q tiende a cero en el caso q > 0. Si ψ 0 (0+) ≥ 0,
q
lı́m = ψ 0 (0+),
q↓0 Φ(q)
Px (X ∞ ≥ 0) = Ex Px X ∞ ≥ 0 Fτa+
h i h i
= Ex 1{τa+ <τ − } Px X ∞ ≥ 0 Fτa + Ex 1{τ − <τa+ } Px X ∞ ≥ 0 Fτa
+ +
0 0
h i h i
= Pa (X ∞ ≥ 0) Ex 1{τa+ <τ − } + Ex 1{τ − <τa+ } Px X ∞ ≥ 0 Fτa+ ,
0 0
54 2.4. APLICACIONES DE FUNCIONES DE ESCALA.
observemos
− que el segundo término de la igualdad anterior es cero, pues en el evento
τ0 < τa+ , el ı́nfimo del proceso es menor que cero, ya que al ser el proceso de
variación acotada Xτ0− < 0. En consecuencia
h i
Px (X ∞ ≥ 0) = Pa (X ∞ ≥ 0) Ex 1{τa+ <τ − } = Pa (X ∞ ≥ 0) Px τa+ < τ0− ,
0
esto es
Px (X ∞ ≥ 0) W (x)
Px τa+ < τ0− = = .
Pa (X ∞ ≥ 0) W (a)
Ahora veamos el caso q > 0. Para ello usaremos la transformada de Esscher. Dado
0
que Xτa+ = a y ψΦ(q) (0+) > 0.
Φ(q)(Xτ + −x)−qτa+
h i h i
Ex e −qτa+
1{τa+ <τ0− } =Ex e a 1{τa+ <τ0− } e−Φ(q)(a−x)
=e−Φ(q)(a−x) PΦ(q) τa+ < τ0−
x
WΦ(q) (x)
=e−Φ(q)(a−x)
WΦ(q) (a)
W (q) (x)e−Φ(q)x
=e−Φ(q)(a−x)
W (q) (a)e−Φ(q)a
W (q) (x)
= ,
W (q) (a)
Φ(q)
donde en la tercera igualdad se aplicó el caso anterior pero con la ley Px . Ası́,
tenemos que para q > 0,
h i W (q) (x)
Ex e−qτa 1{τ − >τa+ } = (q) .
+
(2.4.6)
0 W (a)
Por otro lado, por el teorema de continuidad extendida para transformadas de La-
place, sabemos que lı́mite W q (x) existe cuando q ↓ 0, mas aún
h i h i
= Ex e−qτa 1(τa+ <τ0− ) Ea e−qτ0 ,
+ −
por lo tanto
h i h i h i
Ex e−qτ0 1(τa+ <τ0− ) = Ex e−qτa 1(τa+ <τ0− ) Ea e−qτ0 1(τ0− <∞) .
− + −
W (q) (x)
(q) q (q) (q) q (q)
= Z (x) − W (x) − (q) Z (a) − − W (a)
Φ(q) W (a) Φ(q)
W (q) (x)
= Z (q) (x) − (q) Z (q) (a).
W (a)
Concluimos, para q > 0,
h i W (q) (x)
Ex e−qτ0 1(τ0− <τa+ ) = Z (q) (x) − Z (q) (a) (q) .
−
W (a)
56 2.4. APLICACIONES DE FUNCIONES DE ESCALA.
Otra de las cosas que nos va interesar en el siguiente capitulo es lo que a conti-
nuación se menciona.
a→∞
Por lo tanto
Z (q) (x) q
lı́m (q)
= . (2.4.8)
x→∞ W (x) Φ(q)
dl
Tξ W (q) (x) = (−1)l (l!)Tξl+1 W (q) (x), l = 0, 1, · · · (2.4.9)
dξ l
CAPÍTULO 2. FUNCIONES DE ESCALA. 57
para toda x ≥ 0.
−
−qτ−x +rXτ −
rx −
=e E e −x < ∞ .
−x ; τ
Pero,
−
−
−qτ−x +rXτ − rXτ − −ψ(r)τ−x −
− −(q−ψ(r))τ −
E e −x < ∞ = E e ; τ−x < ∞
−x ; τ −x e −x
h −
i
= Er e−(q−ψ(r))τ−x ; τ−x −
<∞
h i
r −(q−ψ(r))τ0− −
= Ex e ; τ0 < ∞
p
= Zr(p) (x) − W (p) (x),
Φr (p) r
donde p = q − ψ(r) > 0. Ası́
−qτ0− +rXτ − − rx p
Ex e 0 ;τ
0 < ∞ = e Zr(p) (x) − (p)
W (x) .
Φr (p) r
Por otro lado observemos que,
Φr (p) = sup {λ ≥ 0 : ψr (λ) = p}
= sup {λ ≥ 0 : ψ(λ + r) − ψ(r) = q − ψ(r)}
= sup {θ ≥ 0 : ψ(θ) = q} − r
=Φ(q) − r.
(p) (q−ψ(r))
Usando que Wr (x) = Wr (x) = e−rx W (q) (x),
Z x
(p)
Zr (x) = 1 + p e−rz W (q) (z)dz,
0
en consecuencia,
−qτ0− +rXτ − −
Ex e 0 < ∞
0 ;τ
x
q − ψ(r) −rx (q)
Z
rx −rz (q)
=e 1 + (q − ψ(r)) e W (z)dz − e W (x) ,
0 Φ(q) − r
CAPÍTULO 2. FUNCIONES DE ESCALA. 59
Z x
rx
= e + (q − ψ(r)) e rx
e−rz W (q) (z)dz
0
Z b
W (q) (x) rb
rb −rz (q)
− (q) e + (q − ψ(r)) e e W (z)dz .
W (b) 0
Notemos que,
Z ∞ Z ∞
−qτ0− +rXτ − − rx rx −rz (q) −rz (q)
Ex e 0 < ∞ =e + (q − ψ(r)) e (z)dz −
0 ;τ e W e W (z)dz
0 x
q − ψ(r) (q)
− W (x)
Φ(q) − r
Z ∞
rx rx 1 −rz (q)
=e + (q − ψ(r)) e − e W (z)dz
ψ(r) − q x
q − ψ(r) (q)
− W (x)
Φ(q) − r
Z ∞
q − ψ(r) (q)
= (ψ(r) − q) erx
e−rz W (q) (z)dz − W (x)
x Φ(q) − r
(q) 1 (q)
= (ψ(r) − q) Tr W (x) + W (x) .
Φ(q) − r
De manera análoga,
−qτ0− +rXτ − − + −qτ0− +rXτ − − −qτ0− +rXτ − + −
Ex e 0 < ∞ − Ex e
0 ;τ
0 < τb = Ex e 0 ;τ 0 ;τ
b < τ0
por otro lado, condicionando sobre Fτ + y haciendo cálculos similares a los anteriores
b
−qτ0− +rXτ − −qτ0− +rXτ −
h i
−qτb+
Ex e 0 ; τb+ < τ0− = Ex e ; τb+ < τ0− Eb e 0 ; τ0− <∞
W (q) (x)
−qτ0− +rXτ − −
= Eb e 0 < ∞ .
0 ;τ
W (q) (b)
W (q) (x)
−qτ0− +rXτ − − −qτ0− +rXτ − −
= Ex e 0 < ∞ − 0 < ∞
0 ;τ Eb e 0 ;τ
W (q) (b)
(q) 1 (q)
= (ψ(r) − q) Tr W (x) + W (x)
Φ(q) − r
W (q) (x)
(q) 1 (q)
− (q) (ψ(r) − q) Tr W (b) + W (b)
W (b) Φ(q) − r
W (q) (x)
(q) (q)
= (ψ(r) − q) Tr W (x) − (q) Tr W (b) .
W (b)
W (q) (x)
(q) (q)
= (ψ(r) − q) Tr W (x) − (q) Tr W (b) .
W (b)
61
62
En este trabajo se considera el tiempo de ruina, de tal manera que permita al pro-
ceso pasar un tiempo aleatorio por debajo del nivel cero antes de declarar la ruina,
esperando la recuperación de la compañı́a.
A continuación, definimos el tiempo de ruina parisino. Usaremos la convención ı́nf ∅ =
∞.
50
Xt
0
e1d e2d
−50
0 20 40 60 80 100
tiempo
Figura 3.1: Ejemplo ilustrativo del tiempo de ruina tipo parisino. En este caso la
−
ruina ocurra en τ0,2 + e2d .
donde
h h h i ii
W (q) (x) −qτ0− −qτ0+ + − +
(q)
1 − E 0
W (q) (0)
e EXτ − e ; τ 0 < ed ; τ 0 < τx , si x ≥ 0
Hd (x) = h i 0
Ex e−qτ0+ ; τ + < ed , si x < 0.
0
b b
(q)
W (x) h i
+ Ex e−qτb 1(τ0− <τ + ) ; τb+ < τd .
+
= (q)
W (b) b
Veamos que pasa con el segundo término de la expresión anterior, primero notemos
que
h i h i
Ex e−qτb 1(τ0− <τ + ) 1(τ + <τd ) Fτ0+ = Ex e−q(τb −τ0 )−qτ0 1(τ0− <τ + ) 1(τ + <τd ) 1(τ0+ <ed ) Fτ0+
+ + + +
b b b b
h i
=e −qτ0+
1(τ0+ <ed ) 1(τ0− <τ + ) E0 e
b
−qτb+
1(τ + <τd )
b
64
y
h i h i
Ex e−qτ0 1(τ0+ <ed ) 1(τ0− <τ + ) Fτ0− =Ex e−q(τ0 −τ0 )−qτ0 1(τ0+ <ed ) 1(τ0− <τ + ) Fτ0−
+ + − −
b b
h i
−qτ0−
1(τ0− <τb+ ) Ex e −q(τ0+ −τ0− )
1(τ0+ −τ0− <ed ) Fτ0−
=e
h i
=e−qτ0−
1(τ0− <τ + ) EXτ − e
b
−qτ0+
1(τ0+ <ed ) .
0
Entonces
h i
Ex e−qτb 1(τ0− <τ + ) ; τb+ < τd
+
b
h h ii
= Ex Ex e−qτb 1(τ0− <τ + ) 1(τ + <τd ) Fτ0+
+
b b
h i h i
= Ex e −qτ0+
1(τ0+ <ed ) 1(τ0− <τb+ ) E0 e −qτb+
1(τb+ <τd )
h h ii h i
= Ex Ex e−qτ0 1(τ0+ <ed ) 1(τ0− <τ + ) Fτ0− E0 e−qτb 1(τ + <τd )
+ +
b b
h h ii h i
= Ex e −qτ0−
1(τ0− <τ + ) EXτ − e
b
−qτ0+
1(τ0+ <ed ) E0 e −qτb+
1(τ + <τd ) .
b
0
En consecuencia
h +
i
Ex e−qτb ; τb+ < τd (3.0.2)
W (q) (x) h h i i h i
−qτ0− −qτ0+
1 E0 e−qτb 1(τ + <τd )
+
− +
= (q)
+ Ex e EX − e +
(τ0 <ed ) ; τ 0 < τb
W (b) τ0 b
Esto implica
h ih h h i ii W (q) (0)
E0 e−qτb ; τb+ < τd 1 − E0 e−qτ0 EXτ − e−qτ0 1(τ0+ <ed ) ; τ0− < τb+ = (q)
+ − +
0 W (b)
es decir, h +
i 1
E0 e−qτb ; τb+ < τd = (q)
, (3.0.3)
Hd (b)
CAPÍTULO 3. MODELO DE RIESGO DE SEGUROS CON
IMPLEMENTACIÓN TIPO PARISINO. 65
h +
i
Ex e−qτb ; τb+ < τd (3.0.4)
h −
h +
i i
W (q) (x) Ex e
−qτ0
EXτ − e−qτ0 ; τ0+ < ed ; τ0− < τb+
0
= + (q)
.
W (q) (b) Hd (b)
h i h h ii
E0 e−qτ0 1(τ0− <τ + ) 1(τ0+ <τd ) = E0 e−qτ0 1(τ0− <τ + ) E0 e−q(τ0 −τ0 ) 1(τ0+ −τ0− <τd −τ0− ) Fτ0−
+ − + −
b b
h −
h +
i i
= E0 e−qτ0 EXτ − e−qτ0 ; τ0+ < ed ; τ0− < τb+ . (3.0.5)
0
h i
E0 e−qτ0 1(τ0− <τ + ) 1(τ0+ <τd )
+
b
h i h i
= E0 e −qτ0+
1(τ0− <τb+ ) 1(τ0+ <τd ) 1(τ0− <τx+ ) + E0 e−qτ0+
1(τ0− <τb+ ) 1(τ0+ <τd ) 1(τ0− >τx+ )
h i h i
= E0 e−qτ0 1(τ0+ <τd ) 1(τ0− <τx+ ) + E0 e−qτ0 1(τ0− <τ + ) 1(τ0+ <τd ) 1(τ0− >τx+ ) .
+ +
(3.0.6)
b
h i h h ii
−qτ0+
1(τ0+ <τd ) 1(τ0− <τx+ ) = E0 e −qτ0−
1(τ0− <τx+ ) E0 e −q(τ0+ −τ0− )
1(τ0+ −τ0− <τd −τ0− ) Fτ0−
E0 e
h h ii
= E0 e−qτ0 1(τ0− <τx+ ) EXτ − e−qτ0 1(τ0+ <τd )
− +
0
h h i i
−qτ0− −qτ0+ + − +
= E0 e EXτ − e ; τ0 < ed ; τ0 < τx .
0
sobre Fτx+
h i
E0 e−qτ0 1(τ0− <τ + ) 1(τ0+ <τd ) 1(τ0− >τx+ )
+
b
h h ii
= E0 e−qτx 1(τ0− >τx+ ) E0 e−q(τ0 −τx ) 1(τ0− <τ + ) 1(τ0+ −τx+ <τd −τx+ ) Fτx+
+ + +
b
h i h i
= E0 e −qτx+
1(τ0− >τx+ ) Ex e −qτ0+
1(τ0− <τb+ ) 1(τ0+ <τd )
W q (0) h h ii
= q Ex Ex e−qτ0 1(τ0− <τ + ) 1(τ0+ <τd ) Fτ0−
+
W (x) b
W q (0) h h ii
= q Ex e−qτ0 1(τ0− <τ + ) Ex e−q(τ0 −τ0 ) 1(τ0+ −τ0− <τd −τ0− ) Fτ0−
− + −
W (x) b
W q (0) h h ii
= q Ex e−qτ0 1(τ0− <τ + ) EXτ − e−qτ0 1(τ0+ <τd ) .
− +
W (x) b 0
h i h h i i
E0 e −qτ0+
1(τ0− <τb+ ) 1(τ0+ <τd ) = E0 e −qτ0−
EXτ − e −qτ0+ + − +
; τ0 < ed ; τ0 < τx
0
W q (0) h −
h +
i i
+ q Ex e−qτ0 EXτ − e−qτ0 ; τ0+ < τd ; τ0− < τb+ .
W (x) 0
h h i i
−qτ0− −qτ0+ + − +
E0 e EXτ − e ; τ0 < ed ; τ0 < τb
0
h −
h +
i i
= E0 e−qτ0 EXτ − e−qτ0 ; τ0+ < ed ; τ0− < τx+
0
q
W (0) h
−qτ0−
h
−qτ0+ +
i
− +
i
+ q Ex e EXτ − e ; τ0 < τd ; τ0 < τb .
W (x) 0
CAPÍTULO 3. MODELO DE RIESGO DE SEGUROS CON
IMPLEMENTACIÓN TIPO PARISINO. 67
En consecuencia,
h −
h +
i i
Ex e−qτ0 EXτ − e−qτ0 ; τ0+ < ed ; τ0− < τb+
0
(q)
W (x) h −qτ0− h
−qτ0+ +
i
− +
i
= (q) E0 e EXτ − e ; τ0 < ed ; τ0 < τb
W (0) 0
W (q) (x) h −
h +
i i
− (q) E0 e−qτ0 EXτ − e−qτ0 ; τ0+ < ed ; τ0− < τx+
W (0) 0
(q)
W (x) h h
−qτ0−
h
−qτ0+ +
i
− +
ii
= (q) 1 − E0 e EXτ − e ; τ0 < ed ; τ0 < τx
W (0) 0
W (q) (x) h h −
h +
i ii
− (q) 1 − E0 e−qτ0 EXτ − e−qτ0 ; τ0+ < ed ; τ0− < τb+
W (0) 0
(q)
(q) W (x) (q)
= Hd (x) − (q) Hd (b),
W (b)
es decir,
h
−qτ0−
h
−qτ0+ +
i
− +
i
(q) W (q) (x) (q)
Ex e EXτ − e ; τ0 < ed ; τ0 < τb = Hd (x) − (q) Hd (b). (3.0.7)
0 W (b)
Regresando a la ecuación (3.0.4), tenemos
h i W (q) (x) 1
W (q) (x) (q)
−qτb+ + (q)
Ex e ; τb < τd = (q) + Hd (x) − (q) Hd (b)
W (b) Hd(q) (b) W (b)
(q)
Hd (x)
= (q)
,
Hd (b)
lo cual prueba el caso 0 ≤ x ≤ b.
Ahora, veamos el caso cuando el proceso alcanza la ruina antes de que alcanza un
nivel b > 0 dado.
donde
( (q) (x)
h h ii
−qτ0−
−W d; e < τ + ; τ − < τ +
−qe
(q) W (q) (0)
E0 e EX − e d 0 0 x , si x ≥ 0
Pd (x) = τ0
+
−qe
Ex e d ; ed < τ0 , si x < 0.
Notemos que el segundo término es cero, veamos que pasa con el primer termino.
h i h h ii
Ex e−qτd 1(τ0− <τ + ) 1(τd <τ + ) =Ex e−qτ0 1(τ0− <τ + ) Ex e−q(τd −τ0 ) 1(τd −τ0− <τ + −τ0− ) Fτ0−
− −
b b b b
h h ii
=Ex e−qτ0 1(τ0− <τ + ) EXτ − e−qτd 1(τd <τ + )
−
(3.0.9)
b 0 b
CAPÍTULO 3. MODELO DE RIESGO DE SEGUROS CON
IMPLEMENTACIÓN TIPO PARISINO. 69
h i
Para la expresión, EXτ − e−qτd 1(τd <τ + ) , hay dos casos, o pasa ed < τ0+ o pasa
0 b
0 b
0 0 b
h h ii
=Ex e−qτ0 1(τ0− <τ + ) EXτ − e−qed 1(ed <τ0+ )
−
b 0
h h ii h i
1(τ0 <τ ) EXτ − e 1(ed >τ0 ) E0 e 1(τd <τ ) .
−
−qτ0 −qτ0+ −qτd
+Ex e − + + +
b 0 b
Es decir,
Ex e−qτd ; τd < τb+
(3.0.11)
h h ii
=Ex e−qτ0 1(τ0− <τ + ) EXτ − e−qed 1(ed <τ0+ )
−
b 0
h h ii h i
1(τ0− <τ + ) EXτ − e 1(ed >τ0+ ) E0 e 1(τd <τ + ) .
−
−qτ0 −qτ0+ −qτd
+Ex e
b 0 b
esto implica,
h h h iii
−qτ0−
1(τ0− <τb+ ) EXτ − e −qτ0+
1(ed >τ0+ )
−qτ +
E0 e d
; τd < τb 1 − E0 e
0
h h ii
= E0 e−qτ0 1(τ0− <τ + ) EXτ − e−qed 1(ed <τ0+ ) .
−
b 0
En consecuencia,
b 0
h h ii P (q) (b)
−Ex e−qτ0 1(τ0− <τ + ) EXτ − e−qτ0 1(ed >τ0+ )
− +
d
(q)
.
b 0 Hd (b)
A continuación, mostraremos que
h h ii W (q) (x) (q)
Ex e−qτ0 1(τ0− <τ + ) EXτ − e−qed 1(ed <τ0+ ) = Pd (x) − (q) Pd (b).
− (q)
b 0 W (b)
Usando las mismas ideas que en el desarrollo de (3.0.6), tenemos que
h i h h ii
E0 e−qτd 1(τ0− <τ + ) 1(τd <τ0+ ) =E0 e−qτ0 1(τ0− <τ + ) E0 e−q(τd −τ0 ) 1(τd −τ0− <τ0+ −τ0− ) Fτ0−
− −
b b
h h ii
=E0 e−qτ0 1(τ0− <τ + ) EXτ − e−qed 1(ed <τ0+ ) ,
−
(3.0.15)
b 0
CAPÍTULO 3. MODELO DE RIESGO DE SEGUROS CON
IMPLEMENTACIÓN TIPO PARISINO. 71
h i h i
=E0 e−qτd 1(τ0− <τ + ) 1(τd <τ0+ ) 1(τ0− <τx+ ) + E0 e−qτd 1(τ0− <τ + ) 1(τd <τ0+ ) 1(τ0− >τx+ )
b b
h i h i
=E0 e−qτd 1(τd <τ0+ ) 1(τ0− <τx+ ) + E0 e−qτd 1(τ0− <τ + ) 1(τd <τ0+ ) 1(τ0− >τx+ ) ,
b
pero
h i h h ii
E0 e−qτd 1(τd <τ0+ ) 1(τ0− <τx+ ) = E0 e−qτ0 1(τ0− <τx+ ) E0 e−q(τd −τ0 ) 1(τd −τ0− <τ0+ −τ0− ) Fτ0−
− −
h h ii
= E0 e −qτ0−
1(τ0− <τx+ ) EXτ − e 1(τd <τ0+ ) .
−qτd
(3.0.16)
0
b
h i h h ii
= E0 e −qτx+
1(τ0 >τx ) Ex e
− +
−qτ0−
1(τ0 <τb ) EXτ − e 1(ed <τ0 )
− +
−qed
+
0
Por lo tanto,
h i h h ii
E0 e −qτd
1(τ0− <τb+ ) 1(τd <τ0+ ) =E0 e −qτ0−
1(τ0− <τx+ ) EXτ − e 1(τd <τ0+ )
−qτd
0
b 0
h h ii
=E0 e−qτ0 1(τ0− <τx+ ) EXτ − e−qτd 1(τd <τ0+ )
−
0
(q)
W (0) h h ii
1(τ0− <τb+ ) EXτ − e 1(ed <τ0+ ) ,
−
−qτ0 −qed
+ (q) Ex e
W (x) 0
72
y en consecuencia
h −
i
Ex e−qτ0 EXτ − e−qed ; ed < τ0+ ; τ0− < τb+
0
(q)
W (x) h −qτ0− h ii
= (q) E0 e 1(τ0− <τb+ ) EXτ − e 1(ed <τ0+ )
−qed
W (0) 0
(q)
W (x) h h ii
− (q) E0 e−qτ0 1(τ0− <τx+ ) EXτ − e−qτd 1(τd <τ0+ )
−
W (0) 0
(q)
(q) W (x) (q)
= Pd (x) − (q) Pd (b).
W (b)
Sustituyendo la expresión anterior en (3.0.14), obtenemos
pero
h h ii
Ex Ex e−qτd 1(τd <τ + ) 1(τ0+ <ed ) Fτ0+
b
h h ii
= Ex e−qτ0 1(τ0+ <ed ) Ex e−q(τd −τ0 ) 1(τd −τ0+ <τ + −τ0+ ) Fτ0+
+ +
b
h i h i
= Ex e −qτ0+
1(τ0+ <ed ) E0 e 1(τd <τ + ) .
−qτd
b
(q) (q)
Entonces, usando la definición de Pd (x) y Hd (x) para x < 0, ası́ como la ecuación
(3.0.13), obtenemos
b
(q)
(q) Hd (x) (q)
= Pd (x) − (q)
Pd (b).
Hd (b)
(q)
−qτd (q) Hd (x) (q)
τb+
Ex e ; τd < = Pd (x) − (q)
Pd (b).
Hd (b)
en consecuencia,
(q)
−qτ +
(q) Hd (x) (q)
Ex e d
; τd < τb = Pd (x) − (q) Pd (b)
Hd (b)
W (q) (x) i W (q) (x)
h
(q) −qτb+ + (q)
= Z (x) − (q) − Ex e ; τb < τd Z (b) − (q)
W (0) W (0)
(q) (q) (q)
W (x) W (x) W (x)
= Z (q) (x) − (q) − (q) Z (q) (b) − (q) pues τd = τ0−
W (0) W (b) W (0)
W (q) (x)
= Z (q) (x) − Z (q) (b) (q) , (3.0.17)
W (b)
( h h − Φ(q+β)X −
ii
W (q) (x)
(q) W (q) (0)
1 − E0 e−qτ0 e τ0
; τ0− < τx+ , si x ≥ 0
Hd (x) =
Φ(q+β)x
e , si x < 0.
Por otro lado, en el capitulo (2) en la ecuación (2.4.14), vimos que
W (q) (x)
−qτ0− +rXτ + − + (q) (q)
Ex e 0 ;τ
0 < τb = (ψ(r) − q) Tr W (x) − (q) Tr W (b) .
W (b)
75
76 4.1. CASO EXPONENCIAL.
W (q) (0)
h i
−qτ0− Φ(q+β)Xτ0−
E0 e e ; τ0− < τx+ = (q + β − q) TΦ(q+β) W (0) − (q) TΦ(q+β) W (q) (x)
(q)
W (x)
(q)
1 W (0)
=β − (q) TΦ(q+β) W (q) (x)
β W (x)
W (q) (0)
=1 − β (q) TΦ(q+β) W (q) (x). (4.1.2)
W (x)
En la segunda igualdad de la expresión anterior, se debe a que
Z ∞
1 1
(q)
TΦ(q+β) W (0) = e−Φ(q+β)y W (q) (y)dy = = .
0 ψ(Φ(q + β)) − q β
De esta forma,
h − Φ(q+β)X −
i W (q) (0)
E0 e−qτ0 e τ0
; τ0− < τx+ = 1 − β (q) TΦ(q+β) W (q) (x).
W (x)
Por lo tanto,
(q) βTΦ(q+β) W (q) (x), si x ≥ 0
Hd (x) = (4.1.3)
eΦ(q+β)x , si x < 0.
(q)
Ahora, analicemos el caso para Pd . Condicionando sobre Fτ0+ , vemos
h +
i
Ex e−qed ; τ0+ < ed = Ex e−qτ0 E0 e−qed ; τ0+ < ed
h i
−qτ0+
; τ0 < ed E0 e−qed ,
+
= Ex e
de esta manera,
Ex e−qed ; ed < τ0+ =Ex e−qed − Ex e−qed ; τ0+ < ed
β h +
i
− Ex e−qτ0 ; τ0+ < ed E0 e−qed
=
β+q
β β
= − eΦ(q+β)x
β+q β+q
β
1 − eΦ(q+β)x .
=
β+q
CAPÍTULO 4. APLICACIONES. 77
(q)
En consecuencia, sustituyendo esta expresión en la definición de Pd (x), tenemos
( h Φ(q+β)Xτ −
i
β W (q) (x) −qτ0− − +
(q) − β+q (q)
W (0)
E0 e 1 − e 0 ; τ 0 < τx , si x ≥ 0
Pd (x) = β
Φ(q+β)x
β+q
1−e , si x < 0.
h −
Φ(q+β)Xτ −
i
E0 e−qτ0 1 − e 0 ; τ0− < τx+
−qτ0− +Φ(q+β)Xτ −
h i
−qτ0− − + − +
= E0 e ; τ0 < τx − E0 e 0 ; τ
0 < τx
P
donde, para cada i, ci es no negativo tal que i ci = 1 y fi (x) es la ley de una
variable aleatoria Gamma con parámetros (i, β), explı́citamente,
(βx)i−1
fi (x) = βe−βx .
(i − 1)!
donde
kn−i+1
X n! x k1 x k2
1 2 xn−i+1
Bi,n (x1 , · · · , xn−i+1 ) = ··· ,
k1 !k2 ! · · · kn−i+1 ! 1! 2! (n − i + 1)!
con la suma extendida sobre toda sucesión k1 , · · · kn−i+1 de enteros no negativos tal
que k1 + k2 + · · · + kn−i+1 = i y k1 + 2k2 + · · · + (n − i + 1)kn−i+1 = n y definimos
B0,0 = 1 para toda x1 .
También, en el Capitulo 2, mencionamos la propiedad del operador de Dickson-Hipp,
dl
l
Tξ W (q) (x) = (−1)l (l)!Tξl+1 W (q) (x), l = 0, 1, · · · (4.2.2)
dξ
(q) (q)
Antes de clasificar las expresiones
Pr Hd y Pd , veamos el siguiente corolario. Deno-
taremos por C n la suma j=n+a cj .
Corolario 4.2.1 Si ed es una variable aleatoria con ley Erlang mixta y transformada
de Laplace (4.2.1), entonces
h i Xr−1
−qτ0+ +
ζi xi eΦ(q+β)x ,
Ex e ; τ0 < ed = x < 0, (4.2.3)
i=0
CAPÍTULO 4. APLICACIONES. 79
y
r−1
β X
Ex e−qed ; ed < τ0+ = C χi xi eΦ(q+β)x ,
− x < 0, (4.2.4)
β+q i=0
βn
(−1)n Bi,n Φ(1) (q + β), · · · , Φ(n−i+1) (q + β) .
νi,n =
n!
donde
r−1
X (βy)n −βy
g(y) = P(ed > y) = F (y) = Cn e .
0
n!
Entonces,
h i
−qτ0+
Ex e ; τ0+ < ed
" r−1
!#
−qτ0+
X (βτ0+ )n −βτ0+
=Ex e Cn e
n=0
n!
" r−1
! #
−qτ0+
X (βτ0+ )n −βτ0+
=Ex e Cn e ; τ0+ < ∞
n=0
n!
r−1
X β n h + n −(q+β)τ0+ + i
= CnEx (τ0 ) e ; τ0 < ∞
n=0
n!
r−1
βn
n
X
n d −ατ0+ +
= C n (−1) Ex n
e ; τ0 < ∞
n=0
n! dα α=q+β
r−1
βn dn h
i
X +
= C n (−1)n n Ex e−ατ0 ; τ0+ < ∞ , (4.2.5)
n=0
n! dα α=q+β
donde
(βx)i−1
fi (x) = βe−βx ,
(i − 1)!
es decir, fi (x) es la ley de una variable aleatoria Gamma(i, β). Si {ei }i≥1 es una
sucesión de variables aleatorias independientes exp(β) y definamos
i
X
ei,β = ej ,
j=1
L Pr
ası́, ei,β es una variable aleatoria con ley fi (x). Entonces, como ed = i=1 ei,β tenemos
lo siguiente,
Xr
cn Ex e−qen,β ; en,β < τ0+
=
n=1
r
X
cn Ex e−qen,β − Ex e−qen,β ; en,β > τ0+
=
n=1
r
" n−1
#
X X
cn Ex e−qen,β −
−qe
Ex e n,β ; ej,β < τ0+ < ej+1,β .
= (4.2.6)
n=1 j=0
La última igualdad se debe a que 1(τ0+ <en,β ) = n−1 j=0 1(ej,β <τ0+ <ej+1,β ) con e0,β ≡ 0.
P
Por otro lado, para j = 0, 1, 2, . . . , n − 1
h +
h +
i i
= Ex e−qτ0 Ex e−q(en,β −τ0 ) Fτ0+ ; ej,β < τ0+ < ej+1,β
h +
i
= Ex e−qτ0 Ex e−qen−j,β ; ej,β < τ0+ < ej+1,β
(4.2.7)
h +
i
= Ex e−qen−j,β Ex e−qτ0 ; ej,β < τ0+ < ej+1,β
n−j
β h +
i
= Ex e−qτ0 ; ej,β < τ0+ < ej+1,β . (4.2.8)
β+q
Donde (4.2.7) se debe a la pérdida de la memoria ej+1,β −τ0+ ∼ exp(β), ası́ en,β −τ0+ ∼
en−j,β , bajo el evento ej,β < τ0+ < ej+1,β .
82 4.2. CASO ERLANG MIXTO.
r
" n−1
#
X −qe X −qe
Ex e n,β ; ej,β < τ0+ < ej+1,β
= cn Ex e n,β −
n=1 j=0
r
" n n−1 n−j #
X β β X h
−qτ0+
i
= cn − Ex e ; ej,β < τ0+ < ej+1,β
n=1
β+q j=0
β+q
X r n−1 n−j
β X β h +
i
=C − cn Ex e−qτ0 ; ej,β < τ0+ < ej+1,β . (4.2.9)
β+q n=1 j=0
β+q
Observemos que 1(ej,β <τ0+ <ej+1,β ) = 1(τ0+ <ej+1,β ) − 1(ej,β >τ0+ ) , ası́
h +
i
Ex e−qτ0 ; ej,β < τ0+ < ej+1,β
h i h i
−qτ0+ + −qτ0+ +
= Ex e ; τ0 < ej+1,β − Ex e ; ej,β > τ0 . (4.2.10)
h +
i
Ahora, veamos quien es Ex e−qτ0 ; τ0+ < ek,β donde ek,β ∼Gamma(α, β), 1 ≤ k ≤ r.
Notemos que ek,β es una Erlang que tiene por ley
h + i Xr−1 k−1
qτ0 + i Φ(q+β)x
X
ξi xi eΦ(q+β)x ,
Ex e ; τ0 < ek,β = ξi x e =
i=0 i=0
CAPÍTULO 4. APLICACIONES. 83
r X
r−1 X
r n−j
β X β
xi eΦ(q+β)x
=C − cn νi,j
β+q i=0 j=i n=j+1
β+q
X r Xr−1 r n−j
β X β
xi eΦ(q+β)x
=C − νi,j cn
β+q i=0 j=i n=j+1
β+q
X r
β
χi xi eΦ(q+β)x .
=C −
β+q i=0
Por lo tanto
r
−qed β X
τ0+ χi xi eΦ(q+β)x ,
Ex e ; ed < =C −
β+q i=0
2.
r−1
β
χ0 −C ( β+q )
X
β l+1
W (q) (x) , x ≥ 0
(q) (q)
W (x) + C Z (x) + ζl TΦ(q+β)
W (q) (0) β+q
(q) l=0
Pd (x) = Xr−1
β
χi xi eΦ(q+β)x ,
C β+q − x < 0.
i=0
(4.2.13)
CAPÍTULO 4. APLICACIONES. 85
donde
r−1
X
l
ζl = (−1) (l)! χi bΦ(q+β),l,i .
i=l
y
(q)
Pd (x) = Ex eqed ; ed < τ0+ ,
y
r−1
(q) β X
χi xi eΦ(q+β)x .
Pd (x) =C −
β+q i=0
ası́ como,
r−1
β X i Φ(q+β)Xτ −
EXτ − eqed ; ed < τ0+ = C
− χi Xτ0− e 0 ,
0 β+q i=0
(q)
de esta manera, reescribiendo Hd (x), tenemos
" " r−1
##
(q)
(q) W (x) − X i Φ(q+β)Xτ −
Hd (x) = (q) 1 − E0 e−qτ0 ζi Xτ0− e 0 ;τ
−
0 < τx
+
W (0) i=0
" r−1 #
W (q) (x) X i −qτ − +Φ(q+β)X
0 − − +
= (q) 1− ζi E0 Xτ0− e τ0
; τ0 < τx ,
W (0) i=0
86 4.2. CASO ERLANG MIXTO.
esto es
" r−1 #
(q)
(q) W (x) X i −qτ − +Φ(q+β)X
−
Hd (x) = (q) 1− ζi E0 Xτ0− e 0 τ0
; τ0− < τx+ , (4.2.14)
W (0) i=0
de igual manera,
r−1
W (q) (x) X
i −qτ − +Φ(q+β)X
(q) 0 τ0− − +
Pd (x) = (q) χi E0 Xτ0− e ; τ0 < τx (4.2.15)
W (0) i=0
W (q) (x)
h
β −
i
− (q) C E0 e−qτ0 ; τ0− < τx+ .
W (0) β+q
Notemos que en las expresiones anteriores, aparece la esperanza
i −qτ − +Φ(q+β)X
0 τ0− − +
E0 Xτ0− e ; τ0 < τx .
( P
r−1 l+1 (q)
(q) l=0 ϑl TΦ(q+β) W (x) , si x ≥ 0
Hd (x) = Pr−1 (4.2.17)
i Φ(q+β)x
l=0 ζi x e , si x < 0.
(q)
Para Pd (x), con x ≥ 0, recordemos que
r−1
W (q) (x) X
−
(q) i −qτ0 +Φ(q+β)Xτ0− − +
Pd (x) = χi E0 (Xτ0− ) e ; τ0 < τx
W (q) (0) i=0
W (q) (x)
h
β −qτ0− − +
i
− C E0 e ; τ0 < τx .
W (q) (0) β+q
(q)
Usando las mismas ideas que en el caso de Hd ,
r−1 −
i −qτ0 +Φ(q+β)Xτ0−
X
χi E0 (Xτ0− ) e ; τ0− < τx+
i=0
r−1
−qτ0− +Φ(q+β)Xτ − X −
i −qτ0 +Φ(q+β)Xτ0−
= χ0 E0 e 0 ; τ0− < τx+ + χi E0 (Xτ0− ) e ; τ0− < τx+
i=1
TΦ(q+β) W (q) (x)
(q)
= χ0 1 − W (0)(Ψ(Φ(q + β)) − q)
W (q) (x)
r−1 i
W (q) (0) X X n
l l+1 (q)
o
+ χ i b Φ(q+β),l,i (−1) l! T Φ(q+β) W (x)
W (q) (x) i=1 l=0
TΦ(q+β) W (q) (x)
(q)
= χ0 1 − W (0)β
W (q) (x)
r−1 i
W (q) (0) X X n
l l+1 (q)
o
+ χ i b Φ(q+β),l,i (−1) l! T Φ(q+β) W (x) .
W (q) (x) i=1 l=0
CAPÍTULO 4. APLICACIONES. 89
(q)
Entonces, sustituyendo las esperanzas en Pd (x)
r−1
X i
X n o
l+1
χi bΦ(q+β),l,i (−1)l l! TΦ(q+β) W (q) (x)
i=0 l=0
X r−1
r−1 X n o
l+1
= χi bΦ(q+β),l,i (−1)l l! TΦ(q+β) W (q) (x)
l=0 i=l
r−1
X r−1
X n o
l l+1 (q)
= (−1) l! χi bΦ(q+β),l,i TΦ(q+β) W (x)
l=0 i=l
r−1
X n o
l+1 (q)
= ζl TΦ(q+β) W (x) ,
l=0
Pr−1
donde ζl = (−1)l l! i=l χi bΦ(q+β),l,i .
(q) (q)
Por definición, Pd (0) = 0 y Hd (0) = 1, en consecuencia
(q) (q)
φq (0) = Pd (0) − σq Hd (0) = −σq .
Z (q) (x) q
lı́m (q)
= , (4.3.3)
x→∞ W (x) Φ(q)
Z (q) (x)
= lı́m W (q) (0) −1
x→∞ W (q) (x)
q
=W (q) (0) − 1,
Φ(q)
es decir,
q
φq (x) = Z (q) (x) − W (q) (x).
Φ(q)
en consecuencia,
∞
Trl W (q) (x) y l−1 −ry W (q) (x + y)
Z
= e dy,
W (q) (x) 0 (l − 1)! W (q) (x)
recordemos que la función escala W (q) satisface W (q) (x) = eΦ(q)x W (x), donde W (x)
es una función no decreciente continua por la derecha y acotada. Reescribiendo la
expresión anterior, tenemos
Z ∞
Tr W (q) (x) −ry e
Φ(q)(x+y)
W (x + y)
(q)
= e Φ(q)x
dy
W (x) 0 e W (x)
Z ∞
W (x + y)
= e−(r−Φ(q))y dy
0 W (x)
de esta manera
∞
Trl W (q) (x) y l−1 e−(r−Φ(q))y W (x + y)
Z
= dy
W (q) (x) 0 (l − 1)! W (x)
para toda r > Φ(q). Tomando limite ambos lados cuando x tiende a infinito y usando
el teorema de convergencia dominada, obtenemos
Z ∞ l−1 −(r−Φ(q))y
Trl W (q) (x) y e W (x + y)
lı́m = lı́m dy (4.3.4)
x→∞ W (q) (x) 0 (l − 1)! x→∞ W (x)
Z ∞ l−1 −(r−Φ(q))y
y e
= dy
0 (l − 1)!
l
1
= ,
r − Φ(q)
CAPÍTULO 4. APLICACIONES. 93
Ahora, supongamos que ed es una variable aleatoria exponencial con media 1/β,
usando (4.1.3), (4.1.4), (4.3.3) y (4.3.4), tenemos
(q)
Pd (x)
σq = lı́m (q)
x→∞ Hd (x)
β
β+q
Z (q) (x) − βTΦ(q+β) W (q) (x)
= lı́m
x→∞ βTΦ(q+β) W (q) (x)
1 Z (q) (x)/W (q) (x) − βTΦ(q+β) W (q) (x)/W (q) (x)
= lı́m
β + q x→∞ TΦ(q+β) W (q) (x)/W (q) (x)
1 q/Φ(q) − β/(Φ(q + β) − Φ(q))
=
β+q 1/(Φ(q + β) − Φ(q))
1 q(Φ(q + β) − Φ(q)) − β
=
β+q Φ(q)
qΦ(q + β) − (β + q)Φ(q)
=
Φ(q)(β + q)
q Φ(q + β)
= −1
β + q Φ(q)
Por lo tanto
q Φ(q + β)
σq = − 1. (4.3.5)
β + q Φ(q)
q Φ(q + β)
φq (0) = −σq = 1 − ,
β + q Φ(q)
94 4.3. TRANSFORMADA DE LAPLACE DEL TIEMPO DE RUINA.
en consecuencia
q Φ(q + β)
E0 e−qτd ; τd < ∞ = 1 −
.
β+q Φ(q)
Por lo tanto
Φ(β)
P(τd < ∞) = −σ0 = 1 − ψ 0 (0+) .
β
Por ultimo, tratemos el caso cuando ed es Erlang mixto, es decir, cuando ed tiene
transformada de Laplace (4.2.1). Usando los resultados de la proposición (4.2.2),
β
χ0 −C ( β+q )
Pr−1 l+1
(q) β (q) (q)
(q)
Pd (x) W (q) (0)
W (x) + C β+q
Z (x) + ζ
l=0 l T Φ(q+β) W (x)
lı́m = lı́m
x→∞ H (q) (x) x→∞ P r−1 l+1 (q) (x)
d l=0 ϑl TΦ(q+β) W
β
l+1
χ0 −C ( β+q ) TΦ(q+β) W (q) (x)
(q) Pr−1
β Z (x)
W (q) (0)
+ C β+q W (q) (x) + l=0 ζl W (q) (x)
= lı́m l+1
x→∞ Pr−1 TΦ(q+β) W (q) (x)
l=0 ϑ l W (q) (x)
β
χ0 −C ( β+q
l+1
)
Pr−1
β q 1
W (q) (0)
+C β+q Φ(q)
+ l=0 ζl Φ(q+β)−Φ(q)
= Pr−1 l+1 ,
1
l=0 ϑl Φ(q+β)−Φ(q)
Ası́, si tenemos una función explicita, g(z), que es analı́tica en la región Re(z) > 0
y que es igual a la transformada de Laplace de f (x)
Z ∞
e−zx f (x)dx = g(z), Re(z) > 0,
0
La idea es similar al método de Simpson. Se aproxima la función G(u) por una in-
terpolación de Lagrange de un polinomio de orden dos y que es multiplicado por
cos(ux) en el intervalo [a, b]. Debido al hecho de que el producto de funciones trigo-
nométricas y polinomios pueden ser integrados explı́citamente, se tiene una formula
explicita para la aproximación.
CAPÍTULO 4. APLICACIONES. 97
Para cada subintervalo [u2n , u2n+2 ] aproximamos a G(u) por un polinomio de La-
grange de grado dos, obteniendo
N −1 h 1
1{u2n ≤u<u2n+2 } g2n+1 + (g2n+2 − g2n )(u − u2n+1 )
X
G(u; N ) =
n=0
2h
1 i
+ 2 (g2n+2 − 2g2n+1 + g2n )(u − u2n+1 )2 .
2h
Multiplicando por la función cos(ux) e integrando sobre el intervalo [a, b] obtenemos
Z b
Fc G(x; N ) = G(u; N ) cos(ux)du (4.4.5)
a
=hA(hx) (G(b) sin(bx) − G(a) sin(ax))
1
+ hB(hx) C2 (g, u, x) − (G(b) cos(bx) − G(a) cos(ax))
2
+ hC(hx)C1 (g, u, x),
donde
1 sin(2x) 2 sin(x)2
A(x) = + − , (4.4.6)
x 2x2 x3
1 + cos(x)2 sin(2x)
B(x) = 2 − , (4.4.7)
x2 x3
sin(x) cos(x)
C(x) = 4 − . (4.4.8)
x3 x2
Para mas detalles y referencias ası́ como leer de otros métodos, consultar [[6] y [19]].
Regresando al problema original, tenemos que la transformada de Laplace de W (x)
es
f (λ) = 1
W
ψ(λ)
98 4.4. MÉTODOS NUMÉRICOS.
donde, Z
ã := a − xΠ(dx) > 0,
|x|<1
obtenemos Z
Re(ψ(c + iu)) = ãc − (1 − ecx cos(ux)) Π(dx),
(−∞,0)
y Z
Im(ψ(c + iu)) = ãu + ecx sin(ux)Π(dx).
(−∞,0)
con
µβ
ψ(λ) = aλ − µ + . (4.4.10)
λ+β
Recordemos que la función escala, W (x), es tal que
Z ∞
1
e−λx W (x)dx = . (4.4.11)
0 ψ(λ)
CAPÍTULO 4. APLICACIONES. 99
Aproximación de W(x)
1.8
1.6
W(x)
1.4
W(x)
1.2
método 1
método 2
1.0
Podemos observar que el método dos aproxima mejor la función de interés, la des-
ventaja es que es computacionalmente mas costoso comparado con el método uno.
100 4.4. MÉTODOS NUMÉRICOS.
0.2
8
0.1
6
0.0
ψ(λ)
f(x)
4
−0.1
2
−0.2
0
0 2 4 6 8 10 0 5 10 15 20 25 30
λ x
2. Para q ≥ 0, ψ(z) − q tiene una infinidad de raı́ces simples negativos, {−ζn (q)}.
1 2 2 p p √ √
ψ(z) = σ z + µz − c α + z/β coth π α + z/β + c α coth π α , (4.4.17)
2
2
cβm2λ−1 y ρm = β α + m2 .
bm = (4.4.18)
π
Aproximación de W(x)
0.14
0.12
W(x)
0.10
W(x)
método 1
0.08
método 2
0.04
100
0.02
80
ψ(λ)
0.00
f(x)
60
−0.04 −0.02
40
20
0
0 2 4 6 8 10 0 5 10 15 20
λ x
Observemos nuevamente, que el método dos aproxima mejor que el método uno. En
la figura (4.4) mostramos las gráficas de ψ(λ) y la de función integrando f (u) =
Re(1/ψ(c + iu)) cos(ux), con x = 2.9.
Capital T = 0 T = 5 T = 7 T = 10
0 0.750 0.478 0.422 0.358
10 0.561 0.353 0.313 0.265
20 0.427 0.273 0.238 0.204
50 0.191 0.119 0.103 0.086
150
100
Xt
50
0
0 20 40 60 80 100
tiempo
0 20 40 60 80 100
tiempo
µλ
ψ(θ) = aθ − µ + ,
θ+λ
y
1 µ −1
W (x) = 1+ 1 − e−(λ−µa )x .
a aλ − µ
También, la probabilidad de ruina tipo parisino es,
Capital T = 0 (S) T =0
0 0.750 0.75
10 0.561 0.56
20 0.427 0.4303151
50 0.191 0.1870142
Observemos que los valores aproximados ya sea por simulación o por el método
uno son muy cercanos al valor teórico. Como se esperaba a mayor capital inicial la
probabilidad de ruina disminuye. Por otro lado la probabilidad de ruina tipo parisino
es menor que la ruina clásica.
Conclusiones
107
Bibliografı́a
[1] A.M. Cohen. Numerical Methods for Laplace Transform Inversion. vol 5 of
Numerical Methods and Algorithms. Springer, 2007.
[5] A. Kuznetsov, A.E. Kyprianou, and J.C. Pardo. Meromorphic Lévy processes
and their fluctuation identities. Ann. Appl. Probab., to appear, 2010.
[6] A. kuznetsov, A.E. Kyprianou and V. Rivero. The Theory of Scale Functions
for Spectrally Negative Lévy Processes. Lecture Notes in Mathematics 2013,
pp 97-186. Springer, 2012.
[8] A.E. Kyprianou. Notes on Gerber-Shiu Risk Theory. University of Bath, 2012.
[9] E. Biffis and A.E. Kyprianou. A note on scale functions and the time value of
ruin for Lévy insurance risk processes. Insurance Math. Econom., 46(1):85–91,
2010.
109
[10] B. De Finetti. Su Un’impostazione Alternativa dell Teroia Collettiva del Ris-
chio. Transactions of the XVth International Congress of Actuaries 2, 433-443,
1957.
[16] Li and J. Garrido. On Ruin for the Erlang(n) Risk Process . Insurance Math.
Econom., 2004.
[21] K. Sato. Lévy processes and infinite divisibility. Cambridge University Press,
1999.
[22] Core Team (2013). R: A language and environment for statistical computing. R
Foundation for Statistical Computing, Vienna, Austria. URL http://www.R-
project.org/.