Está en la página 1de 17

, Cadenas de Markov y procesos de nacimiento

y muerte
Por MANUEL Tt)^ LEDO TCILEDO
E^tac^ístico Facultativo.

0. 1NTRODUCC1fJN

Como una generaliLación del concepto de variable aleatoria, llegamos


^^ la nocibn de proceso estocástico definido por una variable aleatoria fun-
ción de un parámetro real y continuo que puede ser considerado como
representante de la variable tiempo, t.
Los procesos estocásticos pueden ser clasificados según el número de
valores (o de estados) posibles para la función aleatoria, X:, en un instante
determinada. Este número puecie ser finito, infinito numerable o infinito
no numerable. Inclusa, el númera puede ser de distinta categorf a entre
dos épocas consideradas. .
Tarr^bién podemos clasifica.r los procesas por la.s épocas t{ en que p^ede
eambiar de estado el sistema. Si la serie t^, finita o infinita numerable, está
fij ada de antemano, o sea, si dicha serie no es aleatoria, decimos qu^e el
proceso es discreto. Por el contrario, si el sistema puede cambiar de .estado,
en cualqui^er época, decirrios que el proceso es permanente. Y según que los
cambios de estado tengan lugar por ^saltosH o de modo continuo, el proceso
se llama discontinuo o continuo.
El punto de vista ma,s importante por el que se pueden claslficar las
procesos es por su ley de evolucibn en el tiempo.
Si la evolucibn en un intervalo cualquiera {t, t-^- dt) es independiente
del pasado incluido el instante t, nos encontramos con los procesos aditi-
vos, llamados también de incrementos independientes.
Si la evolución del sistema depende sálo de su estado en el instante t,
tenemos un proceso de Markov, cuyas aplicac^ones son muy amplias, en
especial debido al hecho de que muchos procesos no mark^vianos pueden ^
considerarse ^om© tales, mediante una definición conve^i ente de los est,a- _ ^
dos posibles. En los cásos en que el proceso de 112arkov es discreto y di.scon^-
tinuo, suele denominarse más corrientemente ^con el nombre de ^ cadena ^
de Markov. ' . ^ ^
For último, una hipótesis más genera^ ^ ^orresponde 'al ^aso en que...1^, ^^ ^
ley ter^poral del proceso., o incluso sólo
. , cierta,s..carac#erí
._. . del p^^^so^.
^ticas .. ;^.,. ^
• . - . .• • . ^yL.,
^ .. ,
. ^ . . . ... .. . . . ^ . . ^ ^ l..... .. í L^ V . ^ v s i ia^
30 EST.ADfSTICA ESPAÑOLA

son independientes de una traslación cualquiera de1 eje tiempo, en cu^^^^


caso tenemos los procesos estacionarios. I-lay que tener en cuenta quf^,
aunque éste no sea el caso general, un proceso estacionario puecle ser tam-
bién un procesa de Markov.

I.-- CA DE1^AS DE MAR KOV


i l .--. Definicianes.

Para definir de un modo más preciso las cadenas de Markov, es convt-


a^iente introducir los siguientes conceptos y notaciones.
Consideremos un sistema formado por Ios estados E,, .^'^ ..., que for-
man un conjunto de sucesos rnutuamente excluyentes, cuyo número puede
ser finito o infinito.
Asociado a este sistema, definimos la ^rariable aleataria X„ (n = o, T,
2 . . . ), como sigue:
r
X n= j, si el sistema ocupa el estado .^' ^ en el xnstante t,,.

Las variables aleatorias X,^ forman una cadena de Markov si para todo
n(- i, 2...) y para todos los valores posibles de la variable aleatoria
se cumple .

-P(X „ --- ^ ^X e --_ i o, X1 -- i 1 . . . X ^ _^ --- i) -- P(X n -- j /X ^_ - ^ -- z) •

La probabilidad condicional P(X ^--- j f X ^_, == i), que representare-


rnas abreviadamente por ^^i, se llama probabilidad de transición y des-
cribe la transición del estado E{ al estado .E^ ocurrida entre , un instante
y el inmediato siguiente. ^
Estas probabilidades de transición pueden disponerse en la matriz cua-
drada
^ ^ ^ ^ ^: . . . ^^,,,^
p,^ p,= ... ^,w
. . • ^ • • • • . . . • r .

^3^^ ^n' . .. ^^+^

que es una matriz estocástica, puesto que o^ pdi ^ z y^;^4 f-=- i.


^
Adem^is de las probabilidades de transición, ^^^, nos interesan dos nue-
vo^s conceptos: la probabilidades iniciales, P1(o) = a f, que representan la
^ probabilidad d^ que el sistema ocupe el estado E^^ en el momento inicial,
y las probabilidades absolutas, P^(n) ---. a f"', que san las probabilidades de
que el sistema ocupe un estado E1, en el instante tn, con independencia de
cualquier estado alcanzado previamente.
G^neralmente, estamos int+eresados en conocer la distribución de las
(.;AI)I.;Nr1^ 1)I; MAfZh.U^' 1' t'1tC1C;^,50:^ 13E N.^CIMII;N'1`c) 1' l^ít^'EIZT^ 31

probabiliclacles absc^lut^c^, para lo cual es conveniente i ntroducir antes la


nución cle 1)rc^babilidad de tr^crtsición de salto ^t, también llamada proba-
t)iliclad cle transición superic.^r. h^stas probabilidades dc^ transicián supe-
ríores sr cíefinen, ^^n analo^;ía con las simples, por las probabilidades condi-
cionales
^j ^ ^ ^ --- .^ ^ t^L',^t + : ^ ^ ^ ^ ^m

y pueden cleterminarse par la relación recurrente,


^ ^^„ ^ ^ .
t^
:_.__ ^;^^^ . ^^ j^^-_^
k

c^ut' trinl^I^ll puf^cíe expresarse en forrY^^^ rn^.tricial m^.^dia^itc^ l^^ relacicíi^


" (r^)
I^r, _:^ ^ • ^^+-^ ^ S1eI1dU ^^ --^. - C_^^, ^•
`1'eniendo en cuenta 1o anterior, y el axioma de las probabilidades corn-
puestas, las probabilidades absolutas, P,(n), pueden obtenerse a partir de
la relación
^ P 1(y2 ) = ^P'{ (O) • p,•^',
z

cluc^ en forma rnatricial será. .A `^' = (P')" • A, siendo A`^`' -= [a^^`'] y


^=[a^^ los vectares colurnnas de las probabilidades absólutas e iniciale^,
respectivamente, yy P' =-- [^^ ^^^ la transpuesta de P-- [^^!] .

1.2. Clastiicaclán de tos estados de una cadena de Markav.

^xisten dos tipos fundamentales de cadenas, las llamada,s irreducibles


para las euales es imposible clasificar todos los estados en dos grupas I y II,
tales que, para cualquier E^ del grupo I y E^ del ,grupo II, la probabilidad
de transición, ^{,, sea nula; y las reducibles para las cuales es posible hacer
dicha clasificación, de forma que si el sistema ocupa un estado del grupo 1
sólo son posibles 1as transiciones dentro de dicho grupo, en cuyo caso estos
estados forman una cadena irreducible.
Limitándonos al caso de una cadena irreducible, y suponiendo que el
^;istema ocupa inicialmente el estado E{, llamaremos f^; ^ a la probabilidad
condicianal de pasar, ^oy ^yimera vez, al estado .^i en el salta n-ésimo. La
probabilidad f; t de pasar, al rnenos una vez, al est ado E^, serd
f{^ ^ ^ fij ^

( f t^ es la probabilidad de retorno al estado inicial, al menos una vez) . Si


^^ ^= r, el tiernpo medio de transición al estado ^ viene dado pc^r

Mz1 = En • f^rt,^ ^.
ESTADfSTICA ^SPAÑ4LA

llt acuerdo con lo anterior, podemos clasificar los estados de una cadena
cíe Mark^w como sigue:
Si teneinos f^{ =^, o sea, si es seguro que el sistema volverá al menos
una vez al estado E^, dicho estado se llama recurrente. En caso contrario,
eI estado será transitorio.
l`.Tn estado recurrente, tal que su tíempo medio de retorna, M^^, sea
infinito, se ilan^a estado nulo.
LJn estado sc^ llama ^ieriddico, de perf odo t, si ^i"' es nulo siempre que r^
sea divisible por^ t.
Todo estado rec^urrente que no sea nulo, ni periódico, se llarna ergddico.

1.3. Criterios de clRalilcactán.

Tenienda en clienta las probabilidades de transicidn superiores, pueden


establecerse Ios si,^uientes criterios de clasifícacíón de los estados:
a) Para un estado transitorio, la serie Ep^^' converge.
n
b) Para un estado recurrente nulo, esta serie diver^e; pero ^i^n' --^ o,
cuando n --j^ ^o.
c) Si el estado es ergódico, Mt, es finito y pii' --^ z/M{^.
d) Y si el estado es periód.ico, de perfodo t, y es recurrente no nulo, M^^
es finito, ^;»' --^^t%M^{ ^^á;`' -_= o, para todo n, no dívisible de f.

1.4. Comportamtento asf ntótlco de las cadenas irreducibles,

Los dos teorenlas más importantes para indicar el comportam,iento asin-


tótico de ^{;' sun los siguientes:

T eorema I.

i, E1 estado E, (periódico o no) es transitorio o nulo. Para cualquier


EE ténernos
lixn ^^;' = o.
^-. ^

2. Todos los estados son ergódicos. Para cada par (i, ^ ) tenemos

lim ldi;' = z/ M,,.

3• l.^a cadena es periódica, de perf odo t. Tenemos

lim ^s; ^ ^ t^M,,.


^m
^ADENAS DE MAR KoV Y pRbCE50S DE NACI1^riIENTO Y ML'ER?^, 33

En la práctica, el caso más importante es el de la cadena ergódica.


Entonces la probabilidad de encontrarse el sistema en el estado ,E, tiende
a un lfmite a^, independiente del estado inicial, e igual al tiempo medio
de retorno al estado E f. Este lfmite, que es una. probabilidad absoluta, se
calcula f ácilmente haciendo n= i y m.= infinito en la relación
^+w ^ ^/^ t^m) tw)
^i^j t'i^ ' ^lk^ ^
^
obteniendo
a ^ = E f^,r ^ • a,^.
^
Teorema II.

Este teorerna de ergodismo, aunque menos, preciso, es más general.


Para una cadena cualquiera, existe el lf mite
n
lim r/n E fi1;'' = q^^ = f^s/M«,
n-^ ao ^^l ^

y en el caso en que Ia cadena es irreducible y ergódica, q^i = a^ y f ^s = I.

1.5. Procesos de Markov.

Como hemos indicado anteriormente, reservamos la denominación de


proceso de Markov para aquellos casos en que se trata de procesos conti-
nuos, o, lo que es i;gual, para cuando las probabilidades de transición depen-
den, adem^is, de un parámetro temporal. En este caso, ^(/, t/ i, s) repre-
senta la p^^obabilidad de transicián al estado E1 en el instante t, supuesto
que el sistema ocupaba el estado .^^ en el instante s. Las probabilidades
dependen ahora de dos tipos de variables, unas (i, j) que representan a
^os estados y otras (s, t) que representan al tiempo. E1 proceso será homo-
gé^eo, si fi (j, t/ i, s) sólo depende de t s y aditivo, si sólo depende de
?-- i, y de modo análogo a las cadenas, el proceso será ergódico si ^i(j, t/i, s)
tiene lf mite para t -- infinito y dicho lfmite es independiente de i.
Por una generalizacián del caso discontinuo, podemos describir un pro-
ces o de Markov mediante la relación

p(j, t/i, s) = Ep(j, t/k, u) •^(k, u/i, s), siendo s < u< t.
^
Esta ecuacián, conocida con el nornbre de ecuación de Chapman-Kolmo-
gorov, surninistra dos sistemas de ecuaciones: .
^. Las ecuaciones progresivas, o del f uturo ( f orward equations, j, que
se obtienen derivando con respecto a t, y haciend© el ^ambio u-=- t.
C;ADENAS DE MARK(l^^' Y PROCESC^S DE NACI^^iIEti'TO ^' 11^tL'ERT.E 35

I:)e modo análogo pueden obtenerse las ecuacic^nes regresi^-as, que tie-
r^en la forma p^(^, t/z', s) _^.- c^(s)^(^! ^,^^^^ ^^) ^^ c^(s)^^ ^ ^(S)^(^^ t^^^ s).
k#i

.Estos sistemas cie ecuaci<^nes pueden ponerse también de la siguiente


forma matricial:
P^ (s, t) = P(s, t) • Q(t)

P;(s, t) _- Q(s) • P(s, t)


siendo
PC^^ t) = C^ (k^ tlz ^ S)]

c^(t) ci(t)^^x(t) . . .
^=(t)^^1(^) c^(t) ...
Q(t) .....................
.....................

II. PROCESOS DE NACIMIENTO Y MiJERTE

A1 considerar sistemas relativos a una determinada pablación, repre-


sentamas los estados que definen tales sistemas por el número de elemen-
t^os que ls^ constituyen. De este rnodo se consigue que los procesos corres-
pondientes se refieran a estad©s discretos, cuyo número puede ser finito
o infinito, pero siem.pre numerable. En este caso, decimos que el sistema
5e ^ncuex^tra en el estado E,^ cuando el número de elementos que corn-
poner^ dicho estado es igual a n. Asimismo P,^(t) será la probabilidad de
que en el instante t se encuentre el sistema en el estado En. _
El proceso es de nacimiento puro cuando sólo es posible una transición
de1 estado .E^ al inmediato superior Eri+l, o sea cuando sóla se puede pasar
de un colectivo de n elementos a atro de n -F- i,
E1 proceso es de muerte, por el contrario, cuando sólo es posible la
t.ransición de ^n a .^^,_^.
Y, por último, el proceso se ^lama de nacimiento y muerte cuando son^
posibles las transiciones tanto de E„ a En+^ como de .^~n a En_^.
En este° tipo de procesos sólo intervienen dos probabilidades de tran-
sicián, que representaremos por L„(t) y Mn(t), y son funciones de ca-
rácter ^-gen.eral que dependen de n y t. L n(t) es la probabilidad de
que se praduzca una transición de un estado al inmediato superior, o,
lo que es igual, 1a probabilidad de que en una población de n elementos
se produzca un nacimiento en el instante t y Mn(t) la probabilidad de que
se produzca una muerte. Evidentemente, si el proceso es de nacimiento,
11^CAtt) = o, y si es de muerte, L n(t) = o,
^STADfSTICA ESPAÑ4LA
__.....____

2.l .-- Ecuación di^erenclal dei proceso.

Para el cálculo de la ecuación diferencial de un proceso de nacimiento


y muerte, c©nsiderarnos intervalos de tiempo, 1^t, suficientemente peque-
ños para que en ellos sólo se pueda producir uno o ningún cambio, y repre-
sentamos por L„(t) dt y MR (t) t1t a la probabilidad de que se produzca un
nacimiento o una muerte en dicho intervalo, cuando el estado correspon-
diente es E„, o sea cuando el tamaño del colectivo sea n.
Lalculemos directamente la ecuación diferencial de un proceso general
de nacirniento y muerte, para lo cual veamos, primero, a quién es igual
P,^(t -}- ^1t), o sea la probabilidad de que el sistema se encuentre en el
^;stado En en el instante t-f- Ot. Si dividimos el intervalo (o, t--^- ^1t) en
cios partes (o, t) y(t, t -}- Ot), podemos considerar las siguientes situaciones,
mutuarnente excluyentes, que pueden dar lugar a que el colectivo objeto
de estudio tenga un tamaño ^? al cabo del tiempo t-}- dt.
a) Que el colectiva tenga n elementos en el instante t y no se pro-
duzca ningún cambio entre t y t -}- dt, cuya probabilidad será
PA (t) [I L„ (t) Ot M,^ (t) ^t] .

b) Que el colectivo tenga n-- I elementos en el instante t y se produzca


un nacimiento entre t y t-^- t^^t, cuya probabilidad será P„_ 1(t) • L„_1(t} Ot.
cj Que el colectivo tenga n -^- ^ elementos en el instante t y se ^produzca
una muerte entre t y t-^- at, cuya probabilidad será P„+, (t} • M^+ 1(t} ^1 t.
Si el sistema se encontrase en E„+,, E^,+s ... o E„_,, En_, . ., en el
instante t, no podrfa llegarse al estado E,,, ya que hemos supuesto que en
el intervalo de amplitud ^t sólo puede producirse a lo más un cambio.
En consecuencia, Ia probabilidad buscada será

P„ (t + ^t} -- ^°A (t) ( r L,^ (t) at -- M^ (t) a^t) -^- P» _1(t) • L,^ _1(t) ^ -^-
-}- Pn+ ^ (t ) • M„+, (t) L1 t.

Efectuando operaciones, y calculando ellfmite cuando L1t tiende a cero,


obtenemos la ecuación diferencial de carácter general,

P„ (t) -=- L ^ _i (t) • Pn _, (t) -- (L„(t) -}- M„ (t) ) • Pri (t) -^- Mn+ ^ (f) • ^°^+ ^ (t) ^

ecuación que sólo es válida para el caso en que n > I, pues para n= o
sólo es posible una transición de Es a.E1, y la ecuación anterior se
reduce a
Pp(t} - Lo(t) • Po(t) -f- Mi(t) • P,(t).

Si damos valores a n obtenemos un sistema de infinitas ecuaciones


diferenciales que, junto con las condiciones iniciales, nos permiten estu-
CADENAS DE MARK4V Y PROCESOS DE NACIMIENT4 4' MUERTE 37

diar el comportamiento del proceso estocástico. Por regla ^eneral, se esta-


blece como condición inicial que

^,^^o' i para n = o
o para n # o

lo que equiva,le a decir que en el origen el estado cierto es Eo. Si conside-


ramos un sistema que evoluciona partiendo de un estado inicial E{, las con-
diciones iniciales vendrían dadas por

para n =
P„(o) _ ^ I
0 para n ^ z.

E1 sistema de ecuaciones diferenciales anterior puede obtenerse tam-


bién considerando que e1 proceso de nacirniento y muerte c©nstituye un
proceso de Markov con estados discretos, por lo que, aplicando el primer
sistema de ecuaciones progresivas que se deduce de la ecuación de Chap^
man-Kolmogorof, tendrfamos

P^(s, t) _- Cn(t)Pw(s, t) -^- ^ cJ(t) • Pr.(t) • P^(t),


J#x

que es igual al anterior, si consideramos la nueva nomenclatura, segí^n la


cual se cumple que
S = O

o,(t) • p,.. »+^(t) = z„(t)


^*(^ ' ^^ . ^ -1 (t) = M„Ít)
, Cw^t^ - L w^t^ + Mw^E^.

2.2.--Casos patticulares.

Considerando diferentes valores de las probabili^..^des de nacimiento


y muerte, se obtienen otros tantos casos particulares de procesos estocás-
ticos, cuyas ecuaciones d.iferenciales pueden deducirse a partir de la fór-
mula general. ^
Una clase importante de procesos son los llamados procesos homogé-
neos para los cuales se cumple que L ri(t) = L n y Mn (t) - M,,, o sea que las
probabilidades son independientes del tiempo.
Limitándonos a este tipo de procesos, que, sin duda, es el más impor-
tante, para 1as aplicaciones, daremos a continuación las f órmulas de algu-
nos casos particulares,
3g ESTAD^STICA ESPAÑOLA

A. Proceso cie yrr^certe lcoy'^ogétzec^ ( Lx =-^- ^^j.

p^(t) ^_ M„F^(í) --^-- M^,^., • .F'^+,(t) . . . . . . . . . . . . . . . . (n % I)


P p(t) -- Mi • P^ (t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (n = o)

B, Proceso de nacimiento liomogéneo (Mri = o).

P^(t) --- L,^_^ • P,^_^(t) L^ • P,^(t) ... .... .. . . . . . . . (n .,^ i}


.Pá(t) -- Lo • Po(t) .. . . . . . . . . . . . . . . . . . . . . . . . . . . (n -- o)

B. ^. Proceso de Poissor^ (L„ -= L - constante) . ^

P„(t) .--- L (P^_^(t) .Pn(t)) . . . . . . . . . . . . . . . . . . . . . . (n ^ I)


Pó(t) - L • P^(t) .. . . . . . . . . . . . . . . . . . . . . . . . . . . . (^^ --. o)

$.2. Proceso de^ Yule (Ln ^ n• L).

^ p^,(t) - (n -- I) • L • Pri_^(t) n • L • P^(t).. . ... . . . (n } r) :


Pí(t) ---- LPI (t} . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (n -- ^ )

Este proceso fue utilizado por Yule, por primera vez en ^g2q., bajo
una forma algo diferente a propósito de la teorf a matemática de la evo-
lución de una población en que cada individuo puede crear L nuevos seres.
A^i^,s tarde fue aplicado por ^,urry (i937) para el estudio de los rayos cós-
micos en el supuesto de que un electrón pueda transform:arse en otros dos
durante un intervalo de tiempo elemental.
otros procesos de nacimiento particulares de indudable interés son los
siguientes: ^
Proceso de .Bernouilli, para Ln =(s n)L, siendo s un número finito.
Proceso de contagio, para ^ Ln = a-}•- bn. Los procesos dé Poisson y de
Bernouilli san casos particulares del de contagio en los supuestos en que
a= c, b = o y a== sL; ó-- L, respectivamente.
Froceso no ho^nogéneo de Polya, para Ln(t) = L•(i .-^- bn)/(I -f- hLt). .

C. Proceso lineal homog^neo de nacimiento y muerte (L^ = nL, Mn = nM

Pri (t) = (n z ) L PR __ (t) (n L -f - n M) Pn (t) -}-


--^- (n -}- ^ ) MPn+ ^ (t) . . . . . . . . . . . . . . . . . . . . . . . . . (n > ^ )
Pó(t) --- It-l • Pi(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (n = o)

C. ^. Proceso de naci miento y mueyte cvn coe ficientes constantes (L n=


--- L, Mri -- .M) .
P„(l) = L • Pn - ^ it) -(L -F- M) • P n (t) -^ M• P n^^iE) • in ^ i )
Pá (t) _ - L • P,(i) -}- M • P, (t) . . . . . . . . . . . . . . . . . . (n = o)
C:^I)FN.A^ I)I: 1^1.^RI^O^^' ^' I'ROC;I:;^():^ I)I^^. .v aCIIiIF:^"rl^ 1' tiiUFRTE 39

1:ste proce^c^ f.^s ft^nd^^rn^^ntal c^t^ la t^^oría cita cc^la^ cuando se considera
iinri Sr^l^, fuente de ll^:^gaci^..

C.2. Pyaceso de .^rlang (L,^ = L , 1^V1,^ = n • ^VI ) .


^^
P^, (tj _.^= LP»-1(t) (Z, -^- n 1VVr) • Pn (t) -^- (n -}- i ) ,
• 1V1' • P,^.^.1(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (n ^ I)
Pó(t) --_- L • Po(t) -}- M • Pl (t) . . . . . . . . . . . . . . . . . . (n -- o)

Proceso que a^arece en la teoría de colas cuando se considera e1 ca^o


en que hay varias fuentes de llegada y^stas se pro.^ucen de acuerdo con
una ley de Foisson.

2.3. Resolucl6n, . de un proceso por el método de la Ttansiormactón


., . cpe Laplace.

La solución de las ecuaciones diferenciales que definen el comporta-


rr.i^nto de los procesos estocásticos puede obtenerse por un méto3o general
canocido con el nombre de Transformación de Laplace. Se llama Trans-
formación de Laplace de una función F(t) a la integral definida

e- .aF^^^ ^ = f^s^^
Jo

que, evidentemente, será a su vez función de1 parámetro s. Esta operacióri,


que permite transforrnar una función F(t) en otra ^(s), se puede represen-
tar simbólicamente por
L[F (t)] = t(S) . .
A toda transformaci ó n de Laplace corresponde una transformación
inversa que, asimismo, podemos indicar simb ólicamente por

L-1[t(S)] = F^t^.

Como ejemplos, veamos las transformaciones de al^unas funciones


sencillas que aparecerán en la resolucidn de las ecuaciones diferenciales
de los procesos que estamos considerando.

i.^ F(t) - e- °^.


^ ^
L te--aa] W e--^ce-acdt =( I f(s -I- a))e-^c$+ a^ _ IÍ(s -^- a)
o _o
L-1 [i^(s -{- a)] --- e!«.c.
4o ESTADÍSTICA ESPAÑOLA

2.0 F(t) -- I.
.m ^
L [ ^ ^ -- ei'`dt --- --- ^ '`/s
o a
,_^
L-1[i/s] _ i

3 .^ F( r) = a.
^
L [t] --- e-'^tdt -. i /s^
0
L-1[i/s!] -- ^

Como una aplicación del m^todo de la Transformación de Laplace,


efectuaremos la resolución de los sistemas de ecuaciones diferencialcs
correspondientes a los procesos de Poisson y de Yule.

Ejercicio I. Proceso de Poisson.

Corno hemas visto anteriormente, el proceso de Poisson vxene dcfinidó


por el sistema de ecuaciones diferenciales

P^,(t) = L(P,._1(t) - P^(t))^ para n^ i


Y
P^(t) = LPs(t), para n= o,

al que agregamos las condiciones iniciales, Fo(o) = r y P„(o) = o.


Aplícando la transformación de Laplace a la ecuación diferencial obte-
nemos
^ ^P^ I^I] = L (L [P. _ , ^t))- L [P• i^)])

Haciendo f„(s) = L[P„(t)], e introduciendo las condiciones iniciales en


la t ransformación de la derivada, la ecuación diferencial general se nos
convierte en
fp(S) = L ' f^ -^ (S)l(S + L ).

fórmula que, por recurrencia, nos permite calcular f„(s) en función de fo(s),
que, a su vez, puede obtenerse aplicando la transformación a Ia ecuación
Pó(t) = L • Po(t) obteniendo

f.(s) = il(s -I- L).


CADENAS DE MARKOV Y PROCESOS DE NACIMIENTO 1^' MUERTE

Efectuando operaciones, tenemos en definitiva que

^ fA(s) ^ L,^/(s + L),^+^,

Y, por último, ca.lculando la inversa de la transformación obtenemos

P,^(t) = (Lt)„ • e--,ce/,^!,

que, como es sabido, corresp©nde a la función de cuantf a de una distribu-


ción de Poisson con par^metro Lt.

Ejercicio II. Proceso ^e Yule.

Aplicando, como antes, la transformación de Laplace a la ecuación dife-


rencial general, P„ (t) =(n ^t ) L P,^ _ i(í) n L P,^ (t) , que corresponde a
este proceso y considerando las misrnas condiciones iniciales, se obtiene
la siguiente fórrnula recurrente:.

j.(s) _ (n - i)L ^ f*_,(s)l(s -I- nL).

Y aplicando la transformación a la ecuación Pí(t} = L• Pi(t), obte^


nemos que
f.(s) _ (s ll ) /(s /L + :) ,

con lo que efectuando operaciones deducimos que

fA ^s^ = i/L • (n - i) ^
(s/L -^- i) ís/L -f- 2) ... (sfL -f- n)

Fara el c^.Iculo de la inversa de esta función puede utilizarse el si,guiente


artificio. Introducimos una nueva función

I
^
gn ^ s ^ S• (s/L -F- i)(s/L -f- 2 ) . . . (s/L -I- n)
con lo que
f,^(s) = (n z) ! • s • ^n(S)lL.

La solución que buscarnos, Pn(t), será, por consiguiente,

Pn(t) =^^' Cfn(S)^ _(n- I) ! L-1 Cs^n(s)^/L.


Pero
L-1[s • g„(s)] = G„ (t),
, ,.
rST:^DItiTIC.^, ^:^P^:V(^L^1

^ic^Il(^t) ^^„(t) l^^ in^^^lrsa de ^r,^(s^, yuf^, eumc^ l^uc^df^ C()I^l^)rf)^)^^r^^^ fáC1IIIlf^^^t^^,
c^s i^ur^l ^^ ( I__._ E, ^.a^n^^)1 ^, por lo clue, ^ii^títu^-f^,rlc^r^^ ^^cic^cu^^ci<imc^nt^^, r^htc^_
n^^m^^^ E^n definiti^a
p„(t) = e-_ La(^ t,a) „. ,

2.4. Resoluciá^n de un proceso por el m^todo de la función generatria


de ta probaótlidad.

Ll^mamos función generatri^ de l^robabilidad cle un^^ variahle aleato-


ria discreta a la transformación

G (s) --=- .^s^P ^ _-=-^ P^ -i- I',.^ -.^-- P^s: ^_ . .


^

sien+do P^ la probabilidad de que la variable aleatoría sea igual a i y s un


núrnero real.
Ejemplos de funciones generatrices son Ios síguíentes:

z.^ La función generatri^ del númera de caras al lanzar al aire un^


moneda simétrica será
G (s) = z /2 -1- s/2.

2.^ La f. g. de p. correspondiente a un dado sirnétrico será^

G (s ) = (s -}- s' -{- s ^ -}` s` `}- sb -^-` se) /6 .

F. g. de p. de una distribución de Poisson de pará.metr.o L,

L;
G (s) - ^s{ - - ^- t ^ eLC^- ^,
; i!

4,0 F. g. de p. de una distribución binomial de parámetros n y^=


..._ I Q',

G(s) = Es{ ^ ^`^^"` = (ps + q) ^.


^ z

De un mado aná.logo se define la. función generatriz de probabilidacl


de un proceso por la relación

G(si) = P^(t) +-^- P,(í)s -^- P',(í)s2 -}- . . . = ^s¢P^(t) .


^
La resolución de las ecuaciones diferenciales, mediante este artificio,
consiste en definitiva en transformar dichas ecuaciones diferenciales en
C;AVENAS I)I^ MAKkO^' Y PRUCE50:^ LllE, NACIIIIENTtJ Y ML'^RTE

c^tras con derivaclas parci^les má^ fáciles de rE^^ol^•er. Comc^ E^z1 el c^ls^.^
anteríor, aplicaremos este método l^ara la resolucic^n ci^^ los sistemas corr^^s-
pondientes a dos procesos, a saber, el proceso de Poisson, ya visto, y el
proceso de Erlang.

E;ercício I. Proceso de Pozsson.

Consideremos nuevamente el proceso de Poissan, cuyas ecuaciones


diferenciales pueden disponerse dando valores a n- I, a, 3 ..., y multi-
plicando cada ecuación por s^, de la siguiente forma:
P^(t) -^.---- ---- LPo (t)
.sPi(t) -- LsPa(t) LsPI(t)
s=P=(t) -- Ls=P1(t) LsaP,(t)
. . . . . . . . . . .* . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . .

Surnando miembro a miembro, obtenernos la relación

Pñ(t} -^- sPí(t) + s=Pí(t} -^- . . . = L(slpo(t) -}- s=P1(t) -}-. . . .) ......_ ,^(p^(t) -+-
^ S^1(^) ^ . . .).

Pero, teniendo en cuenta la definición de función generatriz del pro-


ceso, las series anteriore^s pueden ponerse también de la forma ^

.i
^iSs.P^ ^( )
t _,..
^ li
. (S ' t / .
^t ^ ^;s;+^F^^t) = SG(S . t); EScP{(t) - G(s . t).
;, ti .
Con lo que la relación f undamental se convierte

G=(s • tj -= L(s z)G{s • t),

que, integrada, da coma solución


^ (^ . t) _ eLt(a - ^1
,

que es la función generatriz de probabilidad de una distribución de Pois-


son de parámetro Lt.

E^ercic^o II. Pyoceso de Eylang.

Procediendo como en el ejercicio anterior, obtenemos, para este caso,


Ta siguiente relación fundamental:

Es{ Pí(t) = LEs{+iP{(t) L^scP^(t) MEis{P^(t) -^- M^is^-1P{(t).


1 f ti 1 t
ESTADÍSTTCA ESPAÑOLA

Que, en términos de la función generatriz de probabilidad, se con-


vierte en

G=(s•t) --L•s•G(s•t) L•G(s•t) hI•s•G^ (s•t) -}-M•G^^s•t),

como puede comprobarse f^,cilmente. Simplificando y ordenando térmi-


nos obtenemos la siguiente ecuac^ión en derivadas parciales:

Gi (s • t) --- M(I s) G^(s • t) = L(r s^ G(s •^) .

La resolución de esta ecuación puede efectuarse según un método cono-


cido con el nombre de Charpit-Lagrange, que se basa en las siguientes
consideraciones.
Tomemos la diferencial tatal de G(s • t), que, como es sabido, es igual a

G^ (s • t) • dt -1- G^(s • t) • ds -- dG(s • t).

Ahora bien, la función G(s • t) sera una solución de nuestra ecuación


si los coeficientes de las derivadas parciales de ambas ecuaciones son
directamente proporcionales. De acuerdo con esto se obtiene la llamada
ecuación auxiliar, que en este caso resulta ser

dt ^ ds dG(s • t)
I - M^I - S^ - L(i - s)G(s • t)'

Integrando separadamente la primera y segunda ecuaciones anteriores,


obtenemos sucesivarnente

e^^ ^ Cl(z s), para la primera, y eLs^^ = C, • G(s • t) para la última.

Las constantes de integración, Cl y C,, se determinan introduciend4


las condiciones iniciales que si, coxno hemos indicado, son Po(o) -= z y
P* (o) = o, para n ^ o, nos dan el siguiente sistema de ecuaciones:

i =- Ci (z s)
eL'^^ - C:,

ya que, para t= o, la función generatriz G(s • o) = Po(o) -f- sPi(o) -}-^


`^ s!^°= (o) --f- . . . ^ I .
Despejando en el sistema anterior una constante, y sustituyendo dicho
valor en las soluciones auxiliares, tenemos sucesivamente

G= ^ eLa/ M/G (s ,^) ^ L-1 ^ e^re l( I


s) ,
CADENAS DE 14IARKOV Y PR^JCESOS DE ^'^ACiMIE^'TO Y MUEitTE 45

con lo q ue
1.r^/a^I /G ^S , ^) ^ P1.^ i - i i - ,^); ^.111 ^,^;ti1.

Despejando, en la anteríar igualdad, la función generatri2 de probabi-


lidad G^s, t), y simplificando, obtenemos en definitiva

Grs , t) ^ e^LC^ - e-- Mt^l^rt^c^r - t^

que es la f unción generatriz de probabilidad de una dist^ibucián de Pois-


son de parámetro L( i e^ ^`) /M, con lo que la distribucibn de probabil.i-
dad del proceso viene dada por

F t^ CL^I e--1,^^)/M)n e
_L^^ -^-MC>^^.
^^ ^ ^i

BrBLIOGRAF^A

Este trabajo ha sido redactado con el fin de divulgar algunos couceptos sobre los proeesos
estoc^sticos que no se encuentran, fácilmente, en los te^ctos editados en espa^iol. La biblio-
grafia conanltada fundamentalmente, de menor a mayor dificultad, ha sido la siguiente:

VAJwNr (igbo): Sa^gi su^ PrOCesSx Stocastict.


BARTLETT (1960): A ri I ntroduction t0 StDC;^astiG PrDCeSSeS r^ith speciad Re f erence t0 Methods
and A pplications.
FELLER (19go): An Introduction ^to Probability Theory and Its Ap^ ^licatlons.
TAxwes (igbo). Stochast.:c Pro^esses: P,oblems and Solutions.
LE GwL^. (igóa): Les Systémes avec ou sans attente et les processus stochastiques.

También podría gustarte