Está en la página 1de 37

Escuela de Matematica

1era. Escuela de Matem


atica Pura y Aplicada
Guatemala 2012.

Curso 1
Introducci
on a Cadenas de Markov1
Antonio Murillo Salas
Departamento de Matematicas
Universidad de Guanajuato.
Del 19 al 24 de noviembre de 2012.

1 Versi
on

preliminar.

Indice general
1. Cadenas de Markov
1.1. Definicion y propiedades basicas
1.2. Clasificacion de estados . . . . .
1.3. Algunos modelos importantes .
1.4. Analisis de un paso . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

3
3
6
8
10

2. Caminatas aleatorias simples


14
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2. Propiedades de las caminatas aleatorias simples . . . . . . . . . . . . . . . . . . . . 16
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3. Procesos de Galton-Watson
26
3.1. Funciones generadoras de probabilidades . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2. Una breve introduccion a procesos de Galton-Watson . . . . . . . . . . . . . . . . . 30
3.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

Introducci
on

Captulo 1
Cadenas de Markov
1.1.

Definici
on y propiedades b
asicas

Definici
on 1.1.1 Un proceso estocastico es una coleccion de variables aleatorias, {Xt ; t T },
definidas sobre un mismo espacio de probabilidad (, F, P), donde T es un conjunto de indices.
Para propositos del presente curso, T = Z+ := {0, 1, 2, } y las variables aleatorias Xt , t T ,
toman valores en alg
un conjunto E (finito o numerable).
Definici
on 1.1.2 La sucesion {Xn ; n 0} es llamada cadena de Markov si para todo n 1 y
cualquier coleccion x0 , x1 , , xn E se cumple
P(Xn = xn |X0 = x0 , X1 = x1 , , Xn1 = xn1 ),

(1.1)

siempre que P(X0 = x0 , X1 = x1 , , Xn1 = xn1 ) > 0.


Observaciones:
(i) La identidad (1.1) es llamada propiedad de Markov.
(ii) La distribucion de X0 , 0 (x) := P(X0 = x) (x E), es llamada distribucion inicial de la
cadena.
(iii) La familia {P(Xn = y|Xn1 = x); n N, x, y E} es conocida como familia de probabilidades de transicion de la cadena.
(iv) Si P(Xn = y|Xn1 = x) no depende de n, se dice que la cadena es homogenea con respecto
al tiempo. En tal caso, se escribe
pxy P(Xn = y|Xn1 = x),

(1.2)

px,y es la probabilidad de pasar del punto x al punto y en un paso.


Por otro lado, en el caso de que la cadena sea homogenea, para cada m 1 se define
p(m)
xy := P(Xn+m = y|Xn = y),
(m)

(1.3)

donde px,y denota la probabilidad de pasar de x a y en m pasos. En el presente curso


s
olo estudiar
emos cadenas de Markov homog
eneas.
3

(v) Para cada x, y E, se define


p(0)
xy

= xy

(
1, si x = y,
=
0, en otro caso.

(vi) En el caso de que la cadena sea homogenea, (pxy ; x, y E) es llamada matriz de transici
on
de la cadena. Notemos que, la suma por renglones de los elementos de la matriz de transicion
es 1. Mas precisamente,
X
pxy = 1, para todo x E.
yE

En efecto, sabemos que


1 = P() = P(X1 E|X0 = x)
= P(yE X1 = y|X0 = x)
X
=
P(X1 = y|X0 = x)
yE

pxy .

yE

La siguiente proposicion nos dice como determinar la distribucion de una cadena de Markov
apartir de su distribucion inicial y sus probabilidades de transicion.
Proposici
on 1.1.3 La distribucion de {Xn , n 0} queda determinada por las probabilidades de
transicion y la distribucion inicial, es decir, para cada n N y x0 , x1 , , xn E
P(Xn = xn , Xn1 = xn1 , , X0 = x0 ) = 0 (x0 )px0 x1 px1 x2 pxn1 xn .
Demostraci
on: Usando varias veces la propiedad de Markov, tenemos que
P(Xn = xn , Xn1 = xn1 , , X0 = x0 )
= P(Xn = xn |Xn1 = xn1 , , X1 = x1 , X0 = x0 )P(Xn1 = xn1 , , X1 = x1 , X0 = x0 )
= P(Xn = xn |Xn1 = xn1 )P(Xn1 = xn1 |Xn2 = xn2 , , X1 = x1 , X0 = x0 )
P(Xn2 = xn2 , , X1 = x1 , X0 = x0 )
= pxn1 xn P(Xn2 = xn2 |Xn1 = xn1 )P(Xn2 = xn2 , , X1 = x1 , X0 = x0 )
= pxn1 xn pxn2 ,xn1 P(Xn2 = xn2 , , X1 = x1 , X0 = x0 )
..
.
= pxn1 xn pxn2 xn1 px0 x1 0 (x0 ).

La proposicion anterior nos permite decir sea {Xn , n 0} una cadena de Markov con distribucion inicial 0 y matriz de transicion P (px,y ), donde x, y E. Notemos que las entradas
4

de la matriz de transicion contienen las probabilidades de transcion a un pasa. Como usar P para
calcular probabilidades de transcion en m pasos?
Por el momento, supongamos que m = 2. Entonces,
= P(X2 = y|X0 = x)
p(2)
xy
X
=
P(X2 = y, X1 = x1 |X0 = x)
x1 E

P(X2 = y|X1 = x1 , X0 = x0 )P(X1 = x1 |X0 = x0 )

x1 E

p x0 x1 p x1 x2 .

x1 E
(2)

2
, es decir, la entrada (x, y) de la matriz P 2 . Mas generalmente, para
Notemos que pxy Pxy
cualquier m N, se tiene que
m
p(m)
xy = Pxy .

La matriz P m es llamada matriz de transcion en m pasos.


Ahora vamos a ver una de las propiedades mas u
tiles de la teora de cadenas de Markov, la
llamada ecuacion de Chapman-Kolmogorov, que es una formula para calcular probabilidades de
transcion en n + m pasos apartir de las transiciones en n y m pasos.
Proposici
on 1.1.4 Sea {Xn , n 0} una cadena de Markov con espacio de estados E. Para todo
n, m N y x, y E se cumple
X
(n)
p(n+m)
= P(Xn+m = y|X0 = x) =
p(m)
(1.4)
xy
xz pzy .
zE

Demostraci
on: Para la demostracion usaremos la propiedad de Markov y la ley de probabilidad
total:
p(n+m)
= P(Xn+m = y|X0 = x)
xy
P(Xn+m = y, X0 = x)
=
P(x0 = x)
P
zE P(Xn+m = y, Xm = z, X0 = x)
=
P(X0 = x)
X P(Xn+m = y|Xm = z, X0 = x)P(Xm = z, X0 = x)
=
P(X0 = x)
zE
X
P(Xm = z, X0 = x)
=
P(Xn+m = y|Xm = z)
P(X0 = x)
zE
X
=
P(Xn = y|X0 = z)P(Xm = z|X0 = x)
zE

(n)
p(m)
xz pzy .

zE

1.2.

Clasificaci
on de estados

Definici
on 1.2.1 Sea {Xn , n 0} una cadena de Markov con espacio de estados E y matriz de
transcion P . Dados x, y E se define lo siguiente:
(n)

1. De x se accede a y si existe n 0 tal que pxy > 0, y se denota por (x y).


2. x y y se comunican entre s, y se denota por (x y), si (x y) y (y x).
La relacion (x y) es una relacion de equivalencia como lo muestra la siguiente
Proposici
on 1.2.2 (x y) es una relacion de equivalencia y da lugar a una particion del espacio
de estados E.
Demostraci
on: Dedemos probar que
(i) (x x)
(ii) (x y) si y solo si (y x)
(iii) (x y) y (y z) implican que (x z).
(0)

Notemos que (i) se cumple ya que pxx = xx = 1 > 0. La propiedad (ii) se sigue directamente de
la definicion. Veamos que (iii) se cumple: sabemos que existen n, m, n0 , m0 N tales que
0

(m)
(n )
(m )
p(n)
xy > 0, pyx > 0, pyz > 0, pzy .

Lo anterior implica que (x z). En efecto, por la ecuacion de Chapman-Kolmogorov (1.4) se


tiene que
X (n) (n0 )
0)
(n0 )
p(n+n
=
pxl plx p(n)
xz
xy pyz > 0.
lE

Del mismo modo se verifica que (z x). Por lo tanto, (x z).

La proposicion anterior nos permite hablar de clases de estados:


Definici
on 1.2.3
cacion.

1. Una clase de equivalencia, respecto a (x y), se llama clase de comuni-

2. Dado x E, su clase de comunicacion se denota por


C(x) = {y E : x y}.
3. Se dide que un subconjunto de estados C E es cerrado si ning
un estado de C c puede ser
(m)
accedido desde un estado en C, es decir, si pxy = 0 para todo x C, y C c y cualquier
m 1.
Ejemplos:

1. Considere una cadena de Markov con espacio de estados E = {1, 2, 3} y matriz de transcion

1 0
0
P = 0 2/3 1/3
0 1/2 1/2
En este caso hay dos clases de comunicacion: {1} y {2, 3}, ambas clases son cerradas.
2. Considere una cadena de Markov con espacio de estados E = {0, 1, 2, 3, 4, 5} y matriz de
transicion

1/3 0 2/3 0
0
0
0 1/4 0 3/4 0
0

2/3 0 1/3 0

0
0

P=
0 1/5 0 4/5 0
0

1/4 1/4 0
0 1/4 1/4
1/6 1/6 1/6 1/6 1/6 1/6
Las clases de comunicacion de la cadena son: {0, 2}, {1, 3}, {4, 5}. Ejercicio...
Ahora veremos el concepto de irreducibilidad de una cadena de Markov.
Definici
on 1.2.4 Se dice que una cadena de Markov Xn es irreducibe si se cumple cualquiera de
la siguentes condiciones (equivalentes entre s):
(i) Desde cualquier estado de E se puede acceder a cualquier otro estado.
(ii) Todos los estados se comunican entre s.
(iii) C(x) = E para alg
un x E.
(iv) C(x) = E para todo x E.
(v) El u
nico conjunto cerrado es el total.
Ejemplos...
Definici
on 1.2.5 Sea Xn una cadena de Markov con espacio de estados E. Dado x E definimos
q = P(Xn = x para alg
un n N|X0 = x), se dice que:
x es un estado recurrente si q = 1.
x es un estado transitorio si q < 1.
x es un astado absorbente si pxx = 1.
Una clase de comunicacion es clase recurrente si todos sus estados son recurrentes.
Notemos que en el caso en que x es un estado transitorio se tiene
P(Xn 6= x para todo n 1|X0 = x) > 0,
es decir, con probabilidad positiva la cadena nunca regresa al punto de inicio. Un estado absorbente,
como su nombre lo indica, una vez que la cadena llega a el ah permanece.
Pasaremos ahora a definir el concepto de tiempo de entrada a un conjunto A E.
7

Definici
on 1.2.6 Dado A E, se define el primer tiempo de entrada a A, TA , como
(
mn{n 0 : Xn A}, si {n 0 : Xn A} =
6
TA =
+,
si {n 0 : Xn A} = .
Notemos que TA denota la primera vez que la cadena visita (entra) el conjunto A.

1.3.

Algunos modelos importantes

Modelo de inventarios
Sea (n , n 0) una sucesion de variables aleatorias independientes e identicamente distribuidas
tales que
P(n = k) = ak , k = 0, 1, ,
P
donde ak 0 y k ak = 1.
Supongamos que nos interesa modelar el nivel de un inventario. Los lmites maximo y mnimo
del inventario son S y s (S > s), respectivamentecon S > s. El nivel del invetario se revisa a final
de cada periodo (diario, mensual, etc.) si hay al menos s unidades entonces se surte hasta el nivel
S, y si hay mas de s entonces no se surte el faltante. Sea Xn el nivel del inventario al final del
perodo n.
(
Xn n+1 , si s < Xn S,
Xn+1 =
S n+1 ,
si Xn s.
De la relacion anterior y la independencia de la sucesion (n ) obtenemos que el {Xn , n 0} es una
cadena de Markov. Notemos que el espacio de estados es
E = {S, S 1, , 1, 0, 1, 2 }.
Las probabilidades de transicion de {Xn , n 0} estan dadas por
pij = P(Xn+1 = j|Xn = i)
(
P(n+1 = i j), s < i S,
=
P(n+1 = S j), i s.

Modelo de Wright-Fisher
Supongamos que se tiene una poblacion compuesta de 2N genes, que pueden ser del tipo a o
de tipo A. El tiempo se mide en generaciones, y se esta interesado en el n
umero de genenes del
tipo A en la n-esima generacion. Sea Xn el n
umero de tales genes.
La composicion de la poblacion en la generacion n + 1 se determina de la siguiente manera: si
en la generacion n hay j del tipo a y 2N j del tipo A, entonces la probabilidad de que el padre
j
mientras que con probabilidad
de un individuo en la generacion n + 1 sea del tipo a es pj = 2N
2N j
qj = 1 2N es del tipo A. Entonces,
 
2N k 2N k
pjk = P(Xn+1 = k|Xn = j) =
pj qj
, j, k = 0, 1, 2, , 2N.
k
8

De la relacion anterior se sigue inmediatamente que {Xn , n 0} es una cadena de Markov con
espacio de estados E = {0, 1, , 2N }.

La urna de Ehrenfest
Supongamos que estamos interesados en modelar la difusion de partculas a traves de una
membrana. En escenerio es el siguiente: se tienen dos urnas (A y B), con a bolas repartidas dentro
de ellas. Las bolas estan numeradas de 1, 2, , a. En cada etapa, se escoge un n
umero al azar
(uniforme) entre 1 y a, y la bola correspondiente se cambia de urna. Sea Xn el n
umero de bolas
en la urna A en la etapa n.
Es claro que, Xn+1 solo depende de Xn . Por lo tanton, {Xn , n 0} es una cadena de Markov
con el espacio de estados es E = {1, 2, , a}.
Las probabilidades de transicion estan dadas por

si i > 0, j = i 1,
a,
pij = P(Xn+1 = j|Xn = i) = ai
, si i < a, j = i + 1,
a

0,
en otro caso.

Caminatas aleatorias
Sea (Xn , n 1) una sucesion de variables aleatorias i.i.d. con distribucion com
un dada por
P(X1 = 1) = 1 P(X1 = 1) = 1 q = p.
La sucesion (Sn , n 0), donde
Sn = S0 +

n
X

Xi ,

i=1

es llamada caminata aleatoria simple. En general, S0 puede ser constante o una variable aleatoria,
se dice que la caminata inicia en S0 . Si p = q = 21 es llamada caminata aleatoria simple simetrica.

b
b

b
b

b
b

b
b

Las caminatas aleatorias son u


tiles para modelar varios fenomenos: podemos usarlo para modelar la posicion de una partcula que se mueve en los enteros, a cada paso la partcula puede
avanzar o retroceder por un paso con probabilidad p y 1 p, respectivamente. Ademas, la direccion (izquierda o derecha) es independiente de los pasos anteriores. Asimismo pueden servir para
modelar un juego de apuestas donde en cada jugada se pierde o se gana una unidad.
El objetivo del Captulo 3 es estudiar diversas propiedades de caminatas aleatorias.

Procesos Galton-Watson
Supongamos que una poblacion de partculas (moleculas, virus, etc.) evoluciona de la siguiente
manera: la poblacion inicia al tiempo n = 0 con una partcula, al tiempo n = 1 dicha partcula
muere y da oringen a un n
umero aleatorio (X) de partculas identicas entre s y su progenitora
y, a tiempos subsecuentes n = 2, 3, . . . , cada individuo evoluciona de la misma manera (muriendo
y ramificandose) produciendo as X partculas cada uno. El n
umero de partculas que produce
cada individuo es independiente de los demas y que tiene la misma distribucion que X. Sea Zn el
tama
no de la poblacion al tiempo n, entonces Z = {Zn : n 0} es un proceso estocastico en cual,
a cada tiempo, nos da el total de la poblacion.
Sea (Xin , n 0, i 1) un coleccion de variables aleatorias independientes todas con la misma
distribucion que X. Entonces, el proceso Z se puede describir de la siguiente manera, Z0 = 1 y
Zn
X

Zn+1 =

Xin , n = 0, 1, . . . ,

(1.5)

i=1

donde Xin representa el n


umero de descendientes que produce el i-esimo individuo presente en la
generacion n. Una consecuencia de la independencia de la coleccion (Xin ) y (1.5) es que el proceso
Z es una cadena de Markov
b

Proceso de Galton -Watson

En el Captulo 4 trataremos este modelo.

1.4.

An
alisis de un paso

Una tecnica muy u


til para encontrar el valor de diversos funcionales de una cadena de Markov
es el analisis de un paso, el cual consiste en condicionar a la primera transicion que realiza la
cadena y luego iniciar (propiedad de Markov) el proceso. Vamos a ilustrar la tecnica con algumos
ejemplos.
10

Ejemplo 1.4.1 Considere una cadena de Markov


matriz de transicion
0 1
0 1 0
1
2 0 0

Xn con espacio de estados E = {0, 1, 2} y


2
0

donde , , > 0 y tales que + + = 1. Sea T T{0,2} , encuentre u := P(XT = 0|X0 = 1) y


vi := E[T |X0 = i], i = 0, 1, 2.
Soluci
on: Por la Ley de Probabilidad Total, se tiene
u = P(XT = 0|X0 = 1)
2
X
=
P(XT = 0|X0 = 1, X1 = j)P(X1 = j|X0 = 1)
j=0

2
X

P(XT = 0|X1 = j)p1j ,

j=0

para obtener la u
ltima igualdad usamos la propiedad de Markov. Ahora bien, dado que 0 y 2 son
estados absorbentes, tenemos
P(XT = 0|X1 = 0) = 1, P(XT = 0|X0 = 1) = u y P(XT = 0|X0 = 2) = 0.
Entonces,
u = + u.
Por lo tanto,

=
.
1
+
Ahora veremos como encontrar v. Notemos que v0 = v2 = 0, pues la cadena inicia en la clase
absorbente. Por otro lado, si X0 = 1 se requiere de al menos un paso para que la cadena sea
absorbida por la clase {0, 2}. Luego, nuevamente por la Ley de Probabilidad Total, obtenemos
u=

v1 = 1 + 0 + v + 0,
es decir, v =

1
.
1

Ejemplo 1.4.2 Un raton se pone en un laberinto con el que se muestra en la siguiente figura:

11

Al llegar a la casilla 7 encuentra alimento y en la casilla 8 recibe una descarga electrica, una vez
que llega a estas casillas ah permanece. El raton tiene se mueve, con igual probabilidad, a las
casillas posibles. Encuentre la probabilidad de que el raton llegue a donde hay alimento, es decir,
la probabilidad de que la cadena llegue al estado absorbente 7.
La matriz de transicion resulta ser
0
0 0
1 1/3
2 1/3
3 0
4 0
5 0
6 0
7 0
8 0

1
2
1/2 1/2
0
0
0
0
1/4 1/4
0
0
0
0
0
0
0
0
0
0

3
4
5
6
0
0
0
0
1/3 0
0
0
1/3 0
0
0
0 1/4 1/4 0
1/3 0
0 1/3
1/3 0
0 1/3
0 1/2 1/2 0
0
0
0
0
0
0
0
0

7
8
0
0
1/3 0
0 1/3
0
0
1/3 0
0 1/3
0
0
1
0
0
1

Sea ui = ui (7) la probabilidad de que la cadena sea absorbida por 7 dado que inicia en la celda
i, es decir, que el raton encuentre el alimento antes de recibir una descarga eletrica. Es claro que
u7 = 1 mientras que u8 = 0. Suponiendo que el raton inicia en la casilla 0, el siguiente diagrama
nos muestra las transiciones puede hacer:

0
0

1
2

0
8

3
7

2
4

5
6 4
3 5
6

12

3
8

Esquema de transiciones

Luego, utilizando el diagrama anterior, obtenemos que


u0 =
u1 =
u2 =
u3 =
u4 =
u5 =
u6 =

1
(u1 + u2 )
2
1
(u0 + u3 + u7 )
3
1
(u0 + u3 + u8 )
3
1
(u1 + u2 + u4 + u5 )
4
1
(u3 + u6 + u7 )
3
1
(u3 + u6 + u8 )
3
1
(u4 + u5 ).
2

Por la simetra del problema, se tiene que u0 = u6 y u1 = u4 . Por otro lado, dado que las transiciones
son uniformes, si el raton inicia en la casilla 3 entonces u3 = 1/2. Luego, recordando que u7 = 1 y
u8 = 0, obtenemos que u0 = 21 , u1 = 23 y u2 = 13.

13

Captulo 2
Caminatas aleatorias simples
2.1.

Introducci
on

Para iniciar el estudio de caminatas aleatorias conviene recordar la definicion de independencia


de una coleccion de variables aleatorias: se dice que (Xn , n 1) es una sucesion de variables
indendientes, si para cada n-eada de enteros (k1 , k2 , , kn ) distintos se cumple que las variables
aleatorias Xk1 , Xk2 , , Xkn son indenpendientes.
Definici
on 2.1.1 Sea (Xn , n 1) una sucesion de variables aleatorias i.i.d. con distribuci
on
com
un dada por
P(X1 = 1) = 1 P(X1 = 1) = 1 q = p.
La sucesion (Sn , n 0), donde
Sn = S0 +

n
X

Xi ,

i=1

es llamada caminata aleatoria simple. En general, S0 puede ser constante o una variable aleatoria,
se dice que la caminata inicia en S0 . Si p = q = 21 es llamada caminata aleatoria simple simetrica.
Las caminatas aleatorias son u
tiles para modelar varios fenomenos: podemos usarlo para modelar
la posicion de una partcula que se mueve en los enteros, a cada paso la partcula puede avanzar o
retroceder por un paso con probabilidad p y 1p, respectivamente. Ademas, la direccion (izquierda
o derecha) es independiente de los pasos anteriores. Asimismo pueden servir para modelar un juego
de apuestas donde en cada jugada se pierde o se gana una unidad.
Las caminatas aleatorias simples se grafican en el plano cartesiano con los puntos (n, Sn )
n=0
uniendo los puntos vecinos con lineas rectas con pendiente 1 o -1. A la grafica resultante se le
llama trayectoria o realizacion, y dado que es trata de una sucesion de variables aleatorias, para
se tiene una trayectoria o realizacion. La siguente grafica muestra una realizacion de una
caminata aleatoria que inicia en 0:

14

b
b

b
b

b
b

b
b

Ejemplo 2.1.2 Dos jugadores A y B juegan una serie de volados de modo que A le gana 1 peso
a B cada vez que la moneda cae aguila (con probababilidad p) o A le paga un peso a B en caso
contrario. Supongamos que A inicia con a pesos y B con b pesos. El juego se detiene cuando alguno
de los jugadores se queda sin dinero. Cual es la probababilidad de que A gane el juego?
Soluci
on: sea
Ak = P(A gane el juego dado que inicia con a pesos),
notemos que A = 0 y Aa+b = 1. Condicionando en el primer volado obtenemos que
Ak = pAk+1 + qAk1 .
Ademas, por idenpendencia podemos obtener que Ak = Ak1 y para simplificar notacion definimos
r = A1 . Entonces, de la ecuacion anterior se sigue que
rk = prk+1 + qrk1 ,
dividiendo por rk1 se tiene
pr2 r + q = 0.
on
Las soluciones de la ecuacion anterior estan dadas por r1 = 1 y r2 = pq . En efecto, la soluci
general es

1 1 4pq
r =
2p
1 |p q|
=
,
2p
ya que 1 4pq = (p q)2 .
Luego,
 k
q
Ak = c1 (1) + c2
.
p
k

Ahora bien, de A0 = 0 y Aa+b = 1 se tiene que c1 = c2 con


1
c2 =  a+b
q
p

15

.
1

Por lo tanto,
1

Ak =  a+b
q
p

+  a+b
q
p

 k
q
p

 k
q
p

1
=  a+b
.
q
1
p


2.2.

Propiedades de las caminatas aleatorias simples

Lema 2.2.1 Toda caminata aleatoria simple {Sn , n 0}, con S0 = a, posee las siguientes
propiedades:
(i) Homogeneidad espacial:
P(Sn = j|S0 = a) = P(Sn = j + b|S0 = a + b).
(ii) Homogeneidad temporal, para todo n, m Z:
P(Sn = j|S0 = a) = P(Sn+m = j|Sm = a).
(iii) Propiedad de Markov, para todo n, m Z,
P(Sn+m = j|S0 , S1 , , Sn ) = P(Sn+m = j|Sn ).

(2.1)

Demostraci
on: (i) Veamos el lado izquierdo
!
n
X
P(Sn = j, S0 = a)
P(Sn = j|S0 = a) =
=P
Xi = j a ,
P(S0 = a)
i=1
note que usamos el hecho P(S0 = a) = 1. Analogamente, el lado derecho satisface
!
!
n
n
X
X
Xi = j a = P(Sn = j + b, S0 = a + b) = P
Xi = j + b (a + b) .
P
i=1

i=1

16

(ii) Procederemos como en (i). El lado derecho es igual a



P
Pm
P S0 + n+m
i=1 Xi = j, S0 +
i=1 Xi = a
P
P (S0 + m
i=1 Xi = a)

Pn+m
Pm
P
X
=
j

a,
S
+
X
=
j
i
0
i
i=m+1
i=1
P
=
P (S0 + m
X
=
j)
i
i=1
!
n+m
X
= P
Xi = j a (independencia)
i=m+1

= P

n
X

!
Xi = j a ,

i=1

la u
ltima igualdad es debido al hecho que el vector (X1 , , Xn ) tiene la misma distribucion que
el vector (Xm+1 , Xm+1 , , Xn+m ). Un calculo similar, pero mas simple, demuestra la igualdad
deseada.

(iii) Sean s0 , s1 , , sn enteros tales que
P(Sn+m = j|S0 = s0 , S1 = s1 , , Sn = sn )
P(S0 = s0 , S1 = s1 , , Sn = sn , Sn+m = sn+m )
=
P(S0 = s0 , S1 = s1 , , Sn = sn )
P
P(S0 = s0 , X1 = s1 s0 , X2 = s2 s1 , , Xn = sn sn1 , n+m
i=n+1 Xi = sn+m sn )
=
P(S0 = s0 , X1 = s1 s0 , X2 = s2 s1 , , Xn1 = sn1 sn2 , Xn = sn sn1 )
n+m
X
= P(
Xi = sn+m sn ).
i=n+1

Por otro lado, tenemos que


P(Sn+m = sn+m , Sn = sn )
P(Sn = sn )
n+m
X
= P(
Xi = sn+m sn ).

P(Sn+m = sn+m |Sn = sn ) =

i=n+1


En el siguiente resultado calcularemos las probabilidades de transicion para la caminata aleatoria simple.
Lema 2.2.2 Para todo a, b Z y n 0, se tiene que
(
 (n+ba)/2 (nb+a)/2
n
p
q
(n+ba)/2
P(Sn = b|S0 = a) =
0

17

si (n + b a)/2 Z,
en otro caso.

Demostraci
on: Se tiene que, una realizacion que lleva del punto (0, a) al punto (0, b) en n pasos
tiene r pasos hacia arriba (+1) y l pasos hacia abajo (1), donde r, l son tales que l + r = n y
r l = b a. Lo anterior es debido a que, Sn = r(+1) + l(1) = b a. Resolviendo las ecuaciones
antariores obtenemos que,
nb+a
n+ba
yl=
.
r=
2
2

n
Ahora bien, cada realizacion que lleva de a a b en n pasos tiene probabilidad pr q l , y hay (n+ba)/2
realizaciones posibles. Por lo que el resultado se sigue.

Note que, la prueba del resultado anterior se basa en el conteo de trayectorias, i.e., casos favorables/casos posibles. Esta es una propiedad de muy interesante y que ha llamado la atencion
no solo de la comunidad probabilista sino que tambien es explotada en teora combinatoria, teora
de juegos, entre otras.
En lo que sigue procederemos a calcular probabilidades asociadas a la caminata aleatoria simple
mediante las herramientas estudiadas hasta el momento. A saber, mediante el uso de esperanza
condicional.
Definici
on 2.2.3 Para cada j Z, el primer tiempo de llegada al estado j se define por
Tj = mn{n 0 : Sn = j}.
Proposici
on 2.2.4 Para cada j Z, sea hj la probabilidad de que una caminata aleatoria que
parte del estado j llegue al estado 0 antes de llegar al estado N , i.e., hj = P(T0 < Tn |S0 = j).
Entonces,
q j q N
( p ) (q p )
p 6= q,
1( p )N
hj =
1 j
p = 21 .
N
Demostraci
on: Condicionando en la primera transicion obtenemos la ecuacion,
hj = phj+1 + qhj1 ,
para j {1, 2, , N 1}. Ademas, notemos que h0 = 1 y hN = 0. Reescribiendo la encuacion
anterior se obtiene
hn = phn+1 + qhn1 q(hn+1 hn ) = p(hn+1 hn ), n 1.
El caso sim
etrico: p = q = 1/2. En este caso, se tiene la ecuacion
hn hn1 = hn+1 hn , n 1.
Por lo tanto, la recta hn tiene una pendiente constante c := hn+1 hn , en consecuencia
hn = 1 +

n
X

(hj hj1 ) = 1 + nc, 1 n N.

j=1

18

(2.2)

Ahora bien, recordando que hN = 1 obtemos que c = 1/N , i.e., hn = 1 n/N .


El caso general: p 6= q. Definamos la sucesion (xn , n 0) como sigue, x0 R (se determinara mas
adelante) y xn = hn hn1 , para 1 n N . De la ecuacion en el lado derecho de (2.2) obtenemos
que la sucesion (xn , n 0) satisface la relacion xn+1 = pq xn , para 1 n N . Por lo tanto,
xn+1

 n
q
=
x0 , 0 n N.
p

(2.3)

Luego, dado que


hn = h0 +

n
X
(hj hj1 ),
j=1

la ecuacion (2.3) implica


hn = h0 + x0

n  j
X
q

j=1

 n
 1 q
p
q
 .
= h0 + x0
p 1 q

(2.4)

Haciendo uso del hecho que, hN = 0 y h0 = 1, obtenemos que


 n
 1 q
p
q
 ,
0 = 1 + x0
p 1 q
p

de donde se sigue que


p
x0 =
q

1 pq
 N .
1 pq

Finalmente, de (2.4) se concluye que


 n
hn =

q
p

 N

pq
 N

q
p

Corolario 2.2.5 Para cada j N se tiene que

1
P(T0 < |S0 = j) =  q j

19

si q p,
si q > p.

Demostraci
on: Para cada n, sea An := {T0 < Tn }. Notemos que An An+1 , dado que Tn Tn+1 ,
para cada n. Ademas, observemos que
{T0 < } =
n=1 {T0 < Tn }.
Por lo tanto, dado que (An ) es una sucesion creciente, la continuidad de la medida de probababilidad implica
lm P(An |S0 = j) = P(T0 < |S0 = j).
n

Luego, el resultado se sigue de la proposicion anterior.

Sean a, b Z y n N. Sea Nn(a,b) el n


umero de trayectorias que van de a a b en n pasos y
las trayectorias que unen a y b en n pasos; y que ademas, pasan por 0 al menos una vez.

0
Nn(a,b)

Teorema 2.2.6 (Principio de Reflexion) Para cada a, b N se tiene que


0
Nn(a,b)
= Nn(a,b) .

Demostraci
on: Haciendo bosquejo podemos ver que cada trayectoria que lleva de (0, a) a (b, n)
cruza el eje x por lo menos una vez, sea (k, 0) el punto donde esto ocurre por primera vez.

b
b
b

b
b
b

b
b
b

b
b
b

b
b

Reflejando el segmento de la trayectoria anterior se obtiene una trayectoria de (0, a) a (b, n)


y que pasa por el eje x por lo menos una vez. Luego, haciendo lo mismo en el sentido opuesto
obtenemos el resultado.


Lema 2.2.7 Para todo a, b Z, se cumple que



Nn(a,b) = 1


n
.
(n + b a)
2
20

Veamos el siguiente resultado importante, el cual es una consecuencia del lema anterior.
Teorema 2.2.8 (Teorema de las votaciones (Ballot Theorem) Sea b N, entonces el n
umero de
realizaciones que van de (0, 0) a (n, b) y que no visitan al eje x despues del primer paso est
a dado
por
b
Nn(0,b) .
n
Demostraci
on: Notemos que, las trayectorias que nos interesa contar en el primer paso se encuentran en (1, 1). Por lo tanto, en n
umero de trayectorias de interes esta dado por
0
= Nn1(1,b) Nn1 (1, b)
Nn1(1,b) Nn1(1,b)
(n 1)!
(n 1)!
= nb  n+b2  nb2  n+b 
!
!
! 2 !
2
2
2


n+b nb
(n 1)!

= nb  n+b 
2
2
! 2 !
2
b
=
Nn(0,b) .
n


Veamos ahora porque el resultado anterior se llama Teorema de las votaciones. Sunpongamos que
tenemos dos candidatos A y B, y que A obtiene a votos y B obtiene b votos, donde a > b. Cual es
la probabilidad de que A tenga la ventaja durante toda la votacion?
Supongamos que Xi = 1 si el i-esimo individuo vota por el candidato A y vale -1 si vota el
canditato B. Supongamos que
 cualquier combinacion de votos es igualmente probable, i.e., cada
+
una tiene probabilidad . La trayectoria que deben seguir las votaciones para que A tenga las
preferencias durante toda la jornada de votaciones va del punto (0, 0) al punto ( + , ). Por
lo tanto, por el Teorema 2.2.8 esta dada por

N+(0,)
+

1
+

=

.
+

El siguiente resultado es una aplicacion del Principio de Reflexion (Teorema 2.2.6)


Teorema 2.2.9 Supongamos que S0 = 0, entonces para todo n 0 se cumple que
P(S1 S2 Sn 6= 0, Sn = b) =

|b|
P(Sn = b)
n

(2.5)

Demostraci
on: Supongamos que S0 = 0 y Sn = b > 0. Notemos que, S1 S2 Sn 6= 0 si y solo si
la caminata aleatoria no visita el eje x en el intervalo de tiempo [1, n]. Por lo tanto, por el Teorema
2.2.8 se tiene que el n
umero de tales trayectorias es
b
Nn (0, b)
n

21

y por argumentos similares a los del Lema 2.2.2 se sigue que hay (n + b)/2 pasos hacia arriba y
(n b)/2 pasos hacia abajo. Por lo tanto,
b
Nn (0, b)p(n+b)/2 q (nb)/2
n

n
b
=
p(n+b)/2 q (nb)/2
n 21 (n + b)
b
=
P(Sn = b|S0 = 0).
n

P(S1 S2 Sn 6= 0, Sn = b) =

El caso b < 0 es similar, concluyendo as que


P(S1 S2 Sn 6= 0, Sn = b) =

|b|
P(Sn = b).
n


Observaci
on 2.2.10 Notemos que, la ecuacion (2.5) implica
P(S1 S2 Sn 6= 0) =

1
E(|Sn |).
n

Ahora vamos a analizar el comportamiento de los maximos de una caminata aleatoria. Sea
Mn := {Sk : 1 n}, n 1, el maximo de (Sn ) hasta el tiempo n. Tenemos el siguiente
Teorema 2.2.11 Supongamos que S0 = 0. Entonces, para cada r 1, se cumple

P(Sn = b),
si b r,
P(Mn r, Sn = b) =  q rb

P(Sn = 2r b), si b < r.


p
Demostraci
on: Supongamos que r 1 y que b < r, pues el caso b r es trivial. Sea Nnr (0, b) el
n
umero de realizaciones que van del (0, 0) a (n, b) y que pasan por el estado r al menos una vez.
Sea ir el primer tiempo al cual la caminata visita el estado r, reflejando la trayectoria entre ir y n
en la recta r se obtiene una trayectoria que va de (0, 0) a (n, 2r b). Ahora bien, a una de estas
trayectorias le aplicamos la transformacion inversa y obtenemos una que va de (0, 0) a (n, b) y que
ademas pasa por r. Entonces, se obtiene que
Nnr (0, b) = Nn (0, 2r b),
y sabemos que cada una de tales realizaciones tiene probabilidad p(n+b)/2 q (nb)/2 . Por lo tanto,
P(Mn r, Sn = b) = Nnr (0, b)p(n+b)/2 q (nb)/2
 rb
q
=
Nn (0, 2r b)p(n+2r+b)/2 q (n2r+b)/2
p
 rb
q
=
P(Sn = 2r b).
p
22


Una pregunta interesate que podemos hacerno es la siguiente, Cual es la probabilidad de que
(Sn ), S0 = 0, alcance el nivel b por primera vez al tiempo n? Sea fb (n) tal probabilidad.
Teorema 2.2.12 Para cada n 1 se cumple que
fb (n) =

|b|
P(Sn = b).
n

Demostraci
on: Supongamos que b > 0. Notemos que,
fb (n)
=
=
=

P(Mn1 = Sn1 = b 1, Sn = b)
(P(Mn1 = Sn1 = b 1, Sn = b)P(Mn1 = Sn1 = b 1)
pP(Mn1 = Sn1 = b 1)
p [P(Mn1 b 1, Sn1 = b 1) P(Mn1 b, Sn1 = b 1)]


q
= p P(Sn1 = b 1) P(Sn1 = b 1)
p
b
=
P(Sn = b),
n

donde en la pen
ultima igualdad usamos el Teorema 2.2.11.
El caso b < 0 se obtiene de manera similar.

Ejemplo 2.2.13 Sea (Sn )n0 una caminata aleatoria simple con S0 = 0. Para cada r 6= 0 definamos Vr como el n
umero de visitas al estado r antes de que la cadena regrese a su estado inicial.
(i) Demuestre que E(Vr ) = 1.
(ii) Dar un criterio para determinar si el n
umero de visitas a 0 es finito o infinito.
Soluci
on: (i) Sea An el evento que al tiempo
Pn la caminata visita el estado r y no ha visitado el
estado 0 hasta ese instante. Entonces, Vr 1 1An . Por otro lado, se tiene que
E(1An ) = P(An ) = P(Sn = r, S1 S2 Sn 6= 0) =

|r|
P(Sn = r) fr (n).
n

Por lo tanto,
E(Vr ) = E(

1An ) =

fr (n) = 1.

n1

Vamos a ver demostrar la u


ltima igualdad. Note que,
X
fr (n) P(Sn = r, para alg
un n) := fr .
n1

Condicionando en el primer salto, i.e., en S1 obtemos la ecuacion


1
fr = (fb+1 fb1 ), b > 0,
2
23

con condicion inicial f0 = 1. Resolviendo la ecuacion obtenemos que fb = 1. Lo mismo se puede


hacer para el caso b < 0.
P
(ii) Sea R el n
umero total de visitas al estado 0. Notemos que, R = n0 1{Sn =0} , entonces
E(R) =

P(Sn = 0) =

n0

X 2k 
k0

pk q k .

(2.6)

Notemos que,pq 1/4 y pq = 1/4 si y solo si p = 1/2. Luego, usando la identidad de Stirling
1
n! nn+ 2 en 2, se tiene que para k suficientemente grande
 

2k
(2k)2k+1/2 e2k

= ( 2)1 22k+1/2 k 1/2 ,


k
2(k k+1/2 e2 )2
es decir, el termino general en la sere esta dado por la aproximacion
 

2k k k
p q ( )1 k 1/2 (4pq)k .
k
Por lo tanto, la sere que aparece en (2.6) no es es convergente para p = 1/2 ya que el termino
general es de orden de k 1/2 . Por otro lado, si p 6= 1/2, se tiene que 4pq < 1, en consecuencia (2.6)
es convergente.


24

2.3.

Ejercicios

1. Sea b un entero negativo. Demuestre que el n


umero de realizaciones que van de (0, 0) a (n, b)
y que no visitan el eje x despues del primer paso esta dado por
b
Nn(0,b) .
n
2. Sea {Sn , n 0} la caminata aleatoria simple con S0 = 0, y defina T =: {n 1 : Sn = 0} el
primer tiempo de regreso al punto de inicio. Demuestre que
 
2n 2n
1
2 .
P(T = 2n) =
2n 1 n
Deduzca de lo anterior que E(T ) < si, y solo si, < 21 . Sugerencia: recuerde la formula

1
de Stirling, n! nn+ 2 en 2.
3. Sea {Sn , n 0} la caminata aleatoria simple con S0 = 0, y defina T =: {n 1 : Sn = 0} el
primer tiempo de regreso al punto de inicio. Demuestre que
 
1
2n 2n
P(T = 2n) =
2 .
2n 1 n
4. Sea {Sn , n 0} la caminata aleatoria simple simetrica con S0 = 0 y sea Mn = maxn0 Sn .
Demuestre que
P(Mn = r) = P(Sn = r) + P(Sn = r + 1), r 0.
5. Sea {Sn , n 0} la caminata aleatoria simple simetrica con S0 = 0.
a) Demuestre que
P(S1 S2 S2m 6= 0) = P(S2m = 0), m 1.
b) Sea 2n (2k) la probabilidad de que la u
ltima visita a 0 antes del tiempo 2n ocurrio en el
tiempo 2k. Justifique que
2n (2k) = P(S2k = 0)P(S1 S2 S2n2k 6= 0).
c) Pruebe que
2n (2k) = P(S2k = 0)P(S2n2k = 0).
6. Sea (Sn )n0 un caminata aleatoria tal que p < q y S0 = 0. Definamos a M como el maximo
abosluto de la caminta, es decir, M = supn0 Sn .
(a) Argumente la igualdad P(T0 < TN +j |S0 = 0) = P(Tj < TN |S0 = 0).
(b) Demuestre que
P(M < N |S0 = 0) = P(TN = |S0 = 0) = lm P(TN > Tj |S0 = 0)
j

(c) Concluir que la distribucion de M dado que S0 = 0 es geometrica de parametro p/q.

25

Captulo 3
Procesos de Galton-Watson
3.1.

Funciones generadoras de probabilidades

Definici
on 3.1.1 Dado X = (X1 , X2 , . . . , Xn ) un vector aleatorio discreto con valores en Zn+ y
funcion de probabilidades conjunta fX (x1 , x2 , . . . , xn ), definimos la funcion generadora de probabilidades del vector X por
 1 X2

Xn
GX (s1 , s2 , . . . , sn ) := E sX
, |si | 1, i = 1, . . . , n,
1 s2 sn
X
sx1 1 sx2 2 sxnn fX (x1 , x2 , . . . , xn )
=
x1 ,x2 ,...,xn

De la definicion anterior obtenemos que la funcion generadora de probabilidades (f.g.p.) de Xi


esta dada por
 
GXi (s) = GX (1, . . . , 1, s, 1, . . . , 1) = E sXi , |s| 1,
donde s aparece en la i-esima entrada.
Notemos que, en general GX (s) esta bien definida para todo |s| 1. En efecto,
X
X
X
P(X = x) = 1.
|s|x P(X = x)
|GX (s)| = |
sx P(X = x)|
x

Sin embargo, en algunos casos, puede extenderse el rango de definicion de GX . Al n


umero R > 0
tal que |GX (s)| < , para todo |s| < R, se le llama radio de convergencia.
Ejemplo 3.1.2 (i) Supongamos que X Bin(n, p). Entonces,
n
X

 
n k
GX (s) =
s
p (1 p)nk
k
k=0
n  
X
n
=
(ps)k (1 p)nk
k
k=0
k

= (q + ps)n , q := 1 p.

26

(ii) Si X Poisson(), se tiene

GX (s) =

sk

k
e
k!

k=0
s

= e

= e(1s)

(iii) Si X Geo(p), entonces

GX (s) =

sx p(1 p)x

x=0

p
1
, |s| <
.
1 (1 p)s
1p

=
Note que, R =

1
1p

en (iii) y R = en (i) y (ii).

El siguiente resultado nos da luz de como podemos usar la funcion generadora de probabilidades.
Teorema 3.1.3 Sea X una variable aleatoria no negativa tal que P(X = n) = pn , n = 0, 1, . . . ,
con funcion generadora de probabilidades G. Entonces,
(i) G(s) es diferenciable en todo |s| < 1, y su derivada esta dada por
0

G (s) =

npn sn1 .

n=1

Para s = 1,
0

G (1) := lm
s1

npn sn1 finito o infinito.

n=1

(ii) Para cada k 1, se tiene que la derivada k-esima esta dada por
(k)

G (s) =

X
n=1

n!
pn snk .
(n k)!

(iii) G determina la distribucion de X, es decir, (pn )0 .


Demostraci
on: Solo vamos a demostrar parte (iii). Por definicion se tiene que
G(0) = P(X = 0) = p0 .
Ahora bien, para cada k 1, tenemos que
(k)

G (0) = lm
s0

X
n=1

entonces
pk =

n!
pn snk = k!pk ,
(n k)!
1 (k)
G (0).
k!
27

Por lo tanto, G determina (pk )k0 .

La parte (iii) del teorema anterior nos dice que, para conocer (su distribucion) a una variable
aleatoria es suficiente con conocer su f.g.p. Por otro lado, conociendo la distribucion de una variable
aleatoria se determina su f.g.p.
Como un corolario del teorema anterior temenos el siguiente resultado.
Corolario 3.1.4 Sea X una variable aleatoria con funcion generadora de probabilidades G. Entonces,
E(X) = G0 (1).
Mas generalmente, el k-esimo momento factorial, (k) , de X esta dado por
(k) := E[X(X 1)(X 2) (X k + 1)]
= G(k) (1).
En particular, del corolario anterior se sigue que
Var(X) = G(2) (1) + G0 (1) (G0 (1))2

(3.1)

El siguiente resultado nos habla de la funcion generadora de probabilidades conjunta cuando


hay independencia.
Teorema 3.1.5 Suponga que X y Y tienen funcion generadora de probabilidades conjunta G(s, t).
Entonces, X y Y son independientes si y solo si G(s, t) = G(s, 1)G(1, t).
Demostraci
on: ) Por definicion tenemos que
G(s, t) = E(sX tY
= E(sX )E(tY )
= G(s, 1)G(1, t),
donde la segunda igualdad es por independencia.
) Notemos que,
!
X

G(s, 1)G(1, t) =

sx P(X = x)

ty P(Y = y)

XX
x

!
X

sx ty P(X = x)P(Y = y).

Por otro lado,


G(s, t) =

sx ty P(X = x, Y = y).

x,y

Luego, para que se cumpla G(s, t) = G(s, 1)G(1, t) se debe tener que
P(X = x, Y = y) = P(X = x)P(Y = y), para todo x, y,
la u
ltima relacion en justamente la definicion de independencia.

28

Ejemplo 3.1.6 (Continuando con el Ejemplo ??) Una gallina pone X huevos, donde X es Poisson
con parametro . Cada huevo es fecundado con probabilidad p, independientemente de los otros.
Sea Y en n
umero de huevos fecundados y Z los restantes. Demuestre que Y y Z son independientes.
Soluci
on: Condicionalmente en X = x, Y Bin(x, p). Entonces,
E[sY |X = x] = (ps + q)x .
Luego,
E(sY tZ ) = E(sY tXY )


= E E[(s/t)Y tX |X]


= E tX E[(s/t)Y |X]
= E[tX (p(s/t) + q)X ]
= E[(ps + qt)X ].
Recordando que X es tiene distribucion Poisson temenos que
E(sY tZ ) = exp{(ps + qt 1)} = exp{p(s 1)} exp{q(t 1)},
usando el teorema anterior obtemos que Y y Z son independientes. Ademas, por unicidad, se
observa que Y Poisson(p) y Z Poisson(q).
Vamos a concluir la seccion con un resultado que sera muy u
ltil en lo que sigue.
Proposici
on 3.1.7 Sean N y (Xi )i1 variables aleatorias, supongamos que N es no negativa y
que, para cada i 1
E(sXi ) = G(s),
P
on generadora
es decir, las Xi s tienen la misma distribucion. Entonces, Z := N
i=1 Xi tiene funci
de probabilidades
GZ (s) = Gn (G(s)).
Demostraci
on: Condicionando tenemos que,
E(sZ ) =
=
=
=

E[E(sZ |N )]
E[E(sX1 ) E(sXN ] )]
E[G(s)N ]
GN (G(s)).


29

3.2.

Una breve introducci


on a procesos de Galton-Watson

Supongamos que una poblacion de partculas (moleculas, virus, etc.) evoluciona de la siguiente
manera. La poblacion inicia al tiempo n = 0 con una partcula, al tiempo n = 1 dicha partcula
muere y da oringen a un n
umero aleatorio (X) de partculas identicas entre si y su progenitora
y, a tiempos subsecuentes n = 2, 3, . . . , cada individuo evoluciona de la misma manera (muriendo
y ramificandose) produciendo as X partculas cada uno. Supondremos que X tiene funcion de
probabilidades fX (k), k = 0, 1, 2, . Ademas, vamos a suponer que el n
umero de partculas que
produce cada individuo es independiente de los demas y que tiene la misma distribucion que X.
Sea Zn el tama
no de la poblacion al tiempo n, entonces Z = {Zn : n 0} es un proceso estocastico
en cual, a cada tiempo, nos da el total de la poblacion.
Sea (Xin , n 0, i 1) un coleccion de variables aleatorias independientes todas con funcion de
probabilidades fX . Entonces, el proceso Z se puede describir de la siguiente manera, Z0 = 1 y
Zn+1 =

Zn
X

Xin , n = 0, 1, . . . ,

(3.2)

i=1

donde Xin representa el n


umero de descendientes que produce el i-esimo individuo presente en la
generacion n. Una consecuencia de la independencia de la coleccion (Xin ) y (3.2) es que el proceso
Z es una cadena de Markov a tiempo discreto, ver la Observacion ?? (i). El proceso Z es llamado
proceso de Galton-Watson1 .

Proceso de Galton -Watson

El proceso de Galton-Watson ha sido fuente de inspiracion para procesos de ramificacion mucho


mas generales, los cuales conforman un area de investigacion dentro de la teora de probabilidad
y procesos estocasticos por su riqueza en la variedad de modelos y su interaccion con otras areas
de las matematicas.
A principios del presente captulo vimos que la funcion generadora de probabilidades es muy
u
til cuando se trabaja con variables aleatorias que toman valores en los enteros no negativos, que es
caso del proceso de Galton-Watson. Supongamos que X tiene funcion generadora de probabilidades
G(s), |s| < 1. Entonces,
Gn (s) := E(sZn ).
1

Francis Galton propuso la pregunta sobre la probabilidad de extincion de apelldos aristocraticos en Inglaterra
en 1873 y Henry William Watson lo resolvio; y el 1874 escribieron el paper On the probability of extinction of
families.

30

Notemos que G1 (s) = G(s). Luego, por identidad (3.2) y la Proposicion 3.1.7 se tiene que para
|s| 1
Gn+1 (s) = Gn (G(s)) = G(Gn (s)), para todo n 1,
(3.3)
es decir, Gn es la convolucion de G consigo misma n veces.
Proposici
on 3.2.1 Supongamos que = E(X) y 2 = Var(X). Entonces, para cada n 1,
E(Zn ) = n ,
y
(
n 2 ,
si = 1,
Var(Zn ) =
2 n1 n 1

, si 6= 1.
1
Demostraci
on: Sabemos que E(Zn ) = G0n (s)|s=1 . Entonces, de (3.2) y (3.3) se sigue que
E(Zn ) = E(Zn1 ) = G0n1 (1),
el resultado se sigue por induccion.
Ahora vamos a demostrar la segunda afirmacion. Recordando que
Var(X) = G00 (1) + G0 (1) [G0 (1)]2 ,
se tiene que
2 = G(2) (1) + 2 .

(3.4)

Diferenciando dos veces en (3.3) y recordando que G(1) = 1, se obtiene


(2)

2
0
(2)
G(2)
n (1) = Gn1 (1) + Gn1 (1)G (1).

Luego, el resultado se concluye usando la formula (3.1). En efecto, para = 1 se tiene


G(2) (1) = 2 ,
y
(2)

2
G(2)
n (1) = + Gn1 (1).

Procediendo de manera analoga obtenemos que


2
G(2)
n (1) = n, n 0.

Caso 6= 1, ver Ejercicio 5.

En general, hay muy pocos casos en los que se puede encontrar un expresion explcita para Gn .
Uno de ellos es el caso en que la ramificacion sigue una ley geometrica como lo muestra el siguiente

31

Ejemplo 3.2.2 (Ramificacion geometrica) Supongamos que G(s) = q(1 ps)1 (p + q = 1),
|s| < p1 , es decir, P(X = k) = qpk , k 0. En tal caso se tiene (Ver ejercicio ??)
(
Gn (s) =

n(n1)s
,
n+1ns
q[pn q n ps(pn1 q n1 )]
,
pn+1 q n+1 ps(pn q n )

p = 12 ,
p 6= 12 .

(3.5)

Una de las preguntas importantes acerca del proceso Z es conocer la probabilidad de extinci
on
al tiempo n, es decir, conocer P(Zn = 0) = Gn (0) as como tambien lmn P(Zn = 0). En el
presente ejemplo se pueden encontrar de manera explcita. En efecto, de (3.5) tenemos que
(
n
,
p = q,
P(Zn = 0) = n+1
q(pn q n )
, p 6= q.
pn+1 q n+1
Por lo tanto,
(
1, p q,
lm P(Zn = 0) = q
n
, p > q.
p
Observaci
on 3.2.3 En el ejemplo anterior sabemos que E(Z1 ) = p/q 1 si y solo si p q.
Luego, en tal caso, lmn E(Zn ) = 0 ya que E(Zn ) = [E(Z1 )]n . Lo cual nos indica que, de alguna
manera, Zn tiende a cero cuando n tiene a infinito.
La propiedad anterior no es propia de caso geometrico como lo muestra el siguiente
Teorema 3.2.4 Se cumple que lmn P(Zn = 0) = existe. Mas a
un, es la menor raz no
negativa de la ecuacion G(s) = s, 0 s 1.
Demostraci
on: Sea n := P(Zn = 0), y sea la menor raz no negativa de de la ecuacion G(s) = s,
0 s 1. Vamos a demostrar que n .
Consideremos los siguientes casos
1. Si fX (0) = 0, entonces
n = Gn (0) = 0 = .
2. Si fX (0) = 1, entonces
n = Gn (1) = 1 = .
3. Supongamos que fX (0) + fX (1) = 1 y fX (0)fX (1) 6= 0. Entonces,
n = Gn (0) = 1 P(Zn > 0)
= 1 [fX (1)]n
1, cuando n ,
y en este caso = 1.

32

4. Finalmente, supongamos que 0 < fX (0) < fX (0) + fX (1) < 1. Notemos que
{Zn = 0} {Zn+1 = 0},
entonces
n = P(Zn = 0) P(Zn+1 = 0) = n+1 .
Luego, (n ) es una sucesion creciente y acotada, y por lo tanto es convergente. Sea :=
lmn n .
Por otro lado, sabemos que Gn+1 (0) = G(Gn (0)), entonces
n = G(n ),
en consecuencia si hacemos n tender a infinito, por continuidad se sigue que
= G().
Para concluir la prueba debemos demostrar que = . Notemos que,
1 = G1 (0) = G(0) G(),
y
2 = G2 (0) = G(G(0)) = G(1 ) G() = .
Procediendo inductivamente obtenemos que n , entonces . Ahora bien, por
hipotesis es la menor raz no negativa de la ecuacion G(s) = s, 0 s 1. Entonces,
. Concluyendo as que
= .

Puede demostrarse que = 1 si E(X) < 1 y < 1 si E(X) > 1. Si E(X) = 1, entonces = 1
siempre que Var(X) > 0, es decir, siempre que X no sea constante con probabilidad 1.

33

3.3.

Ejercicios

1. Sean X y Y variables aleatorias con valores en los enteros no negativos, con funcion de
probabilidades conjunta dada por
fX,Y (i, j) = (1 )( )j ij1 , 0 i j,
donde 0 < < 1 y < son parametros dados.
(a) Encuentre la funcion generadora de probabilidades conjunta del vector (X, Y ).
(b) Encuentre Cov(X, Y ).
2. Dado 0 < p < 1, considere la funcion
f (k) =

(1 p)p|k|
, , 2, 1, 0, 1, 2, .
1+p

(a) Verifique que f es una funcion de probabilidades de alguna variable aleatoria X.


(b) Encuentre la funcion generadora de probabilidades de X.
(c) Encuentre la media y la varianza de X.
3. Sean X1 , X2 , variables aleatorias independientes e identicamente distribuidas todas con
distribucion logartmica, es decir,
P(X = k) =

(1 p)k
, k 1,
k log(1/p)

donde 0 < p < 1. Suponga que N es independiente de las Xi s y tiene distribucion de Poisson
con parametro .
PN
on binomial negativa. Cuales son los
(a) Demuestre que Y :=
i=1 Xi tiene distribuci
parametros?
Sugerencia: recuerde que log(x) = (x 1)

(x1)2
2

(x1)3
3

+ .

(b) Encuentre la esperanza de Y .


4. Sea X una v.a. no-negativa con funcion generadora de probabilidades GX (s) tal que G0X (1) <
. Demuestre que
1 1 GX (s)
G(s) =
E(X) 1 s
es la funcion generadora de probabilidades de alguna variable aleatoria Y . Cuando se tiene
que G(s) = GX (s)?
5. En la Proposicion 3.2.1 demuestre la relacion para la varianza en el caso 6= 1.
6. En Ejemplo 3.2.2, para el caso p = 12 , demuestre que
Gn (s) := E(Zn ) =
34

n (n 1)s
.
n + 1 ns

7. Sea Z := {Zn , n 0} un proceso de Galton-Watson con Z0 = 1, E(Z1 ) = > 0 y Var(Z1 ) >


2
0. Demuestre que E(Zn Zm ) = nm E(Zm
), m n. Luego, encuentre (Zn , Zm ) en terminos
de , donde (X, Y ) denota el coeficiente de correlacion entre X y Y .
8. Sea Z como en el ejercicio anterior y Gn la funcion generadora de probabilidades de Zn .
(a) Encuentre una expresion para Gn cuando la funcion generadora de Z1 esta dada por
G1 (s) G(s) = 1 (1 s) , 0 < , < 1.
(b)Encuentre P(Z1 = k), k = 0, 1, . . . .
9. Sea Z un proceso de Galton-Watson donde X (el n
umero de descendientes) es tal que P(X =
0) = 2/5 = 1 P(X = 2). Encuentre la probabilidad de extincion de Z.

35

Bibliografa
[1] Caballero, M. E.; Rivero, V. M. Uribe Bravo, G.; Velarde, C. Cadenas de Markov. Un
enfoque elemental Aportaciones Matematicas: 29. Sociedad Matematica Mexicana, Mexico,
2004. iv+117 pp. ISBN 970-32-2189-0
[2] Fisher, R. A. The Genetical Theory of Natural Selection. Oxford (Claredon) Press. London
and New York. (1962).
[3] Karlin, S. and Taylor, H. An introducction to Stochastic Modelling. Boston: Academic Press
Inc. (1998).
[4] Ross, S. M. Introduction to probability models. Academic Press. 8th Edition. (2003).
[5] Stirzaker, D. Elementary probability. Cambridge University Press. (1994).

36

También podría gustarte