Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Eliseo Martnez
1
1.1
Cadenas de Markov
Denicin de Cadena de Markov
e k
Pr fXi = kg =
k!
y en particular, la distribucin conjunta del vector estocstico (X1 ; X2 ; :::; Xn )
est dada por
Pr fX1 = k1 ; ::: ; Xn = kn g = PrfX1 = k1 g PrfXn = kn g
e kn
e k1
=
k1 !
kn !
Observemos que,en este ejemplo, el espacio de estado es tambin el conjunto
de los nmeros naturales.
No todos los procesos estocsticos tienen la propiedad de independencia,
presentaremos uno que tiene la propiedad de tener poca memoria. Consideremos el proceso fXn ; n 2 Ng con espacio de estado N, de manera tal
que para cualquier eleccin de ndices de tiempo i1 < < in se satisface lo
siguiente
PrfXim = j = Xi1 = k1 ; Xi2 = k2 ; Xim1 = ig =
= PrfXim = j = Xim1 = ig
(1)
Lo que nos dice esta propiedad es que la probabilidad condicionada a un pasado largo slo depende del pasado inmediatamente anterior, esto es lo que
suceder en el tiempo im solamente depender de lo acontecido en el tiempo
im1 , y adems se supone que la probabilidad PrfXim = j = Xim1 = ig es
conocida y recibe el nombre de probabilidad de transicin de un paso.
Es posible que la notacin de la ecuacin (1) sea complicada en virtud de los
subndices, un caso ms particular, y sin mucha prdidad de generalidad, es
como sigue
PrfXm = j = X1 = k1 ; : : : ; Xm1 = ig = PrfXm = j = Xm1 = ig
(2)
La propiedad (1) se llama propiedad markoviana, y en este caso se entrega para procesos estocsticos de tiempo y estado discreto. Y la propiedad
de este tipo de procesos es lo que fundamentalmente estudiaremos.
2
El primer resultado que veremos a continuacin es que todo proceso estocstico que satisface la propiedad de Markov est completamente denido,
es decir la probabilidad conjunta de cualquier vector aleatorio est absolutamente denida si ocurre una pequea condicin: debemos conocer la
distribucin inicial de X0 . Es decir PrfX0 = kg = pk 8 k 2 N es conocido.
Teorema (1.1) Supongamos que tenemos un proceso estocstico fXn ; n 2 Ng
con espacio de estado N de manera que satisface las siguientes propiedades
1. la propiedad de Markov
2. la distribucin inicial de X0 es conocida
Entonces la distribucin de (Xj1 ; Xj2 ; : : : ; Xjn ) est determinada.
Demostracin. A efectos de no complicar en demasa la notacin y sin
prdidad de generalidad, vamos a calcular la distribucin del vector aleatorio
(X0 ; X1 ; : : : ; Xn ). Para esto debemos recordar que
PrfA \ Bg = PrfA = Bg PrfBg;
con esto en mente podemos deducir lo siguiente,
PrfX0 = i0; : : : ; Xn = in g =
PrfXn = in = X0 = i0 ; : : : ; Xn1 = in1g PrfX0 = i0 ; : : : ; Xn1 = in1 g
y en virtud de la propiedad markoviana se tiene que
PrfX0 = i0 ; : : : ; Xn = in g =
PrfXn = in = Xn1 = in1 g PrfX0 = i0 ; : : : ; Xn1 = in1g
(3)
de esta ltima ecuacin, para el segundo factor del miembro derecho podemos
aplicar nuevamente la propiedad anterior, esto es
PrfX0 = i0; : : : ; Xn1 = in1g =
(4)
PrfXn1 = in1 = X0 = i0 ; : : : ; Xn2 = in2 g PrfX0 = i0 ; : : : ; Xn2 = in2g
= PrfXn1 = in1 = Xn2 = in2 g PrfX0 = i0; : : : ; Xn2 = in2 g
3
(6)
(7)
mm
A
@ 0m 1m
..
..
..
..
...
.
.
.
.
Observemos que las columnas de estas matrices deben sumar uno, en efecto
es claro que
M
X
PrfXn+1 = j = Xn = ig = 1
j=0
1.2
=
=
=
=
i + 1 = Xn = ig = pi ; i 1
i 1 = Xn = ig = qi ; i 1
i = Xn = ig = ri ; i 1
j = Xn = ig = 0 ; jj ij i > 1
Pr =
8
>
>
>
>
>
>
>
>
>
>
>
>
<
1
2
si j = i + 1 y 0 < i < a + b
1
2
si j = i 1 y 0 < i < a + b
1 si i = j = 0
>
>
>
>
>
>
1 si i = j = a + b
>
>
>
>
>
>
:
0 en cualquier otro caso
Un modelo de inventario
Supngase un stock que se maneja a dos niveles, 0 < s < S, de manera
que si lo almacenado es menor o igual a s entonces inmediatamente se repone
hasta el nivel S, en caso contrario ninguna reposicin se hace. la inspeccin se
realiza en una cierta unidad de tiempo discreta (por ejemplo al nal de cada
semana). Ahora bien, la demanda para cada perodo de tiempo se distribuye
segn una Poisson de parmetro en forma independienre, esto es si n es
la demanda en la nsima semana, entonces
Prf n = ig = e
8
i
;
i!
8n
1
X
i=S
i!
S3
(S 3)!
en este ltimo caso suponiendo que 3 < S. Notemos que pij = 0 si i < j
siendo s < i < S. Con estos antecedentes se puede construir facilmente la
matriz de Markov asociado a este modelo de inventario. Una manera elegante
de denir este proceso de Markov es como sigue
8
< (Xn n+1 )+ si s < Xn < S
Xn+1 =
:
(S n+1 )+ si Xn s
donde f + = maxff; 0g.
8
<
:
1
4
El modelo de Ehrenfest.
Un modelo clsico matemtico de difusin de partculas a travs de una
membrana es el modelo de Ehrenfest, que consiste en un paseo aleatorio sobre
estados nitos y donde los estados fronteras son refractantes. Este paseo
aleatorio se restringe a los estados S = fa; a + 1; :::; 1; 0; 1; 2; :::; ag y las
probabilidades de transicin se denen como
8 a1
si j = i + 1
>
2a
>
>
>
<
a+i
pij =
si j = i 1
(9)
2a
>
>
>
>
:
0 en cualquier otro caso
La interpretacin fsica de este modelo es la siguiente: Tenemos dos contenedores con un total de 2a bolitas. Supongamos que el primer contenedor
tiene k bolitas y el segundo las restantes 2a k. Se elige aleatoriamente una
de entre las 2a bolitas. Segn del contenedor que pertenezca esta bolita se
deposita en el contenedor contrario. Cada seleccin genera una transicin
del proceso. Claramente las bolitas uctuarn entre ambos contenedores,
siendo ms probable el traslado del contenedor de mayor concentracin. En
efecto, supongamos que Xn es el nmero de bolitas del primer contenedor, si
tenemos que Xn = k entonces puede ocurrir uno y solo uno de los siguintes
sucesos: Xn+1 = k + 1 o Xn+1 = k 1. Y es claro que
PrfXn+1 = k + 1 = Xn = kg =
10
2a k
2a
k = 0; 1; :::; 2a
2a k
k
=
2a
2a
k = 0; 1; :::; 2a
k = 0; 1; :::
P
y adems 1
k=0 ak = 1. Tambin vamos a suponer que las variables aleatorias
n son independientes. El estado del sistema en el inicio de cada perodo
n se dene como el nmero de clientes en las lineas de espera para tomar
el servicio, S = f0; 1; :::g, y lo denotaremos por Xn . Ahora bie, si el estado
tiene el valor de Xn , entonces en el prximo perodo de tiempo se tendr que
Xn+1 = (Xn 1)+ + n+1:
La matriz de Markov para este proceso es
0
a0 a0 0 0
B a1 a1 a0 0
B
B a2 a2 a1 a0
B
B a3 a3 a2 a1
B
B a4 a4 a3 a2
@
.. .. .. ..
. . . .
como sigue
1
0
0 C
C
0 C
C
a0 C
C
a1 C
A
..
...
.
1.3
1
PrfXn = 0g
C B PrfXn = 1g C
B
C
CB
B
C B PrfXn = 2g C
B
C
CB .
B
C
CB
B
C B ..
C
B
C
CB
B
p0j p1j pjj A @ PrfXn = jg A
@
..
..
..
..
..
.
.
.
.
.
(11)
Si denotamos por Pn+1 al vector de probabilidad del lado izquierdo de
(11) y por M a la matriz de Markov de la misma ecuacin (11), obtenemos
la frmula compacta
0
1 0
PrfXn+1 = 0g
B
PrfXn+1 = 1g C
C B
B
PrfXn+1 = 2g C
C B
..
C=B
.
C B
C B
PrfXn+1 = jg A @
..
.
p00
p01
p02
..
.
p10
p11
p12
..
.
..
.
pj0
pj1
pj2
..
.
Pn+1 = M Pn ;
12
10
(12)
(13)
1 1
0
Utilizando un lenguaje formal diremos que el proceso Xn tiene como espacio de estado a S = f0; 1g y para cualquier tiempo n se tine que PrfXn+1 =
4
Cuando un estado tiene esta propiedad, esto es que con probabilidad 1 salta a otro
estado, se dice que es un estado refractario.
13
0= Xn = 0g = 1, PrfXn+1 = 1= Xn = 0g = , PrfXn+1 = 0= Xn = 1g = 1
y PrfXn+1 = 1= Xn = 1g = 0:
En un lenguaje ms informal pero intuitivo diremos que la partcula
se encuentra en el tiempo n en algn estado, y puede iniciar un salto, en
el prximo tiempo conforme a lo establecido anteriormente. Supongamos
nalmente que la partcula, en el tiempo 0 se encuentra en el estado 0, esto
signica que el vector de distribucin inicial es
PrfX0 = 0g
1
P0 =
=
PrfX0 = 1g
0
de manera que la distribucin en el tiempo n = 1, P1 , est dada por
PrfX1 = 0g
1 1
1
1
P1 =
=
=
PrfX1 = 1g
0
0
El clculo para P2 lo podemos hacer segn la igualdad (12) o (13), en cualquier caso
P2
1
1 1
1
=
=
0
1 ( 2 )
=
2
1 1
14