Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadenas de Markov
3.1 Introduccin a los Procesos Estocsticos
Condiciones de
Observacin
Proceso Estocstico
Fenmeno aleatorio
Variables Interrelacionadas
Sistema en
Estudio
39
t1 = 1 pm
t2 = 2 pm .
t0 = Enero
t1 = Febrero t2 = Marzo .
t0 = Enero
t1 = Febrero t2 = Octubre .
Instantes de Tiempo
Discretos
Tenga en cuenta que los momentos t que se definan dentro del conjunto T de instantes de
tiempo, son aquellos momentos donde nos interese inspeccionar el estado de la variable.
Como ejemplo, supngase el estudio de la variable demanda de un producto, y que adems
dicha demanda puede variar mes a mes. Para estudiar este fenmeno aleatorio puedo
establecer que los meses en los cuales quiero verificar el valor que toma la demanda son
nicamente Enero, Febrero y Octubre, esto por motivo de que en los dems meses sta
40
variable se comporta de manera estable y uniforme, siendo factible en esos otros meses
determinar con algo de certeza cual ser su valor. En este caso, estos tres meses seran
entonces mis instantes de tiempo, y el proceso de demanda se considerara un proceso
estocstico ya que no s cul ser la demanda en dichos meses con exactitud mas s
dispongo de cierta informacin probabilstica espero disponer de ella.
Estado
Un estado es un valor que toma la variable aleatoria en cada momento t (en otras palabras,
en cada momento t el proceso estocstico {Xt} se encuentra en un determinado estado).
Los estados son mutuamente excluyentes para cada t, y pueden ser finitos o infinitos,
cualitativos o cuantitativos. En el curso consideraremos un nmero finito de estados.
Ejemplo 1
Sea Xt = nmero de camiones que esperan a ser descargados en un muelle de recepcin de
mercancas en un tiempo t.
Instantes de
Estados de la
Estados posibles
Tiempo t
Variable Xt
(Espacio de estados )
t=0
8:00 AM
Xo = 2 camiones
t=1
9:00 AM
X1 = 0 camiones
t=2
10:00 AM
X2 = 4 camiones
t=3
11 :00 AM
X3 = 0 camiones
= {0, 1, 2, 3, 4,5}
En la tabla anterior se muestra una informacin de la variable aleatoria Xt, datos que
surgieron seguramente de cierto estudio. Los momentos de observacin de la variable
fueron cada hora a partir de las 8:00 AM, anotndose en cada ocasin el estado de la
variable. En este estudio se estableci (tercera columna de la tabla) que la variable poda
tener slo seis valores posibles, no pudiendo haber ms de cinco camiones esperando a
descargarse. Esta ltima consideracin puede deberse a polticas de la empresa en cuanto a
eficiencia en descargue que han hecho posible que siempre se est en ese rango de
41
camiones en espera,
experiencia, acerca del rango de valores que la variable puede tomar en los instantes de
tiempo que se han definido como los relevantes.
Ejemplo 2
Supongamos que estamos estudiando el nmero de llamadas que se producen en una central
telefnica. Para un intervalo de tiempo determinado, por ejemplo una hora, se puede
definir la variable aleatoria X= Nmero de llamadas que se producen en una hora. Si
consideramos un intervalo mayor, por ejemplo dos horas, es evidente que el nmero de
llamadas observadas tender a ser superior y, por tanto, la distribucin de probabilidad de
esta nueva variable aleatoria ser distinta a la anterior. As para cada tiempo que fijemos
tendremos una variable aleatoria, en principio distinta. En situaciones de este tipo surge de
modo natural la conveniencia de definir una familia de variables aleatorias que dependen
de una variable determinista prefijada como lo es el tiempo.
Ejemplo 3
Puede definirse un proceso estocstico como Xt = estado del clima en el momento t.
Dependiendo de la profundidad de mi estudio las condiciones de mi experimento puedo
decir que los valores de esta variable estarn enmarcados dentro del siguiente espacio de
estados ={lluvioso, seco}. Otro analista podra definir el espacio de estados distinto
dadas sus necesidades de investigacin as: = {lluvioso_alta humedad relativa,
lluvioso_baja humedad relativa, seco_altamente soleado, seco_nublado}. Note que las
condiciones del experimento son en cada caso claramente distintas y arrojaran informacin
de dos variables aleatorias en esencia distintas.
observacin como en el anterior ejemplo, sino tambin las caractersticas del experimento
condicionan la informacin que obtendr de la variable aleatoria, su utilidad prctica y su
comportamiento probabilstico especfico.
42
43
P (A B) = P (A). P (B)
Se dice entonces que dos sucesos A y B son independientes cuando la probabilidad de que
ambos ocurran es igual al producto de sus probabilidades mutuas (independencia
estadstica).
Se puede generalizar con: Sean n sucesos Ci todos independientes entre s, entonces se
Cumple que:
P (C1 C2 C3 ... Cn) = P(C1) . P(C2) . P(C3) ... P(Cn)
Por otro lado, para que un suceso condicione a otro tambin debe haber algn elemento en
comn, pues si no hay ninguna relacin entre ellos no podr haber influencia de uno sobre
el otro.
Se necesita entonces, definir un nuevo concepto: la probabilidad condicional que ocurra
un suceso A, luego de que ha sucedido un suceso B, puede ser calculada con:
P(A / B) = P(A B) / P(B)
O lo que es lo mismo,
P(A B) = P(A / B)*P(B)
Condicionalidad:
P (A B ) = P ( A / B ) . P(B)
Independencia:
P (A B ) = P ( A) . P(B)
Exclusin:
P (A B ) = 0
44
Figura 3.2. Diagrama de rbol que ilustra el experimento de seleccionar dos bolas de una
caja
45
Pregunta: Cul es la probabilidad que la segunda bola seleccionada sea roja dado que la
primera es azul?
Si la primera bola fue azul, ahora quedan en la caja dos bolas rojas y dos azules. De ah
seleccionamos otra bola. La probabilidad de que una bola seleccionada de esa caja sea roja
es 2/4.
Para ahondar un poco ms denotamos el evento de que la primera bola seleccionada es roja
por R1 y el evento de que la segunda sea roja por R2. Hacemos lo propio para las bolas
azules denotndolas por B1 y B2, respectivamente. Esta representacin es til para encontrar
probabilidades conjuntas y marginales.
Por ejemplo, la probabilidad que la primera bola sea roja y la segunda azul, denotada P (R1
B2) es el producto de las probabilidades que rotulan el camino de la raz del rbol y que
son consistentes con los resultados R1 y B2. Entonces P (R1 B2) = 2/5 x 3/4 = 6/20.
Si nos interesamos por la probabilidad marginal de que la segunda bola sea roja, P(R2),
tenemos que darnos cuenta de que hay dos caminos posibles en que la segunda bola es roja.
Estos dos caminos dependen del resultado que se observ cuando seleccionamos la primera
bola, que pudo haber sido rojo o azul. As observamos una bola roja en la segunda
seleccin cuando cualquiera de los dos eventos conjuntos (B1 y R2) (R1 y R2) ocurren.
Estos son eventos son disjuntos por lo cual P(R2) = P (B1 R2) + P (R1 R2) = 6/20+
2/20 = 8/20.
3.2.3. Teoremas de Probabilidad Total y de Bayes
Sean n sucesos {Ci , i =1, 2,.n} pertenecientes al mismo espacio muestral , tales que
particionan al suceso A, entonces se cumple que :
n
P( A ) =
P( A Ci )
i =1
P( A ) =
[P(Ci ) . P(A / Ci )]
i =1
46
Donde:
P(Ci ) : son las llamadas probabilidades a priori por ser las que tienen los sucesos Ci
antes de saber que ha ocurrido el suceso A.
P( A Ci ) : son las probabilidades conjuntas
P(A / Ci ) : son las probabilidades condicionales
P(Ci / A) : son las llamadas probabilidades a posteriori porque son las que tienen los
sucesos Ci, luego de saber que ha ocurrido el suceso A.
47
Cadenas de Markov
Estado
Futuro
Xt = i
Xt-1 = kt-1,
Estado Actual
Xt-2 = kt-2..
Estados Pasados
Las cadenas de Markov tienen la propiedad particular de que las probabilidades que
describen la forma en que el proceso evolucionar en el futuro, dependen slo del estado
actual en que se encuentra el proceso, y por lo tanto, son independientes de los eventos
ocurridos en el pasado.
Sea Xt = i, la indicacin de que el proceso estocstico est en el estado i en el tiempo t.
48
(t ) = [ 1 (t ) , 2 (t ) , .., r (t ) ]
49
Estados
actuales
Estado
1
.
i
Estados Futuros
1
j
Pll
.
.
.
.
Pij
.
.
Pr1
.
r
P1r
.
.
.
Prr
Despus de mucho estudio sobre el clima, hemos visto que si un da est soleado, en el 70%
de los casos el da siguiente continua soleado y en el 30% se pone nublado. En trminos de
probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de
que contine soleado el da siguiente es 0,7 y la probabilidad de que al da siguiente est
nublado es 0,3. Tambin nos fijamos en que si un da est nublado, la probabilidad de que
est soleado el da siguiente es 0,6 y la probabilidad de que se ponga nublado es 0,4. Si hoy
est nublado, cul es la probabilidad de que maana contine nublado?
50
proporcionan es la siguiente:
Estados: Soleado y Nublado
Periodo de tiempo de transicin de estados: Un da
Matriz de Probabilidades de Transicin de un Paso !
t
t +1
Estados
Soleado
Nublado
Soleado
0,7
0,3
Nublado
0,6
0,4
Ley Inicial del Sistema: Hoy est nublado (condicin inicial) y por tanto la ley inicial es:
51
Respuesta
Se puede notar que maana hay ms probabilidad de que est el da soleado. Si calcula en
este caso P (X1 = soleado) se dar cuenta que es igual al 60%, y por lo tanto la Ley de
Probabilidades el da de maana dada la condicin inicial de nublado ser :
Y de nuevo hacemos la
Respuesta
0,7 0,3
= [ soleado (1), nublado (1) ]
0,6 0,4
52
(1) = (0) P1
(3.1)
(t + 1) = (t ) Pt +1
(3.2)
(n) = (0) P1
n 1
P ...P
2
(3.3)
{P }.
t
t +1
(t + 2) = (t + 1)
t +1
t+2
t +1
(t + 2) = (t ) Pt +1 Pt + 2
(3.4)
Con base en la ecuacin (3.4) se puede definir la Matriz de Transicin de Dos Pasos
como:
t
t +2
t +1
t +1
t +2
P P
53
(3.5)
t+2
n
m
P P
n, k , m
nkm
(3.6)
= P2 =
2
3
= ........... =
t
t +1
t
t +1
=P
54
(n) = (0) P1
n 1
P ... P
= (0) .( P)
(n) = (0). P
(n)
(3.7)
P=
P
j =1
ij
= 1,
i = 1,....., r
55
Dado que stos son todos los posibles resultados de la evolucin del sistema, dado que se
inici en un estado cualquiera, entonces el conjunto de estados futuros posibles forman por
definicin un espacio muestral, pudindose aplicar la propiedad de que la sumatoria de las
probabilidades asociadas a todos los eventos del espacio muestral es igual a uno.
Esa misma propiedad de P la tienen como es razonable todas las matrices P(n). Calculemos
en nuestro ejemplo la Matriz P(2).
0.2 0.5 0.3
P(2)= P. P =
Observe que la sumatoria de los elementos de cada fila suman uno, tal como debe
esperarse.
La interpretacin de los elementos de la matriz P(2) puede verse con estos dos ejemplos:
Existe una probabilidad del 48% de que el proceso evolucione despus de dos periodos
de tiempo hacia el estado A, dado que actualmente se encuentre en el estado A.
Hay una probabilidad del 24% de que el proceso evolucione despus de dos periodos de
tiempo hacia el estado C, dado que actualmente se encuentre en el estado B.
56
Ahora intentemos encontrar los elementos de la matriz P(2) pero a travs de Arboles de
Decisin, considerando que se trata de una Cadena de Markov Homognea. Recordemos la
matriz original:
A
P=
Ahora, dado que esta matriz P es homognea, nica e independiente de t, y suponiendo que
el estado actual del sistema es A, podemos construir el siguiente rbol de decisin:
0.2
A
t=0
0.5
0.3
0.2
0.5
0.3
0.7
0.2
0.1
0.3
0.6
0.1
t=1
Transicin de t = 0 a t = 1
A
B
C
A
B
C
A
B
C
t=2
Transicin de t = 1 a t = 2
Figura 3.2. Arbol de Decisin para Cadena de Markov Homognea de dos pasos.
57
A
A
P(2) =
B
C
( 2)
AA
(2)
BA
CA
( 2)
(2)
AB
( 2)
BB
CB
( 2)
(2)
AC
( 2)
BC
CC
( 2)
p
p
p
( 2)
AA
( 2)
AB
( 2)
AC
58
Retomemos el ejemplo de la seccin 3.3.7. Sea la matriz P(2) y sus rboles de decisin
asociados:
0.48 0.38 0.14
(2)
(b)
0.2
05
02
0.3
07
05
02
01
03
t=0
0.6
03
01
t=1
0.2
A
0.7
B
C
A
02
B
t=0
01
0.3
0.7
0.2
0.1
0.3
t=0
0.1
0.6
C
t=1
0.1
01
0.6
C
t=1
0.5
02
03
0.3
07
0.2
0.6
t=2
0.3
05
01
A
B
C
A
B
C
A
B
C
t=2
A
B
C
A
B
(c)
C
A
B
C
t=2
( 2)
BA
Ahora, si deseamos encontrar la probabilidad de que pasar por primera vez del estado B
al estado A, despus de 2 perodos de tiempo, sta probabilidad sera la siguiente
observando de nuevo el rbol (b) y las lneas resaltadas con rojo:
59
(2)
BA
(3.7)
(n)
ij
despus de n periodos. Empleemos ahora una forma ms general de hallar esta probabilidad
de primera pasada, en caso de que sea impractico emplear la representacin de rboles de
decisin, y utilizando la informacin de las matrices P y P(n).
(1)
BA
(1)
BA
relacin:
( 2)
BA
( 2)
BA
(1)
BA
.p
(1)
(3.8)
BB
Entonces con nuestra frmula (3.8) tenemos por este otro lado que:
(2)
BA
(3.9)
f
f
(1)
ij
( 2)
ij
ij
( 2)
ij
(1)
ij
.p
jj
.....
(n)
ij
(n)
ij
(1)
ij
.p
( n 1)
jj
( 2)
ij
.p
( n 2)
jj
(n)
ij
f
n =1
(n)
ij
(3.10)
60
( n 1)
ij
.p
jj
que :
En caso de ser la inecuacin (3.10) una desigualdad, estrictamente menor que uno,
significa que un proceso que inici en el estado i puede no llegar nunca al estado j.
Esto quiere decir tambin que si la relacin (3.10) es una estricta igualdad se asegura por
tanto la transicin del estado i al j.
Vamos a hallar ahora un dato generalmente muy buscado en procesos estocsticos, y es
cuanto tiempo en promedio debe pasar para que partiendo de un estado i se llegue por
primera a un estado j. A este tiempo se le suele llamar ij tiempo de primera pasada.
Hay dos formas de calcular ij. Primeramente hay que decir que ij tomar valores siempre
y cuando la formula (3.10) corresponda a una igualdad, es decir:
ij =
nf
n =1
si
f
n =1
( n)
ij
si
f
n =1
(n)
ij
( n)
ij
<1
(3.11)
=1
Segn la ecuacin (3.11), ciertos estudiosos han desarrollado la siguiente formula simple
para ij:
ij = 1 + pik . kj
(3.12)
k j
BA = 1+ PBB BA + PBC CA
(3.13)
Dado que en esta ecuacin se tiene a CA como incgnita, entonces construimos tambin su
ecuacin respectiva:
CA = 1+ PCB BA + PCC CA
61
(3.14)
Ahora, con las ecuaciones (3.13) y (3.14) se hace un sistema de ecuaciones, que tiene en
este caso la siguiente estructura:
BA = 1+ 0.2 BA + 0.1 CA
CA = 1+ 0.6 BA + 0.1 CA
La resolucin de este sistema arroja el resultado buscado: BA = 1,51 periodos de tiempo
A
B
C
P= D
E
F
A
0.4
0
0.5
0
0
0
B
0.6
0
0.5
0
0
0
C
0
1
0
0
0
0
D
0
0
0
0
1
0
E
0
0
0
1
0
0
F
0
0
0
0
0
1
62
0.4
A
0.6
0.5
0.5
1
E
(a)
(c)
(b)
Definiciones Generales
Partiendo de este ejemplo, veamos los siguientes conceptos claves de esta seccin.
Accesibillidad
(n)
ij
63
) AC
) ED
) AB
) BC
) EB
) FD
Concepto de Clase
Si varios estados se comunican entre s se dice que forman una CLASE. En nuestro
ejemplo se puede observar la existencia de 3 clases cada una conformada por los siguentes
estados:
Clase 1: A, B y C
Clase 2: D y E
Clase 3: F
64
1
2
3
4
5
P=
2
0.7
0.4
0
0
0
3
0
0.1
0
0.5
0.7
4
0
0.2
1
0
0.3
0.3
1
5
0
0
0
0.5
0
0.4
0.7
0.3
0.2
0.1
3
0.5
0.7
0.3
0.5
5
Corrobore usted mismo el hecho de que existen las siguientes 2 clases en este ejemplo en
particular:
Clase I: formada por los estados 1 y 2, ya que entre ellos se comunican (12)
Clase II: formada por los estados 3, 4 y 5, ya que entre ellos se comunican (34, 45 y
65
Clase II. En cambio los estados 1 y 2 s forman una clase independiente ya que la
comunicacin entre ellos es probable.
De lo anterior se concluye que se puede acceder a la Clase II, a partir de la Clase I y no a la
inversa.
A la Clase I se le denomina Clase Transitoria, ya que si, por ejemplo, el proceso
estocastico inicia en el estado 1, a medida que avanza el tiempo es probable que haya una
transicin hacia el estado 2, y estando el dicho estado es probable que ocurra una transicin
hacia los 3 4, momento a partir del cual, el proceso estocstico jams regresar a los
estados de la clase I, y permanecer evolucionando entre los estados de la Clase II por toda
la eternidad.
A la Clase II, se le denomina Clase Recurrente, ya que una vez lleguemos a esa clase
nunca saldremos de ella, como se puede fcilmente notar.
En el primero de los ejemplos de esta seccin se puede decir que (marque con una X):
0.4
0.6
0.5
0.5
1
E
Clase 1: A, B y C
) Recurrente
) Transitoria
Clase 2: D y E
) Recurrente
) Transitoria
Clase 3: F
) Recurrente
) Transitoria
Se puede afirmar entonces que las clases recurrentes estn conformadas por estados
recurrentes, y las clases transitorias la conforman estados transitorios.
66
f
n =1
(n)
ij
Para una clase recurrente se puede obtener el perodo (p) como el mximo comn divisor
(MCD) de las longitudes de los ciclos que pueden encontrarse en esa clase. Partiendo de la
observacin de un grafo, un ciclo es una ruta que sale de un estado y regresa a l mismo.
Veamos los siguientes ejemplos.
67
Ejemplo 1
0.5
0.7
0.5
0.3
5
Ejemplo 2
A
Ejemplo 3
A
68
Cuando una cadena de markov finita homognea posee una nica clase la cual es
recurrente aperidica, se dice que la cadena es ergdica totalmente aleatoria. Y aqu es
necesario mencionar ciertos aspectos importantes del concepto clsico de ergodicidad de
Boltzman. Veamos el ejemplo de ergodicidad comentado por Caldentey y Mondschein de
la Universidad de Chile. Supongamos que disponemos de dos estanques A y B unidos por
una tubera, la que contiene una llave de paso originalmente cerrada.
B
mismo si las cantidades de oxigeno y helio hubiesen sido arbitrariamente repartidas desde
el inicio en los estanques A y B.
Esto es lo que en general se conoce como principio de ergodicidad de Boltzman, y seala
que en un sistema complejo evolucionando en forma aleatoria, su repeticin en el tiempo
tiende a regularizar su comportamiento pese a los caprichos del azar que intervienen en
cada instante.
69
Veamos con estos ejemplos la forma en que las cadenas ergdicas llegan al equilibrio,
independientemente de las condiciones iniciales del proceso.
Ejemplo 1: Considrese la siguiente matriz de probabilidades de transicin P* para un
P* =
1
0.2
0.6
2
0.8
0.4
Observe que esta matriz la conforma una nica clase la cual es recurrente aperidica.
Con ayuda de la funcin MMULT de Microsoft Excel, se calculan aqu las potencias
sucesivas de P* que denotan la evolucin del sistema en el tiempo:
P ( 2) =
0.52 0.48
0.36 0.64
P ( 8) =
0.42894592 0.57105408
0.42829056 0.57170944
P ( 24 ) =
P ( 3) =
0.392 0.608
0.456 0.544
P ( 4) =
P (16) =
0.4432 0.5568
0.4176 0.5824
0.42857167 0.57142833
0.42857124 0.57142876
0.42857143 0.57142857
0.42857143 0.57142857
Detalle la evolucin de esta cadena de markov hasta llegar al equilibrio en la matriz P(24).
Observe que con el paso del tiempo, no importa si inicialmente se arranc en el estado 1
en el 2, la probabilidad a largo plazo de permanecer en el estado 1 es constante e igual a
42,857143%. Para ambos estados las probabilidades se estabilizan con el pasar del tiempo
y se vuelven probabilidades absolutas independientes de la condicin inicial (principio de
ergodicidad).
70
Ejemplo 2: Sea la siguiente matriz P con una nica clase la cual es recurrente aperidica.
1
1
2
P=
0
0.6
2
1
0.4
P (37 ) =
0.375 0.625
0.375 0.625
hacia una nica Ley Estable representada en una matriz de probabilidades de estado
estable probabilidades estacionarias.
Definicin 2: Una cadena de markov ergdica, la cual tiene una nica clase recurrente
que en el largo plazo todos sus estados tienen asociada cierta probabilidad de ocurrencia
(representada en la Ley Estable) lo cual hace imposible una prediccin exacta.
3.3.11.2. Cadenas Semiergdicas
Una cadena de markov finita homognea es semi-ergdica si tiene varias clases, entre las
cuales pueden haber una o ms clases transitorias pero tan solo una clase recurrente
aperiodica. Veamos este concepto con el siguiente ejemplo:
71
P= 1
2
3
4
1
0.5
0.3
0
0
2
0.4
0.3
0
0
3
0.1
0.4
0.2
0.6
4
0
0
0.8
0.4
En esta cadena de markov representada por la matriz P existen las siguientes clases:
Clase 1: Transitoria e incluye los estados 1 y 2.
Clase 2: Recurrente e incluye los estados 3 y 4.
P (16 )
0.00800518 0.00695264
0.00521448 0.00452886
=
0
0
0
0
0.42392446 0.56111773
0.42554426 0.5647124
0.42857167 0.57142833
0.42857124 0.57142876
72
P (1414 )
P ( 4242 )
0
0
=
0
0
0
0
0
0
0.42857143
0.42857143
0.42857143
0.42857143
0.42857143
0.42857143
0.42857143
0.42857143
0.57142857
0.57142857
0.57142857
0.57142857
0.57142857
0.57142857
0.57142857
0.57142857
largo plazo, slo basta con estudiar las probabilidades estacionarias de la nica clase
recurrente aperiodica de la matriz, no siendo necesario estudiar la(s) clase(s) transitoria(s)
ya que en el largo plazo es siempre improbable estar en ellas.
Definicin 5: Las cadenas semi-ergdicas no se consideran totalmente aleatorias ya que por
tener clases transitorias, es posible predecir con exactitud que los estados pertenecientes a
dichas clases no ocurrirn en el futuro.
73
1
0.2
0.6
2
0.8
0.4
Sea:
1 : la probabilidad de estado estable asociada al estado 1
2 : la probabilidad de estado estable asociada al estado 2
74
Escogiendo solo
dos de estas tres
ecuaciones se
resuelve:
1 = 0.8/1.4
2 = 0.6/1.4
0
P` = 1
2
3
1
0.184
0.368
0.368
0.184
2
0.368
0
0.368
0.368
3
0.368
0
0
0.368
Antes del clculo algebraico debe corroborarse si esta matriz es ergdica semi-ergdica a
travs de grafos:
0 1 y 0 3 por lo que: 1 3
0 2 y 0 3 por lo que: 2 3
Dado que 1 3 y 2 3, entonces 1 2
De lo anterior se tiene que los estados 0,1,2 y 3
se comunican entre s, formando una nica
clase, que por ser nica tambin es recurrente,
y adems se observa que es aperidica.
Por lo tanto, la cadena es ergdica.
Escogiendo tan solo cuatro de estas ecuaciones (siempre hay una redundante excepto la
ltima), se obtienen las probabilidades estacionarias de largo plazo:
0 = 0.286
1 = 0.285
2 = 0.264
3 = 0.166
P` (8) =
0
1
2
3
0
0
0.286
0.286
0.286
0.286
1
1
0.285
0.285
0.285
0.285
75
2
2
0.264
0.264
0.264
0.264
3
3
0.166
0.166
0.166
0.166
jj =
Si hay varias clases recurrentes, todas ellas aperiodicas, se tiene una cadena de markov
semiregular.
Si hay una varias clases recurrentes, todas ellas peridicas, se tiene una cadena de
markov policclica.
Si hay varias clases recurrentes, algunas peridicas y otras aperiodicas, se tiene una
cadena de markov mixta.
En el anexo de este capitulo puede encontrar teora y tratamientos apropiados a las cadenas
no-ergdicas.
76
diseo especial de prendas de vestir. Esta fase requiere exactamente 30 minutos para
terminar una prenda. Cada 30 minutos llega un mensajero a la mesa de la costurera para
recoger todas aquellas prendas que estn terminadas y para entregar las nuevas prendas que
deben ser cosidas.
El nmero de nuevas prendas que lleva el mensajero es aleatorio: 30% del tiempo el
mensajero llega sin prendas; 50% del tiempo el mensajero trae una sola prenda para dejar y
el 20% restante del tiempo el mensajero trae dos prendas para la costurera. Sin embargo, el
mensajero tiene instrucciones de nunca dejar ms de tres prendas juntas no terminadas a la
costurera y simplemente llevarlas a otra costurera que s tenga capacidad.
Determine el porcentaje del tiempo que la costurera permanece ociosa,
considerando que las prendas no terminadas que estn sobre la mesa de la costurera
al final del turno de trabajo, permanecen all para ser procesadas por la costurera
durante el siguiente da de trabajo.
2. Un profesor de optimizacin tiene tres preguntas claves en sus exmenes y una de ellas
sale en cada examen que l realiza. Los estudiantes conocen muy bien sus extraos hbitos:
l nunca utiliza la misma pregunta en dos exmenes consecutivos. Si utiliz la pregunta
No. 1 en el ltimo examen, arroja una moneda al aire y si sale cara usa la pregunta No. 2. Si
haba usado la pregunta No. 2, arroja dos monedas al aire y si salen dos caras, utiliza la
pregunta No. 3 y, finalmente, si haba usado la pregunta No. 3, arroja tres monedas al aire y
si salen tres caras, usa la pregunta No. 1.
a) Si en el examen pasado el profesor utiliz la pregunta No. 2, qu pregunta debe
estudiar preferiblemente un estudiante para el prximo examen?
b) Con el correr del tiempo, cul es la pregunta ms utilizada por el profesor y con
qu frecuencia?
77
3. Sean dos partidos polticos A y B. Los votantes pueden cambiar su afiliacin partidaria
today will be sick tomorrow and 50% of the students who are sick today will be well
tomorrow.
a) Write a transition matrix to show this situation.
b) If 80% of the student population is well today, predict what percent will be sick
tomorrow.
c) If you are sick Monday predict what percent chance that you will be still be sick on
Wednesday.
5. A psychologist notes the behavior of mice at a certain point in a maze. For any
particular trail, 70% of the mice that went right on the previous trail will go right on this
trial, and 60% of those that went left on the previous trial will go right on this trial. The
following transition matrix can represent this information:
T=
R 0.7 0.3
L 0.6 0.4
78
Suppose 50% of the mice went right on the first trial. This is represented by the following
probability matrix.
P=
0.50 0.50
a)
b)
Look closely at C in your picture. What do you notice that is strange about the way
information flows near C? What effect do you think this might have on the long-range
distribution of matter in this system?
7. Which of the following are transition matrices? Explain.
a.
b.
c.
79
b. The picture represents the probability that a person eating meal i (H, S, or P) for
lunch today will eat meal j (H, S, or P) for lunch tomorrow. The letter H stands
for hamburger, S stands for salad, and P stands for pizza.
80
10. A math teacher, not wanting to be predictable, decided to assign homework based on
probabilities. On the first day of class, she drew this picture on the board to tell the
students whether to expect a full assignment, a partial assignment, or no assignment the
next day.
81
Construct and label the transition matrix that corresponds to this drawing. Label it .
a. If students have a full assignment today, what is the probability that they will
have a full assignment again tomorrow?
b. If students have no assignment today, what is the probability that they will have
no assignment again tomorrow?
c. Today is Wednesday and students have a partial assignment. What is the
probability that they will have no homework on Friday?
d. Matrix A is the transition matrix for one day. Find the transition matrix for two
days (for example, if today is Monday, what are the chances of getting each kind
of assignment on Wednesday?).
e. Find the transition matrix for three days.
f. If you have no homework this Friday, what is the is the probability that you will
have no homework next Friday (since we are only considering school days,
there are only 5 days in a week)? Give your answer accurate to two decimal
places.
g. Find, to two decimal places, the matrix to which matrix A would appear to
converge after many days.
82