Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cadenas de Markov
Cadenas de Markov
CAPÍTULO VI
CADENAS DE MARKOV
6.1 INTRODUCCIÓN
Un vector fila v = (v1, v2, ...,vn) recibe el nombre de vector de probabilidad si sus
componentes son no negativas y la suma es igual a 1.
82
Cadenas de Markov
1 1
λ= =
2 + 3 + 0 + 6 + 4 15
1 2 3 0 6 4
λw = w = , , , ,
15 15 15 15 15 15
6.2.2 Proceso estocástico: Si el estado de un sistema dado puede cambiar con cierta
probabilidad a intervalos fijos o aleatorios de tiempo se denomina proceso estocástico
Las variables X1, X2 y X3 pueden representar los niveles de inventario al finalizar los meses
1, 2 y 3 ó las marcas de productos preferidas por los clientes en las semanas 1, 2 y 3.
6.2.3 Espacio de estados: Se define al conjunto de todos los posibles valores asociados a
un proceso estocástico.
83
Cadenas de Markov
6.2.5 Diagrama de transiciones: Conjunto de nodos y arcos dirigidos que ilustra las
transiciones entre estados.
1 2
Figura 6.1
Probabilidad de que la variable de estado tome el valor de j en el tiempo t+1 dado que en el
tiempo t toma el valor de i.
84
Cadenas de Markov
y
M
∑p
j =0
n
i, j = 1 para toda i y n = 0,1 ,2, ... donde M es el número finito asociado por donde
Una máquina que produce piezas puede estar ajustada o desajustada. Si esta ajustada,
suponga que la probabilidad de que no lo esté es 0.3. Si la máquina esta desajustada, la
probabilidad de que este ajustada el día siguiente es 0.6 y la probabilidad de que no lo este
es 0.4. Si el estado 1 representa la situación en que la máquina esta ajustada y el estado 2
representa el caso en que esta desajustada, las probabilidades de cambio son las que se
indica en la tabla 6.1.
El proceso se representa con dos árboles de probabilidades en la figura 6.2a y 6.2b, cuyas
ramas ascendentes indican el paso al estado 1 y las ramas inferiores el cambio al estado 2.
A Ajustada No Ajustada
De
Ajustada 0.7 0.3
No ajustada 0.6 0.4
Tabla 6.1
0.49
1
0.7
1 0.3
0.7
2 0.21
1
0.3
0.18
0.6 1
2
0.4
2 0.12
Figura 6.2 a
85
Cadenas de Markov
0.42
1
0.7
1 0.3
0.6
2 0.18
2
0.4
0.24
0.6 1
2
0.4
2 0.16
Figura 6.2 b
a) Halle la probabilidad de que la máquina este ajustada el segundo día si el primer día
estuvo ajustada.
P11 = P{ X 2 = 1 / X 1 = 1}
P11 = 0.7
b) Halle la probabilidad de que la máquina este ajustada el tercer día si el primer día
estuvo ajustada.
P112 = P{ X 3 = 1 / X 1 = 1}
P112 = P11 * P11 + P12 * P21 = 0.49 + 0.18 = 0.67
P122 = P{ X 3 = 2 / X 1 = 1}
P122 = P11 * P12 + P12 * P22 = 0.21 + 0.12 = 0.33
d) Halle la probabilidad de que el tercer día este desajustada si el primer día estuvo
desajustada y el segundo día estuvo ajustada
P12 = P{ X 3 = 2 / X 1 = 2, X 2 = 1}
P12 = 0.3
86
Cadenas de Markov
0.7
1 2 0.4
0.6
Figura 6.3
Una matriz cuadra P = (pij) es estocástica si cada una de sus filas es un vector de
probabilidad, esto es, si cada elemento de P es no negativo y la suma las componentes para
cada fila es 1.
Definición: Una matriz estocástica P es regular si todos los elementos de alguna potencia
Pm son positivos.
1 1
2 2 1 0
A= B=
1 0 1 2
3 3
87
Cadenas de Markov
0.75 0.25
A2 = por lo tanto A es una matriz estocástica Regular
0 .5 0.5
1 0
Bm = por lo tanto B no es una matriz estocástica regular
1 0
Un vector no nulo u= (u1,u2, ..., un) es un punto fijo de una matriz cuadrada A si u
permanece fijo, esto es, no cambia cuando se multiplica por A.
uA=u
1 1
2 2
Ejemplo: Si tenemos la matriz A = entonces u=(3/8, 5/8) es un punto fijo de A
3 7
10 10
puesto que
1 1
2 2
( 3 , 5 ) = (3 , 5 )
8 8 3 7 8 8
10 10
6.2.9 Puntos fijos y matrices estocásticas regulares
La principal relación entre las matrices estocásticas y regulares y los puntos fijos se
establece en el teorema siguiente.
88
Cadenas de Markov
Ejemplo 7: Sea A una matriz estocástica Regular, halle el vector fijo único u
Si u= (x,y,z) y
0 1 0
A = 0 0 1 sabemos que uA=u entonces:
1 1
0
2 2
0 1 0
( x , y , z ) 0 0 1 = ( x, y , z )
1 1
0
2 2
0x + 0y + ½ z = x
1x + 0y + ½ z = y
0x + 1y + 0z = z
x+y+z=1
u=(1/5,2/5,2/5)
b) Halle la matriz A64 y compare los valores de cada fila con el vector fijo único u
1 2 2
5 5 5
0 1 0
64 1 2 2
A = 0 0 1 A =
5 5 5
1 1
0 1 2 2
2 2
5 5 5
La matriz de transición es una matriz estocástica en la cual se incorpora los estados actuales
y los estados en el tiempo t+1
Ejemplo 8: Una persona puede escoger entre conducir su automóvil o tomar el metro para
ir a su trabajo cada día. Supongamos que la persona nunca toma el tren dos días seguidos;
pero si conduce hasta el trabajo, entonces al día siguiente puede manejar de nuevo o tomar
el tren. Construya la matriz de transición.
89
Cadenas de Markov
Este proceso estocástico es una cadena de Markov, puesto que el resultado de cualquier día
depende únicamente de lo que ha sucedido el día anterior. La matriz de transición de la
cadena de Markov es:
Estado Futuro
m c
Estado
Actual
m 0 1
c 0.5 0.5
M
Pijn = ∑ Pikm * Pkj( m − n ) para 0 ≤ m ≤n
k =0
0.3
0.6 0.7
90
Cadenas de Markov
0.4
0.5 3
1 2
0.5 0.4
0.5 4
0.1
Figura 6.4
0.2
5
0.8
Figura 6.5
Definición: Un estado j es alcanzable desde un estado i si hay una trayectoria que vaya de i
aj
El estado 5 es alcanzable desde el estado 3.
91
Cadenas de Markov
0.3
0.6 0.7
0.4
0.5 3
1 2
0.5 0.4
0.5 4
0.1
S1
Figura 6.6 0.2
5
0.8
S2
Figura 6.7
S1 y S2 son conjuntos cerrados.
0.4 0.6
1
1 2
Figura 6.8
92
Cadenas de Markov
4
2
5
3
Figura 6.9
Definición: Un estado i es periódico con periodo k>1 si k es el número mas pequeño tal
que las trayectorias que parten del estado i y regresan al estado i tienen una longitud
múltiplo de k. Si un estado recurrente no es periódico, se llama aperiódico.
1 2 3
Figura 6.10
Al comenzar con el estado 1 la trayectoria a seguir para retornar al estado 1 sería 1-2-3-1
por lo tanto k = 3. Esto es, si se parte del estado 1 para retornar al estado 1, se tendrán que
realizar pasos en cantidades que son múltiplos de 3.
Definición: Si todos los estados en una cadena son recurrentes, aperiódicos y se comunican
entre si, se dice que la cadena es ergódica (estocástica regular).
93
Cadenas de Markov
1 2 4 2 1
3 0 9
3 9 3
1 1 2 1 11 3
P= 0 -> P=
2 2 6 24 8
0 1 3 1 3 11
4 4 8 16 16
Como se había indicado anteriormente, para verificar que la matriz es ergódica se puede
elevar la matriz a la potencia m y si se comprueba que desaparecen los ceros, se concluye
que la matriz es ergódica.
Primera característica: todos los estados son recurrentes (para cada salida existe un
retorno)
Segunda característica: todos los estados son aperiódicos (Para el estado 1 y 3 k=1 y
para el estado 2 no existe un múltiplo mínimo k)
Tercera característica : Todos los estados se comunican entre sí (La cadena de Markov
es un solo conjunto cerrado y son recurrentes)
94
Cadenas de Markov
1 1 1
0 2 3 6 0,237 0 0,763 0
0 0,373 0 0,627
1 0
1 1
0,237 0 0,763 0
2 4 4
P= -> P64 = 0 0,373 0 0,627
1 1
0
1
3 3 3
1 2 2
0
5 5 5
Primera característica: todos los estados son recurrentes (para cada salida existe un
retorno)
Segunda característica: todos los estados son aperiódicos (Para todos los estados existe
un periodo K>1 y es múltiplo de 2, por lo tanto todos los estados son periódicos con
periodo igual a 2)
Tercera característica : Todos los estados se comunican entre sí (La cadena de Markov
es un solo conjunto cerrado y son recurrentes)
Al no cumplir con alguna de las características, en este caso la segunda, se concluye que la
matriz no es ergódica
95
Cadenas de Markov
Es la probabilidad de pasar del estado i al estado j en n transiciones sin pasar por el estado j
en una transición intermedia. Esto es, la probabilidad de llegar al estado j por primera vez
en la transición n.
n
La probabilidad de primera ocurrencia se representa por ( f ij )
pij si n = 1
M
f ijn = P * f n −1 si n ≥ 2
∑ ik kj
k ≠ j
k =1
Desarrollando:
f ijn = Pijn − f ij1 p njj−1 − f ij2 p njj− 2 ... − f ijn −1 Pjj Probabilidad de primera ocurrencia en n transiciones
f ijn
Las probabilidades de primera ocurrencia en n transiciones cumplen la condición de que
∞
∑f
n =1
n
ij ≤1
∞
Si i=j y ∑ f iin = 1 entonces el estado i se conoce como estado recurrente. Un caso especial
i =1
de un estado recurrente es un estado absorbente.
∞
Si i=j y ∑ f iin < 1 entonces el estado i se conoce como estado transitorio
i =1
96
Cadenas de Markov
∞
∞ si
∑f
n =1
n
ij < 1
µ ij = ∞ ∞
nf n
∑ ∑f n
ij si ij = 1
n =1 n =1
∞
Siempre que ∑f n =1
n
ij = 1 entonces µij , satisface de modo único la ecuación
M
µ ij = 1 + ∑ pik µ kj ∀i≠j
K =1
k≠ j
Cuado j=i, el tiempo esperado del primer paso se llama tiempo esperado de recurrencia y se
representa por:
1
µ ij = ∀ i=j
πj
Ejemplo 12:
El mercado para un producto de 3 marcas diferentes cuenta con 1,000 clientes potenciales
distribuidos de la siguiente forma
A 300 0 30 30 310
B 400 40 0 80 370
C 300 30 60 0 320
------- -------
1000 1000
97
Cadenas de Markov
98
Cadenas de Markov
b)
d) p(0)P = p(1)
p(1)P = p(2)
e) πP = π
1 1 1
π 1 = ;π 2 = ;π 3 =
3 3 3
99
Cadenas de Markov
f) µ A,C = 1 + ∑ pi ,k µ k , j
k≠ j
µ A,C = 1 + p AA µ AC + p AB µ BC + p AC µ CC
µ B ,C = 1 + p BA µ AC + p BB µ BC + p BC µ CC
µ A,C = 8; µ B ,C = 6
Un cliente que actualmente prefiere la marca A tardará 8 mese en preferir la marca
C
1
g) µ A, A =
πA
1
µ A, A = = 3 meses
1
3
h) f B2,C = p BA p AC + p BB p BC
Una cadena de Markov en la que uno o más estados son estados absorbentes corresponde a
una cadena de Markov absorbente.
Muchas de las aplicaciones importantes de análisis de Harkov tratan con situaciones donde
existen uno o más estados absorbentes en el proceso y pueden identificarse por sus
cantidades en la matriz de transición. En particular, el estado i es absorbente si Pii = 1.
100
Cadenas de Markov
1.-¿ Cuál es el tiempo esperado que el proceso está en estado no absorbente antes de que
entre en uno no absorbente?
2.- ¿Cuál es el tiempo total antes de la absorción para cada estado no absorbente?
3.- ¿Cuál es la probabilidad de absorción partiendo de cada uno de los estados no
absorbentes?
Para dar respuesta a estas interrogantes, el primer paso es rearreglar los estados de tal
manera que los estados absorbentes estén agrupados en la parte superior izquierda de la
matriz de transición; los estados restantes entonces se tendrán en cualquier orden.
Arreglando los estados de esta manera se proporciona la forma canónica en la figura 4.12.
I O
P =
A T
Figura 4.12
Para cualquier cadena de Markov absorbente escrita en esta forma canónica se define una
matriz fundamental.
F=(I-T)-1
Donde F tiene una dimensión (n-r) X (n.r) y sus cantidades representan la media o número
esperado de veces que el proceso está en cada estado no absorbente antes de ser absorbido.
Ya que los renglones representan la absorción del proceso de varios estados, la suma de
cada renglón de F representa el tiempo total esperado hasta la absorción de cada uno de os
estados no absorbentes.
B=F x A
101
Cadenas de Markov
Ejemplo 13
Estado Año 2006 No. de personas que cambiaron a otro estado en un año
A B C D
B 500 0 0 250 150
C 1000 100 100 0 0
TOTAL 1500
a)
A B C D
A 1 0 0 0
B 0 0,2 0,5 0,3
C 0,1 0,1 0,8 0
D 0 0 0 1
102
Cadenas de Markov
b)
c)
Estados Absorbentes A y D
Estados Transitorios B y C
Estados Recurrentes A y D
2 2
d) PBB + PBC
Utilizando las ecuaciones de Chapman – Kolmogorov
po(0,1,0,0) x P = p1(0, 0.2, 0.5, 0.3)
p1(0, 0.2, 0.5, 0.3) x P = p2(0.05, 0.09, 0.5, 0.36)
2
e) PBC = 0.1
f)
Matriz en formato canónico
A D B C
A 1 0 0 0
D 0 1 0 0
B 0 0,3 0,2 0,5
C 0,1 0 0,1 0,8
La matriz fundamental es la siguiente F=(I-T)-1
B C
F= B 1,818 4,545 6,36
C 0,909 7,273 8,18
El tiempo de vida del paciente es de 6.36 años
g)
A D
B=FxA B 0,455 0,545
C 0,727 0,273
Si un paciente esta sano, la probabilidad de que muera estando bajo tratamiento es 0.273
103
Cadenas de Markov
EJERCICIOS PROPUESTOS
1.- Mario Jaldín es el distribuidor de Coca Cola en una provincia. Su gerente de almacén
inspecciona las cajas de gaseosas ( éstos son los guacales de madera que almacenan 24
botellas) cada semana y los clasifica así “ A) recién construido esta semana”, “B) en buenas
condiciones”, “C) en condición aceptable ó “D) imposible de utilizar por daños”. Si no es
posible usar una caja por daño, se envía al área de reparación, donde usualmente esta fuera
de uso por una semana. Los registros de la bodega de Mario indican que ésta es la matriz
apropiada de probabilidades de transición para sus cajas de gaseosas
El contador de Mario le dice que le cuesta 2.50 Bs. reconstruir una caja, y la compañía
incurre en un costo de $1.85 Bs. por pérdida de eficiencia de producción cada vez que una
caja se encuentra que esta dañada. Ésta pérdida de eficiencia es porque las cajas rotas hacen
lento el proceso de cargar los camiones.
a) Calcule el costo total semanal esperado por la reconstrucción como por la pérdida
de eficiencia de producción.
Respuesta: Costo total semanal es 0.725 por caja.
b) Suponga que Mario desea considerar el construir cajas siempre que se inspeccione y
se encuentre que están en condición aceptable (Eliminando la posibilidad de que la
caja se dañe). Construya la nueva matriz de transición. Y calcule el costo total
semanal esperado con esta nueva matriz de transición.
Respuesta: Costo total semanal = 0.625 por caja
2.- Industrias Unidad, un fabricante de ropa de dormir para mujer clasifica a sus operadores
de máquinas de coser en cuatro categorías, dependiendo de su productividad durante el mes
precedente; 1 es la categoría mas baja y 4 es la categoría mas alta. Históricamente, la fuerza
de trabajo de cosido se ha distribuido entre las cuatro categorías como sigue: 1=30%, 2=
35%, 3= 25%, 4= 10%. Hace siete meses, Industrias Unidas produjo un nuevo sistema
organizacional en su planta con 450 operadores. El nuevo sistema agrupa a los operadores
en unidades voluntarias de trabajo que no sólo eligen a sus propios supervisores sino que
también determinan sus propios horarios de trabajo. Los registros de producción
mantenidos desde que se adoptó el nuevo plan le ha permitido a su gerente de planta,
construir esta matriz de probabilidades de transición que ilustra los cambios mes a mes de
la productividad de sus empleados.
104
Cadenas de Markov
• La compañía A retuvo el 80% de sus clientes, perdió 5% de sus clientes con B y 15% con C.
• La compañía B retuvo e 90% de sus clientes; perdió el 10% con A y ninguno con C
• La compañía C retuvo el 60% de sus clientes; perdió el 20% con A y 20% con B
105
Cadenas de Markov
4.- Una tienda vende cámaras fotográficas y cada sábado ordena solo si tiene 0 cámaras en
inventario, en caso contrario no ordena, los pedidos se hacen por 3 cámaras, las cámaras
ordenadas están disponibles el lunes por la mañana. La demanda de las cámaras es Poisson
con media de 1 cámara /semana.
5.- Un proceso de producción incluye una máquina que se deteriora con rapidez bajando
tanto en la calidad como en el rendimiento de su producción bajo un uso pesado, de modo
que se inspecciona al final de cada día. Inmediatamente después de la inspección, se
observa la condición de la máquina y se clasifica en uno de los cuatro estados posibles:
Estado Condiciones
106
Cadenas de Markov
0 1 2 3
Obtener:
6.- Hay dos fichas blancas en la urna A y 3 fichas rojas en la urna B. A Cada paso del
proceso se selecciona una ficha de cada una y se intercambian las dos fichas seleccionadas.
Sea Xn el número de fichas rojas en la urna A.
a) Encuentre la Matriz de transición P.
Respuesta: El vector t de esta matriz de transición es (0.1;0.6;0.3)
b) Construya el diagrama de transiciones.
c) ¿Cuál es la probabilidad de haya dos fichas rojas en la urna A luego de cuatro
pasos?
Respuesta:0.3056
d) A la larga ¿Cuál es la probabilidad de que haya dos fichas rojas en la urna A?
Respuesta:0.3
e) ¿Cuántos pasos en promedio se requieren para que existan 2 fichas rojas en la urna
A?
Respuesta: 3 pasos
107
Cadenas de Markov
f) Si actualmente, hay una ficha roja en la urna A ¿Cuál es la probabilidad para que
existan 2 fichas rojas, en esta urna, por primera vez en tres pasos?
Respuesta: 0.1389
7.- La clientela compra automóviles en tres agencias. Dada la compañía a la que compró un
cliente la última vez, la probabilidad que compre la próxima vez es:
Comprará en
Compró en: Agencia 1 Agencia 2 Agencia 3
108
Cadenas de Markov
Respuesta:0.9492
9.- Un borracho camina por el pasillo que tiene un ancho de cinco baldosas. Comienza a
caminar en la baldosa central pero no puede mantener la línea recta y se va a la izquierda o
la derecha con la misma probabilidad. Cuando llega a una baldosa que está junto a la pared
del lado izquierdo, se choca contra ella y esto hace que en el siguiente paso vaya a la
baldosa de al lado, pero si llega a la baldosa que esta en el extremo derecho el borracho
pierde el equilibrio y cae porque las baldosas de esa fila no están bien colocadas.
109