Está en la página 1de 2

Procesos Estocsticos

Unidad 2. Cadenas de Markov a tiempo discreto


Actividad 4. Determinacin de distribuciones lmite
Instrucciones: Resuelve cada una de las situaciones que se presentan a continuacin:
1. Se realiz una encuesta de mercado de tres marcas de chocolates: X, Y, Z. Cada vez
que el cliente compra un nuevo paquete, puede comprar de la misma marca o cambiar
a otra. Se han obtenido los siguientes datos estimados:

Marca Presente

X
Y
Z

Marca recin
comprada
X
Y
Z
0.7
0.2
0.1
0.3
0.5
0.2
0.3
0.3
0.4

Se estima que en este momento el 30% de los clientes compran la marca X,


20% la marca Y y el 50% la marca Z.
a) Trazar el grafo
b) Indicar a la larga cul ser la marca preferida.
2. Supngase que un proceso de produccin cambia de estado de acuerdo a una
cadena de Markov cuya matriz es
2/5
1/4
0
1/3

1/5
1/2
1/2
1/3

0
1/4
1/10
0

2/5
0
2/5
1/3

con S = {1, 2, 3, 4}, donde los estados 1 y 2 representan una buena produccin y los
estados 3 y 4 una mala. Es decir, si se pasa de cualquiera de los estados 1 y 2 a
cualquiera de los estados 3 y 4, la produccin decay. Si por el contrario se pasa de
cualquiera de los estados 3 y 4 a los estados 1 y 2; la produccin mejor.
Los estados se pueden determinar midiendo el tiempo de produccin, el costo de
produccin, el nmero de trabajadores que se requieren y el nmero de accidentes.
a) Elabora el grafo correspondiente
b) Determina la proporcin de tiempo que el proceso de produccin pasar en
cada estado a la larga.
c) Qu puedes decir acerca de las veces que la produccin mejorar a la larga?
3. Considera 6 puntos localizados en una circunferencia y una cadena {Xn} que recorre
esos puntos de manera que en cada punto, con probabilidad p=1/5 se da un movimiento

Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
al siguiente punto en el sentido de las manecillas del reloj, y con probabilidad q = 1 - p
se da un movimiento al siguiente punto en el sentido contrario a las manecillas del reloj.
A) Elabora el grafo
B) Determina la matriz de transicin.
C) A largo plazo, determina la proporcin de tiempo que la cadena pasa en cada
estado.

4. Al principio de cada da, se inspecciona una pieza de cierto equipo para determinar su
condicin que se clasifica en 4 estados {1, 2, 3, 4} segn su nivel de deterioro, donde
1 es el menor deterioro (pieza nueva) y 4 el mayor deterioro (pieza descompuesta).
Supongamos que la condicin de la pieza en la n-sima inspeccin es Xn y que estas
variables forman una cadena de Markov con matriz de transicin

0
0
0.95 0.05

0
0.9
0.1
0
P=
0
0
0.875 0.125

0
0
0
1
a) Determinar la proporcin de tiempo que la pieza pasa en cada estado a la
larga.
b) Supongamos que una pieza descompuesta requiere tres das para su
reposicin por una nueva. Para incorporar esto a la cadena de Markov
agrega dos estados (5 y 6) y modifica adecuadamente la matriz de
transicin.

También podría gustarte