Está en la página 1de 2

Procesos Estocásticos

Unidad 2. Cadenas de Markov a tiempo discreto


Actividad 4. Determinación de distribuciones límite

Instrucciones: Resuelve cada una de las situaciones que se presentan a continuación:

1. Supóngase que un proceso de producción cambia de estado de acuerdo a una


cadena de Markov cuya matriz es
 1/ 4 1/ 4 1/ 2 0 
 
0 1/ 4 1/ 2 1/ 4 
P
 1/ 4 1/ 4 1/ 4 1/ 4 
 
1.  1/ 4 1/ 4 0 1/ 2 

con S = {1, 2, 3, 4}, donde los estados 1 y 2 representan una buena producción y los
estados 3 y 4 una mala. Es decir, si se pasa de cualquiera de los estados 1 y 2 a
cualquiera de los estados 3 y 4, la producción decayó. Si por el contrario se pasa de
cualquiera de los estados 3 y 4 a los estados 1 y 2; la producción mejoró.

Los estados se pueden determinar midiendo el tiempo de producción, el costo de


producción, el número de trabajadores que se requieren y el número de accidentes.

a) Determina la proporción de tiempo que el proceso de producción pasará en cada


estado a la larga.
b) ¿Qué puedes decir acerca de las veces que la producción mejorará a la larga?

2. Considera 5 puntos localizados en una circunferencia y una cadena {Xn} que


recorre esos puntos de manera que en cada punto, con probabilidad p se da un
movimiento al siguiente punto en el sentido de las manecillas del reloj, y con
probabilidad q = 1 - p se da un movimiento al siguiente punto en el sentido
contrario a las manecillas del reloj.
a) Determina la matriz de transición.
b) A largo plazo, determina la proporción de tiempo que la cadena pasa en cada
estado (como función de p).

3. Al principio de cada día, se inspecciona una pieza de cierto equipo para


determinar su condición que se clasifica en 4 estados {1, 2, 3, 4} según su nivel
de deterioro, donde 1 es el menor deterioro (pieza nueva) y 4 el mayor deterioro
(pieza descompuesta). Supongamos que la condición de la pieza en la n-ésima
inspección es Xn y que estas variables forman una cadena de Markov con matriz
de transición
Procesos Estocásticos
Unidad 2. Cadenas de Markov a tiempo discreto

 0.95 0.05 0 0 
 
 0 0.9 0.1 0 
P
 0 0 0.875 0.125 
 
 1 0 0 0 

a) Determinar la proporción de tiempo que la pieza pasa en cada estado a la larga.


b) Supongamos que una pieza descompuesta requiere tres días para su reposición
por una nueva. Para incorporar esto a la cadena de Markov agrega dos estados (5
y 6) y modifica adecuadamente la matriz de transición.

También podría gustarte