Documentos de Académico
Documentos de Profesional
Documentos de Cultura
4.1 Introducción
Gusano Mariposa
1 2
Figura 4.1 Representación de un fenómeno aleatorio por diagramas de transición entre estados
Existen fenómenos aleatorios para los cuales se desea estudiar la evolución del estado
(condiciones físicas u operativas) en forma discreta ó “saltos” con respecto al tiempo.
Es posible que el espacio de estado del fenómeno aleatorio bajo estudio sea continuo pero
solo es práctico o de interés el considerar algunos estados particulares. Un ejemplo de este
tipo de fenómenos se presenta en la Figura 4.1.
Este modelo entrega como salida o solución las probabilidades de ocurrencia de cada uno
de los estados como funciones del tiempo, por lo cual, corresponde a un proceso
estocástico. En cualquier instante de tiempo, la suma de las probabilidades de todos los
estados debe ser 1.0 ya que ellos conforman el espacio muestral.
Carlos J. Zapata ©2018 1
Análisis Probabilístico y Simulación Capítulo 4 – Cadenas de Markov
1 2 1 2 3
1 2 3
4
Enfermedad leve
Persona con
1
buena salud
4 Muerte
3 Estado
absorbente
Enfermedad grave
Algunos estados de una cadena de Markov pueden ser “absorbentes” ya que una vez se
llega a ellos, el fenómeno termina o permanece allí para siempre. En la Figura 4.3 se
presenta un ejemplo donde el diagrama de transición tiene un estado absorbente (el
estado 4).
En este caso, la probabilidad de estado estable o largo tiempo del estado absorbente será
1.0.
Enfermedad leve
Persona con
2
buena salud
4 Muerte
Enfermedad grave
Si varios estados corresponden a una misma situación física u operativa, estos se pueden
acumular. La probabilidad de ocurrencia del nuevo estado acumulado es igual a la suma
de las probabilidades de ocurrencia de los estados que se toman en cuenta en la
acumulación. La Figura 4.4 presenta un ejemplo de este concepto.
Con respecto a cómo se modela el tiempo y el estado, una cadena de Markov puede ser:
4.2.1 Descripción
1 3
En este modelo, que también se conoce como “cadena de Markov discreta”, para un
periodo de tiempo fijo t , se conocen las probabilidades de transición entre los estados
del sistema. El periodo de tiempo t también se denomina “etapa” o “transición” del
proceso y puede ser una hora, un día, una semana, un mes, año, etc.
Una vez el sistema inicia su operación, puede tomar cualquiera de los estados discretos
definidos.
Las probabilidades de encontrar cada uno de los estados van cambiando conforme el
proceso evoluciona con el tiempo. Los instantes de tiempo futuros están definidos por
“saltos” discretos de dimensión igual a t , tal como se muestra en la Figura 4.6. En cada
uno de estos instantes, se determinan las probabilidades de encontrar cada uno de los
estados, que es un vector P (T ) .
Este proceso es estacionario, lo cual se evidencia en el hecho de que al pasar el tiempo las
probabilidades de los estados se estabilizan en un valor. Esto resulta de asumir que dentro
del periodo t la probabilidad es constante.
Las transiciones ocurren solo ocurren Por ejemplo: las transferencias entre programas
2
cada t . académicos de pregrado solo se hacen cada semestre.
Para un sistema o proceso que tiene n estados, la probabilidad de encontrar cada uno de
los estados luego de T transiciones (periodos de tiempo) está dada por:
P(T ) = P(0) PT
Donde:
P(T ) : Es el vector fila con las probabilidades de encontrar cada uno de los estados después
de un tiempo T . Es la función de distribución de probabilidad del proceso
estocástico.
Se utiliza la letra T para designar el tiempo pues el utilizar la letra t puede llevar
a confundir la operación P t con la matriz transpuesta de P .
Se dice que el modelo de cadena de Markov discreta en el tiempo no tiene memoria por
las siguientes dos condiciones:
Las probabilidades de estado estable serán las mismas sin importar el estando inicial en que
1
inicia el proceso.
Estando en un estado dado, la transición a otro estado solo depende del hecho de estar en el
2
estado presente, no del recorrido que se hizo para llegar al estado presente
P(1) = P(0) P
P(2) = P(0) P 2 = P(0) P * P = P(1) * P
P(3) = P(0) P 3 = P(0) P * P * P = P(2) * P
P(t + 1) = P(t ) * P
Si T es grande → lim PT = L
T →
Matriz Ergódica
Una matriz estocástica es ergódica si y solo sí el único valor propio de magnitud 1.0 es (1.0 + 0.0i) y
si este valor propio tiene multiplicidad j , existen j vectores propios linealmente independientes
asociados con este valor propio.
Toda matriz P tiene a (1.0 + 0.0i) como valor propio y ninguno de los valores propios tiene
magnitud mayor a 1.0 en valor absoluto.
Una matriz estocástica es “regular” si una de sus potencias contiene solo elementos
positivos y esta matriz regular es ergódica.
P() = P(0) L
Las probabilidades de estado estable son independientes de las condiciones iniciales, por
lo cual, no es necesario hallar la matriz L , pues estas probabilidades se pueden hallar
mediante el siguiente procedimiento [3], [6]:
P() = A−1 b
Donde b es un vector fila de dimensión n cuyos términos son cero excepto el de la última fila que es
igual a 1.0
La Referencia [7] presenta un método para hallar la matriz L a partir de los valores
propios y vectores propios de la matriz P .
Definir los estados discretos con los cuales se pueden representar las características de interés
2
del fenómeno aleatorio bajo estudio.
p
Los ij se pueden determinar a partir de estadísticas, aplicando la definición de frecuencia
4 relativa.
Debe verificarse que las frecuencias (probabilidades) de transición entre estados sean constantes
dentro del periodo de tiempo que se defina para el estudio.
Ejemplo 4.1
Para empresas que financian y aseguran vehículos se conoce que para vehículos que
fueron financiados y asegurados por este tipo de empresa, al finalizar el primer año de
vigencia del seguro la probabilidad de que el cliente mantenga asegurado el vehículo con
esta empresa es del 55%, la probabilidad de que el cliente se vaya a otras aseguradoras es
del 30% y la probabilidad de que no asegure el vehículo es del 15%.
La probabilidad de que un cliente que tiene asegurado su vehículo con otras aseguradoras
pase su vehículo a esta empresa es del 15% y la probabilidad de que no lo asegure mas es
del 25%.
La probabilidad de que un cliente que no tenga asegurado su vehículo lo haga con esta
empresa es del 5% y de que lo haga con otras aseguradoras es del 10%.
Estado Descripción
1 Vehículo asegurado en esta compañía
2 Vehículo asegurado en otras compañías
3 Vehículo sin asegurar
T
P1 (T ) 0.55 0.30 0.15
P2 (T ) = ( 1 0 0 ) 0.15 0.60 0.25
P (T ) 0.05 0.10 0.85
3
T [años] P1 P2 P3
1 0.5500 0.3000 0.1500
2 0.3550 0.3600 0.2850
3 0.2635 0.3510 0.3855
4 0.2169 0.3282 0.4550
5 0.1912 0.3075 0.5013
6 0.1764 0.2920 0.5316
7 0.1674 0.2813 0.5514
8 0.1618 0.2741 0.5641
9 0.1583 0.2694 0.5723
10 0.1561 0.2664 0.5775
11 0.1547 0.2644 0.5809
12 0.1538 0.2631 0.5831
13 0.1532 0.2623 0.5845
14 0.1528 0.2618 0.5854
15 0.1526 0.2615 0.5859
16 0.1524 0.2613 0.5863
17 0.1523 0.2611 0.5865
18 0.1523 0.2610 0.5867
19 0.1522 0.2610 0.5868
20 0.1522 0.2609 0.5868
21 0.1522 0.2609 0.5869
22 0.1522 0.2609 0.5869
23 0.1522 0.2609 0.5869
Figura 4.6 Probabilidades como función del tiempo del ejemplo 4.1
Transiciones para
P(0) Descripción P1 P2 P3
estado estable
[1 0 0] Empieza en el estado 1 0.1522 0.2609 0.5869 21
[0 1 0] Empieza en el estado 2 0.1522 0.2609 0.5869 19
[0 0 1] Empieza en el estado 3 0.1522 0.2609 0.5869 20
Como se observa, las probabilidades de estado estable son las mismas sin importar en
qué estado empezó a operar el fenómeno bajo estudio. Por esto, se dice que este es un
proceso “sin memoria” o Markoviano.
i i | i |
1 1.0000 1.0000
2 0.3586 0.3000
3 0.6414 0.4100
t
0.55 0.30 0.15 1.0 0.0 0.0 −0.45 0.15 0.05
Paso 1: A = P − I = 0.15 0.60 0.25 − 0.0 1.0 0.0 = 0.30 −0.40 0.10
t
−1
−0.45 0.15 0.05 0.0 −2.1739 −0.4348 0.1522 0.0 0.1522
Paso 3: P() = 0.30 −0.40 0.10 0.0 = -0.8696 -2.1739 0.2609 0.0 = 0.2609
1.00 1.00 1.00 1.0 3.0435 2.6087 0.5870 1.0 0.5869
4.3.1 Descripción
1 3
En este modelo los tiempos de transición entre estados tij son variables aleatorias
continuas estacionarias o no estacionarias.
Del valor esperado de cada tiempo de transición entre estados se define la tasa de
transición entre estados:
dE[N(t )]
hij (t) = 1 / E(tij ) =
dt
La tasa de transición entre estados corresponde a una velocidad o razón de cambio del
valor esperado de eventos N(t ) de transición con respecto al tiempo; por ejemplo,
fallas/año, reparaciones/año, inundaciones/año, etc.
1 2
“operativo” “fallado”
Para desarrollar las ecuaciones de una cadena de Markov continua en el tiempo, considere
como ejemplo el componente de dos estados operativos mostrado en la figura 4.8
P1 (t + dt ) = P1 (t )[1 − (t )dt ] + P2 (t )[u(t )dt ] P2 (t + dt ) = P2 (t )[1 − (t )dt ] + P1 (t )[(t )dt ]
P1 (t + dt ) − P1 (t ) = [ −(t )P1 (t ) + u(t )P2 (t )]dt P2 (t + dt ) − P2 (t ) = [(t )P1 (t ) − u(t )P2 (t )]dt
P1 (t + dt ) − P1 (t ) P2 (t + dt ) − P2 (t )
= −(t )P1 (t ) + u(t )P2 (t ) = (t )P1 (t ) − u(t ) P2 (t )
dt dt
P1 (t + dt ) − P1 (t ) P2 (t + dt ) − P2 (t )
= −(t )P1 (t ) + u(t )P2 (t ) = (t )P1 (t ) − u(t ) P2 (t )
dt dt → 0
dt dt → 0
dP1 (t ) dP2 (t )
= −(t )P1 (t ) + u(t )P2 (t ) = (t )P1 (t ) − u(t ) P2 (t )
dt dt
dP1 (t )
= −(t )P1 (t ) + u(t )P2 (t )
dt
dP2 (t )
= (t )P1 (t ) − u(t )P2 (t )
dt
P(t ) = T t P(t )
P(t ) = P(t ) T
t t
P(t ) = P(t ) T ó P(t) = T t P(t)
Donde:
P(t ) : Es el vector fila de las probabilidades de cada uno de los estados como función
del tiempo
P(t) : Es el vector fila de las derivadas con respecto al tiempo de las probabilidades de
cada uno de los estados como función del tiempo
hii (t ) : El negativo de la sumatoria de todas las tasas de transición que salen del estado i
Las filas de la matriz T deben sumar 0.0. T no necesariamente es simétrica ya que hij (t )
no tiene que ser igual a hji (t) .
Parte de estado
2 Se utiliza en estudios de mediano y largo plazo.
estable
Cuando se utiliza simulación de Montecarlo para resolver este tipo de procesos, solo se
obtienen las probabilidades de encontrar cada uno de los estados discretos del proceso en
el estado estable, es decir, se pierde el periodo transitorio.
Verificar que en el fenómeno aleatorio bajo estudio es válida la condición de NO memoria de este
1
modelo.
Definir los estados discretos con los cuales se pueden representar las características de interés del
2
fenómeno aleatorio bajo estudio.
Para cada uno de los tiempos de transición entre estados analizar la tendencia. Dos casos pueden
aparecer:
• Si hay tendencia: En este caso la tasa de transición es variable con el tiempo. Se procede a obtener
la función que representa la tasa de transición, por ejemplo, aplicando el método de mínimos
cuadrados.
El que la tasa de transición entre dos estados sea constante no es suficiente argumento para afirmar que
el tiempo de transición entre estos dos estados está distribuido exponencialmente.
La distribución del tiempo de transición entre estados se obtiene mediante el procedimiento de ajuste de
datos a una distribución no de la tasa de transición entre estados!
Si el tiempo de transición entre dos estados está exponencialmente distribuido, la tasa de transición
entre estos estados es constante, lo contrario no es necesariamente cierto!
La tasa de transición hij es el número de transiciones nt del estado i al estado j en un periodo de tiempo
T , por unidad de tiempo en que el sistema estuvo en el estado i
nt
hij = nt / (tij ) k
k =1
nt
Donde (t
k =1
) es igual a la sumatoria de los tiempos de salida desde el estado i .
ij k
1 2 3 4 5 1 2 3 4 5
1 2
“operativo” “fallado”
Figura 4.10 Cadena de Markov de dos estados con tasas de transición constantes
Para entender a que se refieren las probabilidades de ocurrencia de estados en una Cadena
de Markov continua en el tiempo, considere el fenómeno aleatorio que se presentó en la
Figura 4.8 para el desarrollo del modelo matemático, pero considerando ahora por
simplicidad que las tasas de transición son constantes. Esto se presenta en la Figura 4.10.
Las tasas de transición se definen a partir de los tiempos de transición entre estados como:
h12 (t ) = =
1
=
1 t 12 i
E (t12 ) t12 t12 = i=1
n
n
h21 (t ) = =
1
=
1 t 21 i
E (t 21 ) t 21 t 21 = i=1
P1 (t ) − u P1 (t )
=
P2 (t ) −u P2 (t )
Y su solución:
−( + )t
P1 (t ) = + e
+ +
−( + )t
P2 (t ) = − e
+ +
La solución de estado estable es:
P1 ( ) = P2 () =
+ +
n n n
( t12 i ) / n t t
1 / t21 t21 t12 t12 12 i 12 i
P1 () = = = = = i =1
= i =1
= i =1
n n
Donde t = t12 i + t21i es el tiempo total que se observó el fenómeno aleatorio.
i =1 i =1
Se llega a que las probabilidades de ocurrencia de los estados se pueden expresar como:
n n
t 12 i t 21i
P1 () = i =1
P2 () = i =1
t t
En una cadena de Markov homogénea, la probabilidad de cada estado se puede calcular como
la fracción de tiempo que se reside en dicho estado con respecto al tiempo total observado.
1
Para esto, se pueden usar registros operativos; es decir, ¡no es necesario resolver el sistema de
ecuaciones diferenciales para obtener las probabilidades de estado estable!
Las probabilidades de estado estable de una cadena de Markov homogénea no dependen del
tipo de distribución de probabilidad de los tiempos de transición entre estados, solo son función
del valor esperado de los tiempos de transición, con cuyos inversos se calculan las tasas de
2 transición.
Quiere esto decir, que las probabilidades de estado estable son las mismas para cualquier tipo
de cadena homogénea. Pero el estado transitorio NO es el mismo.
En este modelo todos los tiempos de transición entre estados están distribuidos
exponencialmente, por lo cual, todas las tasas de transición entre estados son constantes
ya que los tiempos de transición entre estados son estacionarios e independientes. Así,
T es una matriz de coeficientes constantes:
Dos métodos de solución analítica para el sistema de ecuaciones diferenciales del proceso
de Markov continuo en el tiempo son:
t t t
1 P(t) = eT *t P(0)
t n
2 P (t ) = c i * v i *e i *t
i =1
Donde:
i : Es el valor propio i de la matriz T . Recordar que T tiene los mismos valores propios
t
de T .
vi : Es el vector propio columna asociado con el valor propio i que es calculado a partir
de T t . Recordar que los vectores propios no son únicos.
Esto se puede conocer del análisis de los valores propios de la matriz de coeficientes del
sistema de ecuaciones diferenciales, T en el caso del proceso de Markov continuo [9]:
El sistema es asintóticamente estable sí y solo sí todos los valores propios de T están ubicados
1
en el lado izquierdo del plano complejo.
El sistema es inestable si uno o más valores propios de T ocurren en el lado derecho del plano
3
complejo o si valores múltiples o pares de los valores ocurren en un punto del eje imaginario.
Uno de los valores propios de la matriz T es cero y todos los otros valores propios tienen parte real
negativa.
t t
P(t) = T t P(t) → x(t) = A x(t)
Donde:
Lo anterior contrasta con el hecho de que para un sistema dinámico determinístico, las
variables de estado determinan completamente el comportamiento futuro del sistema,
dado que se conoce su estado inicial.
Ejemplo 4.2
1 El tiempo promedio para que se produzca una falla del sistema de aire forzado es 3 meses.
2 El tiempo promedio para reparar una falla del sistema de aire forzado es 5 días
El tiempo promedio para que se produzca una falla que implique la salida total del equipo es 6
3
meses.
4 El tiempo promedio para reparar una falla que implica la salida total del equipo es de 20 días.
• Convertir los tiempos promedios para transición de estados a las mismas unidades
2 3
80 MVA 0 MVA
Falla sistema de aire forzado Falla que implica desconexión
Figura 4.11 Diagrama de transición de estados para el transformador de potencia del Ejemplo 7.2
Es decir, las tasas de transición entre estados se van a estimar a partir del promedio
estadístico del tiempo de transición entre estados.
Tasa de
Descripción Valor
transición
h12 Es la tasa de fallas del sistema de aire forzado 12 = 4 [fallas/año]
T
P1 (t ) −6.00 +4.00 +2.00 P1 (t )
P2 (t ) = +73.00 −73.00 0.00 P2 (t )
P (t ) +18.25 0.00 −18.25 P (t )
3 3
Definiendo: V = ( v1 v2 v3 )
Como se observa, uno de los valores propios es cero y los otros dos tienen parte real
negativa. El proceso estocástico que describe la confiabilidad del transformador de
potencia es marginalmente estable.
V * c = P0
−1
c1 +0.7190 −0.9926 −0.6800 1.0 +0.0771
c2 = −0.6946 −0.0544 −0.0514 0.0 = −0.8652
c −0.0244 −0.1088 +0.7314 0.0 −0.1261
3
c = V −1 * P 0
P1 (t ) = +0.0554 e −77.1406*t + 0.8588 e −0.0*t + 0.0858 e −20.1094*t = 0.8588 + 0.0554 e −77.1406*t + 0.0858 e −20.1094*t
P2 (t ) = −0.0535e −77.1406*t + 0.0471e −0.0*t + 0.0065e −20.1094*t = 0.0471 − 0.0535e −77.1406*t + 0.0065e −20.1094*t
P3 (t ) = −0.0019 e −77.1406*t + 0.0941e −0.0*t − 0.0922 e −20.1094*t = 0.0941 − 0.0019 e −77.1406*t − 0.0922 e −20.1094*t
• P1 () = 0.8588 . El primer estado (Transformador sin fallas) es el que tiene mayor
probabilidad de ser encontrado en cualquier instante de tiempo. Esto corresponde a lo
deseado para cualquier equipo.
P(0) Descripción P1 P2 P3
[1 0 0] Empieza en el estado 1 0.8588 0.0471 0.0941
[0 1 0] Empieza en el estado 2 0.8588 0.0471 0.0941
[0 0 1] Empieza en el estado 3 0.8588 0.0471 0.0941
Como se observa, las probabilidades de estado estable son las mismas sin importar en qué
estado empezó a operar el fenómeno bajo estudio. Por esto, se dice que este es un proceso
“sin memoria” o “Markoviano”.
n
Además, se cumple que f
i =1
i
*mi = t , donde t es el tiempo de referencia del estudio o
Ejemplo 4.3
Para el transformador de potencia del Ejemplo 4.2 hallar la frecuencia y duración de cada
estado.
Obsérvese que:
Es decir, un año que corresponde al tiempo de referencia del estudio ó a la referencia para
la medida de las unidades de tiempo.
Como se mencionó anteriormente, para los fenómenos aleatorios que tienen estados
absorbentes la probabilidad de estado estable del estado absorbente es 1.0, es decir, esta
es una solución trivial.
Así, lo que queda de interés para resolver es el estado transitorio de las probabilidades de
los otros estados o el tiempo medio para entrar en dicho estado absorbente.
2. Hallar Q , la matriz que resulta de eliminar en A la fila y la columna que corresponden al estado
absorbente.
3. Hallar N = [I − Q]−1 . Las fila de N corresponden al estado en que se inició el proceso. I es en este
caso, una matriz idéntica de dimensión (n − 1) * (n − 1)
4. El tiempo medio para entrar en el estado absorbente MTTAS (Mean Time to Absorbing Time) dado
que el proceso comenzó en el estado i es la suma de los términos de la fila i de la matriz N .
Este procedimiento sirve para encontrar el tiempo medio para entrar a un estado dado, si
el estado de interés se asume como un estado absorbente.
Ejemplo 4.4
fallas/año fallas/año
1 2 3
reparaciones/año
Equipo Falla total
nuevo Falla
reparable
• Procedimiento para hallar el tiempo medio para entrar en el estado absorbente dado
que el componentes inicia el proceso en el estado 1:
−9 10
Paso 2: Q=
730 −731
1 0 −9 10 10 −10
Paso 3: [ I − Q] = − =
0 1 730 −731 −730 732
−1
−1 10 −10 36.6 0.5
N = [ I − Q] = =
−730 732 36.5 0.5
Nótese que en este ejemplo m3 = 1/ 0 = , la duración media en este estado, una vez se entra
en él es infinita.
4.5.1 Descripción
En este caso, todos los tiempos de transición entre estados son estacionarios pero no todos
están exponencialmente distribuidos. Así, al igual que en la cadena de Markov
homogénea exponencial, la matriz de tasas de transiciones tiene todos los términos
constantes:
Como estas tasas son constantes, es decir los tiempos medios de transición entre estados
son constantes, las probabilidades de estado estable son las mismas obtenidas en el caso
de la cadena de Markov homogénea exponencial. O dicho de otra forma:
En una cadena de Markov homogénea de cualquier tipo, las probabilidades de estado estable
son las mismas sin importar el tipo de distribución de los tiempos de transición.
En una cadena de Markov homogénea, las probabilidades de estado estable solo dependen de los
valores de los tiempos medios de transición entre estados o de las tasas de transición los cuales
son constantes sin importar el tipo de distribución
Quiere esto decir, que para hallar las probabilidades de estado estable de cualquier cadena
de Markov homogénea, se puede tomar la solución de estado estable de la cadena de
Markov exponencial y con estas probabilidades calcular la frecuencia y duración de los
estados.
Entonces, ¿qué diferencia existe entre la cadena de Markov homogénea general y una
cadena de Markov exponencial? En el estado transitorio, ya que los modelos
exponenciales tienen coeficiente de variación del 100% mientras que esto no es así en las
otras distribuciones, por lo cual, alcanzar el estado estable en la cadena dependerá de la
variabilidad de los modelos de distribución que están involucrados. Así, para una cadena
Esta propiedad solo se cumple para la distribución exponencial y por esto se dice que
dicho modelo “no tiene memoria”. Esto se demuestra a continuación:
“Bueno” “Fallado”
t12
1 2
Sean:
Estos eventos son dependientes, porque para que el componente pueda fallar en t debe
haber funcionado hasta t . Así:
P( A B)
P[ B | A] = = F (t )
P( A)
tt +t f (t )dt F (t + t ) − F (t )
F ( t ) = =
t f (t )dt 1 − F (T )
Ejemplo 4.5
Considere que el tiempo para transición entre los estados 1 y 2 (tiempo para falla) tiene
un valor esperado de 5 años y una desviación estándar de 1.25 años.
1. Modelo Exponencial
1
− t
F (t ) = 1 − e
= 5 años
La probabilidad de fallar en los dos siguientes años es la misma sin importar cuánto ha
vivido el componente! Por esto se dice que la distribución exponencial es un modelo “sin
memoria”. Y es la única distribución que tiene esta propiedad.
2. Modelo Normal
( t − )2
1 − t
f (t ) = e 2 2
= 5 años = 1.25 años
2
Si para una cadena de Markov homogénea general se desea resolver el estado estable se
puede tomar la correspondiente solución de la cadena de Markov exponencial o aplicar
el método de simulación de Montecarlo que se explica en la siguiente sección.
Pero si lo que se requiere es el estado transitorio, se tiene que aplicar uno de los siguientes
métodos de solución:
El mecanismo de las etapas consiste en convertir una cadena donde todos los tiempos de
transición entre estados no están distribuidos exponencialmente en una cadena que si
cumple esta condición pero que tiene más estados que la cadena original.
1 2S1 2Sk
Exponencial
1 2
2P1
Lognormal
2P2
El método de mecanismo de las etapas tiene la ventaja de que permite hallar la solución
transitoria y de estado estable de las probabilidades de los estados. Pero como desventaja
se tiene que el sistema de ecuaciones diferenciales resultante es de dimensión mayor que
el del modelo original, lo cual puede ser una limitante en aplicaciones reales donde hay
una gran cantidad de estados.
Carlos J. Zapata ©2018 38
Análisis Probabilístico y Simulación Capítulo 4 – Cadenas de Markov
Ejemplo 4.7
Para un componente reparable de dos estados, que ha operado por 5 años consecutivos
se conoce que el tiempo que ha estado indisponible debido a 4 fallas, o sea la sumatoria
de los tiempos para reparación es de 0.25 años.
t12
1 2
t21
“operativo” “fallado”
Entonces:
t = 5 años t 21
= 0.25 años n = 4 fallas = 4 reparaciones
t 21
+ t12 = t = 5 años → t12 = 5 − 0.25 = 4.75años
4.7.1 Descripción
En este modelo algunas o todas las tasas de transición entre estados son funciones del
tiempo, lo cual hace que sea no estacionario y que los tiempos de transición entre estados
no puedan modelarse mediante distribuciones de probabilidad. Así, en este caso T es
una matriz con coeficientes variables:
1 Analíticamente
2 Numéricamente
Solo es posible hallar soluciones analíticas para ciertas formas de las funciones
matemáticas utilizadas para las tasas de transición entre eventos. El método de solución
a aplicar depende entonces de la forma de estas funciones.
Otra limitación con este tipo de modelo es que no hay un método analítico general para
analizar la estabilidad matemática de la solución.
Aunque en primera instancia este modelo es no homogéneo ya que algunas o todas las
tasas de transición entre estados, no puede afirmarse que las probabilidades de ocurrencia
de los estados sean funciones divergentes del tiempo; dependiendo de la forma de las
tasas, estas probabilidades pueden estabilizarse a unos valores y tener en el largo tiempo
un proceso estacionario.
Para explicar este concepto, considere el componente reparable con dos estados
operativos mostrado en la Figura 4.15, donde (t ) y (t ) son respectivamente la tasa de
fallas y la tasa de reparaciones.
“bueno” 1 2 “fallado”
La tasa de fallas del componente se incrementa con su uso, así, ésta es función del tiempo de
1 operación del componente. En este caso, sería función de un tiempo local f no del tiempo
global t de observación del proceso el cual es la suma de los tiempos de falla y reparación.
La tasa de reparaciones del componente depende de factores propios del proceso de reparación:
la carga de trabajo de los operarios, la pérdida de rendimiento de los operarios debido al
2 envejecimiento, la falta de incentivos laborales, etc. En este caso, (t ) sería función de un tiempo
local r no del tiempo global t de observación del proceso el cual es la suma de los tiempos de
falla y reparación.
Así, si las tasas de transición varían con un tiempo local y no con el tiempo global, al
aplicar el modelamiento (t ) se obtiene una predicción sobre-estimada de las
probabilidades de ocurrencia de los estados del proceso.
Ejemplo 4.8
Estado Estado de
1 2
normal emergencia
Con los recursos actuales para restaurar, el tiempo promedio para volver la ciudad al
estado normal es de 60 horas (2.5 días), por lo cual, la tasa de restauraciones se modela
con r = 8760 / 60 = 146 [restauraciones/año] y r = 1.0 .
P1 (t ) −(t ) u(t ) P1 (t )
=
P2 (t ) (t ) −u(t ) P2 (t )
p −1
(t) = p p t = 6 * 1.5 * t1.5−1 = 6 * 1.5 * t1.5−1 = 9 t 0.5
P1 (t ) −9 t 0.5 146 P1 (t )
= 0.5
P2 (t ) 9 t −146 P2 (t )
La solución numérica (Método Runge-Kutta) para diez años se muestra en la Figura 4.17.
Figura 4.17 Resultados para el ejemplo 4.7 con tasa de reparaciones constante
Como se observa en la Figura 4.17, si los problemas aumentan con el tiempo y los recursos
para restaurar se mantienen constantes, la probabilidad de que la ciudad esté en el estado
de emergencia crece a un valor muy alto (18%).
2. Considere ahora que los recursos para restaurar se incrementan para seguirle el paso a
al proceso creciente de llegadas de problemas. La tasa de restauraciones se modela en
este caso con r = 146 [restauraciones/año] y r = 1.5 .
Figura 4.18 Resultados para el ejemplo 4.7 con tasas de reparaciones crecientes
Tanto para las cadenas de Markov discretas en el tiempo como para las continuas en el
tiempo homogéneas, el procedimiento de simulación consiste en pararse en un estado y
desde allí generar la transición a otro de los estados con los cuales hay conexión y en cada
estado al cual se hace transición repetir esta misma acción; esto es, se replica en forma
artificial la operación del fenómeno aleatorio (movimiento entre estados) y se va
contabilizando el tiempo que se reside en cada estado para finalmente calcular la
probabilidad de estado estable de cada estado i aplicando Pi = ti / t .
Valor verdadero
Permite obtener las probabilidades de estado estable de cadenas de tiempo discreto y de cadenas
1
homogéneas sin recurrir a soluciones analíticas
Se resuelven las probabilidades de estado estable de cadenas homogéneas sin importar la
2
distribución de probabilidad de los tiempos de transición entre estados
En el procedimiento se pueden incorporar para cada estado algoritmos de solución para otras
3
variables relacionadas como optimización, flujos de carga, transformaciones, etc.
2 En el caso de las cadenas homogéneas esta demanda será inversamente proporcional a las
magnitudes de las tasas de transición entre estados y directamente proporcional a la variabilidad
de las distribuciones de probabilidad de los tiempos de transición
2
Pasa el estado 3
1 Pasa el estado 2
3
Permanece en estado 1
Definiendo:
Al iniciar la simulación: t =0 t i = 0 i
2. Genere un numero aleatorio U y defina si hay transición a alguno de los estados para
los cuales hay conexión o se permanece en este estado.
3. Súmele 1 al tiempo del estado al cual se hace transición (que puede ser el mismo estado
presente)
Ejemplo 4.6
Considere la cadena de Markov de tiempo discreto del Ejemplo 4.1 cuyo diagrama de
transiciones y matriz de probabilidades de transición son:
2
0.55 0.30 0.15
P = 0.15 0.60 0.25
0.05 0.10 0.85
1 3
P1 P2 P3
0.1522 0.2609 0.5869
2
Si t12 t13 → pasa al estado 2
1
Si t13 t12 → pasa al estado 3
3
Definiendo:
Al iniciar la simulación: n =0 t =0 t i = 0 i ni = 0 i
2. Para los estados a los cuales hay conexión desde el estado actual, genere un tiempo de
transición entre estados utilizando las correspondientes distribuciones de
probabilidad.
Esto es, para cada tiempo de transición que existe desde el estado actual genere un
número aleatorio uniformemente distribuido U y conviértalo a un tiempo de
transición utilizando la correspondiente función de distribución de probabilidad:
t = F −1 (U )
3. Seleccione el menor tiempo de transición del estado actual c a los estados a los cuales
existe conexión. Este tiempo se designa por t ck .
4. Calcule:
t = t + tck
Ejemplo 4.7
−6 +4 +2
T = +73 −123 50
+18 +20 −38
2 3
Asumiendo que todos los tiempos de transición entre estados están distribuidos
exponencialmente, se tiene la siguiente formulación para las distribuciones de
probabilidad de los tiempos de transición entre los estados i y j :
t / hij
P[tij t ] = 1 − e
4.9 Referencias
[1] Lawyer G. F, “Introduction to Stochastic Processes”, Chapman and Hall, 1995.
[3] Viniotis Yannis, “Probability and Random Processes for Electrical Engineers”, Mc-
Graw Hill, 1998.
[5] Law Averill M, Kelton W. David, “Simulation modeling and analysis”, Tercera
edición, Mc-Graw Hill, 2000.
[8] Dichirico C, Singh C, “Reliability analysis of transmission lines with common mode
failures when repair times are arbitrarily distributed”, IEEE Transactions on Power
Systems, Vol. 3, No. 3, August 1988.
[9] Rowland J. R, “Linear control systems – modeling, analysis and design”, Wiley, 1986.