Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Operaciones II
7. CADENAS DE MARKOV
Ing. Mgp. Grover Sánchez Eid
Docente ® 2021
Contenido
PROCESOS DINAMICOS
- Los Sistemas no son estáticos, cambian todo el tiempo por
sus interacciones internas y su relación con el entorno.
- Estos fenómenos son Estocásticos y Dinámicos.
- El cambio es un Proceso que puede ser conceptualizado
por variables que definen el ESTADO en cada Etapa de este
cambio.
- Las ETAPAS pueden ser estudiadas tanto como el paso a
una siguiente etapa o PROCESO de CAMBIO de ESTADO.
- Entendemos una CADENA como la vinculación de varias
ETAPAS y sus PROCESO.
Cadenas de Markov
Las cadenas de Markov son una visión o forma de ver de
algunas situaciones dinámicas de cambio de estado. Tienen
como característica la presencia de variables estocásticas
vinculadas a los procesos de cambio de estado. Entonces
estas CM, pueden usarse como modelo para representar un
proceso físico o económico de cambio de estado.
E0 E1 Ek
En
n0 n1 nk nn
t=0 t=1 t=k t=n
Ek = Estado en el tiempo k
Cadenas de Markov
CONDICIONES:
n −1
Vi = Vi P
n
n −1
Vi = V P
n
i
1
Pn
Condición de estado estable
Cuando en un proceso que se modela a través de Cadenas de Markov,
se tiene un tiempo grande o lo que es una larga serie de pasos, se
puede alcanzar condiciones de estado estable. Es decir que:
Se define lo siguiente:
- Se detiene completamente o,
- Se detiene para comenzar en otro estado.
Donde:
Entonces
Nn = probabilidad de ir desde un ENA a un ENA en n pasos
y No = probabilidad de estar en un ENA ahora = I
Entonces se calcula: