SECCIN DE POSGRADO INVESTIGACIN DE OPERACIONES GRUPO Nro. 5 - NORBERTO QUISPE REYES
1. Definicin de cadenas de Markov 2. Tipos de estados y de cadenas de Markov. Propiedades 3. Comportamiento a largo plazo de cadenas de Markov. Aplicaciones 4. Comportamiento a corto plazo de cadenas de Markov. Tiempos y probabilidades del primer paso 5. El caso particular de las cadenas absorbentes. Aplicaciones 6. Estudio de casos reales de aplicacin. Los procesos de markov en los anlisis coste-efectividad Cadenas de Markov Introduccin Las cadenas de markov son modelos probabilsticos que se usan para predecir la evolucin y el comportamiento a corto y a largo plazo de determinados sistemas. Ejemplos: reparto del mercado entre marcas; dinmica de las averas de mquinas para decidir poltica de mantenimiento; evolucin de una enfermedad, 1. Definicin de Cadena de Markov Una Cadena de Markov (CM) es: Un proceso estocstico Con un nmero finito de estados (M) Con probabilidades de transicin estacionarias Que tiene la propiedad markoviana
1 Proceso estocstico: Es un conjunto o sucesin de variables aleatorias: {X(t)} definidas en un mismo espacio de probabilidad. Normalmente el ndice t representa un tiempo y X(t) el estado del proceso estocstico en el instante t. El proceso puede ser de tiempo discreto o continuo Si el proceso es de tiempo discreto, usamos enteros para representar el ndice: {X1, X2, ...} 1 Ejemplos de procesos estocsticos: 1. Serie mensual de ventas de un producto 2. Estado de una mquina al final de cada semana (funciona/averiada) 3. N de clientes esperando en una cola cada 30 segundos 4. Marca de detergente que compra un consumidor cada vez que hace la compra. Se supone que existen 7 marcas diferentes 1
Un conjunto finito de M estados, exhaustivos y mutuamente excluyentes (ejemplo: estados de la enfermedad) Ciclo de markov (paso) : periodo de tiempo que sirve de base para examinar las transiciones entre estados (ejemplo, un mes) Probabilidades de transicin entre estados, en un ciclo (matriz P) Distribucin inicial del sistema entre los M estados posibles
ELEMENTOS DE UNA CADENA DE MARKOV 1 PROPIEDAD MARKOVIANA Un proceso estocstico tiene la propiedad markoviana si las probabilidades de transicin en un paso slo dependen del estado del sistema en el perodo anterior (memoria limitada) 1 PROPIEDAD MARKOVIANA P (n) es la matriz de transicin en n pasos, de orden (M+1)x(M+1) 1 PROPIEDAD MARKOVIANA 1 PROPIEDAD MARKOVIANA 1 Tipos de modelos de Markov: Procesos de Markov (Modelos semi- markovianos): Las probabilidades de transicin entre estados pueden variar a medida que transcurren ms ciclos Ejemplo: para modelizar la esperanza de vida, el riesgo de muerte aumenta con la edad Cadenas de Markov: Las probabilidades de transicin se suponen constantes a lo largo del tiempo
LAS CADENAS DE MARKOV SON UN CASO PARTICULAR DE MODELOS DE MARKOV 1 PROPIEDAD MARKOVIANA Ejemplos: Comportamiento (sube/baja) del precio de las acciones hoy depende de lo ocurrido ayer
Problema de la ruina de un jugador de casino
Eleccin de marca: Con qu lnea area volar a Madrid? 1 Tres laboratorios farmacuticos (A,B y C) que compiten en un principio activo (mismo conjunto homogneo en la orden de precios de referencia). Hoy sus cuotas de mercado son 30%, 20% y 50% respectivamente
EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Matriz de transicin en un paso (ciclo) A B C A 0,8 0,1 0,1 B 0,15 0,82 0,03 C 0,13 0,12 0,75 Ciclo: Mes Las filas suman 1 Cmo se repartirn el mercado dentro de 1 mes, 6 meses, 1 ao?, A largo plazo? 1 EJEMPLO 2: LA EVOLUCIN CLNICA DE LOS PACIENTES CON VLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIEN
CON SECUELAS
MUERTO
3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribucin inicial de la cohorte (N=10.000): todos bien 1 EJEMPLO 2: LA EVOLUCIN CLNICA DE LOS PACIENTES CON VLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIEN
CON SECUELAS
MUERTO
3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribucin inicial de la cohorte (N=10.000): todos bien 1 EJEMPLO 2: LA EVOLUCIN CLNICA DE LOS PACIENTES CON VLVULA CARDIACA SOMETIDOS A TRATAMIENTO ANTICOAGULANTE BIEN
CON SECUELAS
MUERTO
0.6 0.6 0.2 0.2 3 estados (1 absorbente, 2 transitorios) Ciclo=mes Utilidades = Nivel salud Distribucin inicial de la cohorte (N=10.000): todos bien 1 Tres laboratorios farmacuticos (A,B y C) que compiten en un principio activo (mismo conjunto homogneo en la orden de precios de referencia). Hoy sus cuotas de mercado son 30%, 20% y 50% respectivamente
EJEMPLO 1: EL REPARTO DEL MERCADO A LARGO PLAZO EN UN OLIGOPOLIO Matriz de transicin en un ciclo (P) A B C A 0,8 0,1 0,1 B 0,15 0,82 0,03 C 0,13 0,12 0,75 Ciclo: Mes Las filas suman 1 Cmo se repartirn el mercado dentro de 1 mes, 6 meses, 1 ao?, A largo plazo? 1 EJEMPLO 3: EL HBITO TABQUICO DE LOS JVENES 5 estados (1 transitorio, 4 recurrentes) Ciclo= un ao Distribucin inicial de la cohorte (N=1.340): (0.58 0.28 0.05 0.03 0.06) Nunca lo ha probado Lo ha probado, pero ahora no fuma Fuma menos de una vez por semana Fuma los fines de semana Fuma diariamente Total Nunca lo ha probado 77.7% 17.2% 3.2% 0.9% 1.0% 100.0% Lo ha probado, pero ahora no fuma 0.0% 75.0% 12.2% 4.7% 8.1% 100.0% Fuma menos de una vez por semana 0.0% 34.0% 22.0% 12.0% 32.0% 100.0% Fuma los fines de semana 0.0% 26.5% 17.6% 26.5% 29.4% 100.0% Fuma diariamente 0.0% 6.3% 8.3% 0.0% 85.4% 100.0% Total 50.4% 31.8% 6.7% 3.0% 8.1% 100.0% 1 Tipos de estados y de cadenas de markov de primer orden Para clasificar los estados y las CM tenemos que definir algunos conceptos: Tiempos del primer paso y de recurrencia Accesibilidad y comunicacin entre estados
2 Tiempos del primer paso/recurrencia (Corto plazo) Con lo visto hasta el momento podemos calcular la probabilidad, dado que el proceso se encuentra en el estado i, de que el proceso se encuentre en el estado j despus de n periodos P ij (n) . 2 a) Comenta el contenido de la matriz de transicin P facilitada por el comercio. b) Sabiendo que hay dos cmaras al final de la primera semana (x 1 =2), (x 2 =1), (x 3 =0), (x 4 =3) y (x 5 =1). Obtener el tiempo de primera pasada para ir del estado 3 al 1, y el tiempo de recurrencia del estado 3. EJEMPLO: Un vendedor de cmaras fotogrficas lleva acabo la siguiente poltica de inventario. Mantiene durante la semana de trabajo hasta un mximo de 3 cmaras en el almacn para su venta. Si al final de la semana le quedan en el almacn alguna cmara entonces no pide ninguna al fabricante. De partida en el almacn hay 3 cmaras (x 0 =3). 2 Tiempos de primera pasada/recurrencia (Corto plazo) En general podemos considerar a los tiempos de primera pasada como variables aleatorias, por tanto con una distribucin de probabilidad asociada a ellos. Dichas distribuciones de probabilidad dependern de las probabilidades de transicin del proceso. f ij (1) =p ij (1) =p ij f ij (2) =p ij (2) -f ij (1) p ij ............................................. f ij (n) =p ij (n) -f ij (1) p ij (n-1) -f ij (2) p ij (n-2) ....-f ij (n-1) p ij 2 Tiempos de primera pasada/recurrencia (Corto plazo) Como generalmente es bastante engorroso calcular las f ij (n) para todas las n, se suele optar por obtener el tiempo esperado de primera pasada del estado i al estado j 2
(n)
(n) Podemos considerar f ij (n) para (n=1,2,..) como la funcin de probabilidad de la variable aleatoria tiempo de primera pasada Una vez que el proceso se encuentra en el estado i no lo abandona Una vez que el proceso se encuentra en el estado i existe una prob.>0 de no regresar Tipos de estados y Cadenas de Markov 2 Ejemplo Identifica los distintos estados en la siguiente matriz de transicin. Estados 0 1 2 3 4 P 0 0.25 0.75 0 0 0 1 0.5 0.5 0 0 0 2 0 0 1 0 0 3 0 0 0.33333333 0.66666667 0 4 1 0 0 0 0 2 Tipos de estados y Cadenas de Markov 2 Tipos de estados y Cadenas de Markov 2 Tipos de estados y Cadenas de Markov. 2 Tipos de estados y Cadenas de Markov. 2 Comportamiento a largo plazo de las Cadenas de Markov 3 Comportamiento a largo plazo de las Cadenas de Markov 2 Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4 CM absorbente: Tiene al menos un estado absorbente Desde cualquier estado no absorbente se puede acceder a algn estado absorbente A largo plazo, termina en absorcin con probabilidad 1 Interesa calcular: Probabilidad de absorcin por cada estado absorbente Numero esperado de pasos antes de la absorcin Comportamiento a largo plazo de las Cadenas de Markov: el caso de las cadenas absorbentes 4 Ingredientes de una cadena de markov: Conjunto de K estados exhaustivos y mutuamente excluyentes definen las posibles situaciones (ej. Bien-discapacitado-muerto) Ciclo: periodo de tiempo en el que ocurren transiciones entre estados (ej: un mes) Probabilidades de transicin entre estados en un ciclo Se suponen constantes en el tiempo, e idnticas para todos los pacientes Sus valores forman la matriz de transicin en un paso (P) Distribucin inicial de la cohorte de pacientes entre los K estados