Está en la página 1de 6

OBJETIVOS DEL CURSO IO

Proporcionar herramientas avanzadas en IO que le permitan al ingeniero estudiar y planificar sistemas complejos, en las reas de procesos de Markov, teora de colas, teora de toma de decisiones y teora de inventarios.

PROGRAMA RESUMIDO
1. Procesos de Markov. 2. Teora de colas. 3. Teora de decisiones. 4. Teora de Inventarios

1-1

1-2

BIBLIOGRAFIA

Programacin de evaluaciones.
1. Procesosde Markov. Examen y trabajo 2. Teora de colas. Examen y trabajo 3. Teora de decisiones. Examen y trabajo 4. Teora de Inventarios. Examen y trabajo Texto Gua.
HILLIER, F.S Y LIEBERMAN G.J. Introduccin a la investigacin de Operaciones. 6 Ed. Mc Graw Hill. 1997. En Internet: http:minas.unalmed.edu.cocursoss4040s4040.html

4 exmenes del 20% y 4 trabajos del 5% cada uno

1-3

1-4

OTRAS REFERENCIAS
DAVIS K Roscoe y MC KEOWN Patrick. Modelos cuantitativos para administracin. Grupo editorial Iberoamerica. 2 Ed. 1986. TAHA HANDY A. Investigacin de operaciones. Alfaomega. 5 Ed. 1995 Ross Sheldon. Introduction to probability models. Meyer. Introductory probability and statistical applications PRAWDA, Juan. Mtodos y modelos de Investigacin de operaciones. Limusa.

Universidad Nacional de Colombia Sede Medelln

Clase # 1

Introduccin a las Cadenas de Markov


1-5 Diseo: Andrs Gmez 1-6

Definiciones bsicas Toma de decisiones Incertidumbre


Espacio muestral : El conjunto de resultados de un experimento. Evento: muestral. Cualquier subconjunto del espacio

Si se presenta cierta regularidad en los fenmenos se puede minimizar la incertidumbre mediante el desarrollo de modelos probabilsticos.

Variable aleatoria: Es una funcin que asigna valores reales a los resultados de un experimento.

1-7 Diseo: Andrs Gmez Diseo: Andrs Gmez

1-8

Proceso estocstico Proceso que evolucionan en el tiempo de una manera probabilstica


Es una coleccin indexada de variables aleatorias Xt en donde el ndice t, toma valores de un conjunto T dado
En puntos especficos del tiempo t el sistema se encuentra en una de un nmero finito de categoras o estados mutuamente excluyentes y exhaustivos, etiquetados 0,1,...,M

Si T es contable o finito, el proceso se denomina discreto. Si T es un subconjunto de los reales, el proceso se denomina continuo.

Ejemplo
Una tienda de cmaras tiene en almacn un modelo especial de cmara que puede ordenar cada semana. Sean D1 , D2 ,..., Dn , las demandas durante la primera, segunda y n-sima semana respectivamente. Sigue
1-9 1-10 Diseo: Andrs Gmez

Sigue
Diseo: Andrs Gmez

Se supone que las Di son variables aleatorias que tienen una distribucin de probabilidad conocida. X0 : Nmero de cmaras que se tiene al iniciar el proceso. Suponga que X0 = 0 X1 : Nmero de cmaras que se tiene al final de la semana 1. X2 : Nmero de cmaras que se tiene al final de la semana 2 Xn : Nmero de cmaras que se tiene al final de la semana n.
1-11 Diseo: Andrs Gmez

Suponga que el almacn utiliza una poltica de pedidos ( ,S), es decir siempre que en el nivel de s inventario sea menor que s , se ordenan hasta S unidades (S>s). Si el nivel de inventario es mayor o igual, no se ordena

La poltica dice que si el nmero de cmaras en inventario al final de la semana es menor que s=1 ordena hasta S=3. De otra manera no coloca la orden.
1-12 Diseo: Andrs Gmez

Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces { t} para X t=1,2,...,n es un proceso estocstico.

Las variables aleatorias Xt son dependientes y se pueden evaluar en forma iterativa por medio de la expresin.

El nmero posible de cmaras en inventario al final de la semana t son Max { ( 3 - Dt+1) , 0 } 0 1 2 3 Estados posibles del sistema Xt+1 = Max { ( Xt - Dt+1) , 0 } si Xt < 1 si Xt 1

1-13 Diseo: Andrs Gmez Diseo: Andrs Gmez

1-14

Ejemplo
Existe una regin donde se da lo siguiente P(llueva maana |llovi hoy) = P(llueva maana |no llovi hoy) =

Ejemplo
Un puerto de telecomunicaciones: P(error) = p Estado cero: El bit es 0 Estado uno: El bit es 1

Estado 0 : Llover Estado 1 : No llover

P=

0 1

1 1
0 1

P=

0 1 1

p
0

1 p

1-15 Diseo: Andrs Gmez Diseo: Andrs Gmez

1-16

Cadenas de Markov
Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionar en el futuro, dependen slo del estado actual en que se encuentra el proceso, y por lo tanto, son independientes de los eventos ocurridos en el pasado.

Si Xt = i , se dice que el proceso estocstico est en el estado i en el tiempo t. Llamemos Pij la probabilidad de estar en el estado j en el momento t+1, conocidos los estados anteriores Proceso Markoviano Pasado Presente

No Pasado Presente
Diseo: Andrs Gmez

Futuro Si
Veamos
1-17

Pij = P {Xt+1 = j / X0 = k0 , X1 = k1 ,..., Xt-1 = kt-1 ,Xt = i} Pij = P {Xt+1 = j / Xt = i}


1-18 Diseo: Andrs Gmez

Pij = P {Xt+1 = j / Xt = i}

Probabilidades condicionales para cada i y j

Se dice que las probabilidades de transicin (de un paso) son estacionarias, es decir no cambian con el tiempo. Esto tambin implica

Se llaman probabilidades de transicin . Si para cada i,j Pij = P {Xt+1 = j / Xt = i}= P {X1 = j / X0 = i} para toda t=0,1..
1-19 Diseo: Andrs Gmez

P {Xt+n = j / Xt = i}= P {Xn = j / X0 = i} para toda t=0,1..

Estas probabilidades se denotan Pij(n) y se llaman probabilidades de transicin de n pasos


1-20 Diseo: Andrs Gmez

Forma matricial
Pij(n) es simplemente la probabilidad condicional de que la variable aleatoria X, comenzando en el estado i se encuentre en el estado j despus de n pasos

Propiedades
Pij(n) 0 para toda i y j; n=0,1,..... para toda i ; n=0,1,.....

P ( n)

p00

(n )

pM 0

(n )

( n) p MM

p 0M

( n)

j=0

Pij(n) = 1

para n=0,1,.....
Se supondr que se conoce un conjunto de probabilidades iniciales P { X0 =1} para toda i
1-21 1-22 Diseo: Andrs Gmez

La suma de las filas P siempre es 1


Diseo: Andrs Gmez

Ejemplo
Retomemos el caso de las cmaras que se vena desarrollando. Observe que { t} es una cadena de X Markov
Recuerde que Xt es el nmero de cmaras en el almacn al final de la semana t (antes de recibir el pedido).

1 p10 P= 2 p20 3 p30


0 0 1 2 3

0 p00

p 01 p11 p 21 p 31
1

p 02 p12 p 22 p32
2

p 03 p13 p 23 p33
3
P00 es la probabilidad de tener 0 cmaras en inventario la prxima semana dado que esta semana tuve 0 cmaras
1-24

Veamos cmo obtener las probabilidades de transicin de un paso, es decir los elementos de la matriz de transicinde un paso (n=1) Veamos
Diseo: Andrs Gmez 1-23

Estados posibles del sistema

Diseo: Andrs Gmez

Supongamos que cada Dt tiene una distribucin Poisson con = 1


Recuerde que Dt son las demanda de cmaras en la semana t

Si Xt-1 = 0

Xt = Max { ( 3 - Dt+1) , 0 }

Xt = 0 indica que la demanda durante la semana fue de tres o ms cmaras

Para obtener P00 es necesario evaluar P {Xt = 0 / Xt-1 = 0}


Recuerde

Max { ( 3 - Dt+1) , 0 } Xt+1 = Max { ( Xt - Dt+1) , 0 }


Diseo: Andrs Gmez

si Xt < 1 si Xt 1
1-25

P00 = P { Dt 3 } = 1 - P { Dt 2 } = 0.08
Recuerde que Dt tiene una distribucin Poisson
1-26 Diseo: Andrs Gmez

P10 nos indica la probabilidad de tener en inventario 0 cmaras la prxima semana dado que sta tuve 1 cmara

P21 nos indica la probabilidad de tener en inventario 1 cmara la prxima semana dado que esta tuve 2 cmaras

P10 = P {Xt = 0 / Xt-1 = 1} Si Xt-1 = 1 Xt = Max { ( 1 - Dt) , 0 }

P21 = P {Xt = 1 / Xt-1 = 2} Si Xt-1 = 2 Xt = Max { ( 2 - Dt) , 0 }

Xt = 0 indica que la demanda durante la semana fue de 1 o ms cmaras

Xt = 1 indica que la demanda durante la semana fue exactamente 1 cmara

P10 = P { Dt 1 } = 1 - P { Dt = 0 } = 0.632
Diseo: Andrs Gmez

P21 = P { Dt = 1 } = 0.368
1-27 Diseo: Andrs Gmez 1-28

Similarmente obtenemos las otras probabilidades

Otros ejemplos
Consideremos el mercado de acciones.

0.080 0.632 P= 0.264 0.080

0.184 0.368 0.368 0 .368 0 0 0 .368 0.368 0 0.184 0.368 0.368

Si la accin subi hoy, la probabilidad de que suba maana es 0.7. Si la accin baj hoy, la probabilidad de que suba maana es 0.5.

Cadena de Markov donde los estados son: Matriz de transicinde un paso


1-29 Diseo: Andrs Gmez Diseo: Andrs Gmez

Estado 0 Estado 1

La accin sube La accin baja


1-30

Matriz de transicin

P=

S 0.7

0 .3 B 0 .5 0 .5
S B

Consideremos ahora el mismo mercado de acciones, slo que el que una accin suba o no maana, depende de si subi o no hoy y ayer. Estado 0 Estado 1 Estado 2 Estado 3 La accin subi ayer y hoy La accin baj ayer y subi hoy La accin subi ayer y baj hoy La accin baj ayer y hoy

P (accin suba maana / subi hoy) = 0.7 P (accin baje maana / subi hoy) = 0.3 P (accin suba maana / baj hoy) = 0.5 P (accin baje maana / baj hoy) = 0.5
1-31 Diseo: Andrs Gmez

1-32 Diseo: Andrs Gmez

P (accin suba maana / subi ayer y hoy ) =

0.9

P (accin suba maana / baj ayer y subi hoy ) = 0.6 P (accin suba maana / subi ayer y baj hoy) = 0.5 P (accin suba maana / baj ayer y hoy) = 0.3

Por ltimo consideremos el ejemplo del jugador. Suponga que un jugador tiene $1

Su probabilidad de ganar es p, y all gana $1 SS 0.9

Ayer y hoy

P=

0 0.1 0 BS 0.6 0 0.4 0 SB 0 0.5 0 0 .5


BB

0
SS

0 .3
BS

0
SB

0 .7
BB
1-33

Hoy y Maana

Su probabilidad de perder es 1- p, y all pierde $1

El juego termina cuando el jugador acumula $3 o bien cuando quiebra


1-34 Diseo: Andrs Gmez

Diseo: Andrs Gmez

Este modelo es una cadena de Markov y sus estados son: Estado 0 Estado 1 Estado 2 Estado 3 El jugador est quebrado El jugador tiene $1 El jugador tiene $ 2 El jugador tiene $ 3

Matriz de transicin

$1 1 p P= $2 0 $3 0
$0

$0

0 0 1 p 0
$1

0 p 0 0
$2

0 0 p 1
$3

1-35 Diseo: Andrs Gmez Diseo: Andrs Gmez

1-36

También podría gustarte