Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Proporcionar herramientas avanzadas en IO que le permitan al ingeniero estudiar y planificar sistemas complejos, en las reas de procesos de Markov, teora de colas, teora de toma de decisiones y teora de inventarios.
PROGRAMA RESUMIDO
1. Procesos de Markov. 2. Teora de colas. 3. Teora de decisiones. 4. Teora de Inventarios
1-1
1-2
BIBLIOGRAFIA
Programacin de evaluaciones.
1. Procesosde Markov. Examen y trabajo 2. Teora de colas. Examen y trabajo 3. Teora de decisiones. Examen y trabajo 4. Teora de Inventarios. Examen y trabajo Texto Gua.
HILLIER, F.S Y LIEBERMAN G.J. Introduccin a la investigacin de Operaciones. 6 Ed. Mc Graw Hill. 1997. En Internet: http:minas.unalmed.edu.cocursoss4040s4040.html
1-3
1-4
OTRAS REFERENCIAS
DAVIS K Roscoe y MC KEOWN Patrick. Modelos cuantitativos para administracin. Grupo editorial Iberoamerica. 2 Ed. 1986. TAHA HANDY A. Investigacin de operaciones. Alfaomega. 5 Ed. 1995 Ross Sheldon. Introduction to probability models. Meyer. Introductory probability and statistical applications PRAWDA, Juan. Mtodos y modelos de Investigacin de operaciones. Limusa.
Clase # 1
Si se presenta cierta regularidad en los fenmenos se puede minimizar la incertidumbre mediante el desarrollo de modelos probabilsticos.
Variable aleatoria: Es una funcin que asigna valores reales a los resultados de un experimento.
1-8
Si T es contable o finito, el proceso se denomina discreto. Si T es un subconjunto de los reales, el proceso se denomina continuo.
Ejemplo
Una tienda de cmaras tiene en almacn un modelo especial de cmara que puede ordenar cada semana. Sean D1 , D2 ,..., Dn , las demandas durante la primera, segunda y n-sima semana respectivamente. Sigue
1-9 1-10 Diseo: Andrs Gmez
Sigue
Diseo: Andrs Gmez
Se supone que las Di son variables aleatorias que tienen una distribucin de probabilidad conocida. X0 : Nmero de cmaras que se tiene al iniciar el proceso. Suponga que X0 = 0 X1 : Nmero de cmaras que se tiene al final de la semana 1. X2 : Nmero de cmaras que se tiene al final de la semana 2 Xn : Nmero de cmaras que se tiene al final de la semana n.
1-11 Diseo: Andrs Gmez
Suponga que el almacn utiliza una poltica de pedidos ( ,S), es decir siempre que en el nivel de s inventario sea menor que s , se ordenan hasta S unidades (S>s). Si el nivel de inventario es mayor o igual, no se ordena
La poltica dice que si el nmero de cmaras en inventario al final de la semana es menor que s=1 ordena hasta S=3. De otra manera no coloca la orden.
1-12 Diseo: Andrs Gmez
Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces { t} para X t=1,2,...,n es un proceso estocstico.
Las variables aleatorias Xt son dependientes y se pueden evaluar en forma iterativa por medio de la expresin.
El nmero posible de cmaras en inventario al final de la semana t son Max { ( 3 - Dt+1) , 0 } 0 1 2 3 Estados posibles del sistema Xt+1 = Max { ( Xt - Dt+1) , 0 } si Xt < 1 si Xt 1
1-14
Ejemplo
Existe una regin donde se da lo siguiente P(llueva maana |llovi hoy) = P(llueva maana |no llovi hoy) =
Ejemplo
Un puerto de telecomunicaciones: P(error) = p Estado cero: El bit es 0 Estado uno: El bit es 1
P=
0 1
1 1
0 1
P=
0 1 1
p
0
1 p
1-16
Cadenas de Markov
Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionar en el futuro, dependen slo del estado actual en que se encuentra el proceso, y por lo tanto, son independientes de los eventos ocurridos en el pasado.
Si Xt = i , se dice que el proceso estocstico est en el estado i en el tiempo t. Llamemos Pij la probabilidad de estar en el estado j en el momento t+1, conocidos los estados anteriores Proceso Markoviano Pasado Presente
No Pasado Presente
Diseo: Andrs Gmez
Futuro Si
Veamos
1-17
Pij = P {Xt+1 = j / Xt = i}
Se dice que las probabilidades de transicin (de un paso) son estacionarias, es decir no cambian con el tiempo. Esto tambin implica
Se llaman probabilidades de transicin . Si para cada i,j Pij = P {Xt+1 = j / Xt = i}= P {X1 = j / X0 = i} para toda t=0,1..
1-19 Diseo: Andrs Gmez
Forma matricial
Pij(n) es simplemente la probabilidad condicional de que la variable aleatoria X, comenzando en el estado i se encuentre en el estado j despus de n pasos
Propiedades
Pij(n) 0 para toda i y j; n=0,1,..... para toda i ; n=0,1,.....
P ( n)
p00
(n )
pM 0
(n )
( n) p MM
p 0M
( n)
j=0
Pij(n) = 1
para n=0,1,.....
Se supondr que se conoce un conjunto de probabilidades iniciales P { X0 =1} para toda i
1-21 1-22 Diseo: Andrs Gmez
Ejemplo
Retomemos el caso de las cmaras que se vena desarrollando. Observe que { t} es una cadena de X Markov
Recuerde que Xt es el nmero de cmaras en el almacn al final de la semana t (antes de recibir el pedido).
0 p00
p 01 p11 p 21 p 31
1
p 02 p12 p 22 p32
2
p 03 p13 p 23 p33
3
P00 es la probabilidad de tener 0 cmaras en inventario la prxima semana dado que esta semana tuve 0 cmaras
1-24
Veamos cmo obtener las probabilidades de transicin de un paso, es decir los elementos de la matriz de transicinde un paso (n=1) Veamos
Diseo: Andrs Gmez 1-23
Si Xt-1 = 0
Xt = Max { ( 3 - Dt+1) , 0 }
si Xt < 1 si Xt 1
1-25
P00 = P { Dt 3 } = 1 - P { Dt 2 } = 0.08
Recuerde que Dt tiene una distribucin Poisson
1-26 Diseo: Andrs Gmez
P10 nos indica la probabilidad de tener en inventario 0 cmaras la prxima semana dado que sta tuve 1 cmara
P21 nos indica la probabilidad de tener en inventario 1 cmara la prxima semana dado que esta tuve 2 cmaras
P10 = P { Dt 1 } = 1 - P { Dt = 0 } = 0.632
Diseo: Andrs Gmez
P21 = P { Dt = 1 } = 0.368
1-27 Diseo: Andrs Gmez 1-28
Otros ejemplos
Consideremos el mercado de acciones.
Si la accin subi hoy, la probabilidad de que suba maana es 0.7. Si la accin baj hoy, la probabilidad de que suba maana es 0.5.
Estado 0 Estado 1
Matriz de transicin
P=
S 0.7
0 .3 B 0 .5 0 .5
S B
Consideremos ahora el mismo mercado de acciones, slo que el que una accin suba o no maana, depende de si subi o no hoy y ayer. Estado 0 Estado 1 Estado 2 Estado 3 La accin subi ayer y hoy La accin baj ayer y subi hoy La accin subi ayer y baj hoy La accin baj ayer y hoy
P (accin suba maana / subi hoy) = 0.7 P (accin baje maana / subi hoy) = 0.3 P (accin suba maana / baj hoy) = 0.5 P (accin baje maana / baj hoy) = 0.5
1-31 Diseo: Andrs Gmez
0.9
P (accin suba maana / baj ayer y subi hoy ) = 0.6 P (accin suba maana / subi ayer y baj hoy) = 0.5 P (accin suba maana / baj ayer y hoy) = 0.3
Por ltimo consideremos el ejemplo del jugador. Suponga que un jugador tiene $1
Ayer y hoy
P=
0
SS
0 .3
BS
0
SB
0 .7
BB
1-33
Hoy y Maana
Este modelo es una cadena de Markov y sus estados son: Estado 0 Estado 1 Estado 2 Estado 3 El jugador est quebrado El jugador tiene $1 El jugador tiene $ 2 El jugador tiene $ 3
Matriz de transicin
$1 1 p P= $2 0 $3 0
$0
$0
0 0 1 p 0
$1
0 p 0 0
$2
0 0 p 1
$3
1-36