Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Proporcionar herramientas avanzadas en IO que le permitan al ingeniero estudiar y planificar sistemas complejos, en las reas de procesos de Markov, teora de colas, teora de toma de decisiones y teora de inventarios.
PROGRAMA RESUMIDO
1. Procesos de Markov. (diapositivas clases 1 a 6) 2. Teora de colas. (diapositivas clases 7 a 13) 3. Teora de inventarios (diapositivas clases 14 a 20) 4. Teora de decisiones (diapositivas clases 21 a 25)
1-1
1-2
BIBLIOGRAFIA
Programacin de evaluaciones.
1. Procesos de Markov. Examen y trabajo 2. Teora de colas. Examen y trabajo 3. Teora de decisiones. Examen y trabajo 4. Teora de Inventarios. Examen y trabajo
Los exmenes y trabajos se realizan en la clase una semana siguiente a la ltima clase de cada tema.
Texto Gua.
HILLIER, F.S Y LIEBERMAN G.J. Introduccin a la investigacin de Operaciones. 6 Ed. Mc Graw Hill. 1997.
1-3
1-4
OTRAS REFERENCIAS
DAVIS K Roscoe y MC KEOWN Patrick. Modelos cuantitativos para administracin. Grupo editorial Iberoamerica. 2 Ed. 1986. TAHA HANDY A. Investigacin de operaciones. Alfaomega. 5 Ed. 1995 Ross Sheldon. Introduction to probability models. Meyer. Introductory probability and statistical applications PRAWDA, Juan. Mtodos y modelos de Investigacin de operaciones. Limusa.
Clase # 1
Toma de decisiones
Incertidumbre
Definiciones bsicas
Espacio muestral : El conjunto de resultados de un experimento. Evento: muestral. Cualquier subconjunto del espacio
Si se presenta cierta regularidad en los fenmenos se puede minimizar la incertidumbre mediante el desarrollo de modelos probabilsticos.
Variable aleatoria: Es una funcin que asigna valores reales a los resultados de un experimento.
1-7
1-8
Si T es contable o finito, el proceso se denomina discreto. Si T es un subconjunto de los reales, el proceso se denomina continuo.
Ejemplo
Una tienda de cmaras tiene en almacn un modelo especial de cmara que puede ordenar cada semana. Sean D1, D2,..., Dn , las demandas durante la primera, segunda y n-sima semana respectivamente. Sigue
1-9 Diseo: Andrs Gmez 1-10
Sigue
Diseo: Andrs Gmez
Se supone que las Di son variables aleatorias que tienen una distribucin de probabilidad conocida. X0 : Nmero de cmaras que se tiene al iniciar el proceso. Suponga que X0 = 0 X1 : Nmero de cmaras que se tiene al final de la semana 1. X2 : Nmero de cmaras que se tiene al final de la semana 2 Xn : Nmero de cmaras que se tiene al final de la semana n.
Diseo: Andrs Gmez 1-11
Suponga que el almacn utiliza una poltica de pedidos (s,S), es decir siempre que en el nivel de inventario sea menor que s , se ordenan hasta S unidades (S>s). Si el nivel de inventario es mayor o igual, no se ordena
La poltica dice que si el nmero de cmaras en inventario al final de la semana es menor que s=1 ordena hasta S=3. De otra manera no coloca la orden.
Diseo: Andrs Gmez 1-12
Se supone que las ventas se pierden cuando la demanda excede el inventario. Entonces {Xt} para t=1,2,...,n es un proceso estocstico.
Las variables aleatorias Xt son dependientes y se pueden evaluar en forma iterativa por medio de la expresin.
El nmero posible de cmaras en inventario al final de la semana t son 0 1 2 3 Estados posibles del sistema Xt+1 =
si Xt < 1 si Xt 1
1-13
1-14
Ejemplo
Existe una regin donde se da lo siguiente P(llueva maana |llovi hoy) = P(llueva maana |no llovi hoy) =
Ejemplo
Un puerto de telecomunicaciones: P(error) = p Estado cero: El bit es 0 Estado uno: El bit es 1
P=
1 1 1
0 0 1
P=
0 1
p 1 p p 1 p
0 1
1-16
1-15
Cadenas de Markov
Las cadenas de Markov tienen la propiedad particular de que las probabilidades que describen la forma en que el proceso evolucionar en el futuro, dependen slo del estado actual en que se encuentra el proceso, y por lo tanto, son independientes de los eventos ocurridos en el pasado.
Si Xt = i , se dice que el proceso estocstico est en el estado i en el tiempo t. Llamemos Pij la probabilidad de estar en el estado j en el momento t+1, conocidos los estados anteriores Proceso Markoviano Pasado Presente
No Pasado Presente
Diseo: Andrs Gmez
Futuro Si
Veamos
1-17
Pij = P {Xt+1 = j / Xt = i}
Se dice que las probabilidades de transicin (de un paso) son estacionarias, es decir no cambian con el tiempo. Esto tambin implica
Se llaman probabilidades de transicin . Si para cada i,j Pij = P {Xt+1 = j / Xt = i}= P {X1 = j / X0 = i} para toda t=0,1..
Diseo: Andrs Gmez 1-19
Pij(n) es simplemente la probabilidad condicional de que la variable aleatoria X, comenzando en el estado i se encuentre en el estado j despus de n pasos
Forma matricial
Propiedades
Pij(n) 0 para toda i y j; n=0,1,..... para toda i ; n=0,1,.....
P (n)
p00 ( n ) = p (n) M0
para n=0,1,.....
(n) pMM p0 M
(n)
j=0
Pij(n) = 1
Ejemplo
Retomemos el caso de las cmaras que se vena desarrollando. Observe que {Xt} es una cadena de Markov
Recuerde que Xt es el nmero de cmaras en el almacn al final de la semana t (antes de recibir el pedido).
P=
1 2 3
Veamos cmo obtener las probabilidades de transicin de un paso, es decir los elementos de la matriz de transicin de un paso (n=1) Veamos
Diseo: Andrs Gmez 1-23
0 1 2 3
Si Xt = 0
Xt+1 = 0 indica que la demanda durante la semana fue de tres o mas cmaras
Xt+1 =
si Xt < 1 si Xt 1
1-25
P10 nos indica la probabilidad de tener en inventario 0 cmaras la prxima semana dado que sta tuve 1 cmara
P21 nos indica la probabilidad de tener en inventario 1 cmara la prxima semana dado que esta tuve 2 cmaras
1-27
1-28
Otros ejemplos
Consideremos el mercado de acciones.
Si la accin subi hoy, la probabilidad de que suba maana es 0.7. Si la accin baj hoy, la probabilidad de que suba maana es 0.5.
Estado 0 Estado 1
Matriz de transicin
Consideremos ahora el mismo mercado de acciones, slo que el que una accin suba o no maana, depende de si subi o no hoy y ayer. Estado 0 Estado 1 Estado 2 Estado 3 La accin subi ayer y hoy La accin baj ayer y subi hoy La accin subi ayer y baj hoy La accin baj ayer y hoy
1-32
0.9
P (accin suba maana / baj ayer y subi hoy ) = 0.6 P (accin suba maana / subi ayer y baj hoy) = 0.5 P (accin suba maana / baj ayer y hoy) = 0.3
Por ltimo consideremos el ejemplo del jugador. Suponga que un jugador tiene $1
Ayer y hoy
Su probabilidad de ganar es p, y all gana $1 Hoy y Maana Su probabilidad de perder es 1- p, y all pierde $1
1-33
Este modelo es una cadena de Markov y sus estados son: Estado 0 Estado 1 Estado 2 Estado 3 El jugador est quebrado El jugador tiene $1 El jugador tiene $ 2 El jugador tiene $ 3
Matriz de transicin
0 1 1 p 0 $1 P= $2 0 1 p $3 0 0
$0 $0 $1
0 p 0 0
$2
0 0 p 1
$3
1-35
1-36