Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TecNM/ITH
Carrera:
Ingeniería Industrial
Materia:
Investigación de operaciones 2
Docente:
Alberto Arenas
Actividad:
E3T1 investigación
Las cadenas de Márkov
son procesos estocásticos en los que el pasado afecta al futuro solo a través
del presente. Aunque esta frase pueda parecernos sorprendente o
incomprensible a priori, notaremos como, a medida que vayamos leyendo
este trabajo, cobrará más y más sentido. En este capítulo, nos centraremos en
explicar la notación que usaremos a lo largo del trabajo, definir las cadenas
de Márkov, y exponer diferentes proposiciones, teoremas y conceptos sobre
ellas, que nos servirán para abordar mejor el tema principal que trataremos
en el capítulo posterior.
Ejemplo
Una tienda de cámaras tiene en almacén un modelo especial de cámara que
se puede ordenar cada semana. Sean D1, D2, … las demandas de esta cámara
durante la primera, segunda, … , semana, respectivamente.
Se supone que las Di son variables aleatorias independientes e idénticamente
distribuidas que tienen una distribución de probabilidad conocida.
Sea X0 el número de cámaras que se tiene en el momento de iniciar el
proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2
el número de cámaras al final de la semana dos, etc.
Suponga que X0 = 3 . El sábado en la noche la tienda hace un pedido que le
entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido
que le entregan el lunes en el momento de abrir la tienda. La tienda usa la
siguiente política ( s, S)1 para ordenar : si el número de cámaras en inventario
al final de la semana es menor que s =1 (no hay cámaras en la tienda),
ordenar (hasta) S=3.
De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el
almacén, no se hace el pedido). Se supone que las ventas se pierden cuando
la demanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso
estocástico de la forma que se acaba de describir. Los estados posibles del
proceso son los enteros 0, 1, 2, 3 que representan el número posible de
cámaras en inventario al final de la semana.
Así, dado que tiene una cámara al final de una semana, la probabilidad de
que no haya cámaras en inventario dos semanas después es 0.283; es decir,
De igual manera, dado que se tienen dos cámaras al final de una semana, la
probabilidad de que haya tres cámaras en el almacén dos semanas después
es 0.097
Probabilidades de transición estacionaria de estados
estables.
Ejemplo
Suponga que toda la industria de refrescos produce dos colas. Cuando una
persona ha comprado la cola 1, hay una probabilidad de 90 % de que su
siguiente compra se de cola 1. Si una persona compró cola 2, hay un 80 % de
probabilidades que su próxima compra sea de cola 2.
Entonces:
Al reemplazar la segunda ecuación por la condición, Obtenemos el sistema Al
despejar resulta que, Por lo tanto, después de largo tiempo, hay probabilidad
2/3 de que una persona dada compre cola 1 y 1/3 de probabilidad de que una
persona compre cola 2.
Cadenas de Márkov absorbentes
definición 9. Un estado i de una cadena de Markov se dice absorbente si es
imposible abandonarlo (e.d. pii = 1). Es, por tanto, un tipo particular de
estado recurrente.
Una cadena de Markov se dice absorbente si posee al menos un estado
absorbente y desde cada estado es posible llegar al estado absorbente (no
necesariamente en un paso).
Se puede ver que, en una cadena absorbente, todos los estados que no son
absorbentes son transitorios.
Ejemplo
Supongamos el caso de la ruina del jugador. Este juega a un juego que tiene
probabilidad 1/2 de ganar un d´olar y probabilidad 1/2 de perderlo. Para
cuando se quede sin dinero o cuando alcance 4 dólares.
La matriz de transición es: