Está en la página 1de 7

Alumno:

Estrella Morales Jesús

TecNM/ITH

Carrera:

Ingeniería Industrial

Materia:

Investigación de operaciones 2

Docente:

Alberto Arenas

Actividad:

E3T1 investigación
Las cadenas de Márkov

son procesos estocásticos en los que el pasado afecta al futuro solo a través
del presente. Aunque esta frase pueda parecernos sorprendente o
incomprensible a priori, notaremos como, a medida que vayamos leyendo
este trabajo, cobrará más y más sentido. En este capítulo, nos centraremos en
explicar la notación que usaremos a lo largo del trabajo, definir las cadenas
de Márkov, y exponer diferentes proposiciones, teoremas y conceptos sobre
ellas, que nos servirán para abordar mejor el tema principal que trataremos
en el capítulo posterior.

Probabilidad de transiciones estacionarias de n pasos

Las ecuaciones proporcionan un método para calcular estas probabilidades


de transición de n pasos y estas ecuaciones simplemente señalan que al ir de
un estado i al estado j en n pasos, el proceso estará en algún estado k
después de exactamente m (menor que n) pasos.
pero también debe de observarse que estos elementos. Para valores no muy
grandes de n, la matriz de transición de n pasos se puede calcular en la forma
que se acaba de describir, pero cuando n es grande, tales cálculos resultan
tediosos y, más aún, los errores de redondeo pueden causar inexactitudes.

Ejemplo
Una tienda de cámaras tiene en almacén un modelo especial de cámara que
se puede ordenar cada semana. Sean D1, D2, … las demandas de esta cámara
durante la primera, segunda, … , semana, respectivamente.
Se supone que las Di son variables aleatorias independientes e idénticamente
distribuidas que tienen una distribución de probabilidad conocida.
Sea X0 el número de cámaras que se tiene en el momento de iniciar el
proceso, X1 el número de cámaras que se tienen al final de la semana uno, X2
el número de cámaras al final de la semana dos, etc.
Suponga que X0 = 3 . El sábado en la noche la tienda hace un pedido que le
entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido
que le entregan el lunes en el momento de abrir la tienda. La tienda usa la
siguiente política ( s, S)1 para ordenar : si el número de cámaras en inventario
al final de la semana es menor que s =1 (no hay cámaras en la tienda),
ordenar (hasta) S=3.
De otra manera, no coloca la orden (si se cuenta con una o más cámaras en el
almacén, no se hace el pedido). Se supone que las ventas se pierden cuando
la demanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso
estocástico de la forma que se acaba de describir. Los estados posibles del
proceso son los enteros 0, 1, 2, 3 que representan el número posible de
cámaras en inventario al final de la semana.
Así, dado que tiene una cámara al final de una semana, la probabilidad de
que no haya cámaras en inventario dos semanas después es 0.283; es decir,
De igual manera, dado que se tienen dos cámaras al final de una semana, la
probabilidad de que haya tres cámaras en el almacén dos semanas después
es 0.097
Probabilidades de transición estacionaria de estados
estables.

Sea P la matriz de transición de una cadena de M estados. Existe entonces un


vector tal que Se establece que para cualquier estado inicial i , .
El vector a menudo se llama distribución de estado estable, o también
distribución de equilibrio para la cadena de Markov.
Para encontrar la distribución de probabilidades de estacionario para una
cadena dada cuya matriz de transición es P, según el teorema, para n grande y
para toda i , (1) Como Pij (n + 1) = ( renglón i de Pn )(columna j de P),
podemos escribir (2)

Ejemplo
Suponga que toda la industria de refrescos produce dos colas. Cuando una
persona ha comprado la cola 1, hay una probabilidad de 90 % de que su
siguiente compra se de cola 1. Si una persona compró cola 2, hay un 80 % de
probabilidades que su próxima compra sea de cola 2.
Entonces:
Al reemplazar la segunda ecuación por la condición, Obtenemos el sistema Al
despejar resulta que, Por lo tanto, después de largo tiempo, hay probabilidad
2/3 de que una persona dada compre cola 1 y 1/3 de probabilidad de que una
persona compre cola 2.
Cadenas de Márkov absorbentes
definición 9. Un estado i de una cadena de Markov se dice absorbente si es
imposible abandonarlo (e.d. pii = 1). Es, por tanto, un tipo particular de
estado recurrente.
Una cadena de Markov se dice absorbente si posee al menos un estado
absorbente y desde cada estado es posible llegar al estado absorbente (no
necesariamente en un paso).
Se puede ver que, en una cadena absorbente, todos los estados que no son
absorbentes son transitorios.
Ejemplo
Supongamos el caso de la ruina del jugador. Este juega a un juego que tiene
probabilidad 1/2 de ganar un d´olar y probabilidad 1/2 de perderlo. Para
cuando se quede sin dinero o cuando alcance 4 dólares.
La matriz de transición es:

Desde cualquiera de los estados 1, 2 y 3 es posible alcanzar en un numero


finito de pasos los estados absorbentes 0 y 4. Por tanto, la cadena es
absorbente. Los estados 1, 2 y 3 son transitorios.
Uso de software (Edraw)
Es una increíble herramienta de diagramación de árboles de eventos:

Edraw es lo suficientemente flexible como para ser utilizado como un programa


genérico para dibujar casi cualquier tipo de diagrama, incluyendo la cadena de
Markov. Tras años de mejoras e innovaciones, el proceso se ha simplificado
para facilitar su uso en la generación de cadenas de Markov y otros diagramas.
La interfaz es moderna y da una sensación de MS Office, lo que les permite a los
nuevos usuarios empezar en minutos. Solo con unos pocos clics puedes
agregar formas, bloques de texto, aplicar colores y organizar los diseños para
terminar una cadena de Markov. Al terminar, puedes exportar el archivo a PDF,
PPT, Word y muchos otros formatos de archivo comunes.
Requisitos del sistema
Funciona en Windows 7, 8, 10, XP, Vista y 11

Funciona en Windows de 32 y 64 bits

Funciona en Mac OS X 10.2 o posterior

Un modelo de cadena de Markov


Aquí tienes una plantilla de cadena de Markov creada con Edraw. Haz
clic en la imagen para ir a la página de descarga. Es necesario utilizar
Edraw para abrir y editar esta plantilla.

Cómo conectar formas Creador de diagramas de fallos

Cómo crear un árbol de decisiones


BIBLIOGRAFIA
• https://dspace.uib.es/xmlui/bitstream/handle/11201/151803/Memori
a_EPSU0697.pdf?sequence=1&isAllowed=y
• https://isidavila.files.wordpress.com/2012/06/cadenas-de-markov.pdf
• https://www.unirioja.es/cu/franpere/ModyOptfiles/Tema6.pdf
• https://www.edrawsoft.com/es/markov-chain-maker.html

También podría gustarte