Está en la página 1de 21

INSTITUTO TECNOLOGICO NACIONAL DE MEXICO

INSTITUTO TECNOLOGICO DE MERIDA

INGENIERIA INDUSTRIAL

INVESTIGACION DE OPERACIONES II

EQUIPO #4

2.- Castillo Cambranis Victor Ubaldo E17080364

3.- Méndez Lara William Eliezer E17080394

4.- Uitz Madera Cristian Angélica E16081992


Contenido
INTRODUCCION .................................................................................................... 3
A) ASPECTOS FUNDAMENTALES DE LAS CADENAS DE MARKOV EN LA
VIDA REAL.............................................................................................................. 4
B)DEFINICION DE LAS CADENAS DE MARKOV.................................................. 5
C) LOS ESTADOS DE LA NATURALEZA Y DE LOS SISTEMAS EN LA VIDA
REAL ....................................................................................................................... 6
D) VENTAJAS Y DEVENTAJAS DE SU APLICACION ......................................... 12
E) CARACTERISTICAS BASICAS DE LAS CADENAS DE MARKOV ................. 13
G) EJEMPLOS REALES DE APLICACIÓN DE LAS CADENAS DE MARKOV .... 16
CONCLUSION Y COMENTARIOS: ...................................................................... 20
BIBLIOGRAFIAS ................................................................................................... 21
INTRODUCCION

Dentro de esta investigación se planteó el objetivo de definir cada uno de los


conceptos que integran el análisis de Markov, comenzando desde los más básicos
hasta los más complejos, al igual el por qué es llamado así a dicho estudio, dándole
este nombre por su autor (Markov) en este documento se plasma acerca de su
biografía, así como todos sus logros que ejecutó.
En las cadenas de Márkov considera ciertos puntos discretos en el tiempo para toma
valores de la variable aleatoria que caracteriza al sistema. Entonces las cadenas de
Márkov se usan para estudiar ciertos comportamientos de largo y cortos plazos de
sistemas.
Los estados en el tiempo representan situaciones exhaustivas y mutuamente
excluyentes del sistema en un tiempo específico. Además, el número de estado
puede ser finito o infinito.
Por lo general una cadena de Márkov describe el comportamiento de transición de
un sistema en intervalos de tiempo igualmente espaciados. Sin embargo, existen
situaciones donde los espaciamientos temporales dependen de las características
del sistema y por ello, pueden no ser iguales entre sí.
Las cadenas de Markov se pueden aplicar en áreas como la educación,
comercialización, servicios de salud, finanzas, contabilidad y producción.
A) ASPECTOS FUNDAMENTALES DE LAS CADENAS DE MARKOV EN LA
VIDA REAL

Una cadena de Márkov consta de unos estados E1 E2 E3 E4…..En. que


inicialmente en un tiempo 0 o paso 0 se le llama estado inicial, además de esto
consta de una matriz de transición que significa la posibilidad de que se cambie de
estado en un próximo tiempo o paso.
Los procesos de paseo aleatorio en realidad son un caso particular de procesos
más generales que son las cadenas de Markov. En esencia, una cadena es un
proceso en tiempo discreto en el que una variable aleatoria Xn va cambiando con el
paso del tiempo. Las cadenas de Markov tienen la propiedad de que la probabilidad
de que Xn = j sólo depende del estado inmediatamente anterior del sistema: Xn−1.
Cuando en una cadena dichas probabilidades no dependen del tiempo en que se
considere, n,

P (Xn = j | Xn−1 = i)

Una aplicación interesante de procesos de Markov que yo conozco es la industria


costera noruega del petroleo/gas. En Noruega un cuerpo estatal, el Consejo de
administración de Petróleo noruego, (junto con la compañía de aceite estatal
noruega (STATOIL)), tienen un papel grande en la planeación de los medios para
el desarrollo costero del petroleo/gas.
El problema esencial que el Consejo de la administración del Petróleo noruego
tiene, es cómo planear la producción para aumentar al máximo su contribución en
el tiempo a la economía noruega. Aquí los horizontes de tiempo son muy largos,
típicamente 30 a 50 años. De importancia crítica es el precio del aceite - todavía
nosotros no podemos prever esto, sensiblemente con exactitud, para esta horizonte
de planeación.
Para superar este problema ellos modelan el precio del aceite como un proceso de
Markov con tres niveles de precio (estados), correspondiendo a escenarios
optimista, probable y pesimista. Ellos también especifican las probabilidades de
hacer una transición entre los estados cada periodo de tiempo (año). Pueden usarse
matrices de transición diferentes para horixzontes de tiempo diferentes ( matrices
diferentes para el cercano, medio y futuro lejano).
Aunque éste simplemente es un enfoque simple, tiene la ventaja de capturar la
incertidumbre sobre el futuro en un modelo que es relativamente fácil de entender y
aplicar.
Estudios sobre el modelado de la población (donde nosotros tenemos objetos con
"edad") también son una aplicación interesante de procesos de Markov.
Un ejemplo de esto sería el modelado el mercado del automóvil como un proceso
de Markov para prever la "necesidad" de nuevos automóviles cuando los
automóviles viejos puedan extínguirse.
Otro ejemplo sería modelar el progreso clínico de un paciente en hospital como un
proceso de Markov y ver cómo su progreso es afectado por régimenes de droga
diferentes.

B)DEFINICION DE LAS CADENAS DE MARKOV


Una cadena o modelo de Markov es una herramienta para analizar procesos en que
la sucesión de variables aleatorias evoluciona en función de otra variable. Dichas
variables o conjunto de variables que tienen efectos aleatorios reciben el nombre de
proceso estocástico. La inserción de este método a las matemáticas se le atribuye
a Andrei Andreyevich Markov. Una cadena de Markov es una secuencia X1, X2, X3
de variables aleatorias. El valor de Xn es el estado del proceso en el tiempo n. De
esta manera se obtiene la propiedad markoviana:

¿QUIÉN FUE ANDREI MARKOV ANDREYEVICH?


Andrei Markov Andreyevich nació el 2 de junio de 1856 en Riazán, Rusia. Markov
fue uno de los más famosos discípulos de Chebyshev y sus ideas se basaban en
representar la probabilidad como una ciencia matemática exacta y práctica. La
introducción de la cadena de Markov como un modelo para el estudio de variables
aleatorias fue uno de los aportes más representativos a las matemáticas. Markov
también escribió un libro de texto de estadística y probabilidad. Su obra influyó en
muchos otros famosos matemáticos y estadísticos, incluyendo SN Bernstein,
Romanovsky VI, y Jerzy Neyman. Después de contribuir en gran medida a la teoría
de números, análisis, cálculo de diferencias finitas, teoría de la probabilidad (con las
cadenas de Markov) y las estadísticas, murió en Petrogrado (San Petersburgo
antes, ahora Leningrado), el 20 de julio de 1922.

C) LOS ESTADOS DE LA NATURALEZA Y DE LOS SISTEMAS EN LA VIDA


REAL
Estados
Los estados son la caracterización de la situación en que se halla el sistema en un
instante dado, de dicha caracterización puede ser tanto cuantitativa como
cualitativa.
El estado de un sistema en un instante t es una variable cuyos valores solo pueden
pertenecer al conjunto de estaos en el sistema. El sistema modelizado por la
cadena, por lo tanto, es una variable que cambia con el valor del tiempo, cambio al
que llamamos transición.

Matriz de transición
Una matriz de transición es el arreglo numérico donde se encuentran las
probabilidades de un estado a otro. Dicha matriz es cuadrada con tantas filas y
columnas como estados que tiene el sistema, y los elementos de matriz representan
la probabilidad de que el estado próximo sea el correspondiente a la columna si el
estado actual es el correspondiente a la fila. La matriz debe cumplir con ciertos
requisitos: La suma de las probabilidades de los estados debe ser igual a 1, la
matriz de transición debe ser cuadrada y las probabilidades de transición deben
estar entre 0 y 1.
Distribución actual (Vector Po): Es la manera en la que se distribuyen las
probabilidades de los estados en un periodo inicial, (periodo 0). Esta información te
permitirá averiguar cual será la distribución en periodos posteriores.

Estado estable: Se puede decir que el estado estable es la distribución de


probabilidades que en cierto punto quedará fija para el vector P y no presentará
cambios en periodos posteriores.
ESTADO ABSORBENTE

Previamente hablamos de estado estable, ahora procederemos a explicar otra clase


de estado, el absorbente.
Definición:
Estado cuya única transición posible es volver al mismo estado. Un estado
absorbente constituye una clase final de un único estado.
En otras palabras un estado absorbente es aquel del que no se puede salir una vez
se haya caído en él, es decir la probabilidad de permanecer en el mismo es de 100%
.Por ejemplo si expresáramos la vida como una cadena de markov, con la serie de
estados: nacer, crecer, reproducirse y morir; la muerte sería obviamente el estado
absorbente ya que no existe la posibilidad alguna de volver a un estado anterior.
D) VENTAJAS Y DEVENTAJAS DE SU APLICACION

Ventajas:
1. Cualquier problema para el que puede obtenerse un diagrama de transición
de estado y que usa el enfoque dado puede analizarse.
2. Teoría de Markov es simple de aplicar y entender.
3. Cálculos de sensibilidad (contestar las preguntas "qué-si") se llevan a cabo
fácilmente.
4. La teoría de Markov nos da con el tiempo una visión de los cambios en el
sistema.
5. P puede ser dependiente del estado actual del sistema. Si P es dependiente
tanto del tiempo y del estado actual del sistema i.e., P es una función de t y
st, entonces la ecuación de Markov básica se vuelve st=st-1P(t-1,st-1).
6. La teoría de Markov es un modelo simplificado de un proceso de toma de
decisión complejo.

Desventajas:
· No existe un conjunto de soluciones cerrado.
· Cada cambio en las variables de entrada requiere una solución separada o
conjunto de ejecuciones.
· Los modelos de simulación complejos pueden requerir mucho tiempo para
construirlos y ejecutarlos.

E) CARACTERISTICAS BASICAS DE LAS CADENAS DE MARKOV


Irreductibilidad
· En una cadena de Markov un estado ej se dice que es accesible desde
otro estado ei si la probabilidad de ir desde el estado e i al ej en algún
momento futuro es distinta de cero.
· Un estado ei está comunicado con otro ej si ej es accesible desde ei y
ei lo es desde ej.
· Una cadena de Markov se dice que es irreducible si todos los estados
están comunicados entre sí.
Absorbencia
· Un estado ej se dice absorbente si es imposible abandonar dicho estado,
es decir
P(Xk= ej½Xk-1= ej) = 1.
· Una cadena de Markov es absorbente si tiene algún estado absorbente.
· Si una cadena de Markov es irreducible y absorbente entonces la
probabilidad de caer en alguno de los estados absorbentes tiende a
uno cuando el número de etapas tiende a infinito.
Regularidad
· Una cadena de Markov se dice que es regular si alguna potencia de la
matriz de transición tiene todos sus elementos positivos (no hay ceros)
· Si una cadena es regular entonces es irreducible y no absorbente.
F) FORMULACION DE PROBLEMAS DE PROBLEMAS DE APLICACIÓN
El departamento de estudios de mercado de una fábrica estima que el 20% de la
gente que compra un producto un mes, no lo comprará el mes siguiente. Además,
el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente. En una
población de 1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos
lo comprarán al mes próximo? ¿Y dentro de dos meses?
Solución: Para resolver este tipo de problemas, lo primero es hacer un esquema.
A la vista del esquema podemos pasar a construir la matriz de probabilidades de
transición:
Cálculo: con esa información construimos la matriz 2x2. P(0) representa la situación:

EJEMPLO 2:
En una población de 10,000 habitantes, 5000 no fuman, 2500 fuman uno o
menos de un paquete diario y 2500 fuman más de un paquete diario. En un
mes hay un 5% de probabilidad de que un no fumador comience a fumar un
paquete diario, o menos, y un 2% de que un no fumador pase a fumar más de
un paquete diario. Para los que fuman un paquete, o menos, hay un 10% de
probabilidad de que dejen el tabaco, y un 10% de que pasen a fumar más de un
paquete diario. Entre los que fuman más de un paquete, hay un 5% de
probabilidad de que dejen el tabaco y un 10% de que pasen a fumar un
paquete, o menos. ¿Cuántos individuos habrá de cada clase el próximo mes?
SOLUCION:
NF= No fuman
FC= fuman uno o menos de
un paquete diarios
FCC= fuman más de un
paquete diario.

G) EJEMPLOS REALES DE APLICACIÓN DE LAS CADENAS DE MARKOV


En un país como Colombia existen 3 operadores principales de telefonía móvil como
Suponga que en el mercado se consiguen 3 tipos de gaseosas colas que son: coca
cola, Pepsi cola y big cola cuando una persona a comprado coca cola existe una
probabilidad de que la siga consumiendo de el 75%, un 15% de que compre Pepsi
cola y un 10% de que compre big cola; cuando el comprador actualmente consume
Pepsi existe una probabilidad de que la siga comprando de 60%, un 25% que
compre coca cola y un 15% big cola; si en la actualidad consuma big cola la
probabilidad de que la siga consumiendo es del 50%, un 30% que compre coca cola
y 205 pepsi cola.
En la actualidad cada marca cocacola, Pepsi y big cola tienen los siguientes
porcentajes en participación en el mercado respectivamente (60% 30% 10%)
Elaborar la matriz de transición
Hallar la probabilidad que tiene cada marca en el periodo 5

Matriz de transición
NOTA: estos ejercicios se pueden realizar en Excel utilizando la función de
multiplicar matrices.
CONCLUSION Y COMENTARIOS:

Como conclusión las cadenas de Markov nos permite hacer análisis sobre el estudio
de los comportamientos de ciertos sistemas en ciertos periodos que pueden ser
cortos o largos. Además, se tiene una relación con las probabilidades absolutas.
Pero sin embargo lo más importante es el estudio del comportamiento sistemas a
largo plazo, cuando el número de transiciones tiene al infinito
Al conocer más o menos las probabilidades de un experimento, esto a su vez nos
permitirá conocer a corto y plazo los estados en que se encontrarían en periodos o
tiempos futuros y tomar decisiones que afectarán o favorecerán nuestros intereses,
y tomar una decisión de manera consciente y no se comentan muchos errores.
Esto también nos proporcionara un tiempo estimado para que identifiquemos cada
estado y el periodo en que se encuentra con la implementación de un proceso,
también se establece las probabilidades como una herramienta más en las cadenas
de Markov.

Para concluir podemos decir que las cadenas de Markov son una herramienta para
analizar el comportamiento, de determinados tipos de procesos estocásticos, esto
es, procesos que evolucionan de forma no determinística a lo largo del tiempo en
torno a un conjunto de estados.

Que para su elaboración requieren del conocimiento de diversos elementos como


son el estado y la matriz de transición.

Dichos elementos fueron descubiertos por su creador Markov, el cual realizó una
secuencia de experimentos conectados en cadena y la necesidad de descubrir
matemáticamente los fenómenos físicos.
BIBLIOGRAFIAS

4.1. INTRODUCCIÓN A LAS CADENAS DE MARKOV


Investigación de operaciones, 5ª edición, Editorial taha, pp. 822-826
Investigación de operaciones, 5ª edición, Editorial taha, pp. 824-826
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 928-931.

ESTADO ESTABLE
Investigación de operaciones aplicaciones y algoritmos, 4ª edición, Autor Wayne l.
wishston, Editorial Thompson, pp. 934-938.

ESTADOS ABSORBENTES
Investigación de operaciones, 5ª edición, Editorial taha, pp. 826-830
https://jrvargas.files.wordpress.com/2009/01/problemas-resueltos-cadenas-de-
markov.pdf
http://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_Mar
kov.htm
http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema4pe.pdf

También podría gustarte