Está en la página 1de 9

MATERIA: INVESTIGACION DE OPERACIONES II

“CADENAS DE MARKOV”

PRESENTADO POR:
JOSÉ JOAQUÍN OCEGUERA SOLORIO

GRADO Y GRUPO:
5°A BIS

PROFESOR:
ING. GUILLERMO VALADEZ HERNANDEZ

LA PIEDAD, MICHOACÁN 6 DE DICIEMBRE DEL 2022

Av. Tecnológico #2000. Meseta de los Laureles, C.P. 59310. Apartado Postal 22
La Piedad, Mich. Tel 01 (352) 52 62294, 52 62359, 52 60680,
www.tecnm│ www.itlapiedad.edu.mx
La Norma Mexicana NMX-R-025-SCFI, “Igualdad Laboral y No
Discriminación”. El número de registro: RPrIL-072 y fecha de
inicio: 2017-04-10 y término de la certificación 2021-04-10. 
Índice

Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2
4.1 Introducción a las cadenas de
Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3
4.2 Probabilidad de transiciones estacionarias de N pasos. . . . . . . . . . . . . . . . . . . . . . . . . . .6
Introducción

Las probabilidades se manejan a diario en nuestra vida, desde que personas le


pueden ir a un equipo de futbol en el mundial. Un ejemplo puede ser que la mayoría de las
personas mexicanas apoyan a México en el mundial, pero hay otra sección que no apoya a
la selección y prefiere otra selección, y que al final o deja de apoyar a la selección de
México y se cambia a otra o siempre si apoyan a México. A todo eso se le llaman cadenas
de Markov. Donde trata que el evento que pueda seguir depende totalmente del evento
anterior para saber el evento que sigue en este.

Así dándonos una idea más clara de lo que pueden tomar por ejemplo las cadenas de
Markov, ya que en demasiadas veces se nos presentan estos tipos de ocasiones, en la
escuela también puede ser un ejemplo, tomas de decisiones, pensamientos diarios etc...

Aquí se mostrara más a fondo cómo se maneja una cadena de Markov y todos los
precedentes que este tiene.
2
4.1 INTRODUCCION A LAS CADENAS DE MARKOV.
Qué es?

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen
memoria, "Recuerdan" el ultimo evento y esto condiciona las posibilidades de los eventos
futuros. Esta dependencia del evento anterior distingue a las cadenas de Markov de las
series de eventos independientes, como tirar una moneda al aire o un dado.

En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de
comprarlos deudores morosos, para planear las necesidades de personal y para analizar el
reemplazo de equipo.

El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo el


método en 1907, permite encontrar la probabilidad de que un sistema se encuentre en un
estado en particular en un momento dado. Algo más importante aún, es que permite
encontrar el promedio a la larga o las probabilidades de estado estable para cada estado.

Con esta información se puede predecir el comportamiento del sistema a través del tiempo.
La tarea más difícil es reconocer cuando puede aplicarse. La característica más importante
que hay que buscar en la memoria de un evento a otro.
3

¿Qué es probabilidad de transición estacionaria?


La medida de posibilidades de cambiar de un estado a otro, entonces una probabilidad de
transición estacionaria es: la medida de posibilidades de que un estado se mantenga en el
mismo.

Tipos
- Cadenas irreducibles
Una cadena de Markov se dice irreducible si se cumple cualquiera de las siguientes
condiciones (equivalentes entre sí):

1. Desde cualquier estado de se puede acceder a cualquier otro.


2. Todos los estados se comunican entre sí.
3. El único conjunto cerrado es el total.

La cadena de Ehrenfest o la caminata aleatoria sin barreras absorbentes son ejemplos de


cadenas de Márkov irreducibles.

- Cadenas Recurrentes Positivas

Una cadena de Markov se dice recurrente positiva si todos sus estados son recurrentes
positivos. Si la cadena es además irreducible es posible demostrar que existe un único
vector de probabilidad invariante y está dado por:

- Cadenas Regulares

Una cadena de Márkov se dice regular (también primitiva o ergódica) si existe alguna


potencia positiva de la matriz de transición cuyas entradas sean todas estrictamente
mayores que cero.
4

Ejemplo
Una empresa esta considerando utilizar Cadenas de Markov para analizar los cambios en
las preferencias de los usuarios por tres marcas distintas de un determinado producto. El
estudio ha arrojado la siguiente estimación de la matriz de probabilidades de cambiarse de
una marca a otra cada mes:

Si en la actualidad la participación de mercado es de 45%, 25% y 30%,


respectivamente. ¿Cuales serán las participaciones de mercado de cada marca en dos
meses más?.

En primer lugar definimos la variable aleatoria   que representa la marca que adquiere un
cliente cualquiera en el mes n. Dicha variable aleatoria puede adoptar los valores 1,2,3 en el
mes n=0,1,2,3,..

Adicionalmente conocemos cuál es la distribución inicial y la matriz de probabilidades de


transición en una etapa tal como se observa a continuación:

5
Luego para conocer la distribución de las participaciones de mercado al cabo de 2 meses (2
etapas) podemos utilizar la fórmula  :

Se concluye que las cuotas de mercado (participaciones de mercado) en dos meses a


cambiado de un 45% a un 40.59%; de un 25% a un 33.91% y de un 30% a un 25.50%, para
las marcas 1,2 y 3 respectivamente.

4.2 PROBABILIDAD DE TRANSICIONES ESTACIONARIAS DE N


PASOS.
Probabilidad de transición estacionaria de n pasos. Es solo las probabilidad condicional de
que, si se comienza en el estado i, el proceso vaya al estado k después de m pasos y después
al estado j en n- m pasos.

Aplicaciones

- Meteorología

Si consideramos el tiempo atmosférico de una región a través de distintos días, es posible


asumir que el estado actual solo depende del último estado y no de toda la historia en sí, de
modo que se pueden usar cadenas de Markov para formular modelos climatológicos
básicos. Por ejemplo, se han desarrollado modelos de recurrencia de las lluvias basados en
cadenas de Markov. 6
- Modelos epidemiológicos

Una importante aplicación de las cadenas de Markov se encuentra en el proceso Galton-


Watson. Este es un proceso de ramificación que se puede usar, entre otras cosas, para
modelar el desarrollo de una epidemia (véase modelaje matemático de epidemias).

- Internet

El pagerank de una página web (usado por Google en sus motores de búsqueda) se define a
través de una cadena de Markov, donde la posición que tendrá una página en el buscador
será determinada por su peso en la distribución estacionaria de la cadena.

- Simulación

Las cadenas de Márkov son utilizadas para proveer una solución analítica a ciertos
problemas de simulación, por ejemplo en teoría de colas el Modelo M/M/14 es de hecho un
modelo de cadenas de Markov.

Juegos de azar

Son muchos los juegos de azar que se pueden modelar a través de una cadena de Márkov.
El modelo de la ruina del jugador (Gambler's ruin), que establece la probabilidad de que
una persona que apuesta en un juego de azar finalmente termine sin dinero, es una de las
aplicaciones de las cadenas de Márkov en este rubro.

Economía y finanzas

Las cadenas de Márkov se pueden utilizar en modelos simples de valuación de opciones


para determinar cuándo existe oportunidad de arbitraje, así como en el modelo de colapsos
de una bolsa de valores o para determinar la volatilidad de los precios. En los negocios, las
cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores
morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.

Genética

Se emplean cadenas de Márkov en teoría de genética de poblaciones, para describir el


cambio de frecuencias génicas en una población pequeña con generaciones discretas,
7
sometida a deriva genética. Ha sido empleada en la construcción del modelo de difusión
de Motō Kimura.

Música

Diversos algoritmos de composición musical usan cadenas de Márkov, por ejemplo el


software Csound o Max. Uno de los compositores que usó esta técnica en sus
composiciones fue Iannis Xenakis con su obra Analoguique A et B (1958–59).

Operaciones

Se emplean cadenas de Márkov en inventarios, mantenimiento y flujo de proceso.

También podría gustarte