Está en la página 1de 13

Instituto Tecnológico Superior del Occidente del

Estado de Hidalgo

Ingeniería industrial

Investigación de Operaciones II

Producto: T4 Reporte de Investigación

Semestre: 5

Grupo: A

Presenta:
Cruz Sánchez Maritza
Gumecindo Mejía Kevin Carlos
Rodríguez Hernández Kevin Zaid

Docente: Elizabeth Vázquez Estefes

Fecha de entrega: 9 de noviembre de 2023


Índice

Introducción ....................................................................................................................... 3
Cadenas de Markov .......................................................................................................... 4
Cadenas absorventes ...................................................................................................... 4
Cadenas cíclicas ............................................................................................................... 4
Probabilidad de transiciones estacionarias de n pasos ........................................... 4
Estado estable ................................................................................................................... 4
Proceso de una cadena de Markov. .............................................................................. 5
Función de los diversos casos especiales .................................................................. 7
Ejemplos ............................................................................................................................. 8
Conclusión ....................................................................................................................... 12
Fuentes de información ................................................................................................. 13
Introducción

Hoy en día es muy importante contar con herramientas y métodos que nos permitan
tomar decisiones racionales y predecir el comportamiento de un sistema a lo largo del
tiempo. Y por lo visto las Cadenas de Markov se han convertido en una muy buena
herramienta para modelar y analizar situaciones en las que nos encontramos ante una
serie de estados interconectados con probabilidades de transición bien definidas. son
sistemas estocásticos que se caracterizan por su propiedad de memoria limitada. Esto
significa que el estado actual de un sistema solo depende del estado inmediatamente
anterior, sin tener en cuenta los estados anteriores. Esta peculiaridad hace que las
Cadenas de Markov sean especialmente útiles para analizar situaciones en las que
solo nos interesa la evolución futura del sistema, sin necesidad de conocer su historia
completa también observaremos los temas de probabilidad de transiciones
estacionarias de n pasos y casos especiales.

Este reporte de investigación explorara el funcionamiento de las Cadenas de Markov


como herramienta para la resolución de problemas. Se estudiará su aplicación en
distintos campos, como la predicción de comportamientos en áreas como la economía.
Asimismo, se analizarán la resolución de problemas prácticos, no obstante, se
ejemplificará la manera en que se realizan cada uno de ellos y se expondrán ejemplos
de problemáticas resueltas para un mejor entendimiento.
Cadenas de Markov

Una cadena de Marvok es un proceso evolutivo que consiste de un número finito de


estados en cual la probabilidad de que ocurra un evento depende solamente del
evento inmediatamente anterior con unas probabilidades que están fijas. (Anónimo,
2020)

(Hernández, 2020)

Cadenas absorventes

Si posee al menos un estado absorbente y desde cada estado es posible llegar al


estado absorbente (no necesariamente en un paso). Se puede ver que, en una cadena
absorbente, todos los estados que no son absorbentes son transitorios. (Anónimo,
2020)

Cadenas cíclicas

Una cadena cíclica es aquella en la que el sistema entraen un ciclo entre ciertos
estados siguiendo un patrónfjo. Cuando esto sucede la cadena se convierte
endeterminista en lugar de probabilística. (Anónimo, 2020)

Probabilidad de transiciones estacionarias de n pasos

Es solo la probabilidad condicional de que, si se comienza en el estado, el proceso


vaya al estado después de ciertos pasos y después al estado final incluyéndolos.
(Anónimo, 2020)

Estado estable

En general, cuando k, la probabilidad de estar en un estado j es independiente del


estado inicial y se conoce como probabilidad estacionaria o de estado estable.
(Anónimo, 2020)
Proceso de una cadena de Markov.

Paso 1: Identificación de la problemática

Supongamos que hay tres centros principales de camiones de una empresa. Cada
mes, la mitad de los que están en Boston y en Los Angeles, van a Chicago, la otra
mitad permanece donde está y los camiones de Chicago se dividen igualmente entre
Boston y L.A. Lo anterior se puede resumir con la siguiente figura

(Grees 2021)

Paso 2: Identificar a “k” y sus variables

Si inicialmente la compañía tenía 100, 200 y 300 camiones en Boston, Chicago y L.A.
respectivamente, encontrar las distribuciones de camiones después de un mes y
después de dos meses en las tres ciudades.

Solución: Denotemos por la cantidad de camiones en Boston, Chicago y L.A.


respectivamente, después de “k“meses. Utilizando la información dada se tiene que
después de un mes, la distribución de los camiones será:

1(Grees,2021)
Paso 3: Apoyarse de elementos matemáticos (Matrices)

Los cálculos de este ejemplo se pueden realizar de manera más conveniente si


utilizamos notación matricial. Para ver esto, denotemos por el vector de probabilidades
en el k-ésimo mes.

P= probabilidad

2(Grees,2021)

La matriz P tiene la propiedad que la suma de las entradas de cada columna es 1, es


decir, los vectores columna de P son vectores de probabilidad.

Paso 4: Aplicar la formula general del método

La regla fundamental en un proceso de Markov nos dice que el vector de


probabilidades xk está dado por:

Por lo tanto, si conocemos la matriz de transición P y el vector de estados iniciales x0,


entonces utilizando la regla anterior podemos encontrar el vector de probabilidades
para cualquier tiempo.

31(Grees,2021)

Y de esta manera quedan distribuidos los camiones de esta empresa que están en 3
diferentes puntos. (Grees,2021)
Función de los diversos casos especiales

Cadenas de Markov

• Las Cadenas de Markov se perfilan como una herramienta válida para


implementarse en procesos de manufactura estocásticos, en los que
intervienen organismos vivos y procesos biológicos. (Sánchez, 2016)

• En los negocios, las cadenas de Markov se han utilizado para analizar los
patrones de compra, los deudores morosos, para planear las necesidades de
personal y para analizar el reemplazo de equipo. (Valle, s.f.).

Cadenas absorbentes.

• Música: Diversos algoritmos de composición musical lo usan.

• Internet: El pagerank de una pagina web usado por google en sus motores de
búsqueda se define a través de una cadena de markov, donde la posición que
tendrá una pagina en el buscador será determinada por su peso en la
distribución estacionaria de la cadena. (Camarona, 2021).

Cadenas cíclicas.

• Meteorología: Si consideramos el clima de una región a través de distintos


días, es claro que el estado actual solo depende del último estado y no de toda
la historia en si, de modo que se pueden usar para formular modelos
climatológicos básicos.

• Juegos de azar: Son muchos los juegos de azar que se pueden modelar través
de una cadena de Markov. El modelo de la ruina del jugador, que establece la
probabilidad de que una persona que apuesta en un juego de azar finalmente
termine sin dinero.

• Economía y Finanzas: Se pueden utilizar en modelos simples de valuación de


opciones para determinar cuando existe oportunidad de arbitraje, así como los
colapsos de una bolsa de valores o para determinar la volatilidad de precios.
(Camarona, 2021).

Probabilidad de transiciones estacionarias de n pasos.

• Clima: Si en una cierta región el tiempo atmosférico sigue una secuencia de un


día soleado, si el sol luce a mas de la mitad del día, y se denomina nublado si
lo hace menos. Si un día es nublado es probable que el siguiente también lo
sea.
• Sistemas de comunicaciones: Cada digito debe pasar por varias fases, en
cada una de las cuales hay una probabilidad de p de que el digito que entra
coincida con el que sale. (Lopez, 2014).

Ejemplos

Ejemplo: cadenas de Markov


El departamento de estudios de mercado de una fábrica estima que el 20% de la gente
que compra un producto un mes, no lo comprará el mes siguiente. Además, el 30%
de quienes no lo compren un mes lo adquirirá al mes siguiente. En una población de
1000 individuos, 100 compraron el producto el primer mes. ¿Cuántos lo comprarán al
mes próximo? ¿Y dentro de dos meses?
Solución: Para resolver este tipo de problemas, lo primero es hacer un esquema. A
la vista del esquema podemos pasar a construir la matriz de probabilidades de
transición:

Cálculo: con esa información construimos la matriz 2x2. P(0) representa la situación
inicial.

El primer mes comprarán C=350 y no comprarán N=650

El segundo mes comprarán C=475 y no comprarán N= 525 (Vargas, 2009)


Ejemplo: probabilidad de transiciones estacionarias de n pasos

Sistema de comunicaciones
Consideremos un sistema de comunicaciones que transmite dígitos 0 y 1. Cada digito
debe pasar por varias fases, en cada una de las cuales hay una probabilidad p de que
el digito que entra coincida con el que sale. Las fases son independientes entre sí.
(Mejía, 2014)

Ejemplo: estado estable

Para el ejemplo de la compra del auto, se determinan las probabilidades de estado


estable del comprador.

Se elimina la última ecuación y se despejan las restantes:

Se puede interpretar así:

1) A la larga, 27.3% de los clientes compran Renault, 35.2% compran Chevrolet, y


37.5% compran Mazda.
2) Con el tiempo, la probabilidad de que un determinado cliente compre un Chevrolet
es de 35.2%, etc. (Anónimo, s.f.)
Ejemplo: Cadenas absorbentes

Un hombre camina por una porción de tres cuadras de Main St. Su casa se encuentra
en un extremo de la sección de tres cuadras. Una barra está en el otro extremo de la
sección de tres bloques. Cada vez que llega a una esquina al azar o va adelante una
cuadra o da la vuelta y retrocede una cuadra. Si llega a casa o al bar, se queda ahí.
Los cuatro estados son Inicio (H), Esquina 1 (C 1), Esquina 2 (C 2) y Bar (B).

Escribe la matriz de transición e identifica los estados absorbentes. Encuentra las


probabilidades de terminar en cada estado absorbente dependiendo del estado inicial.
Solución La matriz de transición se escribe a continuación.

Podemos elevar la matriz de transición T a una potencia alta. Una encontramos una
potencia T n que permanece estable, nos dirá la probabilidad de terminar en cada
estado absorbente dependiendo del estado inicial.

Entonces la matriz de solución tendrá las filas C1 y C2, y las columnas H y B. La matriz
de solución es

La primera fila de la matriz de solución muestra que, si el hombre está en la esquina


C 1, entonces hay una probabilidad de 2/3 de que termine en casa y una probabilidad
de 1/3 terminará en el bar.
La segunda fila de la matriz de solución muestra que, si el hombre está en la esquina
C 2, entonces hay una probabilidad de 1/3 de que termine en casa y una probabilidad
de 2/3 terminará en el bar.
La matriz de solución no muestra que eventualmente haya 0 probabilidades de
terminar en C1 o C2, o que, si comienzas en un estado absorbente H o B, te quedes
ahí. La matriz de soluciones más pequeña supone que entendemos estos resultados
y no incluye esa información. (College, 2014)
Ejemplo: cadenas cíclicas

Los ceros representan un nivel cíclico de la cadena.


Conclusión

Finalmente, consideramos que la Cadena de Markov, juega aquel papel de una


herramienta que se basa en las probabilidades y es fundamental en la toma de
decisiones a nivel empresarial debido a que estudia la evaluación de ciertos sistemas
de ensayos repetitivos en un intervalo de tiempo determinado. Esta toma decisiones
se realiza en las diferentes áreas como pudiera ser en Contabilidad. Administración,
Marketing, Logística, Personal, entre otros. Por lo tanto, considera como implemento
para analizar el comportamiento y el gobierno de determinados tipos de procesos
estocásticos que es aquel que no se puede predecir. Se mueve al azar.

El análisis de Markov es una forma de analizar el movimiento actual de alguna


variable, a fin de pronosticar el movimiento futuro de la misma, tomando las decisiones
que afecten o favorezcan nuestros intereses, por ende tomar una decisión acertada
donde no se cometan muchos errores, ni se estimen riesgos.

Por lo tanto, establecen una fuente dependencia entre un evento y otro suceso anterior
que a la vez son utilizados para estudiar la evolución de sistemas a lo largo de ensayos
repetidos los que, a menudo son periodos sucesivos donde el estado del sistema en
cualquier periodo en particular no puede determinarse con certeza.
Fuentes de información

Anónimo. (s.f.). Cadenas de Markov. Obtenido de Ingeniería en las operaciones:


https://tem-ing.blogspot.com/p/cadenas-de-markov_02.html

College, A. (2014). Cadenas absorbentes de Markov. Obtenido de LibreText:


https://espanol.libretexts.org/Matematicas/Matematicas_Aplicadas/Matematica
s_Finitas_Aplicadas_(Sekhon_y_Bloom)/10%3A_Cadenas_de_Markov/10.04
%3A_Cadenas_absorbentes_de_Markov
Mejía, A. (2014). Probabilidad de transición en n pasos. Obtenido de Métodos
estocásticos: https://prezi.com/ylx1zjm6bawc/probabilidad-de-transicion-en-n-
pasos-cadena-de-dos-estados/
Vargas, J. (2009). Cadenas de Markov. Obtenido de Wordpress:
https://jrvargas.files.wordpress.com/2009/01/problemas-resueltos-cadenas-de-
markov.pdf

Grees, G. (2021, 5 enero). UNC.Cadenas de Markov. Recuperado 9 de noviembre


de 2023, de https://ciencias.medellin.unal.edu.coM

Lopez, J. (2014). Probabilidad de transición en n pasos (cadena de dos estados.


Recuperado el 9 de noviembre del 2023 de:
https://prezi.com/ylx1zjm6bawc/probabilidad

También podría gustarte