Está en la página 1de 12

UNIVERSIDAD NACIONAL AUTÓNOMA DE HONDURAS

EN EL VALLE DE SULA.

Presentado por: Anna Lizeth Almendarez Benítez #20070001950

Asignatura: Investigación de Operaciones II

Sección 1300

Asignación: CADENA DE MARKOV

San Pedro Sula, Miércoles 09 de Junio del 2021

1
INDICE
PORTADA 1

INDICE 2

INTRODUCCIÓN 3

CADENA DE MARKOV
 Introducción y reseña 4
 Procesos/Probabilidad/Planteamiento 5
 Clasificación de Cadena de Markov 6

EJEMPLOS Y EJERCICIOS 7-8

CONCLUSIONES 9

BIBLIOGRAFÍAS 10

ANEXOS 11-12

2
INTRODUCCIÓN

Con la siguiente investigación se pretende estudiar como es el desarrollo y aplicación de las


cadenas de Markov, como puede afectar las decisiones que tomamos en un evento futuro y
encontrar la mejor manera de toma de decisiones bajo probabilidades que mejoren el sistema
y los clientes afectados, directa o indirectamente en los diferentes procesos. Este sistema de
igual manera lo podemos aplicar en muchos aspectos y eventos de nuestra vida cotidiana,
que así como podemos plantear probabilidades futuras podemos conocer el histórico y
conocer donde se aplicó mal una decisión, como podemos mejorar y replantear el sistema.

3
La cadena da Markov es un proceso estadístico y la probabilidad que nos indica que un
evento está ligado y depende de que suceda para que ocurra otro.

La probabilidad de eventos ocurre en todas las actividades cotidianas de la vida, hasta para
cruzar la calle o la ropa que usaremos para alguna ocasión se puede encontrar las
probabilidades, que la decisión que tomemos nos llevará a que ocurra otro evento que estará
dependiendo de las decisiones primeras.

Está teoría se inicia gracias al matemático ruso, Andréi Markov en 1907, también se le
conoce como cadena simple biestable de Markov. Figura 1

Markov nos indica con esta teoría que los procesos aleatorios que están activos en el
presente, se puede determinar su historial de eventos, por lo que se puede determinar un
futuro probable, por eso se cree que estas cadenas tienen memoria. Acorde a la definición
podemos plantear que lo ocurrido en la cadena se determina como un t + 1 y que solo
depende de lo acontecido en el momento t.

Este sistema es bastante sencillo y practico, es mayormente utilizado en los negocios y las
finanzas, sobre todo en el área de morosidad, el estudio de la conducta de los consumidores
y la demanda de mano de obra dependiendo la temporada; aunque muchos conocedores
determinan que por ser muy fácil de aplicar no es del todo efectivo en procesos muy
complejos. Por lo cual podemos determinar ciertas ventajas y desventajas de aplicar este
método:

 Es simple de aplicar y entender


 Contesta preguntas fácilmente sobre cálculos de sensibilidad
 Esta teoría nos lleva con el tiempo a darnos una amplia vista sobre los cambios en el
sistema.
 Se vuelve muy simplificado ante procesos complejos, no dejando en claro si las
decisiones tomadas llevarán a mejores eventos.

Como fórmula de este sistema podemos determinar que P puede ser dependiente del estado
actual del sistema. Si P es dependiente tanto del tiempo y del estado actual del sistema, P es
una función de t y st, entonces la ecuación de Markov básica se vuelve st=st-1 P (t-1,st-1).

4
Cadena de Markov. Procesos estocásticos

Se le denomina así a la sucesión de eventos, X1, X2,..si los valores no se puede predecir pero
si podemos especificar las probabilidades de los distintas decisiones tomadas en cualquier
tiempo, teniendo las definiciones de variables:

X1= estado inicial del proceso

Xn= estado del proceso en el instante del momento n

Por lo que determinamos que para cada suceso inicial S1 y los sucesos siguientes Sn de los
estados Xn especificamos:

P (Xn+1=Sn+1| X1=S1, X2=S2…,Xn=Sn)

Cadenas de Markov probabilidad de transición estacionaria.


Las probabilidades dentro de la cadena de Markov pueden ser finitas llamadas k de estados
posibles s en cualquier instante de tiempo desde S1 hasta Sk en cualquier estado k.

P (Xn+1 = Sj | Xn = Si)

Planteamiento de la Cadena de Markov


Variables: Xn= celda ocupada en el instante n Los posibles estados son: 1,2,3,4…

Para comprobar que es una Cadena de Markov tomamos las siguientes condiciones:

Conocido el presente, el futuro no depende del pasado Se cumple la condición de


Markov Es efectivamente una cadena de Markov.

En la mayoría de las aplicaciones de este teorema es planteado en base a una matriz s x s,


por lo que la matriz de probabilidad P la podemos escribir de la siguiente manera:

𝑝11 𝑝12 … 𝑝1𝑠


𝑝
𝑃 = [ 21 𝑝22 … 𝑝2𝑠 ]
𝑝𝑠1 𝑝𝑠2 … 𝑝𝑠𝑠

Podemos graficar nuestros eventos mediante un diagrama de transición que son nodos que
representan los estados y los arcos se identifican con la probabilidad. De esta manera
visualizamos de forma ordenada las probabilidades de pasar de un estado a otro.

Pij
i j

5
Clasificaciones de Cadenas de Markov

La cadena es irreductible si todo estado puede alcanzarse desde otro estado después de una
finita cantidad de transiciones, todos los estados se comunican, por lo que su intervalo es
cerrado. Figura 2

Cadena de Markov con estado absorbente es aquella que tiene un conjunto cerrado que
contiene un solo estado, cuando se entra a un estado absorbente no se sale de él. Figura 3

Cadena de Markov con estado transitorio es cuando se puede dejar un estado pero no se
puede volver a él, el estado j es alcanzable desde el estado i, pero el estado i no es alcanzable
desde el j. Figura 3

Cadena de Markov con estado recurrente es cuando el estado i vuelve al estado j y viceversa.

Uno de los aspectos que tiene la Cadena de Markov es que puede tener un comportamiento a
largo plazo, se representa por medio de un vector x que nos indica las probabilidades que se
puede estar en un estado después de un gran número de eventos y repeticiones y la
definimos como: lim𝑘→∞ 𝑥𝑘 .

Si la matriz P tiene todas sus entradas positivas podemos determinar que es a largo plazo y
que está bien definida, su vector x es un vector estacionario siempre y cuando sus entradas
sean mayores o iguales a cero y sumen 1, lo cual podemos definir como: Px=x.

6
Ejemplo de la aplicación de la Cadena de Markov

Una aplicación interesante de procesos de Markov que yo conozco es la industria costera


noruega del petróleo/gas. En Noruega un cuerpo estatal, el Consejo de administración de
Petróleo noruego, (junto con la compañía de aceite estatal noruega (STATOIL)), tienen un
papel grande en la planeación de los medios para el desarrollo costero del petróleo/gas.

El problema esencial que el Consejo de la administración del Petróleo noruego tiene, es


como planear la producción para aumentar al máximo su contribución en el tiempo a la
economía noruega. Aquí los horizontes de tiempo son muy largos, típicamente 30 a 50 años.
De importancia crítica es el precio del aceite - todavía nosotros no podemos prever esto,
sensiblemente con exactitud, para esta horizonte de planeación.

Para superar este problema ellos modelan el precio del aceite como un proceso de Markov
con tres niveles de precio (estados), correspondiendo a escenarios optimista, probable y
pesimista. Ellos también especifican las probabilidades de hacer una transición entre los
estados cada periodo de tiempo (año). Pueden usarse matrices de transición diferentes para
horizontes de tiempo diferentes (matrices diferentes para el cercano, medio y futuro lejano).

Aunque éste simplemente es un enfoque simple, tiene la ventaja de capturar la incertidumbre


sobre el futuro en un modelo que es relativamente fácil de entender y aplicar.
Ejemplo tomado de:
https://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_Markov.htm

7
8
CONCLUSIONES

 Podemos garantizar que todo evento que se ejecute elegido aleatoriamente podrá ser
analizado por medio de la Cadena de Markov, llevándonos a una fuente de sucesos
que nos permitan ver cuál será nuestra mejor opción a tomar.
 Este modelo podemos usarlo en casi todos los campos por la manera fácil de entender
y aplicar pero si algun evento conlleva muchos sucesos en su proceso no podríamos
estar seguros que lo que estamos aplicando sea el camino viable y correcto.
 Gracias a este teorema podemos conocer el pasado, el historial de eventos, y teniendo
nuestra situación actual planteamos probabilidades futuras sin que intervenga lo que ya
decidimos en el pasado ya que la que más nos importa y afecta es el evento ocurrido
en el tiempo inmediato.

9
Bibliografía
http://investigacindeoperaciones2.blogspot.com/2011/06/cadena-de-markov-el-estado-
estable.html

https://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_Markov.ht
m#:~:text=Una%20cadena%20de%20Markov%20es,posibilidades%20de%20los%20evento
s%20futuros.

https://economipedia.com/definiciones/cadena-de-markov.html

10
ANEXOS

Figura 1. Cadena Simple Biestable de Markov

Figura 2. Cadena Irreductible

Figura 3. Estado Absorbente (3) y Estado Transitorio (2)

11
Figura 3. Estado recurrente (1) y (2)

12

También podría gustarte