Está en la página 1de 9

UNIVERSIDAD ABIERTA PARA ADULTOS

Investigación de operaciones II

Actividad II

Presentado Por:
Jeancarlos Marizan Salcedo
17-7883

Facilitador:
Ing. José L. Taveras
Introducción:

En el siguiente documento le presentamos un breve informe sobre las cadenas de


Márkov, sus importancia, utilización y clasificación. ¿qué tal si le dijéramos que es posible
ver el futuro mediante operaciones matemáticas?, no tan literal claro, pero en el siguiente
documento le mostramos que es posible.

Este informe documento se ha redactado tratando de ilustrar de la manera más clara


posible la implementación y propiedades de la teoría encontrada en diferentes fuentes, si
desea tener una fuente de información más amplia consultar la bibliografía.
LA CADENA DE MARKOV (Informe):
Primero que nada debemos preguntarnos ¿Quién era Markov?
Andrei Andreivich Markov nació en Ryazan en el año 1856, fue un matemático y lingüista
ruso. Estudió y se doctoró en la universidad de San Petersburgo, donde comenzó su labor
docente en 1886. Es a comienzos del siglo XX cuando da continuidad a los estudios de su
maestro Pafnuty Chebyshev sobre los cálculos matemáticos de la lógica de la
probabilidad. Luego de su muerte en en año 1922, su obra tuvo continuidad en su hijo, de
igual nombre que él, Andrei Markov (1903-1979).

La naturaleza “Markoviana”:
La probabilidad de lo que ocurrirá en un determinado momento dependerá justo del
momento anterior a este acontecimiento y no dependerá del momento anterior al
momento anterior del acontecimiento, suena extraño pero quiere decir que por ejemplo un
acontecimiento del día jueves no influye al sábado pero si es del viernes sí que influye, y
esto no es porque la información del jueves sea olvidada sino porque es más importante
para el proceso la última información anterior que es la más fresca y actualizada que se
tiene.

El proceso que mejor grafica esta situación son los famosos "modelos de urna". En efecto,
suponga que se tiene una urna con 3 bolas blancas y 3 bolas negras, y se saca una bola
al azar, conforme sea el color de la bola extraída se devuelve a la urna una bola del color
contrario. Se repite este proceso en forma indefinida. Pues bien, este es un claro ejemplo
de "cadena de Markov".

En efecto, Lo esencial es saber el "estado de la urna en cualquier momento", esto se


traduce en "saber el número de bolas blancas que queda en la urna después de la n-
ésima extracción", definamos este número (variable) por la variable X n. En este caso es
claro que para poder calcular la probabilidad de que haya k bolas blancas después de la
n+1 extracción dependerá de cómo quedé la situación después de la n-ésima extracción,
y para nada importa lo que haya sucedido antes de la n-ésima extracción. En términos
matemáticos, utilizando probabilidades condicionales (que es el mejor concepto que liga
el presente con el pasado) y la ley de la probabilidad total se tiene que:

Esta igualdad no es difícil de deducir, toda vez que después de la extracción n+1 la urna
pueda contener k bolas blancas es porque en la anterior extracción contuvo k - 1 ó k + 1
bolas blancas, en cualquier otra eventualidad anterior no se podrá llegar a k bolas
blancas.

En rigor, como k puede variar desde 0 bolas blancas hasta 6 bolas blancas, tenemos 7
ecuaciones del tipo anterior dada en (1). Ahora bien, las probabilidades condicionales son
sencillas de calcular (después de unos 5 minutos de reflexión), en efecto
Observemos que la igualdad dada en (1) la podemos poner en forma general, para k = 0,
1, ..., 6 como:

de manera que matricialmente estas 7 ecuaciones adoptan la forma siguiente:

Convencerse que (2) es equivalente a (3) no deberá llevarle más allá de tres minutos. La
ecuación nos entrega la forma dinámica de determinar la probabilidad del estado de la
urna después de cualquier extracción (que con abuso de lenguaje diremos " tiempo n").
En efecto, hagamos

de modo que tenemos

Y no resulta complicado deducir que


siendo P0 la distribución inicial de las bolas en la urna, y puesto que se parten con 3 bolas
blancas y 3 bolas negras, se tiene que Pr{ X0 = 3 } = 1, esto es

De manera que, para cualquier "tiempo" (extracción) n y conociendo la distribución inicial


P0, podemos calcular Pn mediante el simple cálculo de la matriz M n. Por ejemplo la
distribución cuando se haga la extracción nº 100 será de (cálculo realizado en el
DERIVE):

Lo realmente extraordinario (aunque después de unos minutos de reflexión, no lo es


tanto) es que
CLASIFICACIÓN DE LA CADENA DE MARKOV (Mapa conceptual):
Desde cualquier estado de E se puede acceder
a cualquier otro. Todos los estados se
comunican entre sí, C(x)=E para algún x ∈E,
Cadenas irreducibles C(x)=E para todo x∈E y El único conjunto
cerrado es el total.

Una cadena de Márkov se dice positivo-


recurrente si todos sus estados son positivos-
recurrentes. Si la cadena es además
Cadenas positivo- irreducible es posible demostrar que existe un
recurrentes único vector de probabilidad invariante y está
dado por:

Cuando el espacio de estados E es finito, si P


denota la matriz de transición de la cadena se
Cadenas absorbentes tiene que:
Cadenas de Markov

La cadena tiene al menos un estado


absorbente y De cualquier estado no
absorbente se accede a algún estado
absorbente. Si denotamos como A al conjunto
de todos los estados absorbentes y a su
Cadenas regulares complemento como D, tenemos los siguientes
resultados:

Para este tipo de cadenas en tiempo continuo la propiedad de


Márkov se expresa de la siguiente manera:

Para una cadena de Márkov continua con un número finito de


Cadenas de estados puede definirse una matriz estocástica dada por:
Márkov en
tiempo La cadena se denomina homogénea si . Para una
continuo cadena de Márkov en tiempo continuo homogénea y con un
número finito de estados puede definirse el llamado generador
infinitesimal como:

Y puede demostrarse que la matriz estocástica viene dada por:

IMPORTANCIA Y USO DE LAS CADENAS DE MARKOV:


Las cadenas de markov son de gran importancia, permite predecir acontecimientos
futuros mediante el análisis de acontecimientos directamente previos a estos. En el
ámbito empresarial son utilizadas para la generación de aproximaciones o previsiones.

A pesar de no ser totalmente exactas estas cadenas permiten llevar un control a largo y
muy largo plazo que mejora la distribución y gestión empresarial, esta comprobado que
estas cadenas junto a una buena gestión de negocios pueden impulsar un crecimiento
sostenible.

A diferencia del método clásico de utilizar el año inmediatamente anterior como guía, la
cadena de Markov utiliza todos los estados anteriores para determinar una evolución más
realista de lo que cabe esperar de los próximos ejercicios. Es una técnica curiosa, aunque
algo complicada para quien no domine la materia.

El problema de estas cadenas radica en la dificultad de su cálculo en casos donde el nú-


mero de estados es muy grande (por eso recomiendo realizarlo en base a ratios relevan -
tes) y en la búsqueda de factores que respondan a las "propiedades markovianas".

Además, requiere de personal cualificado para crear un sistema eficiente para esos ca-
sos. Para ello se puede hablar con un informático ya que deberá realizarse una base de
datos y este deberá estudiar las fórmulas para aplicarlas de la mejor manera posible.

Conclusión
Como hemos visto anteriormente las cadenas de Márkov son un método de predicción de
eventos futuros mediante el análisis de eventos inmediatamente previos, su importancia
radica en que nos da la capacidad adelantarnos a los acontecimientos o al menos tener
una aproximación del futuro como ya dijimos este método no nos proporcionara datos
exactos de lo que pasara en el futuro.

En el ámbito empresarial este método es utilizado para predecir temporadas altas y bajas,
detección de morosidad, flujo de clientes en determinados horarios o ambientes, entre
otros.

Como ingenieros de software debemos manejar estos conceptos y utilizarlos para mejorar
los procesos de creación de nuevos sistemas y aumentar la productividad de las
empresas en las que trabajemos más allá de brindarles una solución de software.

Bibliografía:

Recuperado de Econopedia el 25/09/20:


https://economipedia.com/definiciones/cadena-de-markov.html

Recuperado de Wikipedia el 25/09/20:


https://es.wikipedia.org/wiki/Cadena_de_M%C3%A1rkov

Recuperado de UC3M el 25/09/20:


http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/PEst/tema4pe.pdf

También podría gustarte