Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Investigación de operaciones II
Actividad II
Presentado Por:
Jeancarlos Marizan Salcedo
17-7883
Facilitador:
Ing. José L. Taveras
Introducción:
La naturaleza “Markoviana”:
La probabilidad de lo que ocurrirá en un determinado momento dependerá justo del
momento anterior a este acontecimiento y no dependerá del momento anterior al
momento anterior del acontecimiento, suena extraño pero quiere decir que por ejemplo un
acontecimiento del día jueves no influye al sábado pero si es del viernes sí que influye, y
esto no es porque la información del jueves sea olvidada sino porque es más importante
para el proceso la última información anterior que es la más fresca y actualizada que se
tiene.
El proceso que mejor grafica esta situación son los famosos "modelos de urna". En efecto,
suponga que se tiene una urna con 3 bolas blancas y 3 bolas negras, y se saca una bola
al azar, conforme sea el color de la bola extraída se devuelve a la urna una bola del color
contrario. Se repite este proceso en forma indefinida. Pues bien, este es un claro ejemplo
de "cadena de Markov".
Esta igualdad no es difícil de deducir, toda vez que después de la extracción n+1 la urna
pueda contener k bolas blancas es porque en la anterior extracción contuvo k - 1 ó k + 1
bolas blancas, en cualquier otra eventualidad anterior no se podrá llegar a k bolas
blancas.
En rigor, como k puede variar desde 0 bolas blancas hasta 6 bolas blancas, tenemos 7
ecuaciones del tipo anterior dada en (1). Ahora bien, las probabilidades condicionales son
sencillas de calcular (después de unos 5 minutos de reflexión), en efecto
Observemos que la igualdad dada en (1) la podemos poner en forma general, para k = 0,
1, ..., 6 como:
Convencerse que (2) es equivalente a (3) no deberá llevarle más allá de tres minutos. La
ecuación nos entrega la forma dinámica de determinar la probabilidad del estado de la
urna después de cualquier extracción (que con abuso de lenguaje diremos " tiempo n").
En efecto, hagamos
A pesar de no ser totalmente exactas estas cadenas permiten llevar un control a largo y
muy largo plazo que mejora la distribución y gestión empresarial, esta comprobado que
estas cadenas junto a una buena gestión de negocios pueden impulsar un crecimiento
sostenible.
A diferencia del método clásico de utilizar el año inmediatamente anterior como guía, la
cadena de Markov utiliza todos los estados anteriores para determinar una evolución más
realista de lo que cabe esperar de los próximos ejercicios. Es una técnica curiosa, aunque
algo complicada para quien no domine la materia.
Además, requiere de personal cualificado para crear un sistema eficiente para esos ca-
sos. Para ello se puede hablar con un informático ya que deberá realizarse una base de
datos y este deberá estudiar las fórmulas para aplicarlas de la mejor manera posible.
Conclusión
Como hemos visto anteriormente las cadenas de Márkov son un método de predicción de
eventos futuros mediante el análisis de eventos inmediatamente previos, su importancia
radica en que nos da la capacidad adelantarnos a los acontecimientos o al menos tener
una aproximación del futuro como ya dijimos este método no nos proporcionara datos
exactos de lo que pasara en el futuro.
En el ámbito empresarial este método es utilizado para predecir temporadas altas y bajas,
detección de morosidad, flujo de clientes en determinados horarios o ambientes, entre
otros.
Como ingenieros de software debemos manejar estos conceptos y utilizarlos para mejorar
los procesos de creación de nuevos sistemas y aumentar la productividad de las
empresas en las que trabajemos más allá de brindarles una solución de software.
Bibliografía: