Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Markov
Definicin de Cadenas de
Markov
Las cadenas de Markov son modelos
probabilsticos que se usan para
predecir la evolucin y el
comportamiento a corto y a largo
plazo de determinados sistemas.
Ejemplos:
Reparto del mercado entre marcas
Dinmica de las averas de mquinas
para decidir poltica
de mantenimiento.
Evolucin de una enfermedad.
Ejemplos:
Comportamiento (sube/baja)
del precio de las acciones hoy
depende de lo ocurrido ayer.
Problema de la ruina de un
jugador de casino.
Eleccin de marca: con qu
lnea area volar a Madrid?
PROBABILIDADES DE TRANSICIN DE UN
ESTADO A OTRO
Para determinar las probabilidades de los diversos estados que ocurren en
ensayos sucesivos, necesitamos informacin sobre la probabilidad de que
un cliente permanezca con la misma tienda o cambie a la tienda
competidora conforme contina el proceso de una semana a otra.
Debido a que las probabilidades indican que un cliente puede moverse o
hacer una transicin de un estado en un periodo dado, a otro estado en el
siguiente perodo, estas probabilidades se llaman probabilidades de
transicin.
MATRIZ DE TRANSICION:
Una matriz de transicin para una cadena de Markov de
n estado es una matriz de n X n con todos los registros no
negativos y con la propiedad adicional de que la suma de
los registros de cada columna (o fila) es 1.
Por ejemplo: las siguientes son matrices de transicin.
ESTADOS ABSORBENTES
Se trata de estados que constituyen por si mismos una sola clase final,
puesto que la nica transicin posible es ir otra vez al mismo (ya que las
probabilidades de pasar a cualquier de los otros son cero).
Matemticamente significa que la fila correspondiente de la matriz estar
toda a ceros excepto un 1 en la diagonal principal por lo tanto se le
denomina como matriz no regular; el significado de este tipo de situaciones
suele ser el de un sistema que ha llegado a una situacin de degradacin,
que ya no puede evolucionar mas, etc.
Ejemplo:
El departamento de estudios de mercado de
una fbrica estima que el 20% de la gente que
compra un producto un mes, no lo comprar
el mes siguiente. Adems, el 30% de quienes
no lo compren un mes lo adquirir al mes
siguiente. En una poblacin de 1000
individuos, 100 compraron el producto el
primer mes.
Cuntos lo comprarn al mes prximo?
Y dentro de dos meses?
Solucin:
NF= No fuman
FC= fuman uno o menos de un paquete diarios
FCC= fuman ms de un paquete diario.
Aplicaciones:
Fsica: Las cadenas de Markov son usadas en muchos problemas de la