Está en la página 1de 7

Cadena de Markov

Grupo 4, 5 y 6

Procesos estocsticos
Es una sucesin de observaciones X1,X2,Xn. que se denominan procesos
estocsticos, solo si:

Si los valores de estas observaciones no se pueden predecir exactamente,


pero se pueden especificar las probabilidades para los distintos valores
posibles en cualquier instante de tiempo.
X1 = variable aleatoria que define el estado inicial del proceso
Xn = variable aleatoria que define el estado del proceso en el instante de
tiempo n.

Espacios de un proceso
estocstico
Espacio paramtrico: es el proceso estocstico con el conjunto de valores
que puede tomar el tiempo, se representa con T, puede ser discreto y
continuo.
Espacio de estados: es el conjunto de valores de todos los posibles valores
que puede tomar el proceso, se representa con S, puede ser discreto y
continuo.

Cadena de markov
Es un proceso estocstico que la probabilidad de un estado futuro Xn+1 no
depende de los estados anteriores x1 xn-1, solamente depende del
estado actual Xn, esto es la propiedad markoviana.
Caractersticas: Primero identificamos el espacio paramtrico(el tiempo
cada mes) y el espacio de estados(nombre que se le da a los estados), las
filas son n y las columnas son n+1, las filas deben de sumar 1

Ejemplo
Una empresa esta considerando utilizar Cadenas de Markov para analizar los cambios en
las preferencias de los usuarios por tres marcas distintas de un determinado producto. El
estudio ha arrojado la siguiente estimacin de la matriz de probabilidades de cambiarse de
una marca a otra cada mes:

Pregunta
Si en la actualidad, tienen una participacin de mercado de
45%, 25% y 30%. Cul ser el nivel de participacin de
mercado, de cada marca dos meses mas?.

La marca1 tendra 40.59%, la marca 2 33.91% y la marca 3 25.50% de


participacin en el mercado.

También podría gustarte