Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CADENAS DE MARKOV
ASIGNATURA:
Investigacion de operaciones II
PROFESOR:
INTEGRANTES:
SEMESTRE ACADMICO:
2014-II
ii
ndice de contenido
1.
ORIGEN______________________________________________________________ 1
2.
2.2.
2.3.
ESTADO _______________________________________________________________ 1
3.
4.
5.
6.
7.
CADENAS DE MARKOV
1. ORIGEN
ANDRI MRKOV
Andri Andryevich Mrkov (1856 - 1922) fue un matemtico
ruso conocido por sus trabajos en la teora de los nmeros y la
teora de probabilidades. Perteneci a la escuela matemtica
de San Petersburgo fundada por Chebychev, y junto a
Liapunov llego a ser una de las figuras ms eminentes de la
misma en el campo de la probabilidad. Sin duda una de las
contribuciones importantes de Markov fue la introduccin del
concepto de cadena de Markov, como un modelo para el
estudio de variables dependientes, el cual dio lugar a una gran
cantidad de investigacin posterior en la teora de los procesos
estocsticos.
2. ALGUNAS DEFINICIONES
2.1.
CADENA DE MARKOV
Una cadena de Markov tambin se puede definir como una serie de eventos, en la
cual la probabilidad de que ocurra un evento depende del evento inmediato
anterior. En efecto, las cadenas de este tipo tienen memoria, es decir, recuerdan el
ltimo evento y esto condiciona las posibilidades de los eventos futuros. Esta
dependencia del evento anterior distingue a las cadenas de Markov de las series
de eventos independientes, como tirar una moneda al aire o un dado.
2.2.
PROCESO ESTOCSTICO
ESTADO
3. TIPOS DE ESTADOS
Ejemplo 1
Ejemplo 2
Propiedad Markoviana:
5. MATRIZ DE TRANSICIN
Un elemento muy importante en el desarrollo de las cadenas de Markov es la matriz de
transicin, la cual es la matriz que nos muestra las probabilidades de pasar de un estado
a otro o de mantenerse en un mismo estado. Por ejemplo:
Una caracterstica muy importante es que la matriz de transicin debe ser cuadrada, es
decir debe mostrar la probabilidad de pasar de un estado a cada uno de los otros estados.
Tambin es muy importante aclarar que la suma de cada uno de los elementos de cada
fila de la matriz debe ser igual a 1.
Al trabajar con cadenas de Markov, a menudo es til pensar la sucesin de ensayos como
experimentos efectuados en cierto sistema fsico, cada resultado dejando a este sistema
en cierto estado.
Ejemplo:
Consideremos una sucesin de elecciones polticas en cierto pas: el sistema podra
tomarse como el pas mismo y cada eleccin lo dejara en cierto estado, es decir en el
control del partido ganador. Si slo hay dos partidos polticos fuertes, llamados A y B, los
que por lo regular controlan el gobierno, entonces podemos decir que el pas se encuentra
en el estado A o B si el partido A o B ganara la eleccin. Cada ensayo (o sea cada
eleccin), coloca al pas en uno de los dos estados A o B. Una sucesin de 10 elecciones
podra producir resultados tales como los siguientes:
A, B, A, A, B, B, B, A, B, B
La primera eleccin en la sucesin deja en el poder al partido A, la segunda fue ganada
por el partido B, y as sucesivamente, hasta que la dcima eleccin la gane el partido B.
Supongamos que las probabilidades de que el partido A o B ganen la prxima eleccin
son determinadas por completo por el partido que est en el poder ahora. Por ejemplo
podramos tener las probabilidades siguientes:
Si el partido A est en el poder, existe una probabilidad de 1/4que el partido A ganar la
prxima eleccin y una probabilidad de 3/4 de que el partido B gane la eleccin siguiente.
Si el partido B est en el poder, hay una probabilidad de 1/3 de que el partido A gane la
eleccin siguiente y una probabilidad de 2/3 que el partido B permanezca en el poder.
En tal caso, la sucesin de elecciones forman una cadena de Markov, dado que las
probabilidades de los dos resultados de cada eleccin estn determinadas por el
resultado de la eleccin precedente.
Lo descrito anteriormente puede representarse grficamente usando la siguiente red:
Los crculos A y B se denominan nodos y representan los estados del proceso, las flechas
que van de un nodo a s mismo o al otro son los arcos y representan la probabilidad de
cambiar de un estado al otro.
La informacin probabilstica que se acaba de dar se puede representar de manera
conveniente por la siguiente matriz:
Esta matriz se denomina matriz de transicin. Sus representan las probabilidades de que
en el prximo ensayo el estado del sistema del partido indicado a la izquierda de la matriz
cambie al estado del partido indicado arriba de la matriz.
7.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones
de compra de los deudores morosos, para planear las necesidades de personal y
para analizar el reemplazo de equipo.
Y otros como el reparto del mercado entre marcas, evolucin de una enfermedad,
etc.
EJERCICIOS APLICATIVOS
Marca B
Marca C
Total
Marca A
507
845
338
1690
Marca B
676
2028
676
3380
Marca C
845
845
1690
3380
Total
2028
3718
2704
8450
Compra actual
a.) Si las compras se realizan de forma mensual, cul ser la probabilidad de que los
que personas que consumen actualmente la marca A, en el mes de junio compren caf de
la marca C?
b.) A la larga, cmo se distribuirn los clientes de caf?