Está en la página 1de 59

FACULTAD DE CIENCIAS ADMINISTRATIVAS

ESCUELA ACADEMICO PROFESIONAL


ADMINISTRACION


TEMA : CADENAS DE EVENTOS: ANALISIS DE MARKOV

CURSO : INVESTIGACION OPERATIVA

ESTUDIANTES :
APAZA PLATERO, SUSANA AMELIA 07-30408
BELIZARIO SUCA, KARINA 07-30417
CHANINI FLORES, VERONICA CRYSTABEL 07-30402
HUACAC TRUJILLO, MIRIAM ROCIO 07- 30401
QUISPE PARISUAA, ANA ROCIO 07-30396

DOCENTE : ING. ECO. JESUS A. OLIVERA CACERES

AO : CUARTO

TURNO : DIURNO


TACNA PER
2010






ANALISIS DE MARKOV UNJBG

2


INDICE

INTRODUCCION
I. ANTECEDENTES ........................................................................... 4
II. CADENAS DE MARKOV ............................................................... 5
1. Descripcin de una cadena de Markov .................................... 8
2. Probabilidades de Transicin .................................................. 9
3. Matriz de Transicin ................................................................ 10
4. Clculo de las probabilidades de estado estable ....................... 4
a. Probabilidad de transiciones estacionarias de estados
Estables ............................................................................. 6
5. Mtodo de la suma de flujos...................................................... 6
6. Aplicacin a la Administracin : Cambio de Marca .................... 6
7. Anlisis de Markov de Primer orden .......................................... 12
8. Condiciones de Equilibrio .......................................................... 12
9. Uso del anlisis de Markov por la administracin ..................... 12
10. Aplicacin de las cadenas de Markov en las diferentes
materias ................................................................................... 12
III. CONCLUSIONES .......................................................................... 50
IV. REFERENCIAS ............................................................................. 51
V. ANEXOS ........................................................................................ 52




ANALISIS DE MARKOV UNJBG

3




INTRODUCCION
Las cadenas de Markov esta destinado a una clase de modelos de probabilidad que
son tiles en una amplia variedad de ciencias. Las cadenas de Markov han
encontrado aplicaciones en la biologa, la fsica, la demografa, la economa y, lo que
es ms importante para nuestros propsitos, la administracin.

La ciencia administrativa ha desarrollado mtodos de anlisis y herramientas
cuantitativas para la toma de decisiones objetivas. Un factor importante que se debe
considerar al seleccionar una herramienta de toma de decisiones es su grado de
confiabilidad, ya que as la incertidumbre y el riesgo resultan menores.
Una relacin de algunos elementos de apoyo cuantitativo en la toma de decisiones
gerenciales es el anlisis de markov

Las cadenas de Markov se pueden utilizar en modelos simples de valuacin de
opciones para determinar cundo existe oportunidad de arbitraje, as como en el
modelo de colapsos de una bolsa de valores o para determinar la volatilidad de
precios.





ANALISIS DE MARKOV UNJBG

4


ANTECEDENTES

Andrei Andreevich Markov nace en Ryazan (Rusia) el 14
de junio de 1856 y muere en San Petersburgo en 1914, es
el creador de las cadenas de Markov, uno de los
conceptos ms importantes en la construccin de modelos
en gran cantidad de campos que abarcan desde la
sociologa a la fsica terica.
Markov estudia en San Petersburgo y muestra un carcter
fuerte que le causar problemas posteriormente con el
rgimen zarista y con sus colegas de la Universidad de
San Petersburgo. Era mal estudiante en todo menos en
matemticas. Inici sus estudios universitarios de matemticas en 1874 y acab en 1878,
siendo premiado con la medalla de oro al terminarlos. Realiz en la Universidad de San
Petersburgo su carrera acadmica. Su tesis doctoral estuvo en el mbito de la teora de los
nmeros, pero con la retirada de Chebyshev, en 1883, Markov pas a encargarse del curso
sobre la teora de la probabilidad continuando con el mismo incluso despus de su retirada de
la Universidad en 1905.
Perteneci a la escuela matemtica de San Petersburgo fundada por Chebyshev, y junto a
Liapunov lleg a ser una de las figuras ms eminentes de la misma en el campo de la
probabilidad. Bernstein (1927), otro de los representantes de la escuela de San Petersburgo,
deca de l:
Sin duda el ms importante continuador de las ideas sobre probabilidad fue Markov, sus
trabajos son modelos de rigor y claridad en la exposicin, y han contribuido en gran medida a
transformar la teora de la probabilidad en uno de los ms perfectos campos de la matemtica y
a aumentar la popularidad de los mtodos y las ideas de Chebyshev
1



1
http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html
ANALISIS DE MARKOV UNJBG

5


CADENAS DE MARKOV
Un tipo especial de procesos estocsticos de tiempo discreto se llama cadena de Markov. Una
cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento
depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria
Recuerdan el ultimo evento y esto condiciona las posibilidades de los eventos futuros esta
dependencia del evento anterior distingue a las cadenas de Markov de las series de eventos
independientes, como tirar una moneda al aire o un dado.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra
de los deudores morosos, para planear las necesidades de personal y para analizar el
reemplazo de equipo.
2


Los procesos de Markov o Cadena de Markov son procesos estocsticos que son tiles al
estudiar la evolucin de ciertos sistemas en ensayos repetidos.
Los ensayos son frecuentemente periodos sucesivos en los que no se puede determinar
certidumbre del estado o resultado del sistema en cualquier lapso o intervalo de tiempo
determinado. Se utilizan probabilidades de transicin para describir la forma en el que el
sistema hace transacciones de un periodo al siguiente. Por ello se habla de la probabilidad de
que el sistema se encuentre en un estado especifico en un periodo dado, que se encontraba en
un estado en el periodo anterior.
3


Las cadenas de Markov permiten encontrar la probabilidad de que un sistema se encuentre
en un estado en particular en un momento dado. Algo ms importante an, es que permite
encontrar el promedio a la larga o las probabilidades de estado estable para cada estado.
Con esta informacin se puede predecir el comportamiento del sistema a travs del tiempo.
Esta es una herramienta de gran alcance del anlisis de la confiabilidad y puede ser utilizada
en ms casos que cualquier otro mtodo. El mtodo de Markov se utiliza extensamente para

2
Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc
Graw Hill Mexico D.F., 1982 pag 330-331.
3
http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdf
ANALISIS DE MARKOV UNJBG

6


modelar sistemas con fallas y reparaciones con promedio constante. A excepcin de algunos
casos especiales.
4


La caracterstica fundamental de una cadena de Markov es esta: La probabilidad de que el
sistema bajo estudio este en una condicin particular depende solo de su condicin actual.
Por ejemplo si se usa cadena de Markov como modelo de los siguientes sistemas, entonces:

La probabilidad de que haya seis personas esperando para usar un cajero dentro de 30
minutos depende solo de cuantos hay esperando ahora.

La probabilidad de que cierto porcentaje de la prxima generacin de ratones de
laboratorio tenga una enfermedad hereditaria depende solo del porcentaje de ratones
que tienen la enfermedad en la generacin actual.
5


Ejemplo:
La probabilidad de que el da de maana este nublado, esto depende solo de las
condiciones actuales del clima.

Despus de un estudio sobre el clima, hemos visto que si un da est soleado, en el 70% de los
casos el da siguiente continua soleado y en el 30% se pone nublado. En trminos de
probabilidad, lo que nos sirve entonces para predecir el clima, vemos que la probabilidad de
que contine soleado el da siguiente es 7 y la probabilidad de que al da siguiente est
nublado es .3. Tambin nos fijamos en que si un da est nublado, la probabilidad de que est
soleado el da siguiente es .6 y la probabilidad de que se ponga nublado es 4.

Pregunta
Hoy est nublado, cul es la probabilidad de que maana contine nublado? cul es la
probabilidad de que est nublado pasado maana?
Podemos ilustrar esta situacin por medio de un diagrama de rbol:

4
http://www.unipamplona.edu.co/unipamplona/portalIG/home_10/recursos/general/documentos/pdf/16102009/18_a
r_carolina_casan.pdf
5
Libro 16 pag 568
ANALISIS DE MARKOV UNJBG

7



Con la ayuda de la Figura 1 podemos predecir qu ocurrir maana si sabemos que hoy est
nublado.
Vemos que la probabilidad de que maana contine nublado es .4, es decir, si hiciramos esta
prediccin muchas veces estaramos en lo correcto cerca del 40% de las veces. Para conocer
la probabilidad de est nublado pasado maana buscamos en las hojas del rbol
correspondientes al Tiempo pasado maana los lugares donde dice nublado. Hay dos hojas
donde esto ocurre. Ahora lo que queda es determinar cmo desde el principio, desde la raz del
rbol, podemos llegar all.
Si hoy est nublado, para que pasado maana est nublado, podramos tener un da de
maana soleado o nublado. As tenemos las siguientes secuencias en orden de (hoy, maana,
pasado maana):
(nublado, soleado, nublado) o (nublado, nublado, nublado) donde pasado maana es nublado.
Estas secuencias son mutuamente excluyentes, corresponden a caminos distintos en el rbol,
as tenemos que:
P(pasado maana nublado | hoy nublado)
= P((nublado, soleado, nublado) o (nublado, nublado, nublado))
= P(nublado, soleado, nublado) + P (nublado, nublado, nublado) = (.6 .3) + (.4 .4) = .34.
Este resultado se obtuvo multiplicando las probabilidades condicionales a lo largo de los
caminos desde hoy nublado hasta pasado maana nublado. No es necesario que seamos tan
especficos en trminos de hoy, maana o pasado maana, podemos darnos cuenta que lo
realmente importante es el nmero de das que pasa entre una prediccin y otra.
6




6
http://www.infoamerica.org/documentos_pdf/markov.pdf

ANALISIS DE MARKOV UNJBG

8


1. DESCRIPCION DE UNA CADENA DE MARKOV:
En la figura 1 se muestra el proceso para generar una cadena de Markov. El generador de
Markov produce uno de n eventos posibles, E
j
, donde j = 1, 2, ,n, a intervalos discretos de
tiempo (que no tienen que ser iguales) las probabilidades de ocurrencia para cada uno de
estos eventos dependen del estado del generador. Este estado se describe por el ltimo evento





esto









Generado . en la figura 1, el ultimo evento generado fue E
j
,de manera que el generado se
encuentra en el estado S
j
.
La Probabilidad de que E
k
sea el siguiente evento generado es una probabilidad condicional;
P(E
k
/S
j
). Esto se llama probabilidad de transicin del estado S
j
al estado E
k
. Para describir
completamente una cadena de Markov es necesario saber el estado actual y todas las
probabilidades de transicin.
7






7
Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc
Graw Hill Mexico D.F., 1982 pg. 331

Estado generador:
Sj
Movimiento
Evento generado
E
7
E
1
E
4

E
6
E
j

Tiempo
T
1
T
2
T
3
T
4

T
5

FIGURA 2
Generador de Markov
ANALISIS DE MARKOV UNJBG

9




2. PROBABILIDADES DE TRANSICION

Una forma para describir una cadena de Markov es un diagrama de estados, como el que se
muestra en la Figura 2. En esta se ilustra un sistema de Markov con cuatro estados posibles:
S
1
, S
2
, S
3
, S
4
. La probabilidad condicional o de transicin de moverse de un estado a otro se
indica en el diagrama. Para simplificar la notacin se utilizan subndices para el estado actual y
el siguiente es decir P14 = P(S4/S1). Las flechas muestran las trayectorias de transicin que
son posibles. En la figura se nota que no aparecen algunas trayectorias como la de S2 a S3.
Su ausencia significa que esas trayectorias tienen probabilidad de ocurrencia igual que cero.
8















8
Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc
Graw Hill Mexico D.F., 1982, pag. 332
P
44

P
33

FIGURA 2
Un diagrama de Estados

S
1
S
1

S
1

S
1

P
31

P
13

P
12
P
21
P
43
P
34

P
42

P
24

ANALISIS DE MARKOV UNJBG

10


Existen muchas situaciones en las cuales es posible aplicar matrices, para esto consideremos
situaciones en la que se separa a la poblacin en dos o ms categoras o estados.
Por ejemplo, podemos separar los ciudadanos de un pas de acuerdo a:
- Sus ingresos, en las categoras: pobre, ingresos medio o rico.
- Las migraciones del campo a la ciudad; o del norte al sur.
- La movilidad intergeneracional de padres a hijos, en relacin al nivel educativo.
- La preferencia por una determinada marca de bebidas.
En general al hablar de poblacin nos estaremos refiriendo a gente, pero esto no es esencial.
Podemos clasificar los automviles de acuerdo a si funcionan o no, el riesgo de poner o
cambiar nuestros ahorros de la AFP en un determinado tipo de fondo A, B, C, D; o bien,
estudiar los patrones de cambio de uso de suelo en una ciudad de rpido crecimiento.
Estamos interesados en cmo la distribucin de una poblacin entre estados puede cambiar
durante un perodo de tiempo. Las matrices y su multiplicacin pueden desempear un papel
importante en dichas consideraciones, para esto se utilizan las matrices de transicin.

3. MATRICES DE TRANSICION:
La forma ms cmoda de expresar la ley de probabilidad condicional de una cadena de Markov
es mediante la llamada matriz de probabilidades de transicin P, o ms sencillamente, matriz
de la cadena.
La tendencia de una poblacin a moverse entre n estados se puede describir a veces mediante
una matriz de n x n.
Dicha matriz es cuadrada con tantas filas y columnas como estados tiene el sistema, y los
elementos de la matriz representan la probabilidad de que el estado prximo sea el
correspondiente a la columna si el estado actual es el correspondiente a la fila.
Como el sistema debe evolucionar de t a alguno de los n estados posibles, las probabilidades
de transicin cumpliran con la propiedad siguiente:

Consideremos una poblacin distribuida entre n = 3 estados, que llamaremos estado 1, estado
2 y estado 3. Se supone que conocemos la proporcin tij de la poblacin del estado i, que se
mueve al estado j en determinado perodo de tiempo fijo.
9



9
http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60
ANALISIS DE MARKOV UNJBG

11


La matriz T = (tij) se llama matriz de transicin.
Supongamos que la poblacin de un pas, est clasificada de acuerdo con los ingresos en
Estado 1: pobre
Estado 2: ingresos medios
Estado 3: rico
Supongamos que en cada perodo de 20 aos tenemos los siguientes datos para la poblacin
y su descendencia:
De la gente pobre, el 19% pas a ingresos medios, y el 1% a rica;
de la gente con ingresos medios, el 15% pas a pobre, y el 10% a rica;
de la gente rica, el 5% paso a pobre, y el 30%, a ingresos medios.
Podemos armar una matriz de transicin de la siguiente manera:
10



10
http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60
ANALISIS DE MARKOV UNJBG

12


Obsrvese que:
1) Las entradas de la diagonal de la matriz representa la proporcin de la poblacin que no
cambia de estado en un perodo de 20 aos;
2) Un registro de la matriz da la proporcin de la poblacin del estado izquierdo del registro
que pasa al estado derecho del registro en un perodo de 20 aos.
3) La suma de los registros de cada fila de la matriz T es 1, pues la suma refleja el
movimiento de toda la poblacin para el estado relacionado en la parte izquierda de la fila.
Otra forma de presentacin de un proceso y su correspondiente matriz de transicin













Donde la i representa el estado inicial de una transicin, j representa el estado final de una
transicin, Pij representa la probabilidad de que el sistema estando en un estado i pase a un
estado j.

ANALISIS DE MARKOV UNJBG

13


1. Clculo de las probabilidades de estado estable:
Las cadenas de Markov poseen una probabilidad notable en cuanto a que tienden a
aproximarse a lo que se llama estado estable.
Cuando una cadena de Markov ha llegado lo suficientemente lejos como estar cerca de
estos lmites, se dice que ha alcanzado un estado estable. Adems, estos lmites son los
mismos, independientemente del punto de partida del sistema.
Es importante hacer notar que la existencia de una condicin de estado estable es una
propiedad adicional de las cadenas de Markov. De ninguna manera afecta las
probabilidades de transicin o la dependencia de cada estado en estado anterior. Los
lmites de estado estable se refieren solo al porcentaje de tiempo a largo plazo que el
sistema se encontrara en cada estado particular.
En la mayora de las aplicaciones el estado estable tiene una gran importancia.
1.1. Probabilidad de transiciones estacionarias de estados estables
a) Teorema:
11
Sea P la matriz de transicin de una cadena de M estados. Existe entonces un vector tal
que se establece que para cualquier estado inicial i , .
El vector a menudo se llama distribucin de estado estable, o tambin distribucin de
equilibrio para la cadena de Markov. Para encontrar la distribucin de probabilidades de
estacionario para una cadena dada cuya matriz de transicin es P, segn el teorema, para
n grande y para toda i ,
(1) Como Pij (n + 1) = (rengln i de Pn )(columna j de P), podemos escribir
(2) Ejemplo:
Suponga que toda la industria de refrescos produce dos gaseosas. Cuando una persona ha
comprado la gaseosa 1, hay una probabilidad de 90 % de que su siguiente compra sea de
la gaseosa 1. Si una persona compr gaseosa 2, hay un 80 % de probabilidades que su
prxima compra sea de gaseosa 2.

Entonces:
Al reemplazar la segunda ecuacin por la condicin, obtenemos el sistema

11
www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r55111.DOC

ANALISIS DE MARKOV UNJBG

14


Al despejar resulta que Por lo tanto, despus de largo tiempo, hay probabilidad 2/3 de que
una persona dada compre gaseosa 1 y 1/3 de probabilidad de que una persona compre
gaseosa 2.
Tiempos de primer pas:
Con frecuencia es conveniente poder hacer afirmaciones en trminos de probabilidades
sobre el nmero de transiciones que hace el proceso al ir de un estado i a un estado j por
primera vez . este lapso se llama tiempos de primer paso al ir del estado i al estado j.
Cuando J=i, esta tiempo de primer paso es justo el nmero de transiciones hasta que el
proceso regresa al estado inicial i. En este caso, el tiempo de primer paso se llama tiempo
de recurrencia para el estado i.
Para ilustrar estas definiciones, reconsidrese el ejemplo siguiente:
Una tienda de cmaras tiene en almacn un modelo especial de cmara que se puede
ordenar cada semana. Sean D1, D2, las demandas de esta cmara durante la primera,
segunda semana, respectivamente. Se supone que las Di son variables aleatorias
independientes e idnticamente distribuidas que tienen una distribucin de probabilidad
conocida. Sea X0 el nmero de cmaras que se tiene en el momento de iniciar el proceso,
X1 el nmero de cmaras que se tienen al final de la semana uno, X2 el nmero de
cmaras al final de la semana dos, etc. Suponga que X0 = 3 . El sbado en la noche la
tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda
hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la
siguiente poltica (s, S)1 para ordenar: si el nmero de cmaras en inventario al final de la
semana es menor que s =1 (no hay cmaras en la tienda), ordenar (hasta) S=3. De otra
manera, no coloca la orden (si se cuenta con una o ms cmaras en el almacn, no se
hace el pedido). Se supone que las ventas se pierden cuando la demanda excede el
inventario. Entonces, {X1} para t = 0, 1, es un proceso estocstico de la forma que se
acaba de describir. Los estados posibles del proceso son los enteros 0, 1, 2, 3 que
representan el nmero posible de cmaras en inventario al final de la semana.
Donde Xt : es el nmero de cmaras en inventario al final de la semana t y se comienza con
, Suponga que ocurri lo siguiente:
En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es de 2 semanas, el
tiempo de primer paso para ir del estado 3 al estado 0 es de 3 semanas y el tiempo de
recurrencia del estado 3 es de 4 semanas.
ANALISIS DE MARKOV UNJBG

15


En general, los tiempos de primer paso son variables aleatorias y, por lo tanto, tienen una
distribucin de probabilidad asociada a ellos. Estas distribuciones de probabilidad
dependen de las probabilidades de transicin del proceso. En particular, denota la
probabilidad de que el tiempo de primer paso del estado i al j sea igual a n. Se puede
demostrar que estas probabilidades satisfacen las siguientes relaciones recursivas:
Entonces se puede calcular la probabilidad de un tiempo de primer paso del estado i al j en
n pasos, de manera recursiva, a partir de las probabilidades de transicin de un paso. En el
ejemplo, la distribucin de probabilidad de los tiempos de primer paso del estado 3 al
estado 0 se obtiene como sigue:
Para i y j fijos, las son nmeros no negativos tales que :
Esta suma puede ser menor que 1, lo que significa que un proceso que el iniciar se
encuentra en el estado i puede no llegar nunca al estado j . Cuando la suma es igual a 1,
las pueden considerarse como una distribucin de probabilidad para la variable aleatoria, el
tiempo de primer pas.
Para obtener el tiempo esperado de primer paso del estado i al estado j. Sea , que se
define como:
Entonces satisface, de manera nica, la ecuacin:
Cuando i=j, se llama tiempo esperado de recurrencia.
Al aplicarlo al ejemplo del inventario, estas ecuaciones se pueden usar para calcular el
tiempo esperado hasta que ya no se tengan cmaras en el almacn, suponiendo que el
proceso inicia cuando se tienen tres cmaras; es decir, se puede obtener el tiempo
esperado de primer paso . Como todos los estados son recurrentes, el sistema de
ecuaciones conduce a las expresiones
La solucin simultnea de este sistema es:
De manera que el tiempo esperado hasta que la tienda se queda sin cmaras es de 3.50
semanas.
2. Mtodo de la suma de flujos:
Este mtodo esta basado en el concepto de que todo lo que entra debe salir. El diagrama
de estados se usa para presentar los flujos.
En la figura se muestra de nuevo el ejemplo anterior de dos estados. Para cada estado
puede escribirse una ecuacin tal que para el estado K se cumpla:

ANALISIS DE MARKOV UNJBG

16





(

)

)
Ejemplo de dos estados:











3. APLICACIN A LA ADMINISTRACION: CAMBIO DE MARCA
Las compras de los consumidores estn influidas por la publicidad, el precio y muchos otros
factores. Con frecuencia un factor clase es la ltima compra del consumidor. Si, por
ejemplo, alguien compra un refrigerador marca Y y le da un buen servicio, quedara
predispuesto a comprar otro refrigerador marca Y. De hecho, una investigacin de
mercado puede determinar el grado de lealtad a la marca encuestando a los consumidores.
En trminos de una cadena de Markov, los resultados de la investigacin son las
probabilidades de transicin de seguir con la marca o de cambiar.
En la siguiente figura se muestra un ejemplo de cadenas de Markov para el cambio de
marca. En este ejemplo, la marca A es la marca de inters y la marca B representa todas
las dems marcas. Los clientes son bastante leales, el 80 % de ellos son clientes que
repiten. La oposicin conserva el 70% de sus clientes.
Qu informacin puede obtenerse con el anlisis de Markov? Con el anlisis de transicin
puede descubrirse que tan probable es que un cliente cambie despus de cierto numero de
ciclos. Pero el anlisis de estado estable es el mas til. Qu interpretacin dara el lector
al promedio a largo plazo de estar en cualquiera de los estados? La de porcentajes de
mercado! El promedio a la larga del estado A es el porcentaje de mercado que puede
0.75
0.7

0.7
0.75
S
1
S
2
0.25 0.25
ANALISIS DE MARKOV UNJBG

17


esperar recibir la marca A. As, conociendo el grado de lealtad a la marca entre los clientes
puede predecirse el porcentaje de mercado para el producto o servicio.
Las ecuaciones de estado estable para el ejemplo de la figura son:
P (A) = 0.8P (A) + 0.3P (B)
P (B) = 0.2P (A) + 0.7P (B)
P(A) + P (B) = 1





La solucin de este sistema es:
P(A) = 0.6
P (B)= 0.4
Grafico: Cambio de marca







ANALISIS DE MARKOV DE PRIMER ORDEN

El proceso de Markov tiene varios rdenes, y el primero depende de los resultados del
ltimo acontecimiento (selecciones de marcas por los clientes en ese perodo), y no de
cualquier comportamiento previo de compras para la probabilidad del acontecimiento siguiente
(selecciones de los clientes para el prximo perodo).
Un anlisis de Markov de segundo orden supone que las selecciones de marcas especficas
para el prximo perodo dependern de las selecciones de marcas hechas por los clientes
durante los dos perodos anteriores.
0.7
0.7

0.7
0.8
A
B
0.2 0.3
Marca A Marca B
De: Marca A
Marca B
0.8 0.2
0.3 0.7
ANALISIS DE MARKOV UNJBG

18


De modo semejante un proceso de Markov de tercer orden, estudia la preferencia de los
clientes durante los tres ltimos perodos, a fin de pronosticar su comportamiento durante el
perodo siguiente hacia determinadas marcas.
Muchos estudios de procesos de mercados han demostrado que es vlido utilizar las
suposiciones de primer orden para fines de pronstico.
Los datos indican que las preferencias de los clientes de determinadas marcas, siguen un
patrn bastante estable. En realidad la matriz de probabilidades de transicin permanece
estable o casi estable durante cierto perodo.
12


I Procesos de Markov

Principio de Markov:
Cuando una probabilidad condicional depende nicamente del suceso inmediatamente anterior,
cumple con el Principio de Markov de Primer Orden, es decir.
ij
p i t X j t X P i t X K X K X j t X P = = = + = = = = = + ) ) ( ) 1 ( ( ) ) ( ,....., ) 1 ( , ) 0 ( ) 1 ( (
1 0


Definiciones en los Procesos de Markov de Primer Orden:

Estados: Las condiciones en las cuales se encuentra un ente sucesos posibles.
Ensayos: Las ocurrencias repetidas de un evento que se estudia.
Probabilidad de Transicin: La probabilidad de pasar de un estado actual al siguiente en un
perodo tiempo, y se denota por p
ij
( la probabilidad de pasar del estado i al estado j en una
transicin perodo)

1. Caractersticas de los Procesos de Markov de Primer Orden:
Se pueden usar como modelo de un proceso fsico econmico que tenga las siguientes
propiedades:
a) Que la probabilidad cumpla con el principio de Markov.

12
Robert J. Thierauf; Richard A. Grosse, Toma de Decisiones por medio de la Investigacin de Operaciones, Editorial LIMUSA
S.A. de C.V, Mexico D.F., 1991, pags. 404-405
ANALISIS DE MARKOV UNJBG

19


b) Existencia de un nmero finito de estados.
c) Las p
ij
son constante con respecto al tiempo perodo.
d) Ensayos en perodos iguales.

Si un suceso depende de otro adems del inmediatamente anterior, este es un proceso de
Markov de mayor orden. Por ejemplo, Un proceso de segundo orden describe un proceso en el
cual el suceso depende de los dos sucesos anteriores.
Los procesos de Markov tambin se les llaman Cadenas de Markov.

Notaciones que utilizaremos:

p
ij
= probabilidad de transicin en un perodo.
P = [p
ij
]
nxn
matriz de transicin formada por los valores de p
ij
, donde cada fila representa el
estado inicial donde se parte y las columna el estado al que se ira en un perodo.
) ) 0 ( ) ( (
) (
i X j k X P p
k
ij
= = = Representa la probabilidad de ir del estado i al estado j en k
perodos.
P
(k)
=[
) (k
ij
p ]
nxn
la matriz de transicin de k perodos.
S
i
(t) = probabilidad de encontrarse en el estado i en el perodo t.
S(t) =(S
1
(t) , S
2
(t) , . . . . , S
n
(t)) vector de probabilidad de estado en el perodo t. Para n
estados.

Los sucesos que cumplan con un proceso de Markov, se pueden representar por medio de un
esquema donde los nodos indiquen los estados y arcos dirigidos de nodo a nodo con un
nmero que representa la probabilidad de transicin de ir de un estado a otro, por medio de
una matriz de transicin.
Ejemplo:



(
(
(

=
4 . 0 4 . 0 2 . 0
3 . 0 4 . 0 3 . 0
5 . 0 3 . 0 2 . 0
P

ANALISIS DE MARKOV UNJBG

20




Para calcular:
) 1 ) 0 ( 1 ) 2 ( (
) 2 (
11
= = = X X P p = p
11
.p
11
+ p
12
.p
21
+ p
13
.p
31

= 0,2.0,2+0,3.0,3+0,5.0,2 = 0,23

) 1 ) 0 ( 2 ) 2 ( (
) 2 (
12
= = = X X P p = p
11
.p
12
+ p
12
.p
22
+ p
13
.p
32

= 0,2.0,3+0,3.0,4+0,5.0,4 = 0,38

) 1 ) 0 ( 3 ) 2 ( (
) 2 (
13
= = = X X P p = p
11
.p
13
+ p
12
.p
23
+ p
13
.p
33

= 0,2.0,5+0,3.0,3+0,5.0,4 = 0,39

Luego
) 2 (
11
p +
) 2 (
12
p +
) 2 (
13
p =1

Otra forma es usando el vector de probabilidades y la matriz de transicin, es decir:
S(0) = (1, 0, 0) S(1) = S(0).P = (0,2; 0,3; 0,5)

S(2) =S(1).P =(0,23; 0,38; 0,39)

2. Cadenas de Markov Ergdicas cadenas irreductibles.
Describen matemticamente un proceso en el cual es posible avanzar desde un estado hasta
cualquier otro estado. No es necesario que esto sea posible en un paso.

Una cadena ergdica es regular: Si para alguna potencia de la matriz de transicin tiene
nicamente elementos positivos de probabilidad (diferente de cero)

Ejemplo 1:

ANALISIS DE MARKOV UNJBG

21


(
(
(

=
6 . 0 4 . 0 0
7 . 0 0 3 . 0
0 5 . 0 5 . 0
P
(
(
(

=
64 . 0 24 . 0 12 . 0
42 . 0 43 . 0 15 . 0
35 . 0 25 . 0 40 . 0
2
P
Luego es regular (y por lo tanto ergdica)

Ejemplo 2:
(
(
(
(

=
5 . 0 0 5 . 0 0
0 4 . 0 0 6 . 0
7 . 0 0 3 . 0 0
0 6 . 0 0 4 . 0
P
(
(
(
(

=
60 . 0 0 40 . 0 0
0 52 . 0 0 48 . 0
56 . 0 0 44 . 0 0
0 48 . 0 0 52 . 0
2
P
(
(
(
(

=
h h
r r
q q
p p
P
1 0 0
0 1 0
1 0 0
0 1 0
4


Esta matriz repite continuamente este patrn para todas las potencias de P; por consiguiente
no es regular ni tampoco ergdica.

3. Propiedades de las Cadenas de Markov.
1.- Las probabilidades de estados deben ser igual a uno, es decir.
S
1
(t)+S
2
(t)+ . . . . ,+S
n
(t) = 1 para n estados.
2.- Para cada fila de la matriz P se cumple: p
i1
+p
i2
+...... +p
in
= 1 para todo
i = 1, 2, ..., n
3.- Las transiciones de un perodo al siguiente se obtienen de la siguiente ecuacin: S(t) =
S(t-1).P por lo tanto S(t) = S(0).P
t

4.- Si S(t+1) = S(t) para t > K, Entonces se dice que el sistema se estabiliza que los
estados son estacionarios estables. Esto implica que S = S.P , es decir. El vector de estado
estacionario sigue siendo igual despus de la transicin t.

Ejemplo para calcular el vector de equilibrio o de estado estacionario.
Sea :
ANALISIS DE MARKOV UNJBG

22


(

=
5 / 1 5 / 4
5 / 2 5 / 3
P
(

=
2 5 / 9 2 5 / 1 6
2 5 / 8 2 5 / 1 7
2
P
(

=
1 2 5 / 4 1 1 2 5 / 8 4
1 2 5 / 4 2 1 2 5 / 8 3
3
P
(

=
625 / 209 625 / 416
625 / 208 625 / 417
4
P
(

=
3125 / 1041 3125 / 2084
3125 / 1042 3125 / 2083
5
P
(

=
3 / 1 3 / 2
3 / 1 3 / 2
6
P
(

=
3 / 1 3 / 2
3 / 1 3 / 2
7
P El proceso se estabiliza en el perodo 6

Otra forma:
Se calcula el siguiente sistema

=
=

1
.
i
S
P S S
en este caso

= +
+ =
+ =
1
2 , 0 4 , 0
8 , 0 6 , 0
2 1
2 1 2
2 1
S S
S S S
S S S
y
queda

= +
=
1
0 8 , 0 4 , 0
2 1
2 1
S S
S S

Cuya solucin es: S
1
= 2/3 y S
2
= 1/3

Observacin: Las ecuaciones que se obtienen del desarrollo de S =S.P Siempre hay una
ecuacin que es combinacin lineal de las dems ecuaciones, por lo tanto se omite para que el
sistema quede con n ecuaciones y n variables.

4. Estados Absorbentes:
Es aquel estado que tiene una probabilidad de ser abandonado igual a cero, es decir. Una vez
en l es imposible dejarlo. Esto quiere decir:
Si i es un estado absorbente si se cumple que p
ij
=0 si i = j y p
ii
=1.

Una cadena de Markov es Absorbente:
Si se cumple:
a) Tiene por lo menos un estado Absorbente.
ANALISIS DE MARKOV UNJBG

23


b) Es posible ir de cada estado no absorbente hasta por lo menos un estado absorbente.
No es necesario efectuar esta transicin en un paso; ni es necesario tener la posibilidad
de alcanzar cada estado absorbente a partir de cualquier estado no absorbente.


5. Anlisis de las cadenas de Markov Absorbentes.
A partir del anlisis de estas cadenas, es posible determinar los siguientes datos:
1) El nmero esperado de pasos antes de que el proceso sea absorbido.
2) El nmero esperado de veces que el proceso est en cualquier estado dado no
absorbente.
3) La probabilidad de absorcin por cualquier estado absorbente dado.

El primer paso del anlisis es construir una submatriz H de P formada de estados no
absorbentes a estados no absorbentes. Luego H da las probabilidades de ir desde cualquier
estado no absorbente hasta otro estado no absorbente en un paso exactamente, H
2
da las
probabilidades de ir desde cualquier estado no absorbente hasta otro estado no absorbente en
dos pasos exactamente. H
3
da informacin similar para tres pasos, etc. Por lo tanto, H
n
da esta
misma informacin para n pasos.
Para hallar el nmero esperado de pasos antes que el proceso sea absorbido, consiste en
calcular el nmero esperado de veces que el proceso puede estar en cada estado no
absorbente y sumarlos. Esto totalizara el nmero de pasos antes de que el proceso fuera
absorbido y por consiguiente el nmero esperado de pasos hacia la absorcin. Luego:
I+H+H
2
+H
3
+ .. = (I-H)
-1
=Q Por consiguiente Q representa el nmero esperado de perodos
que el sistema estar en cada estado no absorbente antes de la absorcin, por lo tanto la suma
de cada fila de Q representa el promedio de perodos que transcurren antes de ir a un estado
absorbente.

Para hallar la probabilidad de absorcin por cualquier estado absorbente dado, se emplea una
lgica similar en el anlisis. Se construye una submatriz G de P formada de estados no
absorbente a estados absorbentes y representa la probabilidad de ir de un estado no
absorbente a un estado absorbente en un paso exactamente, H.G representa la probabilidad
ANALISIS DE MARKOV UNJBG

24


de ir de un estado no absorbente a un estado absorbente en dos pasos exactamente y as
sucesivamente. Por lo tanto G+H.G+H
2
.G+..... =( I+H+H
2
+H
3
+ ..).G =(I-H)
-1
.G = Q.G =R, Y
esta matriz representa la proporcin probabilidad en que un estado no absorbente pasa a un
estado absorbente.



Nmero de pasos para alcanzar por primera vez un estado determinado en cadenas no
absorbentes (Tiempo de la primera transicin)

Si definimos a f
ij
como el promedio de perodos que transcurre antes de cambiar de un estado i
al estado j por primera vez. Se tiene que

=
+ =
j k
kj ik ij
f p f . 1 y adems
i
ii
S
f
1
=
Otro mtodo: Consiste en transformar en estado absorbente el estado al cual queremos ir por
primera vez, por ejemplo si j es el estado que queremos llegar por primera vez, para ello la
matriz P se modifica de manera que el estado j aparezca como estado absorbente y obtener la
matriz Q de esta transformacin y por lo tanto

=
iA iA
q f donde A representa el estado
absorbente.

Valor Econmico Esperado en un Proceso cadena de Markov.
En un proceso de Markov estar en cada estado genera un costo beneficio, por lo tanto el
valor econmico esperado se define:

= =
i i
ii
i
S c
f
c
C E . ) ( , es decir, el valor econmico por la probabilidad del sistema
estabilizado.
13




VI. CONDICIONES DE EQULIBRIO

13
http://ares.unimet.edu.ve/matematica/bpma31/Modelos%20Estocasticos/PROCESOS%20DE%20MARKOV.doc
ANALISIS DE MARKOV UNJBG

25


Solo puede haber una condicin de equilibrio si ninguno de los competidores altera la matriz
de probabilidades de transicin .Es razonable suponer que podra llegarse en el futuro a un
estado de equilibrio, con respecto a las participaciones de mercado. El intercambio de clientes
en trminos de retencin, ganancias o prdidas, seria esttico en el momento en que se
lograra el equilibrio .En trminos de mercadotecnia cuales son las participaciones de
mercado final o de equilibrio?
Pueden emplearse varias matrices de probabilidades de transicin para demostrar las
condiciones de equilibrio.
El ejemplo ms comn es aqul en que ninguna empresa obtiene toda la clientela o sea
que en un total de tres empresas, ni una ni dos de ellas se apoderan de todo el mercado.
Hay cierta condicin final de equilibrio que se desarrolla y continua basndose en una matriz
estable de probabilidades de transicin.
En casi todos los problemas de markov, ordinariamente las prdidas y ganancias son de gran
magnitud en los primeros periodos.
(14)

VII. USO DEL ANALISIS DE MARKOV POR LA ADMINISTRACION
En gran parte, el material precedente ha tratado la metodologa del anlisis de markov, que
bsicamente es un instrumento de mercadotecnia de la administracin, para determinar la
estrategia de mercadotecnia ms apropiada para la empresa. Esto puede demostrarse con el
ejemplo siguiente, en el que inicialmente cada empresa cuenta con la tercera parte del
mercado.


(
(
(

7 . 1 . 3 .
2 . 6 . 2 .
1 . 3 . 5 .


Suponiendo que la matriz de probabilidades de transicin no cambie , las participaciones de
equilibrio o a la larga de mercado de A,B y C, sern de 27.8, 33.3 y 38.9 por ciento ,
respectivamente .Sabiendo que espera perder una parte de su mercado en el futuro, el

14
J. Thierauf Robert , A. Grosse Richard. Toma de decisiones por medio de Investigacion de
Operaciones. pg. 410.

A B
C
Retencin y ganancia
Retencin y prdida
A
B
C

ANALISIS DE MARKOV UNJBG

26


vendedor A puede hacer algo con respecto a la situacin actual, para impedir que esto
ocurra .A dispone de dos estrategias posibles: puede tratar de retener un mayor nmero de
sus propios clientes (estrategia 1), o puede encaminar sus esfuerzos de
mercadotecnia(publicidad y ventas personales)hacia los compradores que se cambian a los
vendedores B y C (estrategia 2).
Refirindonos a la estrategia 1, el vendedor A podra tratar de retener un mayor nmero de
clientes, digamos de .5 a .7. Ese cambio supone que A disminuye sus prdidas de clientes a
favor de B y C. La nueva matriz de probabilidades de transicin es:


(
(
(

7 . 1 . 2 .
2 . 6 . 1 .
1 . 3 . 7 .


Las nuevas participaciones de equilibrio de mercado son: A, 38.6, B , 27.0 y C, 34.4 por
ciento. Actualmente, esos esfuerzos especficos de ventas han dado por resultado una
posicin ms favorable a la larga para el vendedor A.
La segunda estrategia (del vendedor A, que encamina sus esfuerzos de ventas a los
compradores que cambian a B y a C), se muestra en la matriz revisada de probabilidades de
transicin:


(
(
(

7 . 5 . 0 . 3 .
1 . 6 . 2 .
2 . 35 . 5 .



Los clculos de las participaciones de eq uilibrio de mercado son: A, 32.6, B, 19.0, y C, 84.4
por ciento.
Podemos preguntar :Cul es la mejor estrategia para el vendedor A? el factor decisivo es el
factor de costo de los esfuerzos de ventas , si todos los dems permanecen iguales .Si los
de las dos estrategias son iguales, evidentemente la estrategia 1 ser la mejor .Sin embargo ,
A B
C
A B
C A
B
C

A
B
C

ANALISIS DE MARKOV UNJBG

27


cuando los factores de costo del esfuerzo de ventas no son iguales , la seleccin de la
respuesta apropiada depender del anlisis marginal , los ingresos adicionales comparados
con los costos adicionales.
El anlisis Markov no se limita en modo alguno a determinar las participaciones de mercado
a corto plazo y a largo plazo .Muchas compaas estn usando las cadenas de markov como
ayuda para el anlisis de las necesidades de mano de obra de su grupo de vendedores. Cada
ao, hay empresas que esperan perder una porcin de su grupo de vendedores debido a
renuncias, retiros o muertes. Los vendedores actuales tienen diferentes niveles de
experiencia, instruccin y capacidad. Una empresa tiene que contratar nuevos elementos para
remplazar los que se van , y otros ms para satisfacer sus crecientes requerimientos .La alta
gerencia se enfrenta al problema de calcular las futuras necesidades de mano de obra , de
acuerdo con la edad y la clase de servicio , en vista de las caractersticas del movimiento de
personal y del crecimiento planeado de las ventas .
El primer paso consiste en calcular los porcentajes de retencin de los vendedores en las
diversas clases de servicio y de edad .Esos porcentajes calculados se utilizan en el anlisis
de Markov para proyectar las futuras caractersticas de la fuerza de vendedores , si no se
contratan nuevos elementos .Se analizan los patrones alternativos de reclutamiento con
respecto a su efecto en la composicin de la futura fuerza de ventas y probable nivel de
ventas .Para cierta meta de ventas, puede recomendarse a la administracin superior la
cantidad mnima y el tipo de vendedores que haya reclutar cada ao. El anlisis de Markov
tambin puede aplicarse a las dems funciones principales de la empresa, desde el punto de
vista de las necesidades de personal.
Otras reas donde se han aplicado las cadena de Markov, son las estimaciones de las
tolerancias para cuentas dudosas en el campo de contabilidad, y la introduccin de un nuevo
producto. Con relacin a lo segundo ,una empresa quiere saber, por ejemplo , como se
vender su nuevo producto , un limpiador para cuartos de bao , cuando se ponga en los
estantes de un supermercado , al lado de otros limpiadores para bao. Algunos pueden ser
lquidos en botella, otros pueden ser en polvos en lastas de fibra , cremas en recipientes de
plstico, o en forma de aerosoles. Generalmente esa situacin requiere la construccin de
modelos matemticos sobre la forma en que pueda cambiar o cambiarse la lealtad de los
clientes a determinado producto. En realidad, los matemticos de la empresa tendrn que
ANALISIS DE MARKOV UNJBG

28


expresar la lealtad de los clientes de Markov que muestren el comportamiento de
intercambio de los clientes.
15



VI. APLICACIN DE LAS CADENAS DE MARKOV A LAS DIFERENTES
MATERIAS

a) Fsica
Los sistemas Markovian aparecen extensivamente adentro fsica, particularmente mecnicos
estadsticos, siempre que las probabilidades se utilicen para representar los detalles
desconocidos o unmodelled del sistema, si puede ser asumido que las dinmicas son tiempo-
invariantes, y que ninguna historia relevante necesita ser considerada que no se incluye ya en
la descripcin del estado.
b) Prueba
Varios tericos han propuesto la idea de la prueba estadstica de la cadena de Markov, un
mtodo de conjoining cadenas de Markov para formar una manta de Markov, arreglando
estas cadenas en varias capas recurrentes (wafering) y produciendo sistemas ms eficientes
de la prueba - muestras - como reemplazo para la prueba exhaustiva. MCSTs tambin tiene
aplicaciones en redes estado-basadas temporales; Chilukuri y otros. 'redes temporales dadas
derecho papel del razonamiento de la incertidumbre de s las para la fusin de la evidencia con
los usos para oponerse la deteccin y seguir (ScienceDirect) dan un estudio excelente del
fondo y de caso para aplicar MCSTs a una gama de usos ms amplia.
c) Teora que hace cola

15
J. Thierauf Robert , A. Grosse Richard. Toma de decisiones por medio de Investigacion de
Operaciones. pg. 418.

ANALISIS DE MARKOV UNJBG

29


Las cadenas de Markov se pueden tambin utilizar para modelar varios procesos adentro
teora que hace cola y estadstica.
[2]
. Claude Shannon papel famoso 1948 Una teora
matemtica de la comunicacin, de que en un solo paso cre el campo teora de informacin,
se abre introduciendo el concepto de entropa con modelar de Markov de la lengua inglesa.
Tales modelos idealizados pueden capturar muchas de las regularidades estadsticas de
sistemas. Incluso sin describir la estructura completa del sistema perfectamente, tales modelos
de la seal pueden hacer muy eficaz posible compresin de datos por codificacin de la
entropa tcnicas por ejemplo codificacin aritmtica. Tambin permiten la valoracin eficaz del
estado y reconocimiento de patrn. Los sistemas de telfono mvil del mundo dependen de
Algoritmo de Viterbi para error-correction, mientras que modelos ocultados de Markov se
utilizan extensivamente adentro reconocimiento de discurso y tambin adentro bioinformatics,
por ejemplo para la regin de la codificacin/la prediccin del gene. Las cadenas de Markov
tambin desempean un papel importante adentro el aprender del refuerzo.
d) Usos del Internet
PageRank de un Web page segn lo utilizado cerca Google es definido por una cadena de
Markov. Es la probabilidad a estar en la pgina i en la distribucin inmvil en la cadena de
Markov siguiente en todos los Web pages (sabidos). Si N es el nmero de Web pages sabidos,
y una pgina i tiene k
i
los acoplamientos entonces tiene probabilidad de la transicin para todas
las pginas a las cuales se ligan y para todas las pginas que no son se lig a. El parmetro q
se toma para ser cerca de 0.15.
Los modelos de Markov tambin se han utilizado para analizar el comportamiento de la
navegacin de la tela de usuarios. La transicin del acoplamiento de la tela de un usuario en un
Web site particular se puede modelar usando los modelos primeros o second-order de Markov
y se puede utilizar hacer predicciones con respecto a la navegacin futura y personalizar el
Web page para un usuario individual.
e) Estadstico
Los mtodos de la cadena de Markov tambin han llegado a ser muy importantes para generar
secuencias de nmeros al azar para reflejar exactamente distribuciones deseadas muy
complicadas de la probabilidad, va un proceso llamado Cadena de Markov Monte Carlo
ANALISIS DE MARKOV UNJBG

30


(MCMC). Estos ltimos aos esto tiene revolutionised la factibilidad de Inferencia Bayesian
mtodos, permitiendo una amplia gama de distribuciones posteriores ser simulado y sus
parmetros ser encontrados numricamente.


f) Economa
La macroeconoma dinmica utiliza pesadamente cadena de Markov.
g) Biologa matemtica
Las cadenas de Markov tambin tienen muchos usos en modelar biolgico, particularmente
procesos de la poblacin, que son tiles en modelar los procesos que son (por lo menos)
anlogos a las poblaciones biolgicas. Matriz de Leslie es un tal ejemplo, aunque algunas de
sus entradas no son probabilidades (pueden ser 1 mayor que). Otro ejemplo importante es el
modelar de la forma de la clula en dividir las hojas de clulas epiteliales]. La distribucin de
formas -- predominante hexagonal -- era un misterio de muchos aos hasta que fue explicado
por un modelo simple de Markov, donde est su nmero el estado de una clula de lados. La
evidencia emprica de ranas, de moscas de fruta, y del hydra ms futuro sugiere que la
distribucin inmvil de la forma de la clula sea exhibida por casi todos los animales
multicelulares
h) Juego
Las cadenas de Markov se pueden utilizar para modelar muchos juegos de la ocasin. Los
juegos de los nios Serpientes y escalas y Hi Ho! La Cereza-o ", por ejemplo, es representada
exactamente por cadenas de Markov. En cada vuelta, el jugador sale en un estado dado (en un
cuadrado dado) y de all ha fijado probabilidades de trasladarse a ciertos otros estados
(cuadrados).
i) Bisbol
ANALISIS DE MARKOV UNJBG

31


Los modelos de las cadenas de Markov se han utilizado en anlisis avanzado del bisbol
desde 1960, aunque su uso sigue siendo raro. Cada mitad-turno de un juego del bisbol cabe
el estado de la cadena de Markov cuando el nmero de corredores y las salidas se consideran.
Para cada mitad-turno hay 24 combinaciones posibles del agotamiento. Los modelos de la
cadena de Markov se pueden utilizar para evaluar los funcionamientos creados para ambos
jugadores individuales as como un equipo.
16

UNA APLICACIN DE LAS CADENAS DE MARKOV
EN UN PROCESO INDUSTRIAL


INTRODUCCIN:

El presente trabajo pretende mostrar la aplicacin de las cadenas de Markov en el proceso
industrial de fabricacin de tejas de asbesto cemento en la empresa Torres S.A.

ANTECEDENTES:

Torres es una empresa del grupo Eternit Blgica dedicada a generar soluciones a la industria
de la construccin con sus productos de asbesto cemento.
En esta empresa es una prioridad el manejo del Scrap(desperdicio) en el proceso productivo
debido a que su acumulacin s convierte en un problema ambiental y a su vez una carga en el
costo final del producto.
El proceso productivo se puede describir as:
1. Humectacin: lugar donde se combinan las materias primas para generar la mezcla con la
que se elaboraran las tejas de asbesto cemento.
2. Fabricacin: lugar donde la mezcla del proceso anterior se le da forma de teja.
3. Desmoldeo: lugar donde la teja es fraguada y separada de los moldes y apilada en estibas.

16
(www.worldlingo.com/ma/enwiki/es/Markov_chain)

ANALISIS DE MARKOV UNJBG

32


4. Almacn de producto terminado: lugar donde las tejas provenientes de desmoldeo
terminan su ciclo de fraguado.
5. Scrap: lugar donde se almacenan los desperdicios o defectuosos generados por los
procesos anteriores.







Icnico del proceso:

HUMECTACIN



FABRICACIN DESMOLDEO APT

SCRAP



OBJETIVOS:
ANALISIS DE MARKOV UNJBG

33



GENERAL:

Aplicar la teora fundamental de cadenas de Markov para determinar el comportamiento de la
materia prima a futuro en cada proceso.

ESPECIFICOS:

- Mostrar que el proceso es una cadena de Markov.
- Construir la matriz de transicin.
- Mostrar que los estados son accesibles.
- Mostrar que los estados se comunican.
- Mostrar que los estados son recurrentes.
- Mostrar que los estados son aperidicos.
- Presentar los tiempos de: recurrencia y primera ocurrencia.


MARCO TERICO:

1. PROCESOS MARKOV

1.1. ESTADOS DEL SISTEMA:

Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es
exhaustivo y describe todos los posibles estados donde el sistema puede estar. La
transicin del estado i a j ocurre con una probabilidad p
ij

Podemos pensar en un modelo de Markov como una simple lnea de transferencia. Se
puede pensar en dos mquinas y en un inventario. Cada mquina es descrita por su tiempo
ANALISIS DE MARKOV UNJBG

34


de operacin, su tiempo para la falla y su tiempo para la reparacin. El tiempo de proceso
se refiere a la cantidad de tiempo en que demora hacer una parte. El tiempo para la falla, es
el tiempo que ocurre entre la ltima reparacin y el siguiente dao. El tiempo para
reparacin, es el tiempo que transcurre entre el ultimo dao y el momento en que la
mquina esta disponible para operar. Estas cantidades pueden ser deterministicas, en
estos casos se obtienen estados discretos y una cadena de Markov con transiciones
discretas(o tiempos discretos en la cadena de Markov). Tambin puede ser continuo con
variables aleatorias. Se asume que la primera mquina nunca deja de ser alimentada y la
ultima maquina nunca es bloqueada. Se modela para una maquina y as tener una idea
bsica de la cadena de Markov. En este caso el estado de la maquina se describe por su
estatus, Wi, donde:


Wi =
1 mquina disponible
0 mquina en reparacin


M1


Inventario


M2

La cadena se puede representar as:
Donde de 0 a 1 se da la probabilidad de repararse.
Donde de 1 a 0 se da la probabilidad de falla.


0


1
ANALISIS DE MARKOV UNJBG

35





Estas probabilidades se obtienen al observar las mquinas en operacin por un largo
periodo de tiempo. Estos datos se pueden recopilar para determinar que porcentaje de
tiempo la mquina esta siendo reparado e igual para el porcentaje de tiempo que la mquina
esta disponible para el trabajo.
Ahora los estados de este proceso consisten en el estatus de cada mquina ms la cantidad
de material presente en el sistema. Especficamente, el estado del sistema es:
S=(n,W1,W2),
Donde: n= # de piezas en inventario + # piezas en la mquina 2 0<=n<=N

Ya que n, W1 y W2 son enteros, el sistema es descrito por un conjunto de estados
mutuamente excluyentes y colectivamente exhaustivos S1, S2,......., Sm. Entonces el
sistema puede estar solo en uno de estos estados en algn instante de tiempo dado.
El sistema puede experimentar un cambio de estado(o una transicin de estado) en un
instante de tiempo discreto de acuerdo a un conjunto de probabilidades. Permitamos que
P[Si(k)]= probabilidad que el sistema este en el estado Si en el tiempo k.
Ahora se puede decir que un cambio de estado ocurrir con probabilidad,
P[Sj(k)]/Sa(k-1), Sb(k-2), Sc(k-3).......] 1<=j,a,b,c<=m k = 1,2,3....

Lo anteriores denota como la probabilidad de transicin. Note que (j) podr ser igual a (a),
para el caso en que no cambie de estado.

1.2. LA CONDICIN DE MARKOV:

Si P [Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,.....
ANALISIS DE MARKOV UNJBG

36


Entonces el sistema es un estado discreto de discretas transiciones de procesos de
Markov. La implicacin de esta condicin es que la historia anterior del sistema a su llegada
en (a) no tiene efecto en la transicin a (j). En otras palabras, el sistema no tiene memoria.

1.3. PROBABILIDADES DE TRANSICIN:

Para una cadena de Markov, se definen las probabilidades de transicin como:
p
ij
= P[Sj(k) / Si(k-1)] 1<= i,j <= m y las p
ij
son independientes de (k). Estas
probabilidades pueden ser incluidas en una matriz de transicin,

P11 P12 ........................ P1m
P21 P22 ........................ P2m
P= . . . .
. . . .
Pm1 Pm2 ........................ Pmm

Tambin note que las transiciones de probabilidad satisfacen
0<=p
ij
<=1
y
m
p
ij
=1, i = 1,2,3...........,m
.j=1

Debido a que los estados son mutuamente excluyentes y colectivamente exhaustivos.
ANALISIS DE MARKOV UNJBG

37


La matriz P, proporciona una completa descripcin del proceso de Markov el cual se usara
para responder numerosas preguntas sobre el sistema. Por ejemplo, Q1. Cul es la
probabilidad que el sistema este en Si despus de k transiciones si el estado en k=0 es
conocido?

Se puede responder la pregunta as:

P[Sj(k+1)]=P[S1(k)p
1j
+P[S2(k)]p
2j
+......+P[Sm(k)]p
mj
,

Donde P[Sj(k+1)]=probabilidad que el sistema este en el estado Sj en el tiempo k+1.
En la ecuacin anterior, j=1,2,.....,m.
Si se escriben todas las m, se puede representar en forma matricial y obtener:

(P[S1(k+1)] P[S2(k+1)].P[Sm(k+1)])

P11 P12 ................. P1m
P21 P22 ................. P2m
=(P[S1(k+1)] P[S2(k+1)].P[Sm(k+1)]) . . ................. .
. . ................. .
Pm1 Pm2 ................. Pmm
O de la siguiente forma:
P(k+1) = P(k)P , k=0,1,2......
Para responder a la pregunta Q1 por induccin,
ANALISIS DE MARKOV UNJBG

38



P(1) =

P(0)P

P(2)=

P(1)P=

P(0)P
2
. . .
. . .
P(k) = P(0)P
k

k=0,1,2......
Por ejemplo si se tiene la siguiente cadena de Markov de dos estados










De los estados del diagrama tenemos la siguiente matriz:
0.5 0.5

0.4 0.6
P=


Para encontrar P(k), se necesita P
k
, que puede ser encontrada con una tcnica como la de
Cayley-Hamilton(este modelo es aplicado para una matriz 2x2, no se sabe cual es el modelo
para otro tipo de matriz).

P
k
= ((0.1)
k-1
-1)I + (10-(0.1)
k-1
)P
9 9

Donde I es la matriz identidad. P
k
puede ser evaluada para un k especfico, entonces:
0.5
0.5

1

2

0.4
0.6
ANALISIS DE MARKOV UNJBG

39



P(k) = P(0)P
k


En un caso de inters particular es en el que k tiende al infinito. Para este ejemplo:

4/9 5/9

4/9 5/9
P
k
=


Con k tendiendo al infinito.
Claramente, P
k
llega a una constante. Esto conlleva a otra propiedad la que puede ser vista
con el rotulo de P(0)=(1 0). Entonces P
k
=[4/9 5/9] con k tendiendo al infinito. Similarmente,
si P(0)=(0 1), entonces P(k) con k tendiendo al infinito sigue siendo igual. As, los limites de
las probabilidades de estado son independientes del estado inicial. Muchos procesos de
Markov presentan esta propiedad y son relacionados como procesos ergdicos.

1.4. CLASIFICACIN DE LOS ESTADOS

Lmite de las probabilidades de estado:
Si k tiende a infinito, P(k) llega a una constante, entonces el limite de las
probabilidades de estado existe y son independientes de la condicin inicial.


Lim
k

infinito



Para el ejemplo, esta ecuacin se puede ser resuelta con la restriccin
ANALISIS DE MARKOV UNJBG

40



i
m

i

1 2
)
Estado transitorio
S
i
es un estado transitorio si se puede dejar el estado pero nunca retornar a l.

Estado absorbente
S
i
es un estado absorbente si el sistema entra al estado y permanece ah. Y el lmite
de la probabilidad de estado es 1. este estado es conocido tambin como estado
trampa.

Cadena recurrente
Una cadena recurrente es un conjunto de estados de los que el sistema no puede
salir. Un estado transitorio conduce al sistema dentro de este conjunto de estados. El
sistema hace saltos dentro de este conjunto indefinidamente. La cadena recurrente es
tambin llamada subcadena de Markov irreducible o de clases recurrentes.

Finalmente se presentan unos tiles factores de las cadenas de Markov:
Cada cadena de Markov debe tener al menos una cadena recurrente
Una cadena recurrente es un estado absorbente generalizado
Un proceso de Markov que tiene una cadena recurrente ser completamente ergdica
desde dondequiera que el inicie finalizara en cadena recurrente
Si un proceso tiene dos o ms cadenas recurrentes, entonces la propiedad ergdica
no se mantiene en el tiempo
Un estado transitorio es un estado que ocupa el sistema antes de convertirse en una
cadena recurrente

2. CLASIFICACIN DE LOS ESTADOS:

ANALISIS DE MARKOV UNJBG

41


Recurrentes:
inf
n=1
f
ii
n
=1
- Absorbentes si p
ii
=1
- Recurrentes nulos u
ii
= inf
- Recurrentes positivos u
ii
< inf
- Ergdico: recurrente positivo aperidico
Transitorio o transiente: si hay alguna probabilidad positiva de no volver all,
inf
n=1
f
ii
n
<1
Estados Efmero: no puede ser alcanzado desde ningn otro estado
J es Accesible, si p
ij
n
>0
Comunicados Si i es accesible desde j
Si j es accesible desde i
Pertenecen a una clase: cadena irreductible
Peridico: tiene periodo
Aperidico: no tiene periodo

ANALISIS DE MARKOV UNJBG

42


SOLUCIN DEL PROBLEMA

1. DESCRIPCIN DE LOS ESTADOS

NUMERO DE ESTADO ESTADO
1 HUMECTACIN
2 FABRICACIN
3 DESMOLDEO
4 APT
5 SCRAP

2. EL PROCESO COMO CADENA DE MARKOV

HUMECTACIN



FABRICACIN DESMOLDEO APT

SCRAP



El proceso se define como una cadena de Markov debido a que cumple la propiedad
Markoviana de la siguiente forma:
ANALISIS DE MARKOV UNJBG

43



- Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j,a, b, c,.....
entonces el sistema es un estado discreto de discretas transiciones de procesos de
Markov.
- La materia prima fluye por todo el proceso productivo.
- Al pasar de un estado a otro ella se puede convertir en producto terminado o en scrap.
- La cantidad de materia prima que llega a un estado, depende solo de lo que sea capas
de pasar como producto bueno el estado anterior. El proceso se mira como un
proveedor que le entrega a su prximo cliente sin importar que tanto le entrega el
proveedor del nivel anterior al proveedor actual. En otras palabras lo que llega a
APT(almacn de producto terminado)solo depende de lo que le entregue DESMOLDEO
y no depende de lo que entregue HUMECTACIN.
3. DATOS PARA CONSTRUIR LA MATRIZ DE TRANSICIN.

DATOS PROCESO DE HUMECTACIN
TONELADAS TONELADA
S
TONELADA
S
D
A
PRODUCIDAS PERDIDAS RECIBIDAS
1 178 0.25 177.75
2 180 0.13 179.87
3 175 0.16 174.84
4 178 0.25 177.75
5 179 0.25 178.75
6 176 0.26 175.74
7 176 0.16 175.84
8 180 0.25 179.75
9 175 0.25 174.75
10 179 0.22 178.78
11 178 0.24 177.76
12 178 0.18 177.82
13 178 0.25 177.75
14 179 0.22 178.78
15 176 0.17 175.83
16 176 0.23 175.77
17 179 0.14 178.86
18 177 0.18 176.82
19 177 0.25 176.75
20 177 0.22 176.78
21 178 0.27 177.73
ANALISIS DE MARKOV UNJBG

44


22 179 0.20 178.80
23 179 0.17 178.83
24 180 0.19 179.81
25 179 0.17 178.83
26 178 0.24 177.76
27 176 0.23 175.77
28 176 0.20 175.80
29 175 0.22 174.78
30 179 0.15 178.85
Produccin Total= 5330
Produccin
Entregada=
5323.68
Produccin Perdida= 6.32

ANALISIS DE MARKOV UNJBG

45




DATOS PROCESO DE FABRICACIN
TONELADA
S
TONELADAS TONELADAS
DA PRODUCIDA
S
PERDIDAS ENTREGADA
S
1 177.75 0.38 177.37
2 179.87 0.24 179.62
3 174.84 0.19 174.65
4 177.75 0.26 177.49
5 178.75 0.27 178.48
6 175.74 0.49 175.25
7 175.84 0.19 175.64
8 179.75 0.51 179.24
9 174.75 0.40 174.35
10 178.78 0.29 178.49
11 177.76 0.52 177.24
12 177.82 0.45 177.37
13 177.75 0.41 177.33
14 178.78 0.30 178.48
15 175.83 0.23 175.60
16 175.77 0.50 175.28
17 178.86 0.27 178.59
18 176.82 0.46 176.36
19 176.75 0.41 176.34
20 176.78 0.50 176.27
21 177.73 0.40 177.34
22 178.80 0.18 178.62
23 178.83 0.28 178.55
24 179.81 0.22 179.59
25 178.83 0.23 178.60
26 177.76 0.46 177.30
27 175.77 0.52 175.24
28 175.80 0.46 175.34
29 174.78 0.48 174.30
30 178.85 0.40 178.45

Produccin Total= 5323.678548
Produccin
Entregada=
5312.77
Produccin Perdida= 10.90
ANALISIS DE MARKOV UNJBG

46




DATOS PROCESO DE DESMOLDEO
TONELADAS TONELAD
AS
TONELADA
S
DA DESMOLDEADA
S
PERDIDAS ENTREGAD
AS
1 177.37 2.40 174.96
2 179.62 2.10 177.52
3 174.65 2.15 172.50
4 177.49 2.04 175.45
5 178.48 2.67 175.81
6 175.25 2.46 172.79
7 175.64 2.39 173.25
8 179.24 2.63 176.61
9 174.35 2.84 171.50
10 178.49 2.84 175.65
11 177.24 2.61 174.63
12 177.37 2.13 175.24
13 177.33 2.42 174.92
14 178.48 2.33 176.15
15 175.60 2.42 173.18
16 175.28 2.13 173.14
17 178.59 2.23 176.37
18 176.36 2.36 174.01
19 176.34 2.71 173.64
20 176.27 2.84 173.44
21 177.34 2.73 174.61
22 178.62 2.28 176.35
23 178.55 2.10 176.45
24 179.59 2.03 177.55
25 178.60 2.43 176.17
26 177.30 2.30 175.00
27 175.24 2.00 173.24
28 175.34 2.80 172.54
29 174.30 2.14 172.16
30 178.45 2.00 176.45

Produccin Total= 5312.77
Produccin Entregada= 5241.27
Produccin Perdida= 71.51
ANALISIS DE MARKOV UNJBG

47




DATOS PROCESO APT
TONELADA
S
TONELADAS TONELADAS
D
A
REVISADAS PERDIDAS ENTREGADA
S
1 177.09 0.57 176.52
2 179.27 0.49 178.78
3 174.30 0.48 173.81
4 177.16 0.54 176.61
5 178.29 0.59 177.70
6 174.99 0.44 174.55
7 175.30 0.57 174.73
8 178.97 0.50 178.47
9 174.08 0.50 173.57
10 178.18 0.45 177.73
11 176.98 0.51 176.48
12 177.17 0.47 176.69
13 177.09 0.55 176.54
14 178.23 0.57 177.67
15 175.44 0.50 174.94
16 174.98 0.54 174.44
17 178.30 0.56 177.73
18 176.17 0.52 175.64
19 176.10 0.54 175.56
20 175.92 0.59 175.34
21 177.07 0.45 176.62
22 178.33 0.42 177.91
23 178.37 0.58 177.79
24 179.41 0.41 179.00
25 178.40 0.56 177.84
26 177.01 0.54 176.47
27 175.05 0.41 174.64
28 175.12 0.45 174.66
29 174.16 0.53 173.63
30 178.23 0.52 177.72

Produccin Total= 5305.159114
Produccin
Entregada=
5289.79
Produccin
Perdida=
15.37
ANALISIS DE MARKOV UNJBG

48


4. ICNICO DEL PROBLEMA




Humectacin Fabricacin Desmoldeo Apt












Scrap

5. CALCULO DE PROBABILIDADES
Proporciones
Proporciones de Humectacin
Produccin Total= 5330
Produccin Entregada= 5323.68 0.999
Produccin Perdida= 6.32 0.001
Proporciones de Fabricacin
Produccin Total= 5323.678548
Produccin Entregada= 5312.77 0.998
Produccin Perdida= 10.90 0.002
Proporciones de Desmoldeo
Produccin Total= 5312.774
Produccin Entregada= 5241.267 0.987
Produccin Perdida= 71.50624043 0.013
Proporciones de Almacn Producto Terminado
Produccin Total= 5305.159114
Produccin Entregada= 5289.79 0.997
Produccin Perdida= 15.37 0.003
Proporciones de Scrap
Produccin Entregada= Por norma de calidad 0.010
Produccin Perdida= 0.990


ANALISIS DE MARKOV UNJBG

49


6. MATRIZ DE TRANSICIN


H Fab D APT S
H 0.000 0.999 0.000 0.000 0.001
Fab 0.000 0.000 0.980 0.000 0.020
D 0.000 0.000 0.000 0.987 0.013
APT 0.000 0.000 0.000 0.997 0.003
S 0.010 0.000 0.000 0.000 0.990

Clasificacin de los estados:
Recurrentes:
inf
n=1
f
ii
n
=1
- Absorbentes si p
ii
=1
- Recurrentes nulos u
ii
= inf
- Recurrentes positivos u
ii
< inf
- Ergdico: recurrente positivo aperidico
Transitorio o transiente: si hay alguna probabilidad positiva de no volver all,
inf
n=1
f
ii
n
<1
Estados Efmero: no puede ser alcanzado desde ningn otro estado
J es Accesible, si p
ij
n
>0
Comunicados Si i es accesible desde j
Si j es accesible desde i
Pertenecen a una clase: cadena irreductible
Peridico: tiene periodo
Aperidico: no tiene perido

Utilizando esta tabla mostraremos el comportamiento de la cadena que se est analizando.

7. ACCESIBILIDAD DE LOS ESTADOS

J es Accesible, si p
ij
n
>0
Veamos la matriz original
H Fab D APT S
H 0.000 0.999 0.000 0.000 0.001
Fab 0.000 0.000 0.980 0.000 0.020
ANALISIS DE MARKOV UNJBG

50


D 0.000 0.000 0.000 0.987 0.013
APT 0.000 0.000 0.000 0.997 0.003
S 0.010 0.000 0.000 0.000 0.990
Ahora multipliquemos la matriz original n veces por ella misma y miremos su comportamiento
para P
3072
P
3072
= 0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235

Existe un n=3072 donde los valores de p
ij
n
>0. Esto indica que todos los estados j son
accesibles.

8. COMUNICACIN ENTRE ESTADOS

Los estados se comunican si:
Si i es accesible desde j
Si j es accesible desde i
La matriz P
3072
nos presenta este comportamiento pues todos los estados son accesibles de i a
j o des de j a i por lo tanto todos los estados se comunican.

9. CONCURRENCIA DE LOS ESTADOS

Sea P
T
la transpuesta de la matriz original, elaborada para calcular las probabilidades de
estado estable


P
T
0.000 0.000 0.000 0.000 0.010
0.999 0.000 0.000 0.000 0.000
0.000 0.980 0.000 0.000 0.000
ANALISIS DE MARKOV UNJBG

51


0.000 0.000 0.987 0.997 0.000
0.001 0.020 0.013 0.003 0.990


ANALISIS DE MARKOV UNJBG

52


Representacin matricial de:

j

m
i=0

i
* P
ij j=0
P
ij
n

m
j=0

j
=1
m
j=0

j
=1
R1 R2 R3 R4 R5
R1= 0.000 0.000 0.000 0.000 0.010
R2= 0.999 0.000 0.000 0.000 0.000
R3= 0.000 0.980 0.000 0.000 0.000
R4= 0.000 0.000 0.987 0.997 0.000
R5= 0.001 0.020 0.013 0.003 0.990
1= 1 1 1 1 1


Como tenemos un sistema de 6 ecuaciones para 5 variables eliminamos una de ellas por ser
redundante.
R1 R2 R3 R4 R5
R1= 0.000 0.000 0.000 0.000 0.010
R2= 0.999 0.000 0.000 0.000 0.000
R3= 0.000 0.980 0.000 0.000 0.000
R4= 0.000 0.000 0.987 0.997 0.000
1= 1 1 1 1 1

Al resolver el sistema tenemos las siguientes ecuaciones:
R1= 0.010 R5
R2= 0.999 R1
R3= 0.980 R2
R4= 0.987 R3 0.997 R4
1= 1R1 1R2 1R3 1R4 1R5


R1= 0.002
R2= 0.002
R3= 0.002
R4= 0.758
R5= 0.235

ANALISIS DE MARKOV UNJBG

53


Donde los valores de recurrencia (U) son U
jj j

U Meses
U
11
425.1
U
22
425.5
U
33
434.2
U
44
1.3
U
55
4.3

Los estados Recurrentes positivos presentan u
ii
< inf lo cual cumple para los estados de esta
cadena de Markov.

10. MOSTRAR QUE LOS ESTADOS SON APERIDICOS.

Veamos la matriz n-1 =3071
P
3071
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235

Matriz n=3072
P
3072
= 0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235

Para un n+1 donde n=3072 y n+1=3073 se tiene:
P
3073
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235
0.002 0.002 0.002 0.758 0.235

ANALISIS DE MARKOV UNJBG

54


Se puede observar en las matrices que los valores de las probabilidades en todas las filas
permanecen iguales entre las matrices pares e impares, a dems el sistema a la larga se
estabilizo, lo que demuestra que la matriz es aperidica.


11. TIEMPO DE RECURRENCIA Y PRIMERA OCURRENCIA

Tiempos de recurrencia U
ii
(es el tiempo esperado que gasta el sistema en volver a estar en i
partiendo de i)
U Meses
U
11
425.1
U
22
425.5
U
33
434.2
U
44
1.3
U
55
4.3
Matriz original:
0.000 0.999 0.000 0.000 0.001
0.000 0.000 0.980 0.000 0.020
0.000 0.000 0.000 0.987 0.013
0.000 0.000 0.000 0.997 0.003
0.010 0.000 0.000 0.000 0.990

U
ij

k#j
P
ik
U
kj
U
14
= 1 + P
11
U
14
+ P
12
U
24
+ P
13
U
34
+ P
15
U
54

U
24
= 1 + P
21
U
14
+ P
22
U
24
+ P
23
U
34
+ P
25
U
54

U
34
= 1 + P
31
U
14
+ P
32
U
24
+ P
33
U
34
+ P
35
U
54

U
54
= 1 + P
51
U
14
+ P
52
U
24
+ P
53
U
34
+ P
55
U
54

U
14
= 1+0.999 U
24
+0.001 U
54

U
24
=1+0.980 U
34
+0.02 U
54

ANALISIS DE MARKOV UNJBG

55


U
34
=1+0.013 U
54

U
54
=1+0.010 U
14
+0.990 U
54
Tiempo de primera ocurrencia.
Es tiempo esperado que se gasta para ir del estado i al j
U
14
= 6.46 meses
U
24
= 5.46 meses
U
34
= 2.38 meses
U
54
= 106 meses
En resumen podemos decir que:

A la larga el sistema estar en el estado 4(APT) con una probabilidad de 0.758. Lo que
expresa este trmino es que despus de n transiciones la materia prima estar en APT con una
probabilidad del 75,8%. Y para la materia prima que va a Scrap, a la larga estar en el estado 5
con una probabilidad de 0.235. Lo que indica que la probabilidad a la larga que la materia
prima se vuelva Scrap es del 23.5%.
Ahora el tiempo de recurrencia para que el sistema estando en estado 4(APT) vuelva a este
estado es U
44
= 1.3 meses. En otras palabras, es el tiempo que transcurre para que vuelva
haber producto terminado es 1.3 meses.
En conclusin, se perder mucha materia prima a la larga.


ANALISIS DE MARKOV UNJBG

56





CONCLUSIONES

Primera: Las cadenas de Markov es una herramienta que nos puede ayudar en los negocios
como en analizar los patrones de compra de los consumidores, como en otros aspectos,
aunque esta herramienta no es muy utilizada puede proporcionar informacin importante
cuando es aplicable.
Segunda:

Tercera: El anlisis de Markov puede utilizarse para enfrentar una serie de problemas
prcticos, que incluyen participacin de mercado, condiciones de equilibrio y adems es
utilizado por muchas compaas como ayuda para el anlisis de necesidades de mano de obra
de su grupo de vendedores. Esto es aplicado por muchas reas como Contabilidad,
Administracin, Mercadotecnia y entre otras.









ANALISIS DE MARKOV UNJBG

57


REFERENCIAS
BIBLIOGRAFICAS
- Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la
administracin, Editorial Mc Graw Hill Mexico D.F., 1982
- Robert J. Thierauf; Richard A. Grosse, Toma de Decisiones por medio de la
Investigacin de Operaciones, Editorial LIMUSA S.A. de C.V, Mexico D.F., 1991.
- FINITE MARKOV CHAINS, Kemeny and Snell, Edit. D.Van Nostrand Company Inc.
- APLICATION OF PETRI NETS IN MANUFACTURING SYSTEMS, Desrochers and Al-
jaar, Edit. IEEE PRESS.
- INTRODUCCIN A LA INVESTIGACIN DE OPERACIONES, Hiller and Lieberman,
Edit.Mc Graw Hill.
- LGEBRA LINEAL. Grossman, Edit. Iberoamrica.
- APUNTES DE CLASE, Ing. Carlos Alberto Ossa. UTP.
- ALGUNAS UNIDADES DE INVESTIGACIN DE OPERACIONES, Ing. Csar Jaramillo.
UTP.



ANALISIS DE MARKOV UNJBG

58


CONSULTAS VIRTUALES

http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html
http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdf
http://www.unipamplona.edu.co/unipamplona/portalIG/home_10/recursos/general/documentos/
pdf/16102009/18_ar_carolina_casan.pdf
http://www.infoamerica.org/documentos_pdf/markov.pdf
http://www.ciencia-ahora.cl/Revista20/15MatricesTransicion.pdf
http://ares.unimet.edu.ve/matematica/bpma31/Modelos%20Estocasticos/PROCESOS%20DE%
20MARKOV.doc



ANALISIS DE MARKOV UNJBG

59