Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
( 2 )
k s
i j
k
P P i k P j k
=
=
=
(2)
ij
P
2
P
( ) emesimo elemento de P
n
ij
P n ij =
Por supuesto, para n = O, , as que se debe
escribir
EJEMPLO: BEBIDA
Suponga que toda la industria de bebidas produce solo 2 refrescos. Dado
que una persona la ultima vez compro refresco 1, hay 90% de
probabilidades de que su siguiente compra sea refresco 1. dado que la
ultima compra de una persona fue refresco 2, hay un 80% de probabilidades
de que su siguiente compra se refresco 2.
- Si una persona en la actualidad es comprador de cola 2, cul es la
probabilidad de que compre cola 1 dos veces a partir de ahora?
= = =
0 0
(0) ( | )
ij
P P X j X i
l si j = i
.
0 si j i
(0)
ij
P
=
=
`
)
- Si una persona en la actualidad es comprador de cola 1, cul es la
probabilidad de que compre cola 1 tres ocasiones a partir de ahora?
SOLUCION:
Vemos las compras de cada persona como una cadena de Markov con el
estado, en cualquier tiempo dado, del tipo de cola que compr la persona
en la ltima vez. As, las compras de cada individuo pueden representarse
como una cadena de Markov de dos estados, donde
Estado 1= La persona compr cola del tipo 1 la ltima vez.
Estado 2= La persona compr cola del tipo 2 la ltima vez.
Si se define Xn como el tipo de cola que una persona compra en su n-
sima compra futura (compra actual de cola = Xo), entonces X0, X1, se
podra describir como la cadena de Markov con la siguiente matriz de
transicin:
Ahora se pueden contestar las preguntas 1 y 2.
Se busca P(X2 = 1|X0 = 2) = p21(2) = elemento 2,1 de P 2:
Por consiguiente, P21(2) = .34. Esto significa que la probabilidad de que un
bebedor de cola 2 en el futuro compre dos veces cola l es .34. Mediante la
(
(
(
=
2 1
80 . 20 .
10 . 90 .
2
1
R R
R
R
P
(
=
(
=
66 . 34 .
17 . 83 .
80 . 20 .
10 . 90 .
80 . 20 .
10 . 90 .
2
P
teora de probabilidad bsica, se podra obtener esta respuesta de una
manera distinta (vase la figura 4).
Observe que P21 (2) = (probabilidad de que la siguiente compra sea cola 1 y
la segunda compra sea cola 1) + (probabilidad de que la siguiente compra
sea cola 2 y la segunda compra sea cola1)
= P21P11 + P22P21= (.20)(.90) + (.80)(.20) = .34.
Ahora se busca P11(3) = elemento 11 de P 3 :
Por lo tanto, P11(3) = .781
Probabilidades de Estados Estables.
(
=
(
= =
562 . 438 .
219 . 781 .
66 . 34 .
17 . 83 .
80 . 20 .
10 . 90 .
) (
2 3
P P P
Ahora analizaremos el concepto importante de probabilidades de estado
estable, que se puede usar para describir el comportamiento a largo plazo
de una cadena de Markov.
El resultado es vital para comprender las probabilidades de estado estable y
el comportamiento a largo plazo de las cadenas de Markov.
Sea P la matriz de transicin de una cadena ergdica de estado estable.
Entonces existe un vector = [1 2 s] tal que:
El vector = [1 2 s] se llama distribucin de estado estable, o
distribucin de equilibrio, para la cadena de Marcov. Para una cadena
determinada con matriz de transicin P, cmo se puede hallar la
distribucin de probabilidades de estado estable? A Partir del teorema 1, se
observa que y toda i.
(m + n) = (n) [P]m Lo cual define una relacin de recurrencia, la cual
permite conocer la evolucin del vector de probabilidad de estado en el
instante m, conociendo el vector de probabilidad inicial, hacienda n = 0
t + ~ ~ ( 1) ( )
ij ij j
P n P n
A medida que aumenta el nmero de instantes m, las matrices convergen a
un valor estable, independiente del vector de probabilidad inicial. Por lo
tanto, cuando el sistema llega a un estado j, la probabilidad en estado
estable llegara ser:
Entonces la ecuacin quedara de la siguiente manera.
Ya que con la ecuacin anterior se tendran un nmero infinito de soluciones
debido a que el rango de la matriz P siempre resulta ser menor o igual a s -
1. Para obtener valores nicos de las probabilidades de estado, observe que
para cualquier n y cualquier i.
EJEMPLO: anterior de los refrescos donde P:
Refresco 1 refresco 2
P = refresco 1 0.9 0.1
refresco 2 0.2 0.8
t
(
=
lim
m
j ij
m
P
t t = P
+ + + =
1 2
( ) ( ) ... ( ) 1
i i is
P n P n P n
1
j
j
t =
1 2
=
1 2
0.9 0.1
0.2 0.8
Se considera una seal con amplitud entre 2A y 2A, el cual solo puede
tomar valores mltiplos de A. En cualquier instante n, la seal puede, ya sea
quedarse en el mismo valor, aumentar A o disminuir A. Al asumir que los
cambios tienen igual probabilidad, determine:
- La matriz de transicin de estados.
- La probabilidad de que en el segundo instante, la seal pase el estado A
al estado A.
- La probabilidad de estado de la seal en estado estable.
El diagrama de transicin de estados que se ilustra en la siguiente figura,
determina el proceso de Markov donde:
Luego, la matriz de transicin de estados es igual a:
Para definir las probabilidades de transicin para el segundo instante, se
tiene:
Luego PA,A = 1/9 = 0.111. Ntese que dicha probabilidad puede hallarse
usando la matriz de transicin de estado inicial PA,A = PA,0P0,A = 1/3*1/3
= 0.111. En estado estable se debe satisfacer el sistema de ecuaciones,
dado por 2.26, y eliminando el trmino 5:
Suponga que cada cliente realiza una compra de refresco durante cualquier
semana. Suponiendo que hay 100 mil clientes que consumen refresco. A la
compaa le cuesta 1 dlar producir un refresco y lo vende en 2 dlares. Por
$500 mil al ao, una empresa publicitaria garantiza disminuir de 10 a 5% la
fraccin de clientes de refresco 1que cambian a refresco 2 despus de una
compra. Debe la compaa que fabrica refresco 1 contratar a la empresa
publicitaria?
En la actualidad, una fraccin 1 = 2/3 de las compras de refresco 1. Cada
compra de refresco 1produce a la compaa una ganancia de 1 dlar.
Puesto que hay un total 52(100 000), compras de refresco al ao, ganancia
de la compaa que produce refresco 1 es:
2/3(5 200 000) = $ 3466,666
La compaa publicitaria esta ofreciendo cambiar la matriz P a
Para P, las ecuaciones de estado estable son:
1 = .951 + .202
2 = .051 + .802
Sustituyendo la ecuacin por 1 + 2 = 1 y resolviendo, se obtiene 1 = .80
y 2 = .20. Ahora la ganancia anual de la compaia que produce refresco 1
ser.
0.80 (5 200 000) 500 000 = $ 3`660,000
Por lo tanto, la compaa que produce refresco 1 debe contratar a la agencia
de publicidad.
7. ESTADOS ABSORBENTES.
Refresco 1 refresco 2
P = refresco 1 0.95 0.05
refresco 2 0.2 0.8
Muchas aplicaciones interesantes de las cadenas de markov tienen que ver
con cadenas en las que algunos de los estados son absorbentes y el resto
son estados transitorios. Este tipo de cadena se llama cadena absorbente.
Considere una cadena de markov absorbente; si se comienza en un estado
transitorio, entonces finalmente se esta seguro de salir del estado transitorio
y terminar en uno de los estados absorbentes.
En este formato, los renglones y las columnas de P corresponden (en
orden) a los estados
Aqu I es una matriz identidad de m x m que refleja el hecho de que nunca
se puede dejar un estado absorbente: Q es una matriz de (s m) x (s m)
que representa estados transitorios; R es una matriz de (s m) x m que
representa transiciones a estados absorbentes; 0 es una matriz de m x (s
m) que consiste por completo en ceros. Esto refleja el echo de que es
imposible ir de un estado absorbente a un transitorio.
EJEMPLO: planificacin de fuerza de trabajo.
El bufete jurdico de Mason y Burger emplea tres tipos de abogados:
principiantes, experimentados y asociados. Durante un ao determinado,
hay una probabilidad .15 de que un abogado principiante sea promovido a
experimentado y una probabilidad .05 de que salga de la empresa. Tambin,
hay una probabilidad .20 de que el abogado experimentado sea promovido
asocio y una probabilidad .10 de que salga de la empresa. La probabilidad
de que un asociado salga de la empresa es de .05
1. Cul es el tiempo promedio que un abogado principiante recin
contratado dure trabajando en la empresa?
2. Cul es la probabilidad de que un abogado principiante se convierta
en asociado?
3. Cul es el tiempo promedio que un asociado pasa en la empresa?
Matriz de probabilidades de transicin:
principiante experimentado asociado
sale como no
asociado
sale como
asociado
principiante 0.8 0.15 0 0.05 0
experimentado 0 0.7 0.2 0.1 0
asociado 0 0 0.95 0 0.05
sale como no
asociado
0 0 0 1 0
sale como
asociado
0 0 0 0 1
Solucin:
EJEMPLO: cuentas por cobrar
Suponga que una empresa asume que una cuenta es incobrable si se tiene
ms de tres meses de atraso. Entonces al comienza de cada mes, cada
cuenta se puede clasificar en uno de los siguientes estados:
0.8 0.15 0
Q= 0 0.7 0.2
0 0 0.95
0.05 0
R= 0.1 c0
0 0.05
0.2 -0.15 0
I -Q = 0 0.3 -0.2
0 0 0.05
a1 a2
t1 0.5 0.5
(I-Q)^-1 R= t2 0.33 0.66
t3 0 1
Estado 1 Cuentas nuevas.
Estado 2 El pago de la cuenta tiene un mes de atraso.
Estado 3 El pago de la cuenta tiene dos meses de atraso.
Estado 4 El pago de la cuenta tiene tres meses de atraso.
Estado 5 La cuenta ha sido pagada.
Estado 6 La deuda se borra como deuda incobrable.
Los datos se muestran en la siguiente cadena de markov
- Cual es la probabilidad de que finalmente se cobre una cuenta nueva?
- Cul es la probabilidad de una cuenta de un mes de retraso en algn
momento sea una deuda incobrable?
Matriz de probabilidad de transicin
Solucin:
nueva 1 mes 2 meses 3 meses pagada incobrable
nueva 0 0.6 0 0 0.4 0
1 mes 0 0 0.5 0 0.5 0
2 meses 0 0 0 0.4 0.6 0
3 meses 0 0 0 0 0.7 0.3
pagada 0 0 0 0 1 0
deuda
incobrable
0 0 0 0 0 1
0 0.6 0 0
0 0 0.5 0
Q= 0 0 0 0.4
0 0 0 0
0.4 0
0.5 0
R= 0.6 0
0.7 0.3
Interpretacin:
1. As, finalmente de que se cobre una cuenta nueva es de = .964 el
96%.
2. Por consiguiente, la probabilidad de una cuenta con un mes de
retraso se convierta en una deuda incobrable es de = .06
8. LA CADENA DE MARKOV Y SU FUNCIN EMPRESARIAL.
En ocasiones resulta complicado determinar cual va a ser la evolucin de
ciertos aspectos empresariales sujetos a variaciones constantes. Esto puede
dificultar la adecuacin de esfuerzos econmicos y de personal, entre otros.
Una manera diferente de controlar ciertos factores de la gestin de un
negocio es realizar aproximaciones o previsiones en base a la utilizacin de
cadenas de Markov. No es un mtodo totalmente exacto pero si til para
previsiones a largo o muy largo plazo.
t1 t2 t3 t4
t1 1 0.6 0.3 0.12
(I - Q)^-1= t2 0 1 0.5 0.2
t3 0 0 1 0.4
t4 0 0 0 1
a1 a2
t1 0.964 0.036
(I - Q)^-1 R = t2 0.94 0.06
t3 0.88 0.12
t4 0.7 0.3
A diferencia del mtodo clsico de utilizar el ao inmediatamente anterior
como gua, la cadena de Markov utiliza todos los estados anteriores para
determinar una evolucin ms realista de lo que cabe esperar de los
prximos ejercicios. Es una tcnica curiosa aunque algo complicada para
quien no domine la materia.
Toda consecucin numrica cuando se repite tiende a descubrir cifras
relevantes y patrones. Dado el gran nmero y variedad de cifras existente en
los balances lo mejor es realizar el estudio en base a los ratios. Esto
descubre ms posibilidades pues tambin podemos utilizar los ratios de
RRHH, que cuantifican valores cualitativos y miden factores humanos.
Es posible aplicar este principio a campos tan diferentes como la
meteorologa, astrologa, biologa o a las empresas (entre otras muchas
reas, por supuesto).
En lo que nos interesa, se ha aplicado para analizar patrones de morosidad,
necesidades de personal, prever defectos en maquinaria, etc.
Una manera diferente de controlar ciertos factores de la gestin de un
negocio es realizar aproximaciones o previsiones en base a la utilizacin de
cadenas de Markov. No es un mtodo totalmente exacto pero si til para
previsiones a largo o muy largo plazo.
El problema de estas cadenas radica en la dificultad de su clculo en casos
donde el nmero de estados es muy grande (por eso recomiendo realizarlo
en base a ratios relevantes) y en la bsqueda de factores que respondan a
las propiedades markovianas.
Adems, requiere de personal cualificado para crear un sistema eficiente
para esos casos. Para ello se puede hablar con un informtico ya que
deber realizarse una base de datos y este deber estudiar las frmulas
para aplicarlas de la mejor manera posible.
REFERENCIAS BIBLIOGRFICAS
LIBROS:
HAMDY A Taha
Investigacin de Operaciones 7 Edicion 2004
CRDOVA, Manuel
2006 Estadstica Aplicada. Primera Edicin
Per: Editorial Moshera.
DUGAS, R.
1976 La matemtica, objeto de cultura y herramienta de trabajo
Espaa: Editorial Gustavo Gili
EVANS, M. & ROSENTHAL, J.
2005 Probabilidad y Estadstica: La ciencia de la Incertidumbre
Espaa: Editorial Revert.
GORDON, Patrick
1997 Cadenas finitas de Markov y sus aplicaciones.
Primera Edicin. Traducido por: TRILLAS, Enrique y BONET,
Eduardo. Espaa: Hispano Europea.
HILLIER, Frederick y LIEBERMAN, Gerald
2006 Introduccin a la Investigacin de Operaciones.
Octava Edicin Traducido por: MURRIETA, Jess. Mxico:
McGraw-Hill Interamericana.
KERNINGHAN, B.
2004 The Practice of Programming
Indianapolis: Pearson Education
WINSTON, Wayne
2005 Investigacin Operativa Aplicaciones y Algoritmos.
Cuarta Edicin. Traducido por: VELASCO, Adolfo. Mxico: Thompson.
BOLETN DE LA SOCIEDAD DE ESTADSTICA E INVESTIGACIN
OPERATIVA DE LA UNIVERSIDAD COMPLUTENSE
2006 Andrei Markov (1856-1922) en el 150 Aniversario de su
Nacimiento. Madrid, volumen 22, pp.4, 7-8.
MATERIAL DE ENSEANZA:
FERNANDEZ BONILLA, Lino
Mtodos cuantitativos para negocios II Primera Edicin.
UNCP-FACAP-2009
LPEZ, Ezequiel
Cadenas de Markov. Departamento de Ciencias y Lenguajes de
Comunicacin de la Universidad de Mlaga. 14 de diciembre del 2012.
www.lcc.uma.es/~ezeqlr/ios/Tema4.ppt
RODRIGUEZ, Teodoro
2002 Procesos Estocsticos. Introduccin a los mtodos estadsticos,
numricos y probabilsticos. Portal Colegio Maristas Cristo Rey.
Espaa. Consulta: 14 de diciembre del 2012.
<http://centros.edu.aytolacoruna.es/maristas/Apuntes%20Estadisti
ca%20P3.pdf>
PGINAS WEB:
EDICIONES UPC
2002 Cadenas de Markov. Consulta: 10 de diciembre del 2012.
<http://www.edicionsupc.es/ftppublic/pdfmostra/OE03502M.pdf>
INFOAMRICA.ORG
s/a Biografa Andrei Markov. 10 de diciembre del 2012.
<http://www.infoamerica.org/teoria/markov1.htm>
LABORATORIO DE CMPUTO
2005 Cadenas Ocultas de Markov. 10 de diciembre del 2012.
<http://www.alumnos.inf.utfsm.cl/~ntroncos/files/publish/hmm.pdf>
PLANETA SEDNA
La Divina Proporcin. Consulta: 10 de diciembre del 2012.
<http://www.portalplanetasedna.com.ar/divina_proporcion.htm>
MICROSIERVOS
2008 Fractales Imposibles. 10 de diciembre del 2012.
<http://www.microsiervos.com/archivo/arte-y-diseno/fractalesimposibles.
html>
MIT
2003 Modelos Ocultos de Markov. Consulta: 10 de diciembre del 2012.
<http://mit.ocw.universia.net/6.345/NR/rdonlyres/Electrical-
Engineering-and-Computer-Science/6-345Automatic-Speech-
RecognitionSpring2003/4C063D4A-3B8B-4F05-B475-
85AAD0D66586/0/lecture10.pdf>
UNAM
Procesos Estocsticos. Consulta: 10 de diciembre del 2012.
<http://verona.fi-p.unam.mx/boris/teachingnotes/estocasticos.pdf>